財(cái)聯(lián)社5月20日訊(編輯 周子意)全球諸多科技公司已經(jīng)砸下數(shù)百億美元來(lái)構(gòu)建各種大型語(yǔ)言模型,為生成式人工智能產(chǎn)品提供動(dòng)力,,而如今,,這些公司開(kāi)始寄望于一種推動(dòng)收入增長(zhǎng)的新方式——小型語(yǔ)言模型。
小型語(yǔ)言模型的參數(shù)相較于大型語(yǔ)言模型少很多,,但仍然具有強(qiáng)大的功能,。微軟、Meta和谷歌近期都發(fā)布了新的人工智能小參數(shù)模型。
通常來(lái)說(shuō),,參數(shù)的數(shù)量越多,,人工智能軟件的性能就越好,它所能執(zhí)行的任務(wù)就越復(fù)雜和巧妙,。上周,,OpenAI公司新宣布的最新模型GPT-4o和谷歌的Gemini 1.5 Pro估計(jì)擁有超過(guò)1萬(wàn)億參數(shù),而Meta的開(kāi)源Llama模型約有4000億參數(shù),。
不過(guò),,運(yùn)行大型語(yǔ)言模型所需的計(jì)算能力龐大,也就意味著成本高昂,。除了難以說(shuō)服一些企業(yè)客戶(hù)支付大筆運(yùn)營(yíng)費(fèi)用外,,數(shù)據(jù)和版權(quán)問(wèn)題也成了人工智能產(chǎn)品使用的阻礙。
替代方案
一些科技公司目前正在將只有幾十億個(gè)參數(shù)的小型語(yǔ)言模型視為更便宜,、更節(jié)能,、可定制的替代方案進(jìn)行宣傳。這些模型可以用更少的電力來(lái)訓(xùn)練和運(yùn)行,,并且還可以保護(hù)敏感數(shù)據(jù),。
谷歌、Meta,、微軟和法國(guó)初創(chuàng)公司Mistral已陸續(xù)發(fā)布了各自的小型語(yǔ)言模型,,這些模型顯示出先進(jìn)的功能,并且可以更好地專(zhuān)注于特定的應(yīng)用功能,。
Meta全球事務(wù)總裁Nick Clegg直言,,Llama 3最新的80億參數(shù)模型可與GPT-4媲美。他指出,,“我認(rèn)為,,在你能想到的幾乎所有衡量標(biāo)準(zhǔn)中,你都看到了卓越的表現(xiàn),?!?/p>
微軟則表示,其擁有70億個(gè)參數(shù)的Phi -3小型模型的性能優(yōu)于OpenAI模型的早期版本GPT-3.5,。
微軟Azure人工智能平臺(tái)的副總裁Eric Boyd表示,,“通過(guò)以更低的成本獲得如此高的質(zhì)量,你實(shí)際上為客戶(hù)提供了更多的應(yīng)用程序,,讓他們可以做一些令人望而卻步的事情,?!?/p>
Boyd還指出,“更小的型號(hào)將帶來(lái)有趣的應(yīng)用,,并且能夠延伸到手機(jī)和筆記本電腦”,。
小型模型另外的一大優(yōu)勢(shì)就是可以在設(shè)備上“本地”處理任務(wù),而不是將信息發(fā)送到云端,,這一點(diǎn)可能會(huì)吸引那些注重信息隱私的客戶(hù),。
目前,谷歌最新的Pixel手機(jī)和三星最新的S24智能手機(jī)中已嵌入了谷歌的“Gemini Nano”模型,;蘋(píng)果公司也暗示它也在開(kāi)發(fā)AI模型,,以運(yùn)行iPhone上。上個(gè)月,,蘋(píng)果發(fā)布了OpenELM模型,,這是一個(gè)小型模型,旨在執(zhí)行基于文本的任務(wù),。
(財(cái)聯(lián)社 周子意)
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1103279.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。