
AI大模型是人工智能邁向通用智能的里程碑技術(shù),。它的出現(xiàn),,讓很多產(chǎn)業(yè)人士認(rèn)為這項(xiàng)技術(shù)會改變信息產(chǎn)業(yè)格局,即基于數(shù)據(jù)的互聯(lián)網(wǎng)時(shí)代和基于算力的云計(jì)算時(shí)代之后,將進(jìn)入基于大模型的AI時(shí)代,。
而AIGC的快速迭代演變,讓AI大模型技術(shù)席卷全球,,成為最炙手可熱的技術(shù)之一,。從國外的谷歌、微軟,、英偉達(dá),,到國內(nèi)的阿里、百度,,都在不遺余力布局AI大模型,。
可以說,作為近年來最為熱門的AI細(xì)分領(lǐng)域 ,,AI大模型是人工智能邁向通用智能的里程碑技術(shù),。它的出現(xiàn),讓很多產(chǎn)業(yè)人士認(rèn)為這項(xiàng)技術(shù)會改變信息產(chǎn)業(yè)格局,,即基于數(shù)據(jù)的互聯(lián)網(wǎng)時(shí)代和基于算力的云計(jì)算時(shí)代之后,,將進(jìn)入基于大模型的AI時(shí)代。
那么,,究竟什么是AI大模型,?它是如何發(fā)展起來的,經(jīng)歷過哪些過程,?其產(chǎn)業(yè)應(yīng)用價(jià)值又有多少?今天,,《中國科技信息》將一一作出解答,。
“大數(shù)據(jù)+大算力+強(qiáng)算法”結(jié)合的產(chǎn)物
AI大模型是“大數(shù)據(jù)+大算力+強(qiáng)算法”結(jié)合的產(chǎn)物,凝聚了大數(shù)據(jù)內(nèi)在精華的“隱式知識庫”。包含了“預(yù)訓(xùn)練”和“大模型”兩層含義,,即模型在大規(guī)模數(shù)據(jù)集上完成了預(yù)訓(xùn)練后無需微調(diào),,或僅需要少量數(shù)據(jù)的微調(diào),就能直接支撐各類應(yīng)用,。
簡單來說,,就是在大數(shù)據(jù)的支持下進(jìn)行訓(xùn)練,學(xué)習(xí)出一些特征和規(guī)則,,微調(diào)后應(yīng)用在各場景任務(wù)中,。目前,其主要在自然語言處理,、計(jì)算機(jī)視覺,、語音識別等領(lǐng)域得到廣泛應(yīng)用。
從參數(shù)規(guī)模上看,,AI大模型先后經(jīng)歷了預(yù)訓(xùn)練模型,、大規(guī)模預(yù)訓(xùn)練模型、超大規(guī)模預(yù)訓(xùn)練模型三個(gè)階段,,參數(shù)量實(shí)現(xiàn)了從億級到百萬億級的突破,;從模態(tài)支持上看,AI大模型從支持圖片,、圖像,、文本、語音單一模態(tài)下的單一任務(wù),,逐漸發(fā)展為支持多種模態(tài)下的多種任務(wù),。
可以說,AI大模型更像是AI發(fā)展到一定階段的一個(gè)集大成者,,將過去多年出現(xiàn)的各種AI技術(shù)綜合運(yùn)用,,再輔以優(yōu)秀的數(shù)據(jù)和足夠的算力,在自然語言處理,、圖像識別,、語音識別等領(lǐng)域取得了顯著的成果。當(dāng)前,,AI大模型的發(fā)展正從以不同模態(tài)數(shù)據(jù)為基礎(chǔ)過渡到與知識,、可解釋性、學(xué)習(xí)理論等方面相結(jié)合,,呈現(xiàn)出全面發(fā)力,、多點(diǎn)開花的新格局。
極高的計(jì)算和存儲需求令人“喜憂參半”
在AI大模型興起之前,,AI模型基本上都是對特定應(yīng)用場景需求進(jìn)行訓(xùn)練的,,即小模型,。它屬于傳統(tǒng)的定制化、作坊式的模型開發(fā)方式,。這也意味著除了需要優(yōu)秀的產(chǎn)品經(jīng)理準(zhǔn)確確定需求之外,,還需要AI研發(fā)人員扎實(shí)的專業(yè)知識和協(xié)同合作能力完成大量復(fù)雜的工作。這就導(dǎo)致了模型無法復(fù)用和積累,,使得AI落地的高門檻,、高成本與低效率。
而大模型在研發(fā)時(shí)就具備了更標(biāo)準(zhǔn)化的流程,,它通過從海量的、多類型的場景數(shù)據(jù)中學(xué)習(xí),,并總結(jié)不同場景,、不同業(yè)務(wù)下的通用能力,學(xué)習(xí)出一種特征和規(guī)則,,成為具有泛化能力的模型底座,。
不過,這個(gè)AI大模型“引以為傲”的優(yōu)勢,,也成為了它飽受爭議的焦點(diǎn),。一方面,因?yàn)锳I大模型具有很高的計(jì)算和存儲需求,,需要使用極為強(qiáng)大的計(jì)算設(shè)備和高效的算法才能訓(xùn)練和應(yīng)用,,所以參數(shù)量一般可以達(dá)到驚人的數(shù)十億或者數(shù)千億。
例如OpenAI的GPT系列,,最開始的GPT-1擁有1.17億個(gè)參數(shù),,到GPT-3的參數(shù)已經(jīng)到達(dá)1750億個(gè),最新的GPT-4沒有給出具體的參數(shù)量,,但根據(jù)推測,,它或?qū)⒔咏f億。而 Google 的 AlphaGo 模型則具有超過 1 億個(gè)參數(shù),。對此,,一些研究人員正在尋找更加高效和環(huán)保的方法來訓(xùn)練大模型,例如使用低功耗芯片,、開發(fā)更高效的算法和優(yōu)化訓(xùn)練流程等,。
另一方面,大模型的部署也需要考慮到實(shí)際應(yīng)用中的資源限制和延遲要求,。一些研究人員正在研究如何在保持模型性能的同時(shí),,減少模型的大小和計(jì)算量,以便更好地適應(yīng)實(shí)際應(yīng)用的需求,。
總之,,大模型的發(fā)展帶來了更加精準(zhǔn)和高效的機(jī)器學(xué)習(xí)和人工智能應(yīng)用,,但也需要在計(jì)算資源、環(huán)境和應(yīng)用場景等方面進(jìn)行綜合考慮和優(yōu)化,。因此,大模型的開發(fā)和應(yīng)用通常需要大型公司,、研究機(jī)構(gòu)或者富有的個(gè)人等擁有足夠的資源來支持,。
全球AI大模型生態(tài)競爭“熱火朝天”
有人說,人工智能的下一階段競爭是大模型的生態(tài)競爭,。國際上,,谷歌、微軟,、Facebook,、OpenAI 等科技巨頭紛紛推出了各自的 AI 大模型,如 GPT-3,、BERT,、T5、DALL-E 等,,它們在自然語言處理(NLP),、計(jì)算機(jī)視覺(CV)、多模態(tài)融合等領(lǐng)域取得了令人矚目的成果,,展現(xiàn)出了強(qiáng)大的智能能力和廣闊的應(yīng)用前景,。
而拋開已經(jīng)在AI大模型研發(fā)和應(yīng)用已經(jīng)趨于成熟的國際企業(yè),,我國企業(yè)在該領(lǐng)域也呈現(xiàn)一片“熱火朝天”景象,。
在2021年,華為發(fā)布了首個(gè)中文千億級的盤古模型,,進(jìn)一步增強(qiáng)中文大模型研究影響力,;中科院自動(dòng)化所提出首個(gè)三模態(tài)的紫東太初模型,預(yù)示著AI大模型進(jìn)一步走向通用場景,;百度在2022年發(fā)布10個(gè)產(chǎn)業(yè)級知識增強(qiáng)的ERNIE模型,,全面涵蓋基礎(chǔ)大模型、任務(wù)大模型,、行業(yè)大模型,。
不僅如此,阿里的“M6”,、騰訊的“混元”,、中科院自動(dòng)化所的“紫東太初”、百度和鵬城實(shí)驗(yàn)室的“ERNIW 3.0 Titan”,、清華大學(xué)的“八卦爐”等,。其中參數(shù)規(guī)模超過千億的華為云的“盤古”大模型同樣值得關(guān)注,。
可以說,大模型的真正意義在于改變了 AI 模型的開發(fā)模式,,將模型的生產(chǎn)由“作坊式”升級為“流水線”,。而模型開發(fā)模式的轉(zhuǎn)變,使得 AI 技術(shù)在落地時(shí)擁有更強(qiáng)的通用性,,可以泛化到多種應(yīng)用場景,。由此利用大模型的通用能力可以有效應(yīng)對多樣化、碎片化的AI應(yīng)用需求,,為實(shí)現(xiàn)規(guī)模推廣AI落地應(yīng)用提供可能,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1012833.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。