北京智源人工智能研究院院長(zhǎng)王仲遠(yuǎn)新京報(bào)貝殼財(cái)經(jīng)訊(記者陳維城)7月3日下午,在2024新京報(bào)貝殼財(cái)經(jīng)年會(huì)“‘通’往未來(lái),,向新有AI”論壇上,,北京智源人工智能研究院院長(zhǎng)王仲遠(yuǎn)介紹,,以2023年作為新的拐點(diǎn),大模型從實(shí)驗(yàn)室走向產(chǎn)業(yè)為標(biāo)志,,有可能推動(dòng)人工智能向通用人工智能方向演進(jìn),。“以2023年為界,,過(guò)去的人工智能發(fā)展歷程可以稱之為弱人工智能,,即人工智能只能針對(duì)特定場(chǎng)景,特定任務(wù)解決問(wèn)題,,如AlphaGo戰(zhàn)勝世界圍棋冠軍,,但不能解決醫(yī)療問(wèn)題和自動(dòng)駕駛問(wèn)題?!蓖踔龠h(yuǎn)解釋,。王仲遠(yuǎn)表示,,2023年之后,,以大模型進(jìn)入產(chǎn)業(yè)落地為標(biāo)志,有可能推動(dòng)人工智能向通用人工智能方向演進(jìn),。在過(guò)去七八十年人工智能發(fā)展的歷程中,可以看到每一次人工智能新浪潮的產(chǎn)生,,都是以模型參數(shù)量,、訓(xùn)練樣本量和算力躍升帶來(lái)的人工智能重大發(fā)展。王仲遠(yuǎn)提到,,過(guò)去幾年,,大模型的參數(shù)量迅速增長(zhǎng), 2020年ChatGPT3是1750億參數(shù),,與人腦神經(jīng)突觸差1000倍,;去年的ChatGPT4已經(jīng)縮小到100倍。 大模型參數(shù)越來(lái)越接近人腦參數(shù)(神經(jīng)突觸)規(guī)模,。面向未來(lái),,大模型技術(shù)持續(xù)迭代演進(jìn)。王仲遠(yuǎn)介紹,,除了文本數(shù)據(jù)之外,,視頻、圖像,、音頻可能是文本數(shù)據(jù)的十倍百倍,,意味著大模型的發(fā)展遠(yuǎn)沒(méi)到盡頭。針對(duì)語(yǔ)言大模型幻覺(jué)問(wèn)題,,智源研究院自主研發(fā)了通用語(yǔ)義向量模型BGE系列,基于檢索增強(qiáng)RAG技術(shù),,實(shí)現(xiàn)數(shù)據(jù)之間精準(zhǔn)的語(yǔ)義匹配,支持大模型調(diào)用外部知識(shí)的調(diào)用,?!懊嫦蛭磥?lái),視覺(jué)和多模態(tài)大模型亟待突破,。為了實(shí)現(xiàn)多模態(tài),、統(tǒng)一、端到端的下一代大模型,,智源研究院推出了Emu3原生多模態(tài)世界模型,。Emu3采用智源自研的多模態(tài)自回歸技術(shù)路徑,,在圖像、視頻,、文字上聯(lián)合訓(xùn)練,,使模型具備原生多模態(tài)能力,實(shí)現(xiàn)了圖像,、視頻,、文字的統(tǒng)一輸入和輸出?!蓖踔龠h(yuǎn)介紹,。校對(duì) 柳寶慶
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1111113.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。