原文來源:機器之能
圖片來源:由無界 AI生成
AI 正在超越人類,。上周,,英偉達 CEO 黃仁勛本在《紐約時報》年度 DealBook 峰會上宣稱。
如果將通用人工智能 ( AGI ) 定義為能夠以與人類智能「相當有競爭力」的方式完成測試的計算機,那么,,「在未來五年內(nèi),,我們將會看到這樣的 AI ?!?/p>
話音落下不久,,Meta 首席人工智能科學家、深度學習先驅(qū),、圖靈獎得主 LeCun 就在公開場合反駁了黃仁勛的說法,。
在上周紀念 Meta?基礎(chǔ)人工智能研究團隊(?FAIR?)成立 10 周年的活動中,,LeCun 重申了他對 AI 在不久將來達到先進或人類水平智能的懷疑。
「我認識黃仁勛」,,他說,。「如果說 AI 是一場戰(zhàn)爭,,他們就是在提供戰(zhàn)爭需要的武器,。」很明顯,,LeCun 是指英偉達可以從 AI ?炒作中賺取巨額利潤,。
「如果你認為 AGI 已經(jīng)是大勢所趨,你就必須購買更多的 GPU,?!埂钢灰?OpenAI 等公司的研究人員繼續(xù)追求 AGI,他們就需要更多英偉達的芯片,?!?/p>
LeCun 認為,未來幾年,,AI 更有可能變得像「貓」或「狗」一樣聰明,。
按照這個說法,,即使最樂觀地按邊牧(目前最聰明的狗)來算,,AI 也只有 6-8 歲孩子的智力水平,。
ChatGPT 對大型語言模型迷戀和倚重的出發(fā)點在于,,研究人員相信被用來訓練基礎(chǔ)大模型的語言是一種非常特殊的信息來源,。
與聲音、光,、震動等直接的物理信息不同,語言的信息異常密集,,它以字節(jié)為單位,將人類對這個世界重要認知都編碼進來,,因此也是最為有效的數(shù)據(jù)之一,。任何試圖理解這個世界的智能體都希望更多地吸收語言,。
「假如你想變得非常擅長預測下一個單詞,真想做好的話,,就得明白別人在說什么,。這是唯一的辦法。所以,,通過訓練一些東西,,讓它非常擅長預測下一個單詞,你實際上是在強迫它理解,。」
深度學習之父 Hinton 在《紐約客》專訪時解釋過他為什么擔心 AI ,。系統(tǒng)學會了「自動補全」,「但你沒有想清楚擁有一個真正好的自動補全意味著什么,。」
比如,,驅(qū)動 OpenAI 聊天機器人的 GPT 可以理解單詞和想法的含義,。他解釋說,,通過分析人類寫作,像 GPT 這樣的大型語言模型可以學習世界是如何運作的,,從而產(chǎn)生一個能夠思考的系統(tǒng),。
「這就像毛毛蟲變成蝴蝶,。」他比喻道,,幼蟲代表訓練模型的數(shù)據(jù),,蝴蝶代表著從數(shù)據(jù)中創(chuàng)造的 AI 。
但 Le Cun 并不認同。「文本是一個非常糟糕的信息來源,,」他解釋說,人類可能需要 2 萬年才能閱讀完目前用于訓練現(xiàn)代語言模型的文本體量,。
「用相當于兩萬年的閱讀材料來訓練一個系統(tǒng),它們?nèi)匀徊幻靼?,如?A 和 B 相同,那么,,B 和 A 也相同,?!?/p>
目前,,大家對語言模型和文本數(shù)據(jù)的關(guān)注,并不足以創(chuàng)造出研究人員幾十年來一直夢想的那種先進的類人 AI 系統(tǒng)。
早在 6 月,,LeCun 就在 ?Viva Tech 大會上就表達過類似的觀點,像 ChatGPT 這樣經(jīng)過大型語言模型訓練的 AI 甚至不如狗或貓聰明,,它的能力是「有限的」,。
他解釋說,AI 接受過語言訓練,,所以能通過律師資格考試,,但它不知道怎么把盤子放進洗碗機——這是 10?歲孩子都會的事。
這些系統(tǒng)仍然非常有限,,它們對現(xiàn)實世界的根本現(xiàn)實沒有任何了解,因為它們純粹是接受大量文本的訓練,。他當時說道,,「大多數(shù)人類知識與語言無關(guān)……因此 AI 無法捕捉到人類的部分經(jīng)驗。」
在上周的10 周年紀念活動中,,LeCun 重申,,「還有關(guān)于這個世界更為基礎(chǔ)性的東西,,但這些模型沒有通過它們得到訓練?!?/p>
需要說明的是,,LeCun 也聲明自己并非懷疑論者, 「我總是說,,人類水平 AI 可以在幾十年內(nèi)實現(xiàn),。」如果我認為不能在未來十年取得重大進展,,我就不會有今天的成就,。
但 LeCun ?強調(diào),實現(xiàn)這一點比大多數(shù)人想象的要難,,并非 「指日可待」,。
我所說的「并非指日可待」,是指「顯然『不會在未來 5 年內(nèi)實現(xiàn)』,,這與 AI 行業(yè)許多人的看法相反,。」
而且,,他和 Meta 也不會用強化學習( RL )來解決這個問題,。自監(jiān)督學習( SSL )、世界模型和規(guī)劃將是實現(xiàn)人類水平 AI 的關(guān)鍵,。
因此,,LeCun 和其他 Meta AI 高管一直在深入研究如何實現(xiàn) transformer 模型的定制化,,以處理各種數(shù)據(jù),包括音頻,、圖像和視頻信息,。
他們認為,這些 AI 系統(tǒng)越能發(fā)現(xiàn)這些不同類型數(shù)據(jù)之間可能隱藏的數(shù)十億個相關(guān)性,,越有可能實現(xiàn)更奇妙的壯舉,。
他們現(xiàn)在的一些研究包括人們戴上數(shù)字增強現(xiàn)實眼鏡后,如何更好學習打網(wǎng)球的軟件,。比如,,用戶能夠看到視覺提示,告訴他怎么正確握住球拍,,完美擺動手臂,。
驅(qū)動這類數(shù)字網(wǎng)球助手,需要各種 AI 模型——不僅需要處理文本和音頻,,還需要混合三維視覺數(shù)據(jù),。
這些所謂的多模態(tài) AI 系統(tǒng)代表了下一個前沿領(lǐng)域,,但它們的發(fā)展并不便宜。即便是 Meta 也需要 16,000 個 Nvidia A100 GPU 來訓練 Llama ,。
未來他們也要繼續(xù)開發(fā)這些復雜的 AI 模型,。對此,LeCun 表示 GPU 仍然是 AI 的黃金標準,。不過,,未來的計算機芯片可能不會被稱為 GPU,他說,。
「你將看到新的芯片,,它們不是圖形處理單元( GPU ),而只是神經(jīng)的深度學習加速器(neural, deep learning accelerators),?!?/p>
參考鏈接:
https://www.cnbc.com/2023/12/03/meta-ai-chief-yann-lecun-skeptical-about-agi-quantum-computing.html?
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1081846.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。