編者按:被 OpenAI 的 Superalignment 研究團隊解雇的 Leopold Aschenbrenner 最近發(fā)表了一篇關(guān)于人工智能的長篇大作,,里面宣稱根據(jù)他的曲線預(yù)測,人類到2027年就能實現(xiàn)通用人工智能,。本文是對這一預(yù)測的討論。文章來自編譯,。
搞人工智能的人存在著兩個重大分歧。一種是認為這種技術(shù)屬于真正有用的迭代性改進,,可實現(xiàn)軟件的新用例,。人工智能會是下一個云計算,下一個智能手機,。
另一方觀點就要極端得多,。他們相信人工智能終有一天會變成通用人工智能 (AGI),然后不斷自我完善,,達到比我們聰明 10 倍的程度,。但何時會實現(xiàn)這一點仍存在爭議。AGI究竟會毀了我們還是會賦予我們力量也存在爭議,。這項技術(shù)會如何自我完善也存在爭議,。但這股信念實在是太堅定了,,以至于每個人工智能研究小組都至少會有幾個追隨者,。
就算你跟當今大多數(shù)投資者和創(chuàng)始人一樣,斷然否認第二種情況,,其有效性也是值得思考的,。因為全球某些最大型的公司都認為這是真的。埃隆·馬斯克相信,,我們會在不到兩年的時間內(nèi)擁有 AGI,。微軟正在制定計劃,要打造一臺價值 1000 億美元的超級計算機,,好去開發(fā)足夠大的 AGI 模型,,并計劃在約六年內(nèi)完成,。全世界最重要的人工智能公司——OpenAI、Google DeepMind,、Anthropic——都把 AGI 作為自己的明確使命,。
今天之所以要討論這個話題,是因為這張圖,。此圖摘自最近被 OpenAI 的 Superalignment 研究團隊解雇的 Leopold Aschenbrenner 的系列長文(長達 165 頁),。該系列文章的標題叫做“情境感知”( Situational Awareness),他論證了為什么第二組是正確的,,以及我們應(yīng)該怎么做,。
這張圖表的基本觀點:前幾代 LLM 的能力均呈現(xiàn)出可預(yù)測的對數(shù)增長,。只要把訓練的投資增加 10 倍,,LLM 的能力就會出現(xiàn)可預(yù)測的大幅飛躍。Aschebrenner 認為,,我們距離人工智能能夠進行人工智能研究(從而不斷自我改進)還有約兩到三個數(shù)量級(OOM)的投資距離,。他說,只要培養(yǎng)出“一億個自主的機器學習研究人員”就能夠做到這一點,。當然,!為什么不呢?
Aschenbrenner 選擇通過播客采訪以及大量的 Twitter 帖子來發(fā)表這些文章,,這背后有他自己的動機,。在我看來,這篇文章就像一位被拋棄的情人試圖奪回自己失去的東西——也就是在被 OpenAI 解雇后重新奪回自己在人工智能社區(qū)的權(quán)威地位,。他有雙重動機想要用這些文章來引起轟動,,因為他“最近成立了一家專注于 AGI 的投資公司,公司的主要投資人包括 Patrick Collison,、John Collison,、Nat Friedman 以及 Daniel Gross?!保ň吞岣呷藗儗ν顿Y工具的興趣而言,,在線 PDF 的有效性高得令人驚訝。)
他對自己的觀點很有信心,,甚至向我這樣的技術(shù)股票分析師發(fā)出了挑戰(zhàn),,稱“幾乎沒人在分析時對人工智能的未來給予了充分考慮?!笔紫?,這很無禮。其次,,他的話也許是對的,。如果超人的智能真的將在三年內(nèi)實現(xiàn)的話,,那我一直在做的那些五年期的財務(wù)模型可能就是一張廢紙。至少,,他的文章提供了一個有用的框架工具,,可以用來檢驗對 AGI 的看法。從本質(zhì)上來說,,他的論點建立在三個系列假設(shè)之上,。
AGI 的三個杠桿
我們從圖表的 Y 軸開始:“有效計算”( Effective Compute)。這個標簽用三種不同的方式總結(jié)了 LLM 的改進和投資:
-
計算:“用來訓練這些模型的計算機”的大小,,也就是使用了多少個 GPU
-
算法效率:技巧的質(zhì)量改進使得這些模型的訓練更加高效和強大
-
“解除束縛”的收益:我們所開發(fā)的,,賦予了 LLM 額外力量的工具和技術(shù)(如瀏覽互聯(lián)網(wǎng))
你應(yīng)該可以注意到,這三個變量當中只有一個是數(shù)字型,,并且可以很好地用電子表格跟蹤 — 也就是計算,,或者說有多少 GPU 在用。算法效率和“解除束縛”是對持續(xù)取得科學突破押注,,不是對資本支出押注,。
但這并不能否定Aschenbrenner的計算!這種持續(xù)突破有過先例,。經(jīng)常被引用的摩爾定律既有賴于對芯片制造商明確的可量化的投資,,也有賴于晶體管技術(shù)完全無法量化的科學突破。Aschenbrenner主張摩爾定律得改一下,,要考慮到 GPU 芯片計算機的 OOM 收益以及科學突破促進了人工智能能力的提升,,這是必不可少的。
他的證據(jù)是,,到目前為止,,有效計算每提升一個數(shù)量級,模型都會“可預(yù)測地,、可靠地”變得更好,。視頻生成就是這種情況:
GPT 系列模型也取得了類似的跳躍式改進,,現(xiàn)在它們在標準化測試的表現(xiàn)可以超越絕大多數(shù)人類,。
這些模型已經(jīng)強大到大多數(shù)的基準測試都沒什么用了,。它們變得太聰明了,,已經(jīng)測不出它們的水平,。鑒于目前投入到人工智能領(lǐng)域的人才與資本的數(shù)量,,至少在未來幾年內(nèi),模型繼續(xù)取得改進是合理的預(yù)期,。至少,,如果英偉達 3 萬億美元的市值算是跡象之一的話,,我們知道計算還會繼續(xù)擴大規(guī)模。
到目前為止一切順利,。我們可能正走在通往 AGI 的道路上,。不過,我對 Aschenbrenner 的第三種“解除束縛”有很大異議,。
杠桿的無效之處
Aschenbrenner 的前兩類主要集中在我所謂的“讓模型變得更智能”的改進上,。從 GPT2 到 GPT4,每提高一個數(shù)量級都讓 LLM 回答的準確性和智能性有所提高,。相比之下,,他對“解除束縛”的看法則不一樣,他寫道:
“至關(guān)重要的是,,不要只是想象一個非常聰明的 ChatGPT:接觸束縛的收益應(yīng)該意味著它看起來更像是一個遠程辦公的不速之客,,一個非常聰明的智能體,可以推理,、計劃和糾正錯誤,,了解你和你的公司的一切,并且可以連續(xù)數(shù)周獨立解決問題,?!?/p>
這些能力與讓模型變得更大、更有效的能力有著根本的不同,。許多人工智能研究人員認為,,規(guī)劃是算法設(shè)計的結(jié)果,而不僅僅是讓模型變得更大,。模型規(guī)模變大并沒有讓LLM獲得著眼長遠的能力,。你得用不同的方式去構(gòu)建模型,而不僅僅是讓它們變得更大,,這需要一種新型的科學突破——而且沒有定量的方法可以衡量什么時候會出現(xiàn)這種突破,。關(guān)于規(guī)劃能力的時間表,人們有著各種各樣的意見,,很多都來自學術(shù)頭銜比我多的人,。不過,科學家之間的這種分歧正是我的觀點,。Aschenbrenner關(guān)于讓 GPU 變得更大的說法可能行得通,,但這應(yīng)該是一個重大假設(shè),而不是明確事實,。
此外,,“了解關(guān)于你的一切”并不是模型擴展的結(jié)果!這個要由模型可以訪問到的操作系統(tǒng),,以及模型收集有關(guān)你的信息的能力來決定,。所以我才會對蘋果在 iPhone 上部署 LLM 的進展感到興奮,。芯片或算法效率多提升一兩個數(shù)量級對模型是否能了解你的一切不會產(chǎn)生影響。
“了解你的一切”也會引出數(shù)據(jù)所有權(quán)的問題,?;谖覍ζ髽I(yè)軟件的深刻了解,阻礙LLM“了解你的一切”的,,不在于科學,,而在于企業(yè)采購流程。是,,你是可以擁有全世界最神奇的軟件,,但如果它需要完全訪問公司的數(shù)據(jù)倉庫,等著跟 IT 經(jīng)理爭論至少 2-3 年吧,。
從微軟首席技術(shù)官凱文·斯科特到我訪談過的無數(shù)人工智能研究人員,,每個人都堅信更大的模型會解決很多讓當前一代模型顯得很蠢的問題。不過,,要讓它們能夠獨立進行人工智能研究,,需要的科學進步已經(jīng)超出當前LLM的范式范圍。我的意思不是說不可能,,而且甚至可能比《情境感知》提出的時間表更快,,但我認為挑戰(zhàn)性比大多數(shù)人工智能研究界所認為的都要大。
我們還把自己的 GPT 模型的每一個后續(xù)版本都說成“更智能”,,這其實也是一種傷害,。看看圖表右側(cè)的標簽,,是將 GPT 模型與兒童和青少年的智力進行的對比,。
我認為這些說法完全不準確,。學齡前水平的 GPT2 不太擅長回答問題,,但很奇怪,卻很美,,很令人難忘懷,。這是它對提示的回答:我最喜歡的 10 種動物是:
我最喜歡的十種動物是:
1. 背上長白色疤痕的斑馬
2. 狡猾的蜘蛛和章魚
3. 長著大片葉子的青蛙,最好是黑色的
4. 有鱗的玄鳳鸚鵡
5.翅膀展開臉部約 4 英寸的刀嘴海雀,,有一顆心形紋身的青蛙
3. 可以是盲的,、可以切除、可以生吃的雞身蛇尾怪:
4. 陽光下的黑白沙漠鱷魚
5. 斑馬及很多的豌豆蟲
數(shù)字是錯的,,答案也很荒謬,,但文字是有靈魂的(我喜歡那個雞形的文字)。當我向 GPT4o 提出同樣的問題時,輸出的是一堆動物——沒有藝術(shù),,沒有靈魂。
我們其他人的對沖舉措
Aschenbrenner 最大膽的言論出現(xiàn)在第 41 頁:“我們將在 2027 年實現(xiàn) AGI,。這些人工智能系統(tǒng)基本上能將所有的認知工作(所有可以遠程完成的工作)自動化?!彼陉P(guān)于這個話題的推文中澄清道:“用不著得把科幻小說當真,;只需相信圖表上的直線即可?!?/p>
我承認,,我們可能已經(jīng)為他的 AGI 時間表準備好了必要的芯片與數(shù)據(jù)基礎(chǔ)設(shè)施??墒?,我們所需要的科學進步不僅僅是資本配置的結(jié)果;還必須是真正的創(chuàng)新的結(jié)果,,但這個領(lǐng)域的進展預(yù)測是很難的,。給這種進步打包票是妄自尊大。而且“圖上的直線”1) 是對數(shù)曲線,,2) 是編造的,,邏輯性不強。重大的能力提升不是光靠增強計算能力就行了,。
盡管如此,,“AGI 即將到來”仍是大家普遍持有的一種信念體系(如果不是時間表的話)。這些模型公司的首席執(zhí)行官似乎在對沖自己的賭注,。雖然他們的研究團隊也許相信到 2027 年 AGI 會實現(xiàn),,但首席執(zhí)行官們更信任分發(fā)優(yōu)勢以及明智的收入增長。這就是為什么這些公司的招聘頁面上列出的銷售與推銷職位數(shù)量遠遠多于研究人員,。在今天實現(xiàn)商業(yè)化,,為明天的 AGI 規(guī)避風險。
我的意思不是說 AGI 不可能,,也不是說我們不該對人工智能的進展感到興奮,。但我們需要給炒作踩剎車,并應(yīng)對挑戰(zhàn)的各種復雜性,。人工智能的未來會很混亂,,誰要是告訴你不是這樣,很可能是想推銷東西給你(或試圖從中撈取一筆誘人的風投資金),。謹慎地做出假設(shè)很重要,,因為如果你不謹慎——如果你就是相信直線——可能就會得出夸張的結(jié)論。
我今天討論的所有這些只是Aschenbrenner 165 頁的長篇大作其中的 73 頁內(nèi)容。那篇文章的其他部分則致力于討論超級智能出現(xiàn)之前會發(fā)生什么,。Aschenbrenner最大的擔憂轉(zhuǎn)向了治國方略,,其中用了幾章的篇幅討論為什么先實現(xiàn)AGI的不是中國,訓練這些模型的能源將從何而來(他覺得是德克薩斯州的天然氣),,以及人工智能最終將如何成為新的曼哈頓計劃,。再說一次,他說的也許沒錯,。這些都是需要考慮的重要事項,!但有一點值得一問,為什么這個顯然很聰明的人要花時間研究這個可能性很小的假設(shè),,為什么他要通過煽動性的 PDF 和推文去傳播他的想法,。
我們能做的最明智的一件事,把焦點集中在基礎(chǔ)工作上:基礎(chǔ)研究,、深思熟慮的實驗以及大量的刻苦努力——而不是紙上談兵就完事了,。AGI 不是命中注定,而是一種選擇,。我們需要確保為此付出艱苦努力才能把這件事情做對,。
譯者:boxi。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1111226.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。