編者按:ChatGPT 等 AI 技術(shù)在大眾間掀起的熱度讓大家高呼人工智能機會來了,,甚至 OpenAI 已經(jīng)喊出要向通用人工智能(AGI)進軍了,。但是,以史為鑒,,這個時候出來潑潑冷水是好的,。畢竟 AI 之前已經(jīng)歷過兩次凜冬?;蛘?,不說那么遠的,你們還記得專家預(yù)測全自動駕駛的實現(xiàn)時間嗎,?文章來自編譯,。
兩度入冬
冬天來了嗎,?
當然,,我說的是“AI 的冬天”。
這是 AI 歷史的一部分,,我們對人工智能的起起落落已經(jīng)見慣不怪,。當 AI 熱起來的時候,計算機科學家與公司似乎發(fā)明出來了令人興奮且功能強大的新技術(shù),??萍脊居盟鼈儊黹_發(fā)有望讓每個人的生活變得更輕松(或更高效)的產(chǎn)品,投資者則毫不猶豫地掏出腰包,。每個人——包括滿懷幻想的記者——都開始過度承諾,,滔滔不絕地談?wù)撈饘⒁l(fā)明出來的人工智能。簡直跟人一樣,!像上帝一樣,!無所不知,無所不能,!
但是,這種程度的炒作是難以為繼的——而且到了一定時候,,這個行業(yè)就會開始出現(xiàn)說到做不到的情況,。事實證明,人工智能總會出人意料地被失敗纏身,。嘗試用它來解決日常問題的公司和個人會發(fā)現(xiàn),,AI 很容易出錯,,而且通常是非常普通的錯誤。
然后就進入了“人工智能冬天”,??蛻舨辉贋?AI 產(chǎn)品付大錢;投資者捂緊了自己的錢包,。記者對行業(yè)局面的評判變得更加挑剔,。由于人人都感覺焦頭爛額(或頗為尷尬),情況滑入到一個過度消極的循環(huán):哪怕是計算機科學家和發(fā)明家找到了真正有趣的 AI 實現(xiàn)的新路徑,,也很難籌到資金去支撐自己的研究,。這個冬天會很漫長。
到目前為止,,AI 已經(jīng)經(jīng)歷過兩次漫長的冬天,。下面這張圖可以說明情況……
AI 寒冬圖示,,1950 年代,、60 年代及 70 年代,對 AI 的興趣在攀升,,到了 70 年代中期信心崩塌,, 到 1980 年代開始恢復(fù)并一路攀升到 90 年代,然后再次崩潰,,接著到 2000 年代再次回升,。摘自《The winter, the summer, and the summer dream of artificial intelligence in law》,作者:Enrico Francesconi
人工智能始于 1956 年,,當時在達特茅斯(Dartmouth)一個研討會上,,在場的 AI 名人預(yù)測,“學習的每個方面或智能的任何其他特征,,原則上可被精確地描述,,以至于能夠建造一臺機器來模擬它”。隨后展開了將近 20 年的工作,,一路上他們許下了令人眼花繚亂的承諾:當《紐約時報》首次報道美國海軍正在研究的神經(jīng)網(wǎng)絡(luò)時,,記者的報道是這樣的口吻:“美國海軍期望這種萌芽中的電子計算機能走、能說,、會看,、會寫、可復(fù)制自己,,并意識到自己的存在”,。在這個 AI 早期的上升期間,企業(yè)與計算機科學家對文本自動翻譯的想法特別著迷——如果能夠讓這件事情做成的話,,這個想法將價值數(shù)十億美元,。
但他們沒有把事情做成,。到了 1970 年代初期,那些早期的原型 AI 技術(shù)顯然連原先承諾的一丁點兒目標也沒法兌現(xiàn),。機器翻譯其實就是一堆笨拙的手寫的規(guī)則,,哪怕是中等復(fù)雜度的語法也應(yīng)付不了。能自學的機器,?依舊只是科幻小說,。AI 寒冬來了,投資者開始出逃,,研究資金陷入枯竭,。
后來直到八十年代,春天才又回來,。彼時,,大多數(shù)科技公司已經(jīng)放棄了要創(chuàng)造“自學”機器這種不切實際的夢想,他們開始建立“專家系統(tǒng)”,。專家系統(tǒng)的目標離雄心勃勃還差得遠:大多只是拜占庭式拼湊出來的 if-then 迷宮,,試圖針對一個(且只有一個)特定問題自動進行決策。Visa 宣稱要建立一個自動審核信用卡申請的系統(tǒng),;一家航空公司說要建一架會自動尋找路由的飛機,。
專家系統(tǒng)倒是有個優(yōu)勢,那就是確實有效,。但是專家系統(tǒng)的建造成本非常高,,而且每個系統(tǒng)都是一次性的。更糟糕的是,,當專家系統(tǒng)遇到無法預(yù)料的極端情況時,,就會發(fā)生災(zāi)難性的失敗。我曾聽說過一個信用卡申請系統(tǒng)錯誤地將信用卡發(fā)給了一個九歲的孩子,,因為那份申請表(顯然充滿了謊言)列出自己具備二十年的工作經(jīng)驗,。程序員忘記制定規(guī)則來驗證“工作經(jīng)驗”長于“客戶年齡”是不合理的了。這就是手工制定規(guī)則的問題:現(xiàn)實世界太復(fù)雜了,,專家系統(tǒng)沒法面面俱到,。隨著“專家系統(tǒng)”的失敗日益凸顯,又一個人工智能的冬天到來了,。
正值盛夏
但現(xiàn)在,,我們正處在第三次大繁榮之中——我們正處在“人工智能的盛夏”。
這個夏天始于 2010 年代,,那時候“深度學習”剛剛開始興起,。神經(jīng)網(wǎng)絡(luò)這個東西出現(xiàn)已有幾十年了,但在 1990 年代以及 2000 年代初期,,深度學習被認為不切實際:缺乏足夠的數(shù)據(jù)來訓練這些網(wǎng)絡(luò),,訓練的計算強度太大。正如深度學習先驅(qū) Geoff Hinton 去年告訴我那樣:“1990 年代那時候,,大家都嘲笑我們,,說這些東西永遠也行不通”。
但在他以及世界各地的幾位同事的努力下,,2000 年代的情況開始有所改善,。訓練數(shù)據(jù)量出現(xiàn)了爆發(fā)式的增長(因為大家在網(wǎng)上沒完沒了地發(fā)照片,沒完沒了地寫東西),。數(shù)據(jù)的處理變得既便宜又快速,。再加上來自 Hinton 以及其他的先驅(qū)構(gòu)思出一些巧妙的神經(jīng)網(wǎng)絡(luò),深度學習到 2010 年代已經(jīng)變得非常擅長模式識別,。你可以用大量圖片來訓練神經(jīng)網(wǎng)絡(luò),,然后它就可以成為識別東西的魔術(shù)師。用翻譯好的句子對來訓練它,,它終于可以了 ——可以學習翻譯語言了,!
基于大量寫作語料庫來訓練它呢?你好,,GPT-3 — 一個可以巧妙地預(yù)測句子的下一個可能的單詞的機器人,,它可以像人類一樣寫文章、回答問題,,給文檔寫摘要,。基于大量藝術(shù)來訓練神經(jīng)網(wǎng)絡(luò)呢,?于是就有了 Midjourney,。用計算機代碼來訓練它,你就得到了 Copilot,。
于是,,大量資金又開始涌入 AI,初創(chuàng)企業(yè)推出了大量具備文本生成,、代碼填充或圖片生成功能的產(chǎn)品,。我剛剛?cè)タ戳艘幌?Product Hunt,里面到處都是這樣的軟件,;這是其中的三個……
Product Hunt 的三款產(chǎn)品截圖——“Read Easy.ai”、“ Travelmoji ”以及“ Copilotly ”
再度轉(zhuǎn)冷,?
但是:AI 還會進入新的冬天嗎,?
我開始懷疑了,因為其中的部分歷史模式似乎正在重復(fù),。
首先,,我們看到大型聊天應(yīng)用已經(jīng)出現(xiàn)了一些明顯的混亂,。谷歌最近(為了拼命趕上 OpenAi)而匆忙展示其人工智能聊天機器人時,那個機器人犯了巨大的事實錯誤——股票市場迅速做出反應(yīng),,令谷歌的市值暴跌了 7.8%,,縮水了 1000 億美元。然后微軟趁熱打鐵推出了新的 Bing 產(chǎn)品,,內(nèi)置了 ChatGPT 功能——它不僅犯下了無數(shù)的事實錯誤(包括一些奇怪的錯誤,,比如堅持認為現(xiàn)在其實仍然是 2022 年),而且在面對自己的錯誤時變得超級怪異,,充滿挑釁性,。對于包括我自己在內(nèi)的很多人來說,大規(guī)模語言模型會犯下大量的事實錯誤并不奇怪,;單詞預(yù)測這項技術(shù)確實很強大,,但部分計算機科學家與認知科學家懷疑,這只是人類真正的推理機制其中的一小部分,。
除了這些語言模型的失敗以外,,自動駕駛汽車的麻煩也越來越大。美國國家公路交通安全管理局(National Highway Traffic Safety Administration)宣布,,要召回配備了“完全自動駕駛測試版”的特斯拉,,這款軟件宣傳可實現(xiàn)自動駕駛。美國政府表示,,特斯拉的軟件“由于未充分遵守交通安全法,,從而對機動車安全構(gòu)成了過度的風險”——也就是說,它容易做出不可預(yù)測的瘋狂且危險的舉動,。
也就是說,,我們遭遇了AI 寒冬初期的“未按承諾兌現(xiàn)”的部分。
我們也有過“過度承諾”,。想想自動駕駛汽車吧,,十年來發(fā)明家們一直堅稱自動駕駛隨時就會實現(xiàn)(一位計算機科學家在 2017 年的時候告訴我,“這是一個價值萬億美元的產(chǎn)業(yè)”),,記者們(包括我自己在內(nèi))則興高采烈地思考其潛在影響,。與此同時,大型語言模型的先驅(qū)們堅持認為,,如果他們繼續(xù)擴大模型的規(guī)模,,并為其提供更多數(shù)據(jù),這些模型就會變成真正的推理機,。(OpenAI 的一位創(chuàng)始人甚至認為 GPT-3 已經(jīng)“初具意識”,。)
這種空頭支票開過頭的承諾與機器連現(xiàn)在是哪一年都不知道的現(xiàn)實發(fā)生了很大的沖突(你糾正它時它還很生氣)。這幾乎荒謬到有點好笑。社會擔心我們會遇到無所不知滅絕人性的天網(wǎng)——但實際上我們得到的不過是樂于助人的廢話藝術(shù)家而已,,它們甚至都懶得直截了當?shù)卣f出雞毛蒜皮的事實,。
百轉(zhuǎn)千回
但我不會下結(jié)論。事實上,,我不知道人工智能冬天會不會再度降臨,。
畢竟,即便今天的聊天機器人被證明是泡沫,,被視為一種行業(yè)技術(shù)的深度學習仍然非常有價值,就算其適用范圍比較狹窄也很有價值,。它非常適合用來做自動識別器(autorecognizer)和分類器(categorizer),。僅此一項就價值數(shù)十億美元。即便 OpenAI 永遠無法讓 ChatGPT 可靠地教中學數(shù)學,,它仍將價值數(shù)十億美元,。因此,人工智能行業(yè)會徹底萎縮的想法似乎不太可能,。
但可能會出現(xiàn)重大修正,。會有足夠多的人也許認為大型語言模型玩起來很有趣(“給我寫一首莎士比亞十四行詩;贊美一下地平理論,!”),,但在幫助經(jīng)營企業(yè)方面則是很不可靠的,甚至到了危險的地步,?;蛘撸罅砍鲇?SEO 優(yōu)化目的而生成的垃圾文字可能會像真菌一樣塞滿整個互聯(lián)網(wǎng),,從而給整個 AI 在公眾當中帶來糟糕的口碑,。這可能會耗盡大量的資本和投資。在這一點上自動駕駛汽車再次可以充滿警示案例:盡管投資者已向該領(lǐng)域投入數(shù)百億美元,,但全自動駕駛的汽車幾乎還沒有上路,,而且自動駕駛行業(yè)最近 IPO 的初創(chuàng)公司在兩年間已蒸發(fā)了 81% 的市值。(同樣值得注意的是,,目前訴訟針對的是藝術(shù)生成 AI 以及代碼生成 AI 的核心過程,,其主張認為這些 AI 的開發(fā)者無權(quán)出于訓練的目的收集大量在線藝術(shù)與代碼。)
可是,,就算再經(jīng)歷一次嚴重的低谷也未必意味著 AI 的終結(jié),。畢竟這個領(lǐng)域已經(jīng)復(fù)興過兩次了。它還會再度復(fù)興的,。如果事實證明大型語言模型(正如它們目前所設(shè)計的那樣)注定會出錯,,是不合理的,那么優(yōu)秀的計算機科學家最終會把注意力放在其他技術(shù)上。就像 Gary Marcus 等深度學習專家所建言的那樣,,其中可能包括針對抽象的符號主義,。或者,,正如 Geoff Hinton 最近推測的那樣,,也許是專門針對手頭任務(wù)為個別神經(jīng)網(wǎng)絡(luò)定制的專用硬件。
對于 AI,,永遠不要說“絕不”,。歷史的車輪會滾滾向前。但是,,如果冬天來了,,路上堆滿了積雪,那唯一的出路也許就是換條路走,。
譯者:boxi,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1107182.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。