A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

別看ChatGPT現(xiàn)在炒得火熱,,人工智能有進入新的寒冬的風險

編者按:ChatGPT 等 AI 技術在大眾間掀起的熱度讓大家高呼人工智能機會來了,,甚至 OpenAI 已經(jīng)喊出要向通用人工智能(AGI)進軍了,。但是,,以史為鑒,這個時候出來潑潑冷水是好的,。畢竟 AI 之前已經(jīng)歷過兩次凜冬,。或者,,不說那么遠的,,你們還記得專家預測全自動駕駛的實現(xiàn)時間嗎,?文章來自編譯。

別看ChatGPT現(xiàn)在炒得火熱,,人工智能有進入新的寒冬的風險

兩度入冬

冬天來了嗎,?

當然,我說的是“AI 的冬天”,。

這是 AI 歷史的一部分,,我們對人工智能的起起落落已經(jīng)見慣不怪。當 AI 熱起來的時候,,計算機科學家與公司似乎發(fā)明出來了令人興奮且功能強大的新技術,。科技公司用它們來開發(fā)有望讓每個人的生活變得更輕松(或更高效)的產(chǎn)品,,投資者則毫不猶豫地掏出腰包,。每個人——包括滿懷幻想的記者——都開始過度承諾,滔滔不絕地談論起將要發(fā)明出來的人工智能,。簡直跟人一樣,!像上帝一樣!無所不知,,無所不能!

但是,,這種程度的炒作是難以為繼的——而且到了一定時候,,這個行業(yè)就會開始出現(xiàn)說到做不到的情況。事實證明,,人工智能總會出人意料地被失敗纏身,。嘗試用它來解決日常問題的公司和個人會發(fā)現(xiàn),AI 很容易出錯,,而且通常是非常普通的錯誤,。

然后就進入了“人工智能冬天”??蛻舨辉贋?AI 產(chǎn)品付大錢,;投資者捂緊了自己的錢包。記者對行業(yè)局面的評判變得更加挑剔,。由于人人都感覺焦頭爛額(或頗為尷尬),,情況滑入到一個過度消極的循環(huán):哪怕是計算機科學家和發(fā)明家找到了真正有趣的 AI 實現(xiàn)的新路徑,也很難籌到資金去支撐自己的研究,。這個冬天會很漫長,。

到目前為止,AI 已經(jīng)經(jīng)歷過兩次漫長的冬天,。下面這張圖可以說明情況……

別看ChatGPT現(xiàn)在炒得火熱,,人工智能有進入新的寒冬的風險

AI 寒冬圖示,,1950 年代、60 年代及 70 年代,,對 AI 的興趣在攀升,,到了 70 年代中期信心崩塌, 到 1980 年代開始恢復并一路攀升到 90 年代,,然后再次崩潰,,接著到 2000 年代再次回升。摘自《The winter, the summer, and the summer dream of artificial intelligence in law》,,作者:Enrico Francesconi

人工智能始于 1956 年,,當時在達特茅斯(Dartmouth)一個研討會上,在場的 AI 名人預測,,“學習的每個方面或智能的任何其他特征,,原則上可被精確地描述,以至于能夠建造一臺機器來模擬它”,。隨后展開了將近 20 年的工作,,一路上他們許下了令人眼花繚亂的承諾:當《紐約時報》首次報道美國海軍正在研究的神經(jīng)網(wǎng)絡時,記者的報道是這樣的口吻:“美國海軍期望這種萌芽中的電子計算機能走,、能說,、會看、會寫,、可復制自己,,并意識到自己的存在”。在這個 AI 早期的上升期間,,企業(yè)與計算機科學家對文本自動翻譯的想法特別著迷——如果能夠讓這件事情做成的話,,這個想法將價值數(shù)十億美元。

但他們沒有把事情做成,。到了 1970 年代初期,,那些早期的原型 AI 技術顯然連原先承諾的一丁點兒目標也沒法兌現(xiàn)。機器翻譯其實就是一堆笨拙的手寫的規(guī)則,,哪怕是中等復雜度的語法也應付不了,。能自學的機器?依舊只是科幻小說,。AI 寒冬來了,,投資者開始出逃,研究資金陷入枯竭,。

后來直到八十年代,,春天才又回來。彼時,大多數(shù)科技公司已經(jīng)放棄了要創(chuàng)造“自學”機器這種不切實際的夢想,,他們開始建立“專家系統(tǒng)”,。專家系統(tǒng)的目標離雄心勃勃還差得遠:大多只是拜占庭式拼湊出來的 if-then 迷宮,試圖針對一個(且只有一個)特定問題自動進行決策,。Visa 宣稱要建立一個自動審核信用卡申請的系統(tǒng),;一家航空公司說要建一架會自動尋找路由的飛機。

專家系統(tǒng)倒是有個優(yōu)勢,,那就是確實有效,。但是專家系統(tǒng)的建造成本非常高,而且每個系統(tǒng)都是一次性的,。更糟糕的是,,當專家系統(tǒng)遇到無法預料的極端情況時,就會發(fā)生災難性的失敗,。我曾聽說過一個信用卡申請系統(tǒng)錯誤地將信用卡發(fā)給了一個九歲的孩子,,因為那份申請表(顯然充滿了謊言)列出自己具備二十年的工作經(jīng)驗。程序員忘記制定規(guī)則來驗證“工作經(jīng)驗”長于“客戶年齡”是不合理的了,。這就是手工制定規(guī)則的問題:現(xiàn)實世界太復雜了,,專家系統(tǒng)沒法面面俱到。隨著“專家系統(tǒng)”的失敗日益凸顯,,又一個人工智能的冬天到來了,。

正值盛夏

但現(xiàn)在,我們正處在第三次大繁榮之中——我們正處在“人工智能的盛夏”,。

這個夏天始于 2010 年代,,那時候“深度學習”剛剛開始興起。神經(jīng)網(wǎng)絡這個東西出現(xiàn)已有幾十年了,,但在 1990 年代以及 2000 年代初期,深度學習被認為不切實際:缺乏足夠的數(shù)據(jù)來訓練這些網(wǎng)絡,,訓練的計算強度太大,。正如深度學習先驅 Geoff Hinton 去年告訴我那樣:“1990 年代那時候,大家都嘲笑我們,,說這些東西永遠也行不通”,。

但在他以及世界各地的幾位同事的努力下,2000 年代的情況開始有所改善,。訓練數(shù)據(jù)量出現(xiàn)了爆發(fā)式的增長(因為大家在網(wǎng)上沒完沒了地發(fā)照片,,沒完沒了地寫東西)。數(shù)據(jù)的處理變得既便宜又快速,。再加上來自 Hinton 以及其他的先驅構思出一些巧妙的神經(jīng)網(wǎng)絡,,深度學習到 2010 年代已經(jīng)變得非常擅長模式識別。你可以用大量圖片來訓練神經(jīng)網(wǎng)絡,然后它就可以成為識別東西的魔術師,。用翻譯好的句子對來訓練它,,它終于可以了 ——可以學習翻譯語言了!

基于大量寫作語料庫來訓練它呢,?你好,,GPT-3 — 一個可以巧妙地預測句子的下一個可能的單詞的機器人,它可以像人類一樣寫文章,、回答問題,,給文檔寫摘要?;诖罅克囆g來訓練神經(jīng)網(wǎng)絡呢,?于是就有了 Midjourney。用計算機代碼來訓練它,,你就得到了 Copilot,。

于是,大量資金又開始涌入 AI,,初創(chuàng)企業(yè)推出了大量具備文本生成,、代碼填充或圖片生成功能的產(chǎn)品。我剛剛去看了一下 Product Hunt,,里面到處都是這樣的軟件,;這是其中的三個……

別看ChatGPT現(xiàn)在炒得火熱,人工智能有進入新的寒冬的風險

Product Hunt 的三款產(chǎn)品截圖——“Read Easy.ai”,、“ Travelmoji ”以及“ Copilotly ”

再度轉冷,?

但是:AI 還會進入新的冬天嗎?

我開始懷疑了,,因為其中的部分歷史模式似乎正在重復,。

首先,我們看到大型聊天應用已經(jīng)出現(xiàn)了一些明顯的混亂,。谷歌最近(為了拼命趕上 OpenAi)而匆忙展示其人工智能聊天機器人時,,那個機器人犯了巨大的事實錯誤——股票市場迅速做出反應,令谷歌的市值暴跌了 7.8%,,縮水了 1000 億美元,。然后微軟趁熱打鐵推出了新的 Bing 產(chǎn)品,內(nèi)置了 ChatGPT 功能——它不僅犯下了無數(shù)的事實錯誤(包括一些奇怪的錯誤,,比如堅持認為現(xiàn)在其實仍然是 2022 年),,而且在面對自己的錯誤時變得超級怪異,充滿挑釁性,。對于包括我自己在內(nèi)的很多人來說,,大規(guī)模語言模型會犯下大量的事實錯誤并不奇怪,;單詞預測這項技術確實很強大,但部分計算機科學家與認知科學家懷疑,,這只是人類真正的推理機制其中的一小部分,。

除了這些語言模型的失敗以外,自動駕駛汽車的麻煩也越來越大,。美國國家公路交通安全管理局(National Highway Traffic Safety Administration)宣布,,要召回配備了“完全自動駕駛測試版”的特斯拉,這款軟件宣傳可實現(xiàn)自動駕駛,。美國政府表示,,特斯拉的軟件“由于未充分遵守交通安全法,從而對機動車安全構成了過度的風險”——也就是說,,它容易做出不可預測的瘋狂且危險的舉動,。

也就是說,我們遭遇了AI 寒冬初期的“未按承諾兌現(xiàn)”的部分,。

我們也有過“過度承諾”,。想想自動駕駛汽車吧,十年來發(fā)明家們一直堅稱自動駕駛隨時就會實現(xiàn)(一位計算機科學家在 2017 年的時候告訴我,,“這是一個價值萬億美元的產(chǎn)業(yè)”),,記者們(包括我自己在內(nèi))則興高采烈地思考其潛在影響。與此同時,,大型語言模型的先驅們堅持認為,,如果他們繼續(xù)擴大模型的規(guī)模,并為其提供更多數(shù)據(jù),,這些模型就會變成真正的推理機,。(OpenAI 的一位創(chuàng)始人甚至認為 GPT-3 已經(jīng)“初具意識”。)

這種空頭支票開過頭的承諾與機器連現(xiàn)在是哪一年都不知道的現(xiàn)實發(fā)生了很大的沖突(你糾正它時它還很生氣),。這幾乎荒謬到有點好笑,。社會擔心我們會遇到無所不知滅絕人性的天網(wǎng)——但實際上我們得到的不過是樂于助人的廢話藝術家而已,它們甚至都懶得直截了當?shù)卣f出雞毛蒜皮的事實,。

百轉千回

但我不會下結論,。事實上,我不知道人工智能冬天會不會再度降臨,。

畢竟,即便今天的聊天機器人被證明是泡沫,,被視為一種行業(yè)技術的深度學習仍然非常有價值,就算其適用范圍比較狹窄也很有價值,。它非常適合用來做自動識別器(autorecognizer)和分類器(categorizer),。僅此一項就價值數(shù)十億美元。即便 OpenAI 永遠無法讓 ChatGPT 可靠地教中學數(shù)學,它仍將價值數(shù)十億美元,。因此,,人工智能行業(yè)會徹底萎縮的想法似乎不太可能。

但可能會出現(xiàn)重大修正,。會有足夠多的人也許認為大型語言模型玩起來很有趣(“給我寫一首莎士比亞十四行詩,;贊美一下地平理論!”),,但在幫助經(jīng)營企業(yè)方面則是很不可靠的,甚至到了危險的地步,?;蛘?,大量出于 SEO 優(yōu)化目的而生成的垃圾文字可能會像真菌一樣塞滿整個互聯(lián)網(wǎng),,從而給整個 AI 在公眾當中帶來糟糕的口碑,。這可能會耗盡大量的資本和投資,。在這一點上自動駕駛汽車再次可以充滿警示案例:盡管投資者已向該領域投入數(shù)百億美元,,但全自動駕駛的汽車幾乎還沒有上路,而且自動駕駛行業(yè)最近 IPO 的初創(chuàng)公司在兩年間已蒸發(fā)了 81% 的市值,。(同樣值得注意的是,,目前訴訟針對的是藝術生成 AI 以及代碼生成 AI 的核心過程,,其主張認為這些 AI 的開發(fā)者無權出于訓練的目的收集大量在線藝術與代碼。)

可是,,就算再經(jīng)歷一次嚴重的低谷也未必意味著 AI 的終結,。畢竟這個領域已經(jīng)復興過兩次了,。它還會再度復興的。如果事實證明大型語言模型(正如它們目前所設計的那樣)注定會出錯,,是不合理的,,那么優(yōu)秀的計算機科學家最終會把注意力放在其他技術上。就像 Gary Marcus 等深度學習專家所建言的那樣,,其中可能包括針對抽象的符號主義,。或者,,正如 Geoff Hinton 最近推測的那樣,,也許是專門針對手頭任務為個別神經(jīng)網(wǎng)絡定制的專用硬件。

對于 AI,,永遠不要說“絕不”,。歷史的車輪會滾滾向前。但是,,如果冬天來了,,路上堆滿了積雪,那唯一的出路也許就是換條路走,。

譯者:boxi,。

免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1107182.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。

(0)
的頭像
上一篇 2024年6月12日 下午1:11
下一篇 2024年6月12日
198搶自鏈數(shù)字人

相關推薦