編者按:AI 的能力正在逐漸超出很多人的想象,這引發(fā)了大量業(yè)內(nèi)人士的擔(dān)憂,。很多人呼吁要暫停先進(jìn) AI 的研發(fā)工作,。近期,被譽(yù)為“AI 教父”和深度學(xué)習(xí)三巨頭之一的 Geoffrey Hinton 從谷歌離職,,他說(shuō)此舉是為了能更加公開(kāi)地談?wù)摵途嫒藗?AI 的威脅性,,并稱(chēng)他對(duì)自己畢生從事的 AI 研究感到后悔,。但另一位“AI 之父”Jürgen Schmidhuber(譯者注:被譽(yù)為“LSTM 之父”,此前就曾與深度學(xué)習(xí)三巨頭有過(guò)紛爭(zhēng))卻不這么認(rèn)為,。他認(rèn)為工具是中立的,,AI 崛起不可避免,我們應(yīng)該學(xué)會(huì)擁抱 AI,。文章來(lái)自編譯,。
他曾被稱(chēng)為是“人工智能之父”,,現(xiàn)在他已經(jīng)與許多害怕人工智能軍備競(jìng)賽的同時(shí)代人決裂,,他說(shuō)即將到來(lái)的事情不可避免,,我們應(yīng)該學(xué)會(huì)擁抱它。
1990 年代,,Jürgen Schmidhuber 教授開(kāi)展了神經(jīng)網(wǎng)絡(luò)的研究,,后來(lái)他在這方面的工作被發(fā)展成語(yǔ)言處理模型,這些模型之后又被用于谷歌翻譯以及蘋(píng)果 Siri 等技術(shù),。2016 年,,《紐約時(shí)報(bào)》曾表示,當(dāng)人工智能走向成熟時(shí),,它可能要叫 Schmidhuber 一聲“爸爸”,。
現(xiàn)在,人工智能已經(jīng)走向成熟,,盡管部分人工智能先驅(qū)正驚恐地看著他們的創(chuàng)造物——呼吁要對(duì)技術(shù)的加速和擴(kuò)散拉手剎——但 Schmidhuber 說(shuō)這些呼吁存在誤導(dǎo)性,。
這位德國(guó)計(jì)算機(jī)科學(xué)家表示,政府,、大學(xué)和公司正在競(jìng)相尋求推進(jìn)技術(shù)發(fā)展,,這意味著無(wú)論人類(lèi)喜歡與否,,現(xiàn)在存在著一場(chǎng)人工智能軍備競(jìng)賽。
Schmidhuber 現(xiàn)在是沙特阿拉伯阿卜杜拉國(guó)王科技大學(xué) AI 計(jì)劃的負(fù)責(zé)人,。他說(shuō):“你無(wú)法阻止這場(chǎng)軍備競(jìng)賽”,。
“當(dāng)然這不是一場(chǎng)國(guó)際層面的軍備競(jìng)賽,因?yàn)橐粋€(gè)國(guó)家的目標(biāo)與另一個(gè)國(guó)家的可能會(huì)完全不一樣,。所以,,當(dāng)然,他們不會(huì)參與某種形式的凍結(jié)行動(dòng),。
“但我認(rèn)為你也不該阻止它,。因?yàn)樵?95% 的情況下,人工智能研究其實(shí)與我們悠久的箴言相關(guān),,也是為了讓人類(lèi)活得更長(zhǎng)久,、更健康、更輕松,?!?/p>
相對(duì)于新提到的小危險(xiǎn),我會(huì)更擔(dān)心核彈的舊危險(xiǎn)
——AI 教授 Jürgen Schmidhuber
Schmidhuber 的立場(chǎng)與他同時(shí)代的許多人形成鮮明對(duì)比,,其中包括 Geoffrey Hinton 博士,,后者曾在谷歌工作過(guò) 10 年,但其最近突然離開(kāi)谷歌一事引起了大量關(guān)注,。他說(shuō),,自己離開(kāi)谷歌是為了能更自由地談?wù)?AI。
Hinton 因其在“深度學(xué)習(xí)”方面的工作而獲得 2018 年圖靈獎(jiǎng),,并被稱(chēng)為“AI教父”,。深度學(xué)習(xí)是當(dāng)今在用的大部分 AI 的基礎(chǔ)。
他為了能更自由地討論人工智能而退出谷歌,。
他說(shuō),面對(duì)推動(dòng)技術(shù)進(jìn)步的競(jìng)爭(zhēng),,讓像谷歌這樣的公司來(lái)管理人工智能已不再合適,。他認(rèn)為,,如果人工智能變得比人類(lèi)還要聰明,,它就有可能會(huì)被壞人利用。
但在 AI 研究的功過(guò)問(wèn)題上,,Schmidhuber 與業(yè)內(nèi)的 Hinton 等人一直存在著不和,,他說(shuō)這些擔(dān)憂大部分都是錯(cuò)誤的。他還說(shuō),,對(duì)付利用 AI 從事不良行為者的最佳辦法是使用 AI 開(kāi)發(fā)好的工具,。
他說(shuō):“用來(lái)改善生活的工具一樣可以被壞人使用,,但它們也可以用來(lái)對(duì)付壞人”。
“相對(duì)于新提到的小危險(xiǎn),,我會(huì)更擔(dān)心核彈的舊危險(xiǎn),。”
Schmidhuber 認(rèn)為,,人工智能將發(fā)展到超越人類(lèi)智能,、對(duì)人類(lèi)不感興趣的地步——而人類(lèi)將繼續(xù)受益于人工智能開(kāi)發(fā)的工具,并繼續(xù)使用這些工具,。這是 Schmidhuber 已經(jīng)討論了多年的主題,,他的論斷曾在一次會(huì)議上被指責(zé) “破壞了科學(xué)方法”。
正如我們此前報(bào)道的那樣,,Schmidhuber 作為 AI 之父的地位并非無(wú)可爭(zhēng)議,,他在 AI 界可能是一個(gè)有爭(zhēng)議的人物。有人說(shuō)他對(duì)技術(shù)進(jìn)步速度的樂(lè)觀沒(méi)有根據(jù),,而且可能是危險(xiǎn)的,。
除了 Hinton 以外,最近還有其他人也在呼吁要放慢 AI 的發(fā)展速度,。今年 3 月下旬,,未來(lái)生命研究所(Future of Life Institute)發(fā)表了一封公開(kāi)信,呼吁在六個(gè)月內(nèi)暫停建立比 ChatGPT 背后的機(jī)器 GPT-4 還要強(qiáng)大的人工智能,,億萬(wàn)富翁埃隆·馬斯克是署名的數(shù)千人之一,。
馬斯克透露,上個(gè)月他與谷歌聯(lián)合創(chuàng)始人拉里·佩奇 (Larry Page) 鬧翻了,,因?yàn)樗f(shuō)佩奇對(duì)待人工智能安全的態(tài)度不夠嚴(yán)肅,,并試圖創(chuàng)造出一個(gè)“數(shù)字之神”。
譯者:boxi,。
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1103781.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。