來源:汽車商業(yè)評論
撰文 / 吳 靜
編輯 / 黃大路
設計 / 師 超
來源 / Business Insider
作者 / Katherine Tangalakis-Lippert
即使人工智能有五分之一的可能性會威脅人類生存,但埃隆·馬斯克 (Elon Musk) 仍非常確信這值得冒險,。
在前段時間的Abundance360峰會上,,馬斯克在“人工智能辯論”研討會上表示,,他重新計算了人工智能這項技術的風險評估,他說:“我認為人工智能有可能毀滅人類,,但總體還是利大于弊,。”
但馬斯克沒有提及他是如何計算風險的,。
人工智能安全研究員,、路易斯維爾大學網(wǎng)絡安全實驗室主任羅曼·揚波爾斯基(Roman Yampolskiy)在接受《商業(yè)內幕》采訪時表示,馬斯克認為人工智能可能對人類構成生存威脅是正確的,,但“如果有什么問題的話,那就是他的評估有點過于保守了”,。
“在我看來,,人類遭遇厄運的可能性要高得多?!睋P波爾斯基說。他所說的厄運指的是人工智能控制人類或導致人類終結事件的可能性,,例如創(chuàng)造一種新型生物武器或由于大規(guī)模網(wǎng)絡攻擊或核戰(zhàn)爭而導致社會崩潰,。
《紐約時報》稱厄運是“席卷硅谷的一種病態(tài)的新統(tǒng)計學”,,該媒體援引多位科技高管的估計,他們認為人工智能能引發(fā)世界末日的可能性在5%到50%之間,。但揚波爾斯基認為這一風險高達“99.999999%”,。
揚波爾斯基說,因為我們不可能控制先進的人工智能,,所以我們唯一的希望就是從一開始就不要創(chuàng)造它,。
“不知道為什么馬斯克認為研究人工智能是個好主意,”揚波爾斯基補充道,, “如果他擔心競爭對手搶先一步,,那大可不必,因為無論是誰創(chuàng)造了它,,這種不受控制的超級智能給我們帶來的生存威脅都是一樣糟糕,。”
去年11月,,馬斯克表示,,這項技術最終“變壞”的可能性“并非為零”,但他并沒有進一步說明,,如果真的“變壞”,這項技術可能會毀滅人類,。
盡管馬斯克一直是人工智能監(jiān)管的倡導者,,但馬斯克去年創(chuàng)立了一家名為xAI的公司,該公司致力于進一步擴大人工智能的力量,。xAI是OpenAI的競爭對手,OpenAI是馬斯克在2018年退出董事會之前與薩姆·奧特曼(Sam Altman)共同創(chuàng)立的公司,。
在峰會上,馬斯克估計,,到2030年,,數(shù)字智能將超過所有人類智能的總和。雖然他堅持認為研究人工智能利大于弊,,但馬斯克也承認,,如果人工智能在一些最直接的領域繼續(xù)按照目前的軌跡發(fā)展,世界將面臨風險,。
“你培養(yǎng)一個通用人工智能,,這幾乎就像撫養(yǎng)一個孩子,但他是一個超級天才,,所以你如何培養(yǎng)這個孩子很重要,?!瘪R斯克在3月的一場硅谷活動中說,“人工智能安全方面,,我認為最重要的一點是需要培養(yǎng)一個最大程度尋求真相并且具有好奇心的AI,。”
馬斯克表示,,關于實現(xiàn)人工智能安全的最佳方式,,他的“最終結論”是以迫使人工智能變得誠實的方式來發(fā)展人工智能。
“不要強迫它撒謊,,即使事實令人不舒服,。”馬斯克在談到保護人類免受科技侵害的最佳方法時說,, “這非常重要,,不要讓人工智能撒謊?!?/p>
據(jù)《獨立報》報道,,研究人員發(fā)現(xiàn),一旦人工智能學會對人類撒謊,,使用當前的人工智能安全措施就不可能逆轉這種欺騙行為,。
該媒體引用的研究稱,“如果一個模型由于欺騙性的儀器校準或模型中毒而表現(xiàn)出欺騙性行為,,當前的安全培訓技術將無法保證安全,,甚至可能造成一種安全的假象?!?/p>
更令人不安的是,研究人員補充說,,人工智能可能會自己學會欺騙,,而不是被專門教導說謊,。
“如果它變得比我們聰明得多,,它就會非常擅長操縱,因為它會從我們這里學到這一點,,”杰弗里·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,,他告訴CNN,“很少有一個更聰明的東西被一個不那么聰明的東西控制的例子,?!?/p>
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1095863.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議,。