A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

馬斯克:AI有20%的可能性毀滅人類(lèi),,但仍值得冒險(xiǎn)

來(lái)源:汽車(chē)商業(yè)評(píng)論

馬斯克:AI有20%的可能性毀滅人類(lèi),,但仍值得冒險(xiǎn)

撰文 / 吳 靜

編輯 / 黃大路

設(shè)計(jì) / 師 超

來(lái)源 / Business Insider

作者 / Katherine Tangalakis-Lippert

即使人工智能有五分之一的可能性會(huì)威脅人類(lèi)生存,,但埃隆·馬斯克 (Elon Musk) 仍非常確信這值得冒險(xiǎn)。

在前段時(shí)間的Abundance360峰會(huì)上,,馬斯克在“人工智能辯論”研討會(huì)上表示,,他重新計(jì)算了人工智能這項(xiàng)技術(shù)的風(fēng)險(xiǎn)評(píng)估,他說(shuō):“我認(rèn)為人工智能有可能毀滅人類(lèi),,但總體還是利大于弊,。”

但馬斯克沒(méi)有提及他是如何計(jì)算風(fēng)險(xiǎn)的,。

人工智能安全研究員,、路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室主任羅曼·揚(yáng)波爾斯基(Roman Yampolskiy)在接受《商業(yè)內(nèi)幕》采訪時(shí)表示,馬斯克認(rèn)為人工智能可能對(duì)人類(lèi)構(gòu)成生存威脅是正確的,,但“如果有什么問(wèn)題的話,,那就是他的評(píng)估有點(diǎn)過(guò)于保守了”。

“在我看來(lái),人類(lèi)遭遇厄運(yùn)的可能性要高得多,?!睋P(yáng)波爾斯基說(shuō)。他所說(shuō)的厄運(yùn)指的是人工智能控制人類(lèi)或?qū)е氯祟?lèi)終結(jié)事件的可能性,,例如創(chuàng)造一種新型生物武器或由于大規(guī)模網(wǎng)絡(luò)攻擊或核戰(zhàn)爭(zhēng)而導(dǎo)致社會(huì)崩潰,。

《紐約時(shí)報(bào)》稱厄運(yùn)是“席卷硅谷的一種病態(tài)的新統(tǒng)計(jì)學(xué)”,該媒體援引多位科技高管的估計(jì),,他們認(rèn)為人工智能能引發(fā)世界末日的可能性在5%到50%之間,。但揚(yáng)波爾斯基認(rèn)為這一風(fēng)險(xiǎn)高達(dá)“99.999999%”。

揚(yáng)波爾斯基說(shuō),,因?yàn)槲覀儾豢赡芸刂葡冗M(jìn)的人工智能,,所以我們唯一的希望就是從一開(kāi)始就不要?jiǎng)?chuàng)造它。

“不知道為什么馬斯克認(rèn)為研究人工智能是個(gè)好主意,,”揚(yáng)波爾斯基補(bǔ)充道,, “如果他擔(dān)心競(jìng)爭(zhēng)對(duì)手搶先一步,那大可不必,,因?yàn)闊o(wú)論是誰(shuí)創(chuàng)造了它,,這種不受控制的超級(jí)智能給我們帶來(lái)的生存威脅都是一樣糟糕,?!?/p>

去年11月,馬斯克表示,,這項(xiàng)技術(shù)最終“變壞”的可能性“并非為零”,,但他并沒(méi)有進(jìn)一步說(shuō)明,如果真的“變壞”,,這項(xiàng)技術(shù)可能會(huì)毀滅人類(lèi),。

盡管馬斯克一直是人工智能監(jiān)管的倡導(dǎo)者,但馬斯克去年創(chuàng)立了一家名為xAI的公司,,該公司致力于進(jìn)一步擴(kuò)大人工智能的力量,。xAI是OpenAI的競(jìng)爭(zhēng)對(duì)手,OpenAI是馬斯克在2018年退出董事會(huì)之前與薩姆·奧特曼(Sam Altman)共同創(chuàng)立的公司,。

在峰會(huì)上,,馬斯克估計(jì),到2030年,,數(shù)字智能將超過(guò)所有人類(lèi)智能的總和,。雖然他堅(jiān)持認(rèn)為研究人工智能利大于弊,但馬斯克也承認(rèn),,如果人工智能在一些最直接的領(lǐng)域繼續(xù)按照目前的軌跡發(fā)展,,世界將面臨風(fēng)險(xiǎn)。

“你培養(yǎng)一個(gè)通用人工智能,,這幾乎就像撫養(yǎng)一個(gè)孩子,,但他是一個(gè)超級(jí)天才,,所以你如何培養(yǎng)這個(gè)孩子很重要?!瘪R斯克在3月的一場(chǎng)硅谷活動(dòng)中說(shuō),,“人工智能安全方面,我認(rèn)為最重要的一點(diǎn)是需要培養(yǎng)一個(gè)最大程度尋求真相并且具有好奇心的AI,?!?/p>

馬斯克表示,關(guān)于實(shí)現(xiàn)人工智能安全的最佳方式,,他的“最終結(jié)論”是以迫使人工智能變得誠(chéng)實(shí)的方式來(lái)發(fā)展人工智能,。

“不要強(qiáng)迫它撒謊,即使事實(shí)令人不舒服,?!瘪R斯克在談到保護(hù)人類(lèi)免受科技侵害的最佳方法時(shí)說(shuō), “這非常重要,,不要讓人工智能撒謊,。”

據(jù)《獨(dú)立報(bào)》報(bào)道,,研究人員發(fā)現(xiàn),,一旦人工智能學(xué)會(huì)對(duì)人類(lèi)撒謊,使用當(dāng)前的人工智能安全措施就不可能逆轉(zhuǎn)這種欺騙行為,。

該媒體引用的研究稱,,“如果一個(gè)模型由于欺騙性的儀器校準(zhǔn)或模型中毒而表現(xiàn)出欺騙性行為,當(dāng)前的安全培訓(xùn)技術(shù)將無(wú)法保證安全,,甚至可能造成一種安全的假象,。”

更令人不安的是,,研究人員補(bǔ)充說(shuō),,人工智能可能會(huì)自己學(xué)會(huì)欺騙,而不是被專門(mén)教導(dǎo)說(shuō)謊,。

“如果它變得比我們聰明得多,,它就會(huì)非常擅長(zhǎng)操縱,因?yàn)樗鼤?huì)從我們這里學(xué)到這一點(diǎn),,”杰弗里·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,,他告訴CNN,“很少有一個(gè)更聰明的東西被一個(gè)不那么聰明的東西控制的例子,?!?/p>

免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1095863.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。

(0)
新浪財(cái)經(jīng)的頭像新浪財(cái)經(jīng)
上一篇 2024年4月2日 下午12:48
下一篇 2024年4月2日
198搶自鏈數(shù)字人

相關(guān)推薦