財(cái)聯(lián)社4月1日訊(編輯 牛占林)本周一封由埃隆·馬斯克等人簽署的公開信在網(wǎng)上熱傳,,再度將ChatGPT等人工智能(AI)推到了風(fēng)口浪尖。但隨著時(shí)間的流逝,這場(chǎng)活動(dòng)似乎變成了一場(chǎng)鬧劇,。
這封公開信由非營利組織未來生命研究所(Future of Life Institute)對(duì)外公布,,其名題為“暫停巨型AI實(shí)驗(yàn):一封公開信”,。截至周五,,已經(jīng)有1800多名科技公司高管和頂級(jí)AI研究人員進(jìn)行了署名,,
他們呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),。最好有六個(gè)月乃至更長(zhǎng)時(shí)間的暫停,,將使該行業(yè)有時(shí)間制定AI設(shè)計(jì)方面的安全標(biāo)準(zhǔn),從而防止風(fēng)險(xiǎn)最高的一些AI技術(shù)的潛在危害,。
首先,,這封信最初允許任何人在沒有身份驗(yàn)證的情況下簽名,這導(dǎo)致鬧出了一些笑話,。OpenAI首席執(zhí)行官Sam Altman的名字出現(xiàn)在名單上,,Altman回應(yīng)稱,他從未在這封信上簽名,。Meta首席AI科學(xué)家Yann LeCun和Stability AI首席執(zhí)行官M(fèi)ostaque等知名人士也遭遇了類似的情況,。
其次,也是最為重要的是,,這封公開信聲稱,,AI系統(tǒng)對(duì)人類構(gòu)成了深遠(yuǎn)的風(fēng)險(xiǎn),并引用了12項(xiàng)相關(guān)專家的研究,,這些專家包括大學(xué)學(xué)者,、人工智能專家,,以及OpenAI,、谷歌及其子公司DeepMind的員工。
如今,,這些被引用論文和觀點(diǎn)的專家接連發(fā)聲,,他們表示并不認(rèn)可馬斯克等人的觀點(diǎn),甚至直接稱后者“精神錯(cuò)亂”,。
其中引用的研究包括瑪格麗特·米切爾的著名論文《論隨機(jī)鸚鵡的危險(xiǎn)》,,米切爾現(xiàn)在是人工智能公司Hug Face的首席倫理科學(xué)家,她批評(píng)了這封信,?!巴ㄟ^將許多有問題的想法視為既定事實(shí),這封信提出了一系列有利于未來生命研究所支持者的人工智能敘事,?!?/p>
她的合著者蒂姆尼特·格布魯和艾米麗.本德也在推特上批評(píng)了這封信,本德稱其中一些說法簡(jiǎn)直是“精神錯(cuò)亂”,,充斥著對(duì)AI的炒作,。格布魯表示:“他們基本上和我們說的相反,還引用了我們的論文,?!?/p>
康涅狄格大學(xué)的助理教授Shiri Dori-Hacohen也對(duì)信中引用她的論文提出了異議。她去年與人合著了一篇研究論文,,認(rèn)為AI的廣泛使用已經(jīng)帶來了嚴(yán)重的風(fēng)險(xiǎn),。
她的研究認(rèn)為,目前AI系統(tǒng)的使用可能會(huì)影響與氣候變化,、核戰(zhàn)爭(zhēng)和其他生存威脅相關(guān)的決策,。
她最新表示:“人工智能不需要達(dá)到人類水平就會(huì)加劇這些風(fēng)險(xiǎn),而有些風(fēng)險(xiǎn)真的非常非常重要,,但沒有得到必要的關(guān)注,。”
而OpenAI首席執(zhí)行官Altman對(duì)此回應(yīng)稱,,從某種意義上說,,這是多此一舉,一直以來我們對(duì)這些問題的討論是聲音最響,、力度最大且持續(xù)時(shí)間最長(zhǎng)的,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1010089.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。