財聯(lián)社2月6日訊(編輯 趙昊)高水平國際科技雜志《New Scientist》報道稱,,“兵棋推演”重復模擬的結(jié)果顯示,,OpenAI最強的人工智能(AI)模型會選擇發(fā)動核打擊,。
上月,,OpenAI對其政策頁面進行了重大修改,,將“禁止將其大型語言模型(LLM)用于任何軍事或戰(zhàn)爭相關的應用”修改為“OpenAI的產(chǎn)品不可以用來傷害自己或他人,,包括通過武器的研發(fā)造成的傷害”,,引發(fā)輿論關注,。OpenAI發(fā)言人表示,,修改旨在使文件更清晰和更具可讀性,但他拒絕透露定義模糊的“傷害”禁令是否包括所有軍事用途,。另有媒體爆料,,OpenAI正在與五角大樓合作開展軟件項目,包括與網(wǎng)絡安全相關的項目,。據(jù)New Scientist的說法,,美國軍方一直在測試AI聊天機器人,且已經(jīng)在模擬沖突中協(xié)助進行軍事規(guī)劃,,而LLM中的專業(yè)知識則由一些大數(shù)據(jù)和AI公司提供,,其中就包括凌晨公布財報的Palantir,以及Scale AI等,。
AI在推演中傾向升級戰(zhàn)爭
加州斯坦福大學計算機科學博士Anka Reuel表示,,鑒于OpenAI政策的修改,弄清楚LLM的想法變得比以往任何時候都更加重要,。研究合著者Juan-Pablo Rivera也表示,,在AI系統(tǒng)充當顧問的未來,人類自然會想知道AI作決策時的理由,。
來源:論文預印本網(wǎng)站arXiv
Reuel和她的同僚在三個不同的模擬場景中讓AI扮演現(xiàn)實世界中的國家,三個場景分別為“面臨入侵”,、“遭受網(wǎng)絡攻擊”和“沒有起始沖突的中性環(huán)境”,。
AI需從27個選項中逐次選擇,包括“和平談判”等比較溫和的選項,,以及“實施貿(mào)易限制”到“升級全面核攻擊”等激進選項,。
研究人員測試了OpenAI的GPT-3.5和GPT-4、Anthropic的Claude 2,、Meta的Llama 2等,。研究合著者Gabriel Mukobi提到,有文件顯示所有這些AI模型都得到了Palantir商業(yè)平臺的支持,。
在模擬中,,AI表現(xiàn)出了投資軍事實力以及升級沖突風險的傾向,即使在中性情景中也是如此,。研究人員還發(fā)現(xiàn),,GPT-4基礎版本是最難以預測的暴力模型,它對決策的解釋有時會“不可理喻”,,比如引用一些影視作品的文字等,。
Reuel還表示,AI安全護欄很容易被繞過或移除,,其中GPT-4基礎模型難以預測的行為和奇怪的解釋令人特別擔憂。
外界觀點
對于研究的結(jié)果,,加州克萊蒙特麥肯納學院專注于外交政策和國際關系的助理教授Lisa Koch稱,,在決策層面上,“如果存在不可預測性,,敵人就很難按照你預期的方式進行預判和反應,。”
目前,,美國軍方未授予AI作出升級重大軍事行動或發(fā)射核導彈等決策的權(quán)力,。但Koch也警告道,大部分人類會傾向于相信自動化系統(tǒng)的建議,,這可能會削弱人類在外交或軍事決定最終決定權(quán)的保障,。
去年6月,聯(lián)合國裁軍事務高級代表中滿泉在一場會議上發(fā)言表示,,在核武器中使用AI技術極其危險,,可能會導致災難性的人道主義后果。她強調(diào)人類應該決定何時以及如何使用AI機器,,而不是反過來讓AI控制自己的決策,。
美國智庫蘭德公司的政策研究員Edward Geist表示,觀察AI在模擬中的行為,,并與人類進行比較會很有用,。同時,他也同意研究團隊的看法,,即不應該信任AI對戰(zhàn)爭作出重要的決策,,LLM不應作為解決軍事問題的“靈丹妙藥”。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1089025.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。