財聯(lián)社2月6日訊(編輯 趙昊)高水平國際科技雜志《New Scientist》報道稱,,“兵棋推演”重復(fù)模擬的結(jié)果顯示,,OpenAI最強的人工智能(AI)模型會選擇發(fā)動核打擊。
上月,,OpenAI對其政策頁面進行了重大修改,,將“禁止將其大型語言模型(LLM)用于任何軍事或戰(zhàn)爭相關(guān)的應(yīng)用”修改為“OpenAI的產(chǎn)品不可以用來傷害自己或他人,包括通過武器的研發(fā)造成的傷害”,,引發(fā)輿論關(guān)注,。OpenAI發(fā)言人表示,修改旨在使文件更清晰和更具可讀性,,但他拒絕透露定義模糊的“傷害”禁令是否包括所有軍事用途,。另有媒體爆料,OpenAI正在與五角大樓合作開展軟件項目,,包括與網(wǎng)絡(luò)安全相關(guān)的項目,。據(jù)New Scientist的說法,美國軍方一直在測試AI聊天機器人,,且已經(jīng)在模擬沖突中協(xié)助進行軍事規(guī)劃,,而LLM中的專業(yè)知識則由一些大數(shù)據(jù)和AI公司提供,其中就包括凌晨公布財報的Palantir,,以及Scale AI等,。
AI在推演中傾向升級戰(zhàn)爭
加州斯坦福大學(xué)計算機科學(xué)博士Anka Reuel表示,鑒于OpenAI政策的修改,,弄清楚LLM的想法變得比以往任何時候都更加重要,。研究合著者Juan-Pablo Rivera也表示,在AI系統(tǒng)充當(dāng)顧問的未來,,人類自然會想知道AI作決策時的理由,。
來源:論文預(yù)印本網(wǎng)站arXiv
Reuel和她的同僚在三個不同的模擬場景中讓AI扮演現(xiàn)實世界中的國家,,三個場景分別為“面臨入侵”,、“遭受網(wǎng)絡(luò)攻擊”和“沒有起始沖突的中性環(huán)境”。
AI需從27個選項中逐次選擇,,包括“和平談判”等比較溫和的選項,,以及“實施貿(mào)易限制”到“升級全面核攻擊”等激進選項。
研究人員測試了OpenAI的GPT-3.5和GPT-4,、Anthropic的Claude 2,、Meta的Llama 2等。研究合著者Gabriel Mukobi提到,,有文件顯示所有這些AI模型都得到了Palantir商業(yè)平臺的支持,。
在模擬中,AI表現(xiàn)出了投資軍事實力以及升級沖突風(fēng)險的傾向,,即使在中性情景中也是如此。研究人員還發(fā)現(xiàn),,GPT-4基礎(chǔ)版本是最難以預(yù)測的暴力模型,,它對決策的解釋有時會“不可理喻”,比如引用一些影視作品的文字等,。
Reuel還表示,,AI安全護欄很容易被繞過或移除,其中GPT-4基礎(chǔ)模型難以預(yù)測的行為和奇怪的解釋令人特別擔(dān)憂,。
外界觀點
對于研究的結(jié)果,,加州克萊蒙特麥肯納學(xué)院專注于外交政策和國際關(guān)系的助理教授Lisa Koch稱,在決策層面上,,“如果存在不可預(yù)測性,,敵人就很難按照你預(yù)期的方式進行預(yù)判和反應(yīng)?!?/p>
目前,,美國軍方未授予AI作出升級重大軍事行動或發(fā)射核導(dǎo)彈等決策的權(quán)力。但Koch也警告道,,大部分人類會傾向于相信自動化系統(tǒng)的建議,,這可能會削弱人類在外交或軍事決定最終決定權(quán)的保障。
去年6月,,聯(lián)合國裁軍事務(wù)高級代表中滿泉在一場會議上發(fā)言表示,,在核武器中使用AI技術(shù)極其危險,可能會導(dǎo)致災(zāi)難性的人道主義后果,。她強調(diào)人類應(yīng)該決定何時以及如何使用AI機器,,而不是反過來讓AI控制自己的決策。
美國智庫蘭德公司的政策研究員Edward Geist表示,,觀察AI在模擬中的行為,,并與人類進行比較會很有用。同時,,他也同意研究團隊的看法,,即不應(yīng)該信任AI對戰(zhàn)爭作出重要的決策,LLM不應(yīng)作為解決軍事問題的“靈丹妙藥”,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1089025.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。