原標(biāo)題:AI武器化面臨的困局
近日, 在英國皇家航空學(xué)會主辦的一次未來空戰(zhàn)主題會議上,美國空軍“人工智能測試與行動計劃”負(fù)責(zé)人漢密爾頓描述的一個例子引發(fā)熱議,。這個例子的大體內(nèi)容是:一架執(zhí)行壓制防空任務(wù)的人工智能(AI)無人機,,為在模擬測試訓(xùn)練中得分,,“殺死”了阻止自己得分的操作員,在被“告知”殺死操作員要扣分時,又通過攻擊通信塔中斷了操作員與自己的聯(lián)絡(luò)來奪得自主權(quán),。
該案例是真實模擬,,還是像漢密爾頓澄清的那樣只是一個假想,網(wǎng)上對此爭論不休,。但該事件在互聯(lián)網(wǎng)上迅速“發(fā)酵”的事實,,已表明了人們對AI武器化所帶來風(fēng)險的明顯擔(dān)憂,也凸顯了當(dāng)前AI武器化所面臨的困局,。
AI技術(shù)能使無人飛行器,、無人戰(zhàn)車、無人艦艇自主能力倍增,,已是不爭的事實,。依靠先進的邏輯算法與自主學(xué)習(xí)能力,一些AI技術(shù)加持的武器裝備反應(yīng)速度遠(yuǎn)超人類,。
但是,,AI技術(shù)基于邏輯算法的事實,注定了其應(yīng)用于軍事也可能是“雙刃劍”,。
2007年,,美第三機步師用3臺“利劍”機器人進攻一個據(jù)點,由于軟件故障,,其中1臺“利劍”機器人竟調(diào)轉(zhuǎn)槍口對準(zhǔn)美軍操作員,。該操作員反復(fù)嘗試取消行動均未成功,直到有人用火箭筒將其炸翻,。
與此類似,,來自軟件或硬件方面的問題,也可能使AI技術(shù)加持的武器裝備“精神失?!?。
2017年,,曾有不少AI技術(shù)企業(yè)負(fù)責(zé)人呼吁,,應(yīng)該禁止在戰(zhàn)爭中使用AI機器人消滅有生力量。2018年,,谷歌公司宣布,,將中斷與美國軍方在使用人工智能分析無人機視頻方面的合作,并承諾不會將AI技術(shù)用于武器開發(fā),。
之所以有人對此呼吁,,就是因為其對AI武器化的安全可靠程度心中沒底,認(rèn)為存在失控風(fēng)險,。
這種呼吁,,顯然沒抵擋住AI技術(shù)的倍增效應(yīng)給武器裝備研發(fā)者帶來的誘惑。“給它們的自主權(quán)越多,,它們的工作效率就越高,。”這個結(jié)論,,使AI武器化的進程不僅沒有放慢反而有所加快,,自主武器智能化程度越來越高。
但這種呼吁,,也引發(fā)更多關(guān)注,,使AI武器化面臨更大壓力。畢竟,,在人們眼里,,AI武器化不只是科技問題,還是道德,、法律,、倫理等方面的問題。一個根本性問題就是——“機器人一旦擁有自主消滅人類的智能,,意味著什么,?”
既想借力于AI武器化,又擔(dān)心遭其反噬,,這就是武器智能化發(fā)展要面對的困局,。
很重要的一點是:一切要有度。在武器設(shè)計研發(fā)之初,,就必須周密審慎地考慮加裝緊急情況下的人工干預(yù)控制“按鈕”,,制訂復(fù)雜條件下的處置預(yù)案,提供自毀等保底手段,,確保AI武器化安全可控,。
來源:解放軍報
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1044155.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。