2月,,以色列軍隊(duì)首次宣布,,在加沙部署了一些人工智能武器裝備,。無獨(dú)有偶,,在俄烏沖突中,,雙方均被指部署了人工智能驅(qū)動的武器裝備或信息系統(tǒng),。這些消息引發(fā)了人們對軍事沖突中使用人工智能武器風(fēng)險的擔(dān)憂。軍事專家警告稱,,人工智能也會犯錯誤,,在軍事沖突中,,這些錯誤可能導(dǎo)致大規(guī)模平民傷亡。國際組織呼吁,,在武裝沖突中使用人工智能具有重大的人道,、法律、道德和安全影響,,各國必須保持人類對機(jī)器的有效控制,。軍事人工智能犯錯可能導(dǎo)致大規(guī)模平民傷亡一名以色列高級國防官員在2月初表示,以色列國防軍在加沙部署了由人工智能驅(qū)動的新型裝備,。包括由以色列“智能射手”公司開發(fā)的人工智能瞄準(zhǔn)鏡,,它可以安裝在步槍、機(jī)槍等武器上,,“可以讓每一名普通士兵成為狙擊手”,,該官員說。以軍在加沙還部署了由人工智能驅(qū)動的無人機(jī),。這些無人機(jī)被用于探測和繪制加沙龐大的地道網(wǎng)絡(luò),,同時可以檢測在地下活動的人。加沙的地道網(wǎng)絡(luò)據(jù)稱總長超過500公里,,自以軍在加沙開展地面行動以來,,這些地道網(wǎng)絡(luò)一直是以軍行動的重點(diǎn)目標(biāo)。以軍在軍事行動中投入的人工智能不止于戰(zhàn)場上的裝備,。據(jù)以色列媒體去年年底報道,,以色列國防軍在指揮系統(tǒng)中部署了人工智能來幫助其選定在加沙空襲的目標(biāo)。一位不愿透露姓名的以色列前情報官員說,,以軍使用一種名為“Habsora”(在希伯來語中意為“福音”)的人工智能算法幫助挑選空襲目標(biāo),。這個算法大幅提升了以軍挑選空襲目標(biāo)的效率,把以色列空軍轉(zhuǎn)變成了高效率的“大規(guī)模暗殺工廠”,。當(dāng)?shù)貢r間2024年2月23日,加沙地帶中部城市代爾拜拉赫,,以色列軍隊(duì)空襲一處住宅,,造成至少22人死亡、數(shù)十人受傷,。圖/IC photo據(jù)報道,,軍事專家表示,有理由對以軍在戰(zhàn)場上應(yīng)用人工智能技術(shù)感到擔(dān)心,。專家認(rèn)為,,人工智能是由人類創(chuàng)造和訓(xùn)練的,訓(xùn)練它們的人犯下的錯誤,,會在人工智能上再現(xiàn),;不過,,人工智能會以一種速度更快、規(guī)模更大的方式重復(fù)這些錯誤,。澳大利亞空中力量智庫的分析師卡洛·科普表示,,依靠人工智能選擇空襲目標(biāo),相比由人類在空襲前進(jìn)行綜合分析并選擇目標(biāo),,可能會造成更大的平民傷亡,。在最壞的情況下,由人工智能決策的空襲會造成大規(guī)模平民死亡,。巴勒斯坦加沙地帶衛(wèi)生部門當(dāng)?shù)貢r間2月29日發(fā)表聲明說,,自新一輪巴以沖突爆發(fā)以來,以色列軍隊(duì)在加沙地帶軍事行動造成的死亡人數(shù)超過3萬,,其中,,超過70%是婦女和兒童。此前,,有以色列媒體指出,,以軍使用的人工智能算法至少對加沙的平民死亡人數(shù)負(fù)有部分責(zé)任。俄烏雙方均使用人工智能指揮無人機(jī)作戰(zhàn)據(jù)外媒報道,,在俄烏沖突中,雙方都部署了應(yīng)用人工智能識別和瞄準(zhǔn)目標(biāo)的小型無人機(jī),。今年2月的一篇報道稱,,俄烏雙方各自部署的無人飛行器數(shù)量均達(dá)數(shù)百萬架,用于對敵方陣地進(jìn)行偵察和攻擊,,雙方都依賴人工智能來指揮無人機(jī)作戰(zhàn),。其中,部分無人機(jī)是由民用無人機(jī)改造而成,,另一些則是先進(jìn)的軍用無人機(jī),。去年11月發(fā)表的另一篇報道稱,俄軍在戰(zhàn)場上使用最有效的無人機(jī)之一是“柳葉刀”-3型自殺式無人機(jī),。該型號無人機(jī)體積小,、機(jī)動性強(qiáng)、難以被探測或擊落,。一架“柳葉刀”-3型無人機(jī)的成本約合3.5萬美元,,但可以損壞或摧毀價值數(shù)百萬美元的主戰(zhàn)坦克和其他裝甲戰(zhàn)車。據(jù)報道,,過去,,無人機(jī)作戰(zhàn)的成效往往取決于操作員的技能,但俄羅斯正在把更多的人工智能技術(shù)融入無人機(jī),,使無人機(jī)能夠自主運(yùn)行,。例如,,由人工智能支持的目標(biāo)探測技術(shù)允許無人機(jī)在飛行中對地面車輛的形狀進(jìn)行識別。一旦人工智能確認(rèn)某個車輛的形狀具有烏克蘭武器系統(tǒng)的特征,,無人機(jī)即可攻擊該物體,。人工智能甚至可以控制攻擊角度,以造成最大傷害,。在這場實(shí)戰(zhàn)中的人工智能競賽中,,烏克蘭也不落下風(fēng)。一位烏克蘭高級軍事官員在去年年底向法國議會代表團(tuán)講述,,烏克蘭軍隊(duì)如何將人工智能系統(tǒng)融入法國制造的凱撒自行火炮,。該軍官解釋說,人工智能將加快識別目標(biāo)的過程,,然后決定針對目標(biāo)使用何種彈藥,。這其中節(jié)約的時間對于前線士兵來說可能生死攸關(guān)。此外,,這種人工智能技術(shù)的應(yīng)用還可以節(jié)省大量彈藥,,據(jù)烏克蘭軍方估計(jì),人工智能可以節(jié)省30%的彈藥使用量,。
當(dāng)?shù)貢r間2024年2月6日,頓涅茨克地區(qū),,俄烏沖突持續(xù),,烏克蘭武裝部隊(duì)第92獨(dú)立突擊旅士兵操作無人機(jī)。圖/IC photo“人工智能軍火商”將烏克蘭變成了戰(zhàn)爭實(shí)驗(yàn)室許多美國和歐洲科技公司在戰(zhàn)場內(nèi)外與烏克蘭方面進(jìn)行合作,,包括微軟,、亞馬遜、谷歌,、SpaceX等公司,。其中,就有兩家頗具爭議的美國科技公司——帕蘭提爾技術(shù)公司(Palantir Technologies)和“明視”人工智能公司(Clearview AI),。根據(jù)帕蘭提爾技術(shù)公司首席執(zhí)行官亞歷克斯·卡普的公開言論,,該公司為烏克蘭提供的軟件使用人工智能分析衛(wèi)星圖像、開源數(shù)據(jù),、無人機(jī)拍攝畫面和地面情報等,,為指揮官提供軍事決策輔助。他說,,“烏克蘭軍事打擊的大部分目標(biāo)定位過程用到了該軟件,。”烏克蘭軍事官員接受了使用帕蘭提爾技術(shù)公司軟件的培訓(xùn),,他們能夠在人工智能的協(xié)助下把攻擊目標(biāo)的位置傳達(dá)給前線指揮官,??ㄆ辗Q,這是一套數(shù)字化“殺傷鏈”,。帕蘭提爾技術(shù)公司總部位于美國科羅拉多州丹佛市,,它自成立以來就爭議不斷。該公司的部分業(yè)務(wù)由美國中央情報局(CIA)的風(fēng)險投資部門投資成立,,該公司為美國移民和海關(guān)執(zhí)法局(ICE),、聯(lián)邦調(diào)查局(FBI)、國防部以及許多國家的情報機(jī)構(gòu)提供數(shù)據(jù)分析軟件,。國際人權(quán)組織指責(zé)帕蘭提爾公司漠視人權(quán),,該公司的產(chǎn)品幫助美國政府機(jī)構(gòu)跟蹤和識別移民和尋求庇護(hù)者?!懊饕暋比斯ぶ悄芄緞t向18個烏克蘭政府機(jī)構(gòu)的1500多名官員提供了該公司開發(fā)的人臉識別工具,。據(jù)稱,烏克蘭政府已使用該工具識別了超過23萬名俄羅斯士兵和軍官,?!拔覀兠刻於寄茏R別出數(shù)百名帶著武器來到烏克蘭的俄羅斯人?!币晃粸蹩颂m高級官員說,,他每上傳一張俄羅斯士兵的照片,人臉識別軟件就會顯示出該士兵的姓名,、家鄉(xiāng)和社交媒體簡介等信息,。烏克蘭政府還使用人臉識別工具識別烏克蘭的親俄民兵和其他親俄人員。據(jù)“明視”人工智能公司披露,,烏克蘭方面在20個月內(nèi)對“明視”數(shù)據(jù)庫進(jìn)行了至少35萬次檢索。此前,,“明視”人工智能公司因從互聯(lián)網(wǎng)上抓取數(shù)十億張公開照片來收集數(shù)據(jù)而受到批評,。批評者抨擊“明視”人工智能公司的行為“令人毛骨悚然”。該公司受到了一系列訴訟,、罰款和法庭簽發(fā)停止令等打擊,。該公司在奧地利、法國,、希臘,、意大利和英國等地被視為非法。人權(quán)組織和隱私倡導(dǎo)者還警告說,,即使在沖突結(jié)束后,,烏克蘭政府可能也難以斷絕對“明視”人臉識別工具的使用。帕蘭提爾技術(shù)公司和“明視”人工智能公司都宣稱免費(fèi)向?yàn)蹩颂m提供軟件,。但批評者指責(zé)這些公司試圖利用沖突來展示其技術(shù),,從而達(dá)到自我宣傳的目的,。“他們是21世紀(jì)的人工智能軍火商,?!泵绹鴩野踩珜<已鸥鞑肌ず諣柌裾f。據(jù)美國媒體報道,,這些“人工智能軍火商”將烏克蘭變成了一個人工智能戰(zhàn)爭實(shí)驗(yàn)室,。卡普承認(rèn),,在戰(zhàn)場上,,他們可以做一些在一般環(huán)境中做不到的事情。一些專家還稱,,這些掌握軍事人工智能技術(shù)的私營公司令人不安,。“這是有史以來第一次,,在一場戰(zhàn)爭中,,大多數(shù)關(guān)鍵創(chuàng)新技術(shù)不是來自政府資助的實(shí)驗(yàn)室,而是來自私營公司,?!彼固垢4髮W(xué)“戈?duì)柕现Y(jié)國家安全創(chuàng)新中心”的聯(lián)合創(chuàng)始人史蒂夫·布蘭克對媒體說,“裝有妖怪的魔瓶被打開了,?!眹H組織呼吁,必須保持人類對機(jī)器的有效控制人工智能等新技術(shù)在沖突中的應(yīng)用引發(fā)了全球?qū)θ藱?quán)的關(guān)注和擔(dān)憂,。2023年12月,,150多個國家和地區(qū)支持了一項(xiàng)聯(lián)合國決議,該決議明確了新軍事技術(shù)帶來的“嚴(yán)重挑戰(zhàn)和問題”,,其中就包括“武器系統(tǒng)中的人工智能和自主性”,。“我們今天看到的最糟糕的傷亡和苦難中,,有一部分是由新技術(shù)帶來的,。”一家國際組織的武器研究專家瑪麗·韋勒姆說,,近期發(fā)生的沖突中不斷上升的平民死亡人數(shù)表明,,新軍事技術(shù)的使用需要受到更大力度的監(jiān)督。人工智能是否應(yīng)該被用于選擇空襲目標(biāo),?機(jī)器能否決定何時以及向哪個目標(biāo)開火,?這些關(guān)于人工智能在軍事沖突中應(yīng)用的話題引發(fā)了激烈的辯論。2022年2月,《原子科學(xué)家公報》曾刊發(fā)一篇題為“讓人工智能控制核武器:可能會出什么問題,?”的文章,。作者給出的回答是:“如果人工智能控制了核武器,人類可能會滅亡,?!弊髡叻Q,風(fēng)險在于人工智能可能會因?yàn)槠渚幊袒蚱湓O(shè)計(jì)的缺陷而犯下可怕的錯誤,。在美國軍方的人工智能實(shí)驗(yàn)中,,就有無數(shù)出錯的例子,人工智能系統(tǒng)會把農(nóng)民誤認(rèn)為是潛入的恐怖分子,;有人在路邊停車更換輪胎,,人工智能卻誤認(rèn)為有人在路邊埋放炸彈;人工智能還在觀察一場婚禮時得出這是恐怖分子聚會的錯誤結(jié)論,。紅十字國際委員會此前發(fā)文呼吁稱,,在武裝沖突中使用人工智能具有重大的人道、法律,、道德和安全影響,。隨著人工智能迅速融入軍事系統(tǒng),各國必須明確并解決這其中的風(fēng)險,。紅十字國際委員會的文章稱,,各國在使用人工智能執(zhí)行可能對人類生命產(chǎn)生嚴(yán)重后果的任務(wù)或決策時,必須保持人類對機(jī)器的有效控制,,“戰(zhàn)爭中的法律義務(wù)和道德責(zé)任絕不能‘外包’給機(jī)器和軟件,。”新京報記者 陳奕凱編輯 張磊 校對 張彥君
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1090467.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。