4月29日至5月1日,自主武器國際會(huì)議在奧地利首都維也納召開,,來自140余個(gè)國家和地區(qū)以及聯(lián)合國,、非政府組織和研究機(jī)構(gòu)的1000余名官員出席。此次會(huì)議以“站在十字路口的人類:自主武器系統(tǒng)和監(jiān)管的挑戰(zhàn)”為主題,,聚焦人工智能(AI)與軍事技術(shù)結(jié)合相關(guān)話題,,尤其是由AI增強(qiáng)和支持的自主武器系統(tǒng),引發(fā)輿論廣泛關(guān)注,。奧地利外交部長沙倫貝格在自主武器國際會(huì)議上發(fā)言。作為一種新興武器平臺(tái),,自主武器系統(tǒng)能夠在無人干預(yù)情況下獨(dú)立搜索,、識(shí)別并攻擊目標(biāo)。對(duì)此,,奧地利外交部長沙倫貝格表示:“誰生誰死的決定權(quán),,必須掌握在人類而不是機(jī)器手中,。然而,事實(shí)是科技正在飛速發(fā)展,,政策卻落后了,。”針對(duì)當(dāng)前已有自主武器投入局部地區(qū)沖突的實(shí)例,,沙倫貝格稱:“人類正站在一個(gè)十字路口,,自主武器系統(tǒng)很快將布滿世界戰(zhàn)場(chǎng)。我們已經(jīng)通過AI控制的無人機(jī)和基于AI的打擊目標(biāo)篩選,,見識(shí)到這一點(diǎn),。這是我們這一代人的‘奧本海默時(shí)刻’?!彼岬降膴W本海默,,是美國“曼哈頓計(jì)劃”的首席科學(xué)家,被稱為“原子彈之父”,。但奧本海默一直用自己的影響力呼吁控制核武器,,并極力反對(duì)核軍備競(jìng)賽。此次會(huì)議強(qiáng)調(diào)了AI的軍事使用和AI軍備競(jìng)賽的危險(xiǎn),,表達(dá)了對(duì)AI武器化引發(fā)的倫理和安全風(fēng)險(xiǎn)的擔(dān)憂,。有參會(huì)人員認(rèn)為,AI的運(yùn)用降低了自主武器制造門檻,,可能造成此類武器數(shù)量泛濫,,如果落入恐怖分子等非國家行為體手中,將加劇國際社會(huì)的不穩(wěn)定,。美國信息物理學(xué)家阿吉雷發(fā)出警告稱,,2017年拉塞爾博士預(yù)言的“殺人機(jī)器人時(shí)代已經(jīng)到來”。他表示,,只要擁有3D打印機(jī)和基本編程知識(shí),,一名學(xué)生便可制作出有能力引起大規(guī)模傷亡的無人機(jī)。另外,,人工智能系統(tǒng)如果遭黑客攻擊,導(dǎo)致衛(wèi)星和其他數(shù)據(jù)丟失,,甚至人工智能本身引起的幻覺,,都可能成為AI武器系統(tǒng)潛在的風(fēng)險(xiǎn)。會(huì)議還探討了是否應(yīng)對(duì)AI武器化進(jìn)行必要干預(yù)和控制,。會(huì)議期間,,許多專家建議采取控制武器出口、建立人道主義法規(guī)等措施,,應(yīng)對(duì)AI武器化帶來的挑戰(zhàn),。此次會(huì)議達(dá)成一項(xiàng)不具約束力的行為準(zhǔn)則,并形成一份強(qiáng)調(diào)“以人為本”的報(bào)告,,以供下屆聯(lián)合國大會(huì)使用,,旨在彌補(bǔ)當(dāng)前國際法在禁止AI武器化方面的空白。近年來,,國際社會(huì)關(guān)于監(jiān)管AI武器化的呼聲持續(xù)走高。在聯(lián)合國的主持下,,各國在這方面進(jìn)行了長達(dá)10年的專家談判,。2023年11月,在首屆全球人工智能安全峰會(huì)上,,28個(gè)國家和歐盟簽署首份針對(duì)AI的國際性聲明《布萊切利宣言》,,同意通過國際合作建立AI監(jiān)管方法。相關(guān)評(píng)論指出,,隨著AI驅(qū)動(dòng)的致命性自主武器系統(tǒng)投入實(shí)戰(zhàn),,繼火藥和核武器之后的“第三次軍事革命”或?qū)l(fā)生。然而,,短期內(nèi)實(shí)現(xiàn)對(duì)AI武器的有效管控并非易事,。隨著全球沖突不斷升級(jí),多國企業(yè)不斷加大對(duì)AI的推廣和投資力度,,從客觀上加大了監(jiān)管難度,。此外,AI武器涉及多種技術(shù)組合,,也已不再適用傳統(tǒng)的軍備控制條約,。紅十字國際委員會(huì)主席斯波利亞里茨在會(huì)上強(qiáng)調(diào),目前還不能保證AI武器將來不會(huì)落入恐怖分子之手,這也是為何迅速采取行動(dòng)監(jiān)管AI武器化如此重要,。有評(píng)論人士指出,,AI驅(qū)動(dòng)的武器系統(tǒng)在具備低成本、易操作等優(yōu)點(diǎn)的同時(shí),,也存在違背道德,、容易失控等風(fēng)險(xiǎn)。利用好AI武器這把“雙刃劍”,,需要國際社會(huì)的廣泛合作和對(duì)未來責(zé)任的深刻認(rèn)識(shí),,確保其安全可控。作者:郭秉鑫 劉明宇來源:中國國防報(bào)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1101745.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。