了解歷史、尊重歷史才能更好把握當(dāng)下,。論及人工智能技術(shù)發(fā)展歷史的原點(diǎn),,我們不可避免地要回溯到1956年夏季在美國新罕布什爾州漢諾威小鎮(zhèn)達(dá)特茅斯學(xué)院召開的一次研討會(huì),史稱“達(dá)特茅斯會(huì)議”,。在此次會(huì)議上,,近30位在信息論,、邏輯和計(jì)算理論,、控制論,、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等領(lǐng)域有卓越成就的學(xué)者齊聚達(dá)特茅斯學(xué)院,,圍繞“用機(jī)器來模擬人類學(xué)習(xí)及人類智能的其他特征”,,展開了為期兩個(gè)月的研究討論,,并且正式提出了“人工智能”(artificial intelligence)的概念。由此,,人工智能正式登上了人類的歷史舞臺(tái),,科學(xué)家們就如何用機(jī)器實(shí)現(xiàn)“人的智能”開始了數(shù)十年的研究。經(jīng)歷了兩次浪潮和兩次寒冬,,克服了符號(hào)表達(dá),、神經(jīng)網(wǎng)絡(luò)和控制論的流派路線之爭,人工智能終于在數(shù)字時(shí)代算力提升,、算法革新和大數(shù)據(jù)技術(shù)的助推下,,在21世紀(jì)20年代迎來了第三次發(fā)展浪潮,也將人類社會(huì)推到了最為接近通用人工智能時(shí)代的歷史節(jié)點(diǎn),。
在思考人工智能究竟會(huì)給社會(huì)和人類帶來什么樣的未來之前,,有必要先明晰人工智能向前演進(jìn)的動(dòng)力和方向。從哲學(xué)的視角看,,人工智能最早源于人類用器物和工具替代人力思考,、解放人力的夢想。在公元前9—8世紀(jì)古希臘詩人荷馬的長篇敘事詩《伊利亞特》中,,描繪了用黃金鑄成的火神赫菲斯托斯的女仆,,“她們有會(huì)思考的心智,通說話語,,行動(dòng)自如,,從不死的神祇那里,已學(xué)得做事的技能”,。500年后,,古希臘哲學(xué)家亞里士多德后來在《政治學(xué)》中引述了這個(gè)故事,并發(fā)出了慨嘆:“倘使每一無生命工具都能按照人的意志或命令而自動(dòng)進(jìn)行工作……匠師才用不到從屬,,奴隸主才可放棄奴隸”。如果說用器械和機(jī)器替代人類行動(dòng)和工作是對模仿人類的早期探索實(shí)踐,,那么讓機(jī)器模仿人類思考,,并像人類一樣具有自我學(xué)習(xí)的能力則是人工智能時(shí)代的終極目標(biāo),。正如1956年時(shí)任達(dá)特茅斯學(xué)院數(shù)學(xué)系助理教授約翰·麥卡錫所說“我們的目標(biāo)是‘真正的’智能,,而不是所謂‘人工的’智能?!睋Q言之,,人工智能不僅僅是工具,,而是有思想的“新生物”,。正是在造福人類的美好夢想的推動(dòng)下,人工智能技術(shù)才能在半個(gè)多世紀(jì)的發(fā)展歷程中,,逆境堅(jiān)守,峰回路轉(zhuǎn),,將人類社會(huì)帶入萬物智聯(lián)的人工智能時(shí)代,。
如同其他革命性技術(shù)一樣,人工智能技術(shù)同樣面臨著科林格里奇困境,。1980年,,英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇(David Collingridge)在其著作《技術(shù)的社會(huì)控制》中描述了技術(shù)控制的兩難困境:一項(xiàng)技術(shù)如果因?yàn)閾?dān)心不良后果而過早實(shí)施控制,那么技術(shù)很可能就難以爆發(fā),;反之,如果控制過晚,,已經(jīng)成為整個(gè)經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)的一部分,,再來解決不良問題就會(huì)變得昂貴、困難和耗時(shí)間,,甚至難以或不能改變,。然而,與其他革命性技術(shù)不同的是,,人工智能技術(shù)的發(fā)展始終伴隨著人類對其取代自身的終極擔(dān)憂,,特別是當(dāng)生成式人工智能技術(shù)取得創(chuàng)新性突破之后。正如亨利·基辛格在其最后一本著作《人工智能時(shí)代與人類未來》中所說的:“縱觀歷史,,人類并非沒有經(jīng)歷過技術(shù)變革,。然而,從根本上改變我們這個(gè)社會(huì)的社會(huì)架構(gòu)和政治架構(gòu)的技術(shù)卻屈指可數(shù)……但人工智能有望在人類體驗(yàn)的所有領(lǐng)域帶來變革,。變革的核心最終將發(fā)生在哲學(xué)層面,,即改變?nèi)祟惱斫猬F(xiàn)實(shí)的方式以及我們在其中扮演的角色?!?/p>
二,、人工智能的國家安全風(fēng)險(xiǎn)
人工智能特別是生成式人工智能取得重大突破,標(biāo)志著人工智能技術(shù)有望從弱人工智能實(shí)現(xiàn)向強(qiáng)人工智能的飛躍,。人工智能技術(shù)所具有的通用性,、智能性和不可解釋性等特點(diǎn)在給社會(huì)帶來非凡增長機(jī)遇的同時(shí),其所帶來和即將帶來的安全風(fēng)險(xiǎn)也引發(fā)各方高度關(guān)注,??傮w上看,,人工智能帶來的國家安全風(fēng)險(xiǎn)主要表現(xiàn)在三個(gè)方面:一是系統(tǒng)性,二是倫理性,,三是軍事性,。
首先,作為一項(xiàng)通用使能技術(shù),,隨著人工智能技術(shù)向國家政治,、經(jīng)濟(jì)和社會(huì)生活各領(lǐng)域的不斷滲透和擴(kuò)展,它所帶來的安全風(fēng)險(xiǎn)將可能出現(xiàn)在技術(shù)應(yīng)用的各個(gè)節(jié)點(diǎn),。就目前態(tài)勢而言,,網(wǎng)絡(luò)攻擊者利用人工智能技術(shù),可以高準(zhǔn)確度猜測,、模仿,、學(xué)習(xí)甚至是欺騙檢測規(guī)則,挑戰(zhàn)網(wǎng)絡(luò)防御的核心規(guī)則,;與既有攻擊手段融合在網(wǎng)絡(luò)攻擊效率,、網(wǎng)絡(luò)攻擊范圍、網(wǎng)絡(luò)攻擊手段等方面加劇網(wǎng)絡(luò)攻防長期存在的不對等局面,;人工智能與區(qū)塊鏈、虛擬現(xiàn)實(shí)等技術(shù)結(jié)合還可催生出新型有害信息,,形成有針對性的傳播目標(biāo),,衍生有害信息傳播新模式,并加大數(shù)據(jù)和用戶隱私全面泄漏的風(fēng)險(xiǎn),。未來,,人工智能技術(shù)帶來的安全風(fēng)險(xiǎn)還將進(jìn)一步從網(wǎng)絡(luò)安全領(lǐng)域向政治、經(jīng)濟(jì),、社會(huì)等各領(lǐng)域擴(kuò)散,,帶來諸如數(shù)據(jù)投毒、就業(yè)結(jié)構(gòu)大幅度調(diào)整等各種沖擊,。由于人工智能是一個(gè)新興的領(lǐng)域,,安全體系和能力建設(shè)在該領(lǐng)域普遍還存在一定的真空和較大的延滯,對國家安全帶來整體上系統(tǒng)性的風(fēng)險(xiǎn),,需要加以系統(tǒng)性應(yīng)對,。如美國政治風(fēng)險(xiǎn)咨詢公司歐亞集團(tuán)總裁、政治學(xué)者伊恩·布雷默指出,,生成式人工智能的迭代升級速度超乎想象,,國家試圖控制人工智能并使其為己所用,但遠(yuǎn)遠(yuǎn)跟不上人工智能的升級和普及速度,;這一技術(shù)很有可能威脅民族國家作為世界地緣政治主體的地位,,并將引發(fā)全球權(quán)力結(jié)構(gòu)和平衡的根本轉(zhuǎn)變。
其次,,人工智能技術(shù)的智能性和過程的不可解釋性,,還將加劇人工智能應(yīng)用的倫理性風(fēng)險(xiǎn)。人工智能技術(shù)之所以被稱之為“一場革命”,,是因?yàn)樗粌H僅是在“模擬”人類的智能,,而是它可以用自己的邏輯,能夠在紛繁復(fù)雜的眾多可能性中識(shí)別出那些人類智能還無法理解或識(shí)別的現(xiàn)實(shí)和規(guī)律,。例如人工智能在藥物研發(fā)過程中不僅能夠識(shí)別那些訓(xùn)練數(shù)據(jù)中抗菌分子的特質(zhì),,還能識(shí)別出人類尚未概念化或加以分類的編碼特性。然而,,在這些“創(chuàng)造性”智能涌現(xiàn)的背后,,是人工智能的功能錯(cuò)綜復(fù)雜,表現(xiàn)為過程的不可解釋性,,人類至今仍不確定這些程序是如何實(shí)現(xiàn)目標(biāo)的,,有些結(jié)果可以驗(yàn)證獲知真?zhèn)危行┥傻奈谋窘Y(jié)果卻很可能在“一本正經(jīng)地說著假話”,。這樣的人工智能技術(shù)在產(chǎn)業(yè)化應(yīng)用過程中必然會(huì)帶來不可控的安全風(fēng)險(xiǎn),,特別是倫理風(fēng)險(xiǎn)。牛津大學(xué)人類未來研究所所長,、哲學(xué)家Nick Bostrom曾經(jīng)提出一個(gè)被稱為“回形針隱喻”的經(jīng)典案例,,他描述了一個(gè)能力強(qiáng)大的超級智能機(jī)器,為執(zhí)行“制作盡可能多回形針”的任務(wù),,最終把地球上所有的人和物都變成了制作回形針的材料,,以此揭示了“人工智能不具有人類諸如生命等價(jià)值觀念”的邏輯,即:人工智能的智能性越大,,造成威脅的潛在可能性就越大,,傷害力也就越強(qiáng)。據(jù)BBC中文網(wǎng)報(bào)道,,2023年11月,,韓國一名機(jī)器人公司的檢修人員被蔬菜分揀機(jī)器人壓死,,原因是機(jī)器人把他當(dāng)成了需要處理的一盒蔬菜??梢?,源于人工智能“智能性”的倫理風(fēng)險(xiǎn)將成為其能否在諸多領(lǐng)域進(jìn)一步產(chǎn)業(yè)化和社會(huì)化應(yīng)用的重大挑戰(zhàn)。
最后,,從外部安全來看,,人工智能的武器化和軍事化應(yīng)用已成為威脅國際和平與安全的重要變量。如同其他新興技術(shù),,人工智能在軍事領(lǐng)域的應(yīng)用也不可避免,,但人工智能的威力在于它是一種能夠推動(dòng)整體軍事能力和文化產(chǎn)生根本性變化,并在不同軍事領(lǐng)域快速形成衍生技術(shù)的通用使能技術(shù),。例如,,它可以通過大幅提升戰(zhàn)場認(rèn)知能力,提高無人裝備自主性,,改變參與戰(zhàn)爭的人力與機(jī)器資源配置等,,以更加智能、高效的方式在戰(zhàn)場上起到替代和協(xié)助的角色,,并且通過大規(guī)模集結(jié)的“蜂群”效應(yīng)對傳統(tǒng)的戰(zhàn)爭形態(tài),、作戰(zhàn)理念、裝備體系等方面產(chǎn)生顛覆性的變革,。例如,,當(dāng)具有納秒級OODA循環(huán)的機(jī)器人開始主導(dǎo)戰(zhàn)場時(shí),具有毫秒級OODA循環(huán)的人類無疑將成為戰(zhàn)場進(jìn)攻和防御中最薄弱的環(huán)節(jié),;智能化的武器系統(tǒng)不再完全依賴人的操控,,而是具備了更多的決策自主性,通過目標(biāo)識(shí)別和跟蹤算法對拍下的戰(zhàn)場態(tài)勢如圖像和視頻進(jìn)行自主判定,,根據(jù)復(fù)雜的戰(zhàn)場態(tài)勢自主選擇前進(jìn)路線完成預(yù)設(shè)任務(wù),,展現(xiàn)出傳統(tǒng)武器無法比擬的精確度、可靠性,、速度與耐力等新特質(zhì),。然而,也正是更加智能,、更加強(qiáng)大的自主性武器正在讓戰(zhàn)場態(tài)勢更加容易失控和被推卸責(zé)任,,傳統(tǒng)武裝沖突中調(diào)停、斡旋等預(yù)防沖突升級的空間將會(huì)急劇縮小,,且戰(zhàn)場形勢一旦失控往往會(huì)帶來沖突各方都意想不到的災(zāi)難性后果,。從另一個(gè)角度看,或許,核武器之后,,智能威懾的時(shí)代到來了,。
三、智能時(shí)代的國家安全
近段時(shí)間,,世界主要國家和經(jīng)濟(jì)體紛紛出臺(tái)有關(guān)人工智能監(jiān)管的立法和治理倡議,,以降低人工智能帶來的安全風(fēng)險(xiǎn),。在國家層面,,2023年10月,作為世界人工智能領(lǐng)域的頭號(hào)強(qiáng)國,,美國總統(tǒng)拜登簽署了一項(xiàng)確?!叭斯ぶ悄馨踩⒖煽坎⒅档眯刨嚒钡男姓?,為涉及人工智能安全的事項(xiàng)制定了新標(biāo)準(zhǔn),,包括旨在保護(hù)消費(fèi)者的新隱私保護(hù)措施;12月,,歐盟委員會(huì),、歐洲議會(huì)和27個(gè)成員國的代表達(dá)成一項(xiàng)三方協(xié)議,同意對生成式人工智能工具進(jìn)行監(jiān)管,,歐盟即將迎來全球首個(gè)全面的人工智能法案,。盡管各國在人工智能監(jiān)管和發(fā)展問題上的觀點(diǎn)和目標(biāo)仍有很大分歧,但在全球范圍內(nèi)推動(dòng)人工智能監(jiān)管的共同意愿正日趨明朗,。2023年10月,,中國提出《全球人工智能治理倡議》,呼吁通過對話與合作凝聚共識(shí),,構(gòu)建開放,、公正、有效的治理機(jī)制,,促進(jìn)人工智能技術(shù)造福于人類,,推動(dòng)構(gòu)建人類命運(yùn)共同體;11月,,首屆全球人工智能安全峰會(huì)在英國召開,,中國等28個(gè)國家和歐盟簽署《布萊切利宣言》,這也是全球第一份針對人工智能技術(shù)的國際性聲明,。不言而喻,,在全球治理進(jìn)入人工智能時(shí)代的當(dāng)下,如何堅(jiān)持發(fā)展和安全并重,,在加強(qiáng)監(jiān)管的同時(shí)盡可能發(fā)揮人工智能技術(shù)的賦能作用,,已經(jīng)成為新時(shí)代國家治理能力現(xiàn)代化的重要命題。
習(xí)近平總書記高度關(guān)注人工智能技術(shù)發(fā)展,強(qiáng)調(diào)“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,,維護(hù)人民利益和國家安全,,確保人工智能安全、可靠,、可控”,。在此,對人工智能的安全風(fēng)險(xiǎn)和影響進(jìn)行客觀分析并理性應(yīng)對是非常必要的,。首先,,安全風(fēng)險(xiǎn)無處不在,絕對安全無法實(shí)現(xiàn),,重要的是推進(jìn)相關(guān)安全能力建設(shè),,筑牢防范安全風(fēng)險(xiǎn)的盾牌。安全能力的提升不僅意味著要增加必要的安全投入,,更重要的是提升安全能力的產(chǎn)出效率,,例如針對不同類型的安全風(fēng)險(xiǎn)采取有針對性的安全風(fēng)險(xiǎn)防范措施,以安全保障發(fā)展為政策目標(biāo),。其次,,堅(jiān)持全力推動(dòng)人工智能技術(shù)創(chuàng)新的同時(shí),對人工智能的產(chǎn)業(yè)化應(yīng)用守住倫理道德底線,,底線的劃分應(yīng)清晰明確,,避免邊界模糊造成安全泛化,抑制技術(shù)的創(chuàng)新應(yīng)用,,同時(shí)應(yīng)明確,,倫理道德風(fēng)險(xiǎn)無法完全消除,重要的是在風(fēng)險(xiǎn)中不斷推動(dòng)安全體系的構(gòu)建和能力的提升,。最后,,人工智能的軍事化應(yīng)用很可能具備如核武器一樣的威懾力,要實(shí)現(xiàn)智能威懾下的戰(zhàn)略穩(wěn)定,,其前提條件是必須具備足夠的實(shí)力,,跨過“智能軍事的門檻”,這也就意味著在當(dāng)前階段,,人工智能治理應(yīng)倡導(dǎo)發(fā)展優(yōu)先,,因?yàn)椴话l(fā)展才是最大的不安全。
總之,,不論人工智能的發(fā)展走到何種程度,,人工智能已成為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),也充分展現(xiàn)了它賦能各行各業(yè)的無限廣闊的應(yīng)用前景,。當(dāng)下,,其最終的歸宿仍然未定,,而我們?nèi)杂袝r(shí)間和機(jī)會(huì)在科林格里奇困境走向極致之前尋得發(fā)展與安全的平衡之道,盡快筑牢安全屏障,,擁抱智能時(shí)代的到來,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1100158.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。