了解歷史、尊重歷史才能更好把握當下,。論及人工智能技術(shù)發(fā)展歷史的原點,,我們不可避免地要回溯到1956年夏季在美國新罕布什爾州漢諾威小鎮(zhèn)達特茅斯學院召開的一次研討會,史稱“達特茅斯會議”,。在此次會議上,,近30位在信息論、邏輯和計算理論,、控制論,、機器學習,、神經(jīng)網(wǎng)絡(luò)等領(lǐng)域有卓越成就的學者齊聚達特茅斯學院,圍繞“用機器來模擬人類學習及人類智能的其他特征”,,展開了為期兩個月的研究討論,,并且正式提出了“人工智能”(artificial intelligence)的概念。由此,,人工智能正式登上了人類的歷史舞臺,,科學家們就如何用機器實現(xiàn)“人的智能”開始了數(shù)十年的研究。經(jīng)歷了兩次浪潮和兩次寒冬,,克服了符號表達,、神經(jīng)網(wǎng)絡(luò)和控制論的流派路線之爭,人工智能終于在數(shù)字時代算力提升,、算法革新和大數(shù)據(jù)技術(shù)的助推下,,在21世紀20年代迎來了第三次發(fā)展浪潮,也將人類社會推到了最為接近通用人工智能時代的歷史節(jié)點,。
在思考人工智能究竟會給社會和人類帶來什么樣的未來之前,,有必要先明晰人工智能向前演進的動力和方向。從哲學的視角看,,人工智能最早源于人類用器物和工具替代人力思考,、解放人力的夢想。在公元前9—8世紀古希臘詩人荷馬的長篇敘事詩《伊利亞特》中,,描繪了用黃金鑄成的火神赫菲斯托斯的女仆,,“她們有會思考的心智,通說話語,,行動自如,,從不死的神祇那里,已學得做事的技能”,。500年后,,古希臘哲學家亞里士多德后來在《政治學》中引述了這個故事,并發(fā)出了慨嘆:“倘使每一無生命工具都能按照人的意志或命令而自動進行工作……匠師才用不到從屬,,奴隸主才可放棄奴隸”,。如果說用器械和機器替代人類行動和工作是對模仿人類的早期探索實踐,那么讓機器模仿人類思考,,并像人類一樣具有自我學習的能力則是人工智能時代的終極目標,。正如1956年時任達特茅斯學院數(shù)學系助理教授約翰·麥卡錫所說“我們的目標是‘真正的’智能,而不是所謂‘人工的’智能,?!睋Q言之,人工智能不僅僅是工具,而是有思想的“新生物”,。正是在造福人類的美好夢想的推動下,,人工智能技術(shù)才能在半個多世紀的發(fā)展歷程中,逆境堅守,,峰回路轉(zhuǎn),,將人類社會帶入萬物智聯(lián)的人工智能時代。
如同其他革命性技術(shù)一樣,,人工智能技術(shù)同樣面臨著科林格里奇困境,。1980年,英國技術(shù)哲學家大衛(wèi)·科林格里奇(David Collingridge)在其著作《技術(shù)的社會控制》中描述了技術(shù)控制的兩難困境:一項技術(shù)如果因為擔心不良后果而過早實施控制,,那么技術(shù)很可能就難以爆發(fā),;反之,如果控制過晚,,已經(jīng)成為整個經(jīng)濟和社會結(jié)構(gòu)的一部分,,再來解決不良問題就會變得昂貴,、困難和耗時間,,甚至難以或不能改變。然而,,與其他革命性技術(shù)不同的是,,人工智能技術(shù)的發(fā)展始終伴隨著人類對其取代自身的終極擔憂,特別是當生成式人工智能技術(shù)取得創(chuàng)新性突破之后,。正如亨利·基辛格在其最后一本著作《人工智能時代與人類未來》中所說的:“縱觀歷史,,人類并非沒有經(jīng)歷過技術(shù)變革。然而,,從根本上改變我們這個社會的社會架構(gòu)和政治架構(gòu)的技術(shù)卻屈指可數(shù)……但人工智能有望在人類體驗的所有領(lǐng)域帶來變革,。變革的核心最終將發(fā)生在哲學層面,即改變?nèi)祟惱斫猬F(xiàn)實的方式以及我們在其中扮演的角色,?!?/p>
二、人工智能的國家安全風險
人工智能特別是生成式人工智能取得重大突破,,標志著人工智能技術(shù)有望從弱人工智能實現(xiàn)向強人工智能的飛躍,。人工智能技術(shù)所具有的通用性、智能性和不可解釋性等特點在給社會帶來非凡增長機遇的同時,,其所帶來和即將帶來的安全風險也引發(fā)各方高度關(guān)注,。總體上看,,人工智能帶來的國家安全風險主要表現(xiàn)在三個方面:一是系統(tǒng)性,,二是倫理性,三是軍事性。
首先,,作為一項通用使能技術(shù),,隨著人工智能技術(shù)向國家政治、經(jīng)濟和社會生活各領(lǐng)域的不斷滲透和擴展,,它所帶來的安全風險將可能出現(xiàn)在技術(shù)應(yīng)用的各個節(jié)點,。就目前態(tài)勢而言,,網(wǎng)絡(luò)攻擊者利用人工智能技術(shù),,可以高準確度猜測,、模仿、學習甚至是欺騙檢測規(guī)則,挑戰(zhàn)網(wǎng)絡(luò)防御的核心規(guī)則,;與既有攻擊手段融合在網(wǎng)絡(luò)攻擊效率,、網(wǎng)絡(luò)攻擊范圍、網(wǎng)絡(luò)攻擊手段等方面加劇網(wǎng)絡(luò)攻防長期存在的不對等局面,;人工智能與區(qū)塊鏈,、虛擬現(xiàn)實等技術(shù)結(jié)合還可催生出新型有害信息,,形成有針對性的傳播目標,,衍生有害信息傳播新模式,,并加大數(shù)據(jù)和用戶隱私全面泄漏的風險,。未來,人工智能技術(shù)帶來的安全風險還將進一步從網(wǎng)絡(luò)安全領(lǐng)域向政治,、經(jīng)濟,、社會等各領(lǐng)域擴散,帶來諸如數(shù)據(jù)投毒,、就業(yè)結(jié)構(gòu)大幅度調(diào)整等各種沖擊。由于人工智能是一個新興的領(lǐng)域,,安全體系和能力建設(shè)在該領(lǐng)域普遍還存在一定的真空和較大的延滯,,對國家安全帶來整體上系統(tǒng)性的風險,,需要加以系統(tǒng)性應(yīng)對,。如美國政治風險咨詢公司歐亞集團總裁、政治學者伊恩·布雷默指出,生成式人工智能的迭代升級速度超乎想象,國家試圖控制人工智能并使其為己所用,,但遠遠跟不上人工智能的升級和普及速度;這一技術(shù)很有可能威脅民族國家作為世界地緣政治主體的地位,,并將引發(fā)全球權(quán)力結(jié)構(gòu)和平衡的根本轉(zhuǎn)變,。
其次,人工智能技術(shù)的智能性和過程的不可解釋性,,還將加劇人工智能應(yīng)用的倫理性風險,。人工智能技術(shù)之所以被稱之為“一場革命”,是因為它不僅僅是在“模擬”人類的智能,,而是它可以用自己的邏輯,,能夠在紛繁復(fù)雜的眾多可能性中識別出那些人類智能還無法理解或識別的現(xiàn)實和規(guī)律。例如人工智能在藥物研發(fā)過程中不僅能夠識別那些訓(xùn)練數(shù)據(jù)中抗菌分子的特質(zhì),,還能識別出人類尚未概念化或加以分類的編碼特性,。然而,在這些“創(chuàng)造性”智能涌現(xiàn)的背后,,是人工智能的功能錯綜復(fù)雜,,表現(xiàn)為過程的不可解釋性,人類至今仍不確定這些程序是如何實現(xiàn)目標的,,有些結(jié)果可以驗證獲知真?zhèn)?,但有些生成的文本結(jié)果卻很可能在“一本正經(jīng)地說著假話”。這樣的人工智能技術(shù)在產(chǎn)業(yè)化應(yīng)用過程中必然會帶來不可控的安全風險,,特別是倫理風險,。牛津大學人類未來研究所所長、哲學家Nick Bostrom曾經(jīng)提出一個被稱為“回形針隱喻”的經(jīng)典案例,,他描述了一個能力強大的超級智能機器,,為執(zhí)行“制作盡可能多回形針”的任務(wù),最終把地球上所有的人和物都變成了制作回形針的材料,,以此揭示了“人工智能不具有人類諸如生命等價值觀念”的邏輯,,即:人工智能的智能性越大,造成威脅的潛在可能性就越大,傷害力也就越強,。據(jù)BBC中文網(wǎng)報道,,2023年11月,韓國一名機器人公司的檢修人員被蔬菜分揀機器人壓死,,原因是機器人把他當成了需要處理的一盒蔬菜,。可見,,源于人工智能“智能性”的倫理風險將成為其能否在諸多領(lǐng)域進一步產(chǎn)業(yè)化和社會化應(yīng)用的重大挑戰(zhàn),。
最后,從外部安全來看,,人工智能的武器化和軍事化應(yīng)用已成為威脅國際和平與安全的重要變量,。如同其他新興技術(shù),人工智能在軍事領(lǐng)域的應(yīng)用也不可避免,,但人工智能的威力在于它是一種能夠推動整體軍事能力和文化產(chǎn)生根本性變化,,并在不同軍事領(lǐng)域快速形成衍生技術(shù)的通用使能技術(shù)。例如,,它可以通過大幅提升戰(zhàn)場認知能力,,提高無人裝備自主性,改變參與戰(zhàn)爭的人力與機器資源配置等,,以更加智能,、高效的方式在戰(zhàn)場上起到替代和協(xié)助的角色,并且通過大規(guī)模集結(jié)的“蜂群”效應(yīng)對傳統(tǒng)的戰(zhàn)爭形態(tài),、作戰(zhàn)理念,、裝備體系等方面產(chǎn)生顛覆性的變革。例如,,當具有納秒級OODA循環(huán)的機器人開始主導(dǎo)戰(zhàn)場時,,具有毫秒級OODA循環(huán)的人類無疑將成為戰(zhàn)場進攻和防御中最薄弱的環(huán)節(jié);智能化的武器系統(tǒng)不再完全依賴人的操控,,而是具備了更多的決策自主性,,通過目標識別和跟蹤算法對拍下的戰(zhàn)場態(tài)勢如圖像和視頻進行自主判定,根據(jù)復(fù)雜的戰(zhàn)場態(tài)勢自主選擇前進路線完成預(yù)設(shè)任務(wù),,展現(xiàn)出傳統(tǒng)武器無法比擬的精確度,、可靠性、速度與耐力等新特質(zhì),。然而,,也正是更加智能、更加強大的自主性武器正在讓戰(zhàn)場態(tài)勢更加容易失控和被推卸責任,,傳統(tǒng)武裝沖突中調(diào)停,、斡旋等預(yù)防沖突升級的空間將會急劇縮小,,且戰(zhàn)場形勢一旦失控往往會帶來沖突各方都意想不到的災(zāi)難性后果。從另一個角度看,,或許,,核武器之后,,智能威懾的時代到來了,。
三、智能時代的國家安全
近段時間,,世界主要國家和經(jīng)濟體紛紛出臺有關(guān)人工智能監(jiān)管的立法和治理倡議,,以降低人工智能帶來的安全風險。在國家層面,,2023年10月,,作為世界人工智能領(lǐng)域的頭號強國,美國總統(tǒng)拜登簽署了一項確?!叭斯ぶ悄馨踩?、可靠并值得信賴”的行政命令,為涉及人工智能安全的事項制定了新標準,,包括旨在保護消費者的新隱私保護措施,;12月,歐盟委員會,、歐洲議會和27個成員國的代表達成一項三方協(xié)議,,同意對生成式人工智能工具進行監(jiān)管,歐盟即將迎來全球首個全面的人工智能法案,。盡管各國在人工智能監(jiān)管和發(fā)展問題上的觀點和目標仍有很大分歧,,但在全球范圍內(nèi)推動人工智能監(jiān)管的共同意愿正日趨明朗。2023年10月,,中國提出《全球人工智能治理倡議》,,呼吁通過對話與合作凝聚共識,構(gòu)建開放,、公正、有效的治理機制,,促進人工智能技術(shù)造福于人類,,推動構(gòu)建人類命運共同體;11月,,首屆全球人工智能安全峰會在英國召開,,中國等28個國家和歐盟簽署《布萊切利宣言》,這也是全球第一份針對人工智能技術(shù)的國際性聲明,。不言而喻,,在全球治理進入人工智能時代的當下,如何堅持發(fā)展和安全并重,在加強監(jiān)管的同時盡可能發(fā)揮人工智能技術(shù)的賦能作用,,已經(jīng)成為新時代國家治理能力現(xiàn)代化的重要命題,。
習近平總書記高度關(guān)注人工智能技術(shù)發(fā)展,強調(diào)“要加強人工智能發(fā)展的潛在風險研判和防范,,維護人民利益和國家安全,,確保人工智能安全、可靠,、可控”,。在此,對人工智能的安全風險和影響進行客觀分析并理性應(yīng)對是非常必要的,。首先,,安全風險無處不在,絕對安全無法實現(xiàn),,重要的是推進相關(guān)安全能力建設(shè),,筑牢防范安全風險的盾牌。安全能力的提升不僅意味著要增加必要的安全投入,,更重要的是提升安全能力的產(chǎn)出效率,,例如針對不同類型的安全風險采取有針對性的安全風險防范措施,以安全保障發(fā)展為政策目標,。其次,,堅持全力推動人工智能技術(shù)創(chuàng)新的同時,對人工智能的產(chǎn)業(yè)化應(yīng)用守住倫理道德底線,,底線的劃分應(yīng)清晰明確,,避免邊界模糊造成安全泛化,抑制技術(shù)的創(chuàng)新應(yīng)用,,同時應(yīng)明確,,倫理道德風險無法完全消除,重要的是在風險中不斷推動安全體系的構(gòu)建和能力的提升,。最后,,人工智能的軍事化應(yīng)用很可能具備如核武器一樣的威懾力,要實現(xiàn)智能威懾下的戰(zhàn)略穩(wěn)定,,其前提條件是必須具備足夠的實力,,跨過“智能軍事的門檻”,這也就意味著在當前階段,,人工智能治理應(yīng)倡導(dǎo)發(fā)展優(yōu)先,,因為不發(fā)展才是最大的不安全。
總之,,不論人工智能的發(fā)展走到何種程度,,人工智能已成為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的顛覆性技術(shù),,也充分展現(xiàn)了它賦能各行各業(yè)的無限廣闊的應(yīng)用前景。當下,,其最終的歸宿仍然未定,,而我們?nèi)杂袝r間和機會在科林格里奇困境走向極致之前尋得發(fā)展與安全的平衡之道,盡快筑牢安全屏障,,擁抱智能時代的到來,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1100158.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。