人工智能的倫理挑戰(zhàn)不僅體現(xiàn)在“技術(shù)鴻溝”中,,也體現(xiàn)在更為廣泛的領(lǐng)域,。這些挑戰(zhàn)集中體現(xiàn)在四個(gè)維度在人工智能技術(shù)與規(guī)則方面領(lǐng)先的國(guó)家,正處于技術(shù)優(yōu)勢(shì)快速積累周期,,這種優(yōu)勢(shì)很可能成為諸如半導(dǎo)體領(lǐng)域存在的“卡脖子”工具,,為人工智能后發(fā)國(guó)家的進(jìn)步帶來(lái)阻礙2023年成為全球人工智能倫理治理開(kāi)局之年。各國(guó)政府及國(guó)際組織開(kāi)始密集討論人工智能的倫理問(wèn)題,,發(fā)布一系列聲明,、愿景及政策,試圖規(guī)范人工智能的發(fā)展路徑相比于治理風(fēng)險(xiǎn),,美國(guó)更不愿在確保自身技術(shù)絕對(duì)領(lǐng)先前就嚴(yán)格限制該技術(shù)的發(fā)展,。因此,美國(guó)在人工智能治理上往往落后于各國(guó)進(jìn)度,,也滯后于技術(shù)發(fā)展文 | 李崢 張嵐舒2023年,,伴隨著新一代生成式人工智能應(yīng)用ChatGPT的橫空出世,國(guó)際社會(huì)對(duì)于人工智能倫理挑戰(zhàn)的討論也日益升溫,。越來(lái)越多的觀察人士發(fā)現(xiàn),,人工智能的快速發(fā)展可能超出了人類(lèi)社會(huì)的準(zhǔn)備,并認(rèn)為其帶來(lái)的風(fēng)險(xiǎn)不可忽視,。倫理挑戰(zhàn)已經(jīng)成為人工智能帶來(lái)的廣泛爭(zhēng)議中最為突出的話題,,也將對(duì)未來(lái)人工智能與人類(lèi)社會(huì)的互動(dòng)過(guò)程帶來(lái)深遠(yuǎn)影響。上海科技創(chuàng)新成果展上的機(jī)器人展品(2023 年11月29日攝) 方喆攝/本刊四個(gè)維度看人工智能倫理挑戰(zhàn)與互聯(lián)網(wǎng)的誕生類(lèi)似,,人工智能也將給世界帶來(lái)重大變革,。這種影響通常是一柄雙刃劍,新技術(shù)既改造了世界,,又沖擊了世界,,并不是每個(gè)人都能從中均等受益。人工智能的倫理挑戰(zhàn)不僅體現(xiàn)在“技術(shù)鴻溝”中,,也體現(xiàn)在更為廣泛的領(lǐng)域,。這些挑戰(zhàn)集中體現(xiàn)在四個(gè)維度。第一個(gè)維度源于人工智能的“自主性”,,這意味著該技術(shù)相比其他前沿技術(shù)更容易脫離人類(lèi)控制,。相關(guān)倫理挑戰(zhàn)主要體現(xiàn)在人工智能是否會(huì)欺騙人類(lèi)和控制人類(lèi)意識(shí),是否會(huì)消減人類(lèi)的發(fā)展機(jī)會(huì),。相比互聯(lián)網(wǎng)及社交媒體,,人工智能能夠更加全面地理解個(gè)體、“感知”和預(yù)測(cè)用戶(hù)的所想所需,。這種能力與“深度偽造”技術(shù)相結(jié)合,,將進(jìn)一步加劇針對(duì)不同群體的“控制”和“欺騙”。通過(guò)定向信息投喂,,人工智能可能制造出更加嚴(yán)密的“信息繭房”,、更加深度的“意識(shí)操控”。2023年,,英國(guó)法院判決了一起人工智能聊天機(jī)器人慫恿一名男子刺殺女王的案件,,即體現(xiàn)出此類(lèi)風(fēng)險(xiǎn)。以ChatGPT為代表的生成式人工智能不斷迭代進(jìn)步,,也讓商業(yè)界看到了越來(lái)越廣闊的“人力替代”場(chǎng)景,。根據(jù)麥肯錫咨詢(xún)公司的預(yù)測(cè),到2030年,,隨著人工智能等技術(shù)的進(jìn)步,,多達(dá)3.75億名勞動(dòng)者可能面臨再就業(yè)問(wèn)題。調(diào)研公司牛津經(jīng)濟(jì)也得出類(lèi)似結(jié)論,,到2030年,,全球大約2000萬(wàn)個(gè)制造業(yè)工作崗位將消失,這些工作將轉(zhuǎn)向自動(dòng)化系統(tǒng),,而被迫轉(zhuǎn)移的制造業(yè)勞動(dòng)力即便轉(zhuǎn)向服務(wù)業(yè)崗位,,也同樣面臨被機(jī)器替代的局面。在眾多的崗位中,,被人工智能技術(shù)取代風(fēng)險(xiǎn)最高的工作類(lèi)型包括程序員,、軟件工程師,、數(shù)據(jù)分析師等技術(shù)類(lèi)工作,廣告,、內(nèi)容創(chuàng)作,、技術(shù)寫(xiě)作、新聞等媒體類(lèi)工作,,以及律師,、市場(chǎng)分析師、教師,、金融分析師、財(cái)務(wù)顧問(wèn),、交易員,、平面設(shè)計(jì)師、會(huì)計(jì),、客服等,。這些崗位普遍具有較高學(xué)歷,人員失業(yè)意味著巨大的人力資本損失,,將加劇一些國(guó)家的結(jié)構(gòu)性失業(yè)難題,。第二個(gè)維度源于人工智能的“非透明性”,這意味著該技術(shù)隱藏的風(fēng)險(xiǎn)更難以被探知,,問(wèn)題無(wú)法及時(shí)披露并引起社會(huì)關(guān)注,。人工智能應(yīng)用離不開(kāi)算力、算法兩項(xiàng)支撐,,但這兩項(xiàng)重要資源均不透明,。對(duì)于生成式人工智能大模型來(lái)說(shuō),每次內(nèi)容生成均將調(diào)用數(shù)以?xún)|計(jì)的參數(shù)和數(shù)據(jù),,幾乎很難解釋其決策過(guò)程,。過(guò)程及內(nèi)容的不透明讓人工智能更容易存在隱患。大模型的設(shè)計(jì)缺失或冒進(jìn)很可能造成隱私信息泄露,、數(shù)據(jù)過(guò)度收集和濫用,、算法不可控等問(wèn)題。生成式人工智能的輸出內(nèi)容有可能帶有誤導(dǎo)性,,包含不真實(shí)也不準(zhǔn)確的信息,,誤導(dǎo)人類(lèi)決策過(guò)程。一些犯罪者也可能采用“數(shù)據(jù)投毒”“算法投毒”的方式誤導(dǎo)人工智能系統(tǒng),,引發(fā)更大范圍的系統(tǒng)性故障,。近年來(lái),人工智能的軍事化部署最令人擔(dān)憂,。人工智能系統(tǒng)正在被各國(guó)加速部署在帶有進(jìn)攻型武器的系統(tǒng)之中,,這使得“智能作戰(zhàn)”系統(tǒng)決策失誤從而“擦槍走火”甚至引爆,、惡化戰(zhàn)爭(zhēng)的風(fēng)險(xiǎn)不斷上升。第三個(gè)維度源于人工智能的“拓展性”,,這意味著該技術(shù)可被各類(lèi)人群和組織運(yùn)用,,其中可能包括一些別有用心的人群。人工智能具有易移植,、易被改造,、易集成的特點(diǎn),技術(shù)突破容易擴(kuò)散,,同樣的算法可能服務(wù)于完全相悖的目的,。一些犯罪分子可以繞過(guò)模型安全策略向人工智能套取“危險(xiǎn)知識(shí)”,他們同樣可將人工智能改造為犯罪工具,。美國(guó)《福布斯》網(wǎng)站稱(chēng),,人工智能已經(jīng)成為電信詐騙領(lǐng)域最強(qiáng)力的武器,任何一個(gè)國(guó)家都很難逃過(guò)這場(chǎng)波及全球的浩劫,。被人工智能賦能后的電信詐騙行為有可能成為全球最具危害性的有組織犯罪,。第四個(gè)維度源于人工智能的“壟斷性”,這意味著該技術(shù)高度依賴(lài)資本投入,,先進(jìn)算法的使用有很高門(mén)檻,,包含設(shè)計(jì)者和數(shù)據(jù)形成的算法偏好,容易擴(kuò)大階層分化,。首先,,人工智能可能加劇壟斷行為。人工智能已經(jīng)成為營(yíng)銷(xiāo)領(lǐng)域最具威力的“大規(guī)模殺傷性武器”,,全方位改變了企業(yè)的營(yíng)銷(xiāo)策略,。但是,這種更為精確的營(yíng)銷(xiāo)也可能助長(zhǎng)“千人千價(jià)”等行為,。其次,,人工智能可能加劇現(xiàn)實(shí)歧視。人工智能應(yīng)用的算法受數(shù)據(jù)驅(qū)動(dòng),,這些數(shù)據(jù)涵蓋種族,、性別、信仰,、殘障,、傳染病等特定標(biāo)簽,反映人類(lèi)社會(huì)龐雜的價(jià)值觀,、意識(shí)形態(tài)特點(diǎn),。一旦偏見(jiàn)被引入相關(guān)應(yīng)用模型訓(xùn)練中,算法輸出的內(nèi)容就可能出現(xiàn)對(duì)個(gè)人或群體,、國(guó)家的偏見(jiàn)或偏愛(ài),,引發(fā)公平性問(wèn)題,。最后,人工智能可能帶來(lái)發(fā)展的不公平,。人工智能的關(guān)鍵專(zhuān)業(yè)知識(shí)和前沿技術(shù)集中在少數(shù)企業(yè)和國(guó)家,,這些企業(yè)和國(guó)家具有先發(fā)優(yōu)勢(shì),這必然導(dǎo)致全球人工智能產(chǎn)業(yè)發(fā)展的參差,,將更大程度加深全球“數(shù)字鴻溝”,。同時(shí),在人工智能技術(shù)與規(guī)則方面領(lǐng)先的國(guó)家,,正處于技術(shù)優(yōu)勢(shì)快速積累周期,,這種優(yōu)勢(shì)很可能成為諸如半導(dǎo)體領(lǐng)域存在的“卡脖子”工具,為人工智能后發(fā)國(guó)家的進(jìn)步帶來(lái)阻礙,。
在杭州亞運(yùn)會(huì)田徑女子鐵餅決賽前,,一名工作人員將鐵餅放在用來(lái)搬運(yùn)鐵餅的機(jī)器狗上(2023年10月1日攝) 江漢攝/本刊全球人工智能倫理治理開(kāi)局之年上述倫理挑戰(zhàn)正在引起國(guó)際社會(huì)的廣泛關(guān)注。2023年,,各國(guó)政府及國(guó)際組織開(kāi)始密集討論人工智能的倫理問(wèn)題,發(fā)布一系列聲明,、愿景及政策,,試圖規(guī)范人工智能的發(fā)展路徑。聯(lián)合國(guó)在人工智能倫理治理上扮演了更加重要的作用,。2023年,,聯(lián)合國(guó)在推動(dòng)各國(guó)凝聚共識(shí)、探討安全風(fēng)險(xiǎn)和治理合作方面取得一定進(jìn)展,。3月,,聯(lián)合國(guó)教科文組織號(hào)召各國(guó)立即執(zhí)行該組織于2021年11月發(fā)布的《人工智能倫理問(wèn)題建議書(shū)》。7月,,聯(lián)合國(guó)首次舉行由人形機(jī)器人與人類(lèi)一同參加的新聞發(fā)布會(huì),,9個(gè)人形機(jī)器人接受了參會(huì)專(zhuān)家和各路媒體的提問(wèn);舉辦“人工智能造福人類(lèi)”全球峰會(huì),,討論未來(lái)人工智能的發(fā)展和治理框架,;安理會(huì)就人工智能對(duì)國(guó)際和平與安全的潛在威脅舉行首場(chǎng)公開(kāi)辯論。10月,,聯(lián)合國(guó)秘書(shū)長(zhǎng)古特雷斯宣布組建人工智能高級(jí)別咨詢(xún)機(jī)構(gòu),,全球39名專(zhuān)家加入,共商人工智能技術(shù)風(fēng)險(xiǎn)與機(jī)遇,,為加強(qiáng)國(guó)際社會(huì)治理提供支持,。由此可見(jiàn),聯(lián)合國(guó)已經(jīng)將人工智能倫理納入全球治理議程,,未來(lái)將推動(dòng)形成更加正式,、更有約束力的組織及治理規(guī)范,。歐盟為人工智能專(zhuān)門(mén)立法,對(duì)該技術(shù)實(shí)施全面監(jiān)管,。歐盟委員會(huì)2021年提出《人工智能法案》提案的談判授權(quán)草案,,嚴(yán)格禁止“對(duì)人類(lèi)安全造成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”,要求人工智能公司對(duì)算法保持控制,,提供技術(shù)文件,,并建立風(fēng)險(xiǎn)管理系統(tǒng)。在歷經(jīng)馬拉松式談判后,,歐洲議會(huì),、歐盟成員國(guó)和歐盟委員會(huì)三方2023年12月8日就《人工智能法案》達(dá)成協(xié)議,該法案成為全球首部人工智能領(lǐng)域的全面監(jiān)管法規(guī),。美國(guó)出臺(tái)監(jiān)管政策,,但立法進(jìn)程較為緩慢。相較于歐盟,,美國(guó)監(jiān)管要求少,,主要強(qiáng)調(diào)安全原則,鼓勵(lì)企業(yè)自律,。2023年1月,,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)正式公布《人工智能風(fēng)險(xiǎn)管理框架》,旨在指導(dǎo)組織機(jī)構(gòu)在開(kāi)發(fā)和部署人工智能系統(tǒng)時(shí)降低安全風(fēng)險(xiǎn),,但該文件是一份非強(qiáng)制的指導(dǎo)文件,。10月,拜登簽署美國(guó)迄今為止最全面的人工智能監(jiān)管原則,,即《關(guān)于安全,、可靠、可信地開(kāi)發(fā)和使用人工智能的行政令》,,該行政令超越了OpenAI,、谷歌和Meta等公司今年早些時(shí)候做出的自愿承諾,但仍缺乏強(qiáng)制執(zhí)行效能,。拜登政府在行政令發(fā)布后敦促?lài)?guó)會(huì)盡快推出相關(guān)立法,。美國(guó)國(guó)會(huì)參議院多數(shù)黨領(lǐng)袖舒默已分別在9月和10月主持召開(kāi)兩次人工智能洞察論壇收集業(yè)界建議,并期望在數(shù)月內(nèi)準(zhǔn)備好人工智能立法,,但未來(lái)此類(lèi)法案能否順利通過(guò)尚未可知,。英國(guó)在人工智能治理外交上投入更多資源。2023年11月,,首屆全球人工智能安全峰會(huì)在英國(guó)布萊奇利園召開(kāi),。美國(guó)、英國(guó),、歐盟,、中國(guó),、印度等多方代表參會(huì)。會(huì)議最終通過(guò)《布萊奇利宣言》,,強(qiáng)調(diào)人工智能的許多風(fēng)險(xiǎn)本質(zhì)上是國(guó)際性的,,因此“最好通過(guò)國(guó)際合作來(lái)解決”。與會(huì)者同意協(xié)力打造一個(gè)“具有國(guó)際包容性”的前沿人工智能安全科學(xué)研究網(wǎng)絡(luò),,以對(duì)尚未完全了解的人工智能風(fēng)險(xiǎn)和能力加深理解,。英國(guó)為舉辦此次峰會(huì)開(kāi)展大量前期準(zhǔn)備和外交斡旋,意在將本國(guó)樹(shù)立為全球人工智能治理的“召集人”,。未來(lái),,越來(lái)越多的國(guó)家將在人工智能治理外交上投入更多資源,爭(zhēng)奪這一新興領(lǐng)域的話語(yǔ)權(quán),。中國(guó)高度重視人工智能治理問(wèn)題,,治理理念側(cè)重于平衡發(fā)展和安全。2023年4月,,國(guó)家互聯(lián)網(wǎng)信息辦公室起草《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》,。《生成式人工智能服務(wù)管理暫行辦法》于7月正式公布,,從技術(shù)發(fā)展與治理,、服務(wù)規(guī)范、監(jiān)督檢查和法律責(zé)任等方面對(duì)生成式人工智能做出具體規(guī)定,,并于8月15日起施行,是全球首部針對(duì)生成式人工智能的專(zhuān)門(mén)立法,。與此同時(shí),,中國(guó)在年內(nèi)也推出一系列針對(duì)深度合成、算法等專(zhuān)門(mén)領(lǐng)域的規(guī)定,,例如1月生效的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,、3月生效的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》。10月,,中國(guó)提出《全球人工智能治理倡議》,對(duì)個(gè)人隱私與數(shù)據(jù)保護(hù),、數(shù)據(jù)獲取,、算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)以及風(fēng)險(xiǎn)等級(jí)測(cè)試評(píng)估和倫理準(zhǔn)則等提出了具體的原則準(zhǔn)則或建議,。美國(guó)為何行動(dòng)遲緩相比于美國(guó)在人工智能技術(shù)應(yīng)用層面的發(fā)展速度,,美國(guó)關(guān)于人工智能監(jiān)管的政策和立法行動(dòng)遲緩,這是諸多因素共同作用的結(jié)果,。首先,,美國(guó)不愿放棄人工智能有利地位,。美國(guó)政府和戰(zhàn)略界人士普遍認(rèn)為,人工智能是決定美國(guó)能否在下一輪全球科技競(jìng)爭(zhēng)中勝出的戰(zhàn)略性技術(shù)之一,。從奧巴馬時(shí)期開(kāi)始,,美國(guó)政府即提出若干相關(guān)國(guó)家規(guī)劃和愿景。特朗普政府和拜登政府的人工智能行政令均強(qiáng)調(diào)維護(hù)“美國(guó)人工智能的領(lǐng)導(dǎo)地位”,,將這一目標(biāo)作為美國(guó)治理人工智能的基礎(chǔ)性目標(biāo),。相比于治理風(fēng)險(xiǎn),美國(guó)更不愿在確保自身技術(shù)絕對(duì)領(lǐng)先前就嚴(yán)格限制該技術(shù)的發(fā)展,。ChatGPT大熱后,,美國(guó)相關(guān)監(jiān)管政策陸續(xù)出臺(tái),其目標(biāo)不僅僅是應(yīng)對(duì)治理風(fēng)險(xiǎn),,更是為了防范該技術(shù)快速擴(kuò)散從而削弱美國(guó)領(lǐng)先優(yōu)勢(shì),。其次,人工智能倫理問(wèn)題在美國(guó)被政治化,,兩黨難以協(xié)調(diào)分歧達(dá)成治理共識(shí),。近年來(lái),美國(guó)政治極化加劇,,兩黨在幾乎所有社會(huì)問(wèn)題上均意見(jiàn)對(duì)立,,在涉及民眾生活方式的人工智能倫理上更是如此。在議題上,,民主黨更關(guān)注個(gè)人隱私,、算法歧視、算法公正等與多元化相關(guān)的議題,;共和黨則更關(guān)注國(guó)家安全,、人工智能犯罪等安全性議題。在風(fēng)險(xiǎn)防范上,,民主黨認(rèn)為人工智能造假,、傳謠領(lǐng)域的應(yīng)用是最突出風(fēng)險(xiǎn),要求強(qiáng)化社交媒體等中間傳播渠道責(zé)任,;共和黨則認(rèn)為此類(lèi)治理措施存在政治動(dòng)機(jī),,對(duì)共和黨參選人不利。受2024年大選影響,,兩黨的矛盾和爭(zhēng)論更加尖銳,,讓立法進(jìn)度明顯滯后于形勢(shì)發(fā)展。從拜登政府在2023年底陸續(xù)推出一系列人工智能治理政策文件可以看出,,民主黨有意率先打破僵局,,將人工智能治理作為一個(gè)潛在的競(jìng)選議題,加速該議題的立法進(jìn)程。最后,,美國(guó)管控人工智能也面臨一些制度上的障礙,。美國(guó)政治傳統(tǒng)中的所謂“自由至上”“個(gè)人至上”不利于管控去中心化、風(fēng)險(xiǎn)分散,、快速擴(kuò)散的技術(shù)和應(yīng)用,。這種傳統(tǒng)容易在各州之間形成監(jiān)管空白,也讓政府難以動(dòng)用行政資源鏟除非法利益鏈條,。槍支泛濫,、毒品犯罪等美國(guó)社會(huì)頑疾均與此有關(guān),危險(xiǎn)的人工智能應(yīng)用也可能成為美國(guó)下一個(gè)泛濫成災(zāi)的社會(huì)風(fēng)險(xiǎn),。這種遲疑可能會(huì)導(dǎo)致全球人工智能“軍備競(jìng)賽”風(fēng)險(xiǎn)上升,。美國(guó)作為全球人工智能技術(shù)研發(fā)最為領(lǐng)先的國(guó)家,有義務(wù)成為全球推動(dòng)人工智能相關(guān)監(jiān)管措施的最早參與者,,但美國(guó)尚未形成監(jiān)管立法,,在全球?qū)用嫱七M(jìn)人工智能治理的議程也隨之放緩,將使越來(lái)越多的國(guó)家忽視管控,,一味追求技術(shù)領(lǐng)先,,進(jìn)而加入算法“軍備競(jìng)賽”。這種競(jìng)逐色彩可能會(huì)使人工智能漸漸偏離健康有序的發(fā)展方向,,無(wú)疑將為后續(xù)全球立法和治理帶來(lái)更多阻礙,,也使各國(guó)圍繞人工智能的惡性競(jìng)爭(zhēng)事件發(fā)生風(fēng)險(xiǎn)升高。(李崢:中國(guó)現(xiàn)代國(guó)際關(guān)系研究院美國(guó)研究所所長(zhǎng)助理,;張嵐舒:中國(guó)現(xiàn)代國(guó)際關(guān)系研究院美國(guó)研究所助理研究員)■
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1085252.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。