A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

瞭望|直面人工智能倫理挑戰(zhàn)

人工智能的倫理挑戰(zhàn)不僅體現(xiàn)在“技術(shù)鴻溝”中,也體現(xiàn)在更為廣泛的領(lǐng)域,。這些挑戰(zhàn)集中體現(xiàn)在四個維度在人工智能技術(shù)與規(guī)則方面領(lǐng)先的國家,,正處于技術(shù)優(yōu)勢快速積累周期,,這種優(yōu)勢很可能成為諸如半導(dǎo)體領(lǐng)域存在的“卡脖子”工具,為人工智能后發(fā)國家的進(jìn)步帶來阻礙2023年成為全球人工智能倫理治理開局之年,。各國政府及國際組織開始密集討論人工智能的倫理問題,,發(fā)布一系列聲明、愿景及政策,,試圖規(guī)范人工智能的發(fā)展路徑相比于治理風(fēng)險(xiǎn),,美國更不愿在確保自身技術(shù)絕對領(lǐng)先前就嚴(yán)格限制該技術(shù)的發(fā)展。因此,,美國在人工智能治理上往往落后于各國進(jìn)度,,也滯后于技術(shù)發(fā)展文 | 李崢 張嵐舒2023年,伴隨著新一代生成式人工智能應(yīng)用ChatGPT的橫空出世,,國際社會對于人工智能倫理挑戰(zhàn)的討論也日益升溫,。越來越多的觀察人士發(fā)現(xiàn),人工智能的快速發(fā)展可能超出了人類社會的準(zhǔn)備,,并認(rèn)為其帶來的風(fēng)險(xiǎn)不可忽視,。倫理挑戰(zhàn)已經(jīng)成為人工智能帶來的廣泛爭議中最為突出的話題,,也將對未來人工智能與人類社會的互動過程帶來深遠(yuǎn)影響。瞭望|直面人工智能倫理挑戰(zhàn)上??萍紕?chuàng)新成果展上的機(jī)器人展品(2023 年11月29日攝) 方喆攝/本刊四個維度看人工智能倫理挑戰(zhàn)與互聯(lián)網(wǎng)的誕生類似,,人工智能也將給世界帶來重大變革。這種影響通常是一柄雙刃劍,,新技術(shù)既改造了世界,,又沖擊了世界,并不是每個人都能從中均等受益,。人工智能的倫理挑戰(zhàn)不僅體現(xiàn)在“技術(shù)鴻溝”中,,也體現(xiàn)在更為廣泛的領(lǐng)域。這些挑戰(zhàn)集中體現(xiàn)在四個維度,。第一個維度源于人工智能的“自主性”,,這意味著該技術(shù)相比其他前沿技術(shù)更容易脫離人類控制。相關(guān)倫理挑戰(zhàn)主要體現(xiàn)在人工智能是否會欺騙人類和控制人類意識,,是否會消減人類的發(fā)展機(jī)會,。相比互聯(lián)網(wǎng)及社交媒體,人工智能能夠更加全面地理解個體,、“感知”和預(yù)測用戶的所想所需,。這種能力與“深度偽造”技術(shù)相結(jié)合,將進(jìn)一步加劇針對不同群體的“控制”和“欺騙”,。通過定向信息投喂,,人工智能可能制造出更加嚴(yán)密的“信息繭房”、更加深度的“意識操控”,。2023年,,英國法院判決了一起人工智能聊天機(jī)器人慫恿一名男子刺殺女王的案件,即體現(xiàn)出此類風(fēng)險(xiǎn),。以ChatGPT為代表的生成式人工智能不斷迭代進(jìn)步,,也讓商業(yè)界看到了越來越廣闊的“人力替代”場景。根據(jù)麥肯錫咨詢公司的預(yù)測,,到2030年,,隨著人工智能等技術(shù)的進(jìn)步,多達(dá)3.75億名勞動者可能面臨再就業(yè)問題,。調(diào)研公司牛津經(jīng)濟(jì)也得出類似結(jié)論,,到2030年,全球大約2000萬個制造業(yè)工作崗位將消失,,這些工作將轉(zhuǎn)向自動化系統(tǒng),,而被迫轉(zhuǎn)移的制造業(yè)勞動力即便轉(zhuǎn)向服務(wù)業(yè)崗位,也同樣面臨被機(jī)器替代的局面,。在眾多的崗位中,,被人工智能技術(shù)取代風(fēng)險(xiǎn)最高的工作類型包括程序員、軟件工程師,、數(shù)據(jù)分析師等技術(shù)類工作,,廣告、內(nèi)容創(chuàng)作,、技術(shù)寫作,、新聞等媒體類工作,以及律師,、市場分析師,、教師、金融分析師,、財(cái)務(wù)顧問,、交易員、平面設(shè)計(jì)師,、會計(jì),、客服等。這些崗位普遍具有較高學(xué)歷,,人員失業(yè)意味著巨大的人力資本損失,,將加劇一些國家的結(jié)構(gòu)性失業(yè)難題。第二個維度源于人工智能的“非透明性”,,這意味著該技術(shù)隱藏的風(fēng)險(xiǎn)更難以被探知,,問題無法及時(shí)披露并引起社會關(guān)注。人工智能應(yīng)用離不開算力,、算法兩項(xiàng)支撐,,但這兩項(xiàng)重要資源均不透明。對于生成式人工智能大模型來說,,每次內(nèi)容生成均將調(diào)用數(shù)以億計(jì)的參數(shù)和數(shù)據(jù),,幾乎很難解釋其決策過程。過程及內(nèi)容的不透明讓人工智能更容易存在隱患,。大模型的設(shè)計(jì)缺失或冒進(jìn)很可能造成隱私信息泄露,、數(shù)據(jù)過度收集和濫用、算法不可控等問題,。生成式人工智能的輸出內(nèi)容有可能帶有誤導(dǎo)性,,包含不真實(shí)也不準(zhǔn)確的信息,誤導(dǎo)人類決策過程,。一些犯罪者也可能采用“數(shù)據(jù)投毒”“算法投毒”的方式誤導(dǎo)人工智能系統(tǒng),,引發(fā)更大范圍的系統(tǒng)性故障。近年來,,人工智能的軍事化部署最令人擔(dān)憂。人工智能系統(tǒng)正在被各國加速部署在帶有進(jìn)攻型武器的系統(tǒng)之中,,這使得“智能作戰(zhàn)”系統(tǒng)決策失誤從而“擦槍走火”甚至引爆,、惡化戰(zhàn)爭的風(fēng)險(xiǎn)不斷上升。第三個維度源于人工智能的“拓展性”,,這意味著該技術(shù)可被各類人群和組織運(yùn)用,其中可能包括一些別有用心的人群,。人工智能具有易移植,、易被改造、易集成的特點(diǎn),,技術(shù)突破容易擴(kuò)散,,同樣的算法可能服務(wù)于完全相悖的目的。一些犯罪分子可以繞過模型安全策略向人工智能套取“危險(xiǎn)知識”,,他們同樣可將人工智能改造為犯罪工具,。美國《福布斯》網(wǎng)站稱,人工智能已經(jīng)成為電信詐騙領(lǐng)域最強(qiáng)力的武器,,任何一個國家都很難逃過這場波及全球的浩劫,。被人工智能賦能后的電信詐騙行為有可能成為全球最具危害性的有組織犯罪。第四個維度源于人工智能的“壟斷性”,,這意味著該技術(shù)高度依賴資本投入,,先進(jìn)算法的使用有很高門檻,包含設(shè)計(jì)者和數(shù)據(jù)形成的算法偏好,,容易擴(kuò)大階層分化,。首先,人工智能可能加劇壟斷行為,。人工智能已經(jīng)成為營銷領(lǐng)域最具威力的“大規(guī)模殺傷性武器”,,全方位改變了企業(yè)的營銷策略。但是,,這種更為精確的營銷也可能助長“千人千價(jià)”等行為,。其次,人工智能可能加劇現(xiàn)實(shí)歧視,。人工智能應(yīng)用的算法受數(shù)據(jù)驅(qū)動,,這些數(shù)據(jù)涵蓋種族、性別,、信仰,、殘障、傳染病等特定標(biāo)簽,,反映人類社會龐雜的價(jià)值觀,、意識形態(tài)特點(diǎn)。一旦偏見被引入相關(guān)應(yīng)用模型訓(xùn)練中,算法輸出的內(nèi)容就可能出現(xiàn)對個人或群體,、國家的偏見或偏愛,,引發(fā)公平性問題。最后,,人工智能可能帶來發(fā)展的不公平,。人工智能的關(guān)鍵專業(yè)知識和前沿技術(shù)集中在少數(shù)企業(yè)和國家,,這些企業(yè)和國家具有先發(fā)優(yōu)勢,,這必然導(dǎo)致全球人工智能產(chǎn)業(yè)發(fā)展的參差,將更大程度加深全球“數(shù)字鴻溝”。同時(shí),,在人工智能技術(shù)與規(guī)則方面領(lǐng)先的國家,,正處于技術(shù)優(yōu)勢快速積累周期,這種優(yōu)勢很可能成為諸如半導(dǎo)體領(lǐng)域存在的“卡脖子”工具,,為人工智能后發(fā)國家的進(jìn)步帶來阻礙,。瞭望|直面人工智能倫理挑戰(zhàn)在杭州亞運(yùn)會田徑女子鐵餅決賽前,,一名工作人員將鐵餅放在用來搬運(yùn)鐵餅的機(jī)器狗上(2023年10月1日攝) 江漢攝/本刊全球人工智能倫理治理開局之年上述倫理挑戰(zhàn)正在引起國際社會的廣泛關(guān)注,。2023年,,各國政府及國際組織開始密集討論人工智能的倫理問題,發(fā)布一系列聲明,、愿景及政策,,試圖規(guī)范人工智能的發(fā)展路徑。聯(lián)合國在人工智能倫理治理上扮演了更加重要的作用,。2023年,聯(lián)合國在推動各國凝聚共識,、探討安全風(fēng)險(xiǎn)和治理合作方面取得一定進(jìn)展,。3月,,聯(lián)合國教科文組織號召各國立即執(zhí)行該組織于2021年11月發(fā)布的《人工智能倫理問題建議書》,。7月,聯(lián)合國首次舉行由人形機(jī)器人與人類一同參加的新聞發(fā)布會,9個人形機(jī)器人接受了參會專家和各路媒體的提問,;舉辦“人工智能造福人類”全球峰會,,討論未來人工智能的發(fā)展和治理框架,;安理會就人工智能對國際和平與安全的潛在威脅舉行首場公開辯論,。10月,,聯(lián)合國秘書長古特雷斯宣布組建人工智能高級別咨詢機(jī)構(gòu),,全球39名專家加入,,共商人工智能技術(shù)風(fēng)險(xiǎn)與機(jī)遇,為加強(qiáng)國際社會治理提供支持,。由此可見,,聯(lián)合國已經(jīng)將人工智能倫理納入全球治理議程,,未來將推動形成更加正式、更有約束力的組織及治理規(guī)范。歐盟為人工智能專門立法,,對該技術(shù)實(shí)施全面監(jiān)管,。歐盟委員會2021年提出《人工智能法案》提案的談判授權(quán)草案,,嚴(yán)格禁止“對人類安全造成不可接受風(fēng)險(xiǎn)的人工智能系統(tǒng)”,,要求人工智能公司對算法保持控制,提供技術(shù)文件,,并建立風(fēng)險(xiǎn)管理系統(tǒng),。在歷經(jīng)馬拉松式談判后,歐洲議會,、歐盟成員國和歐盟委員會三方2023年12月8日就《人工智能法案》達(dá)成協(xié)議,,該法案成為全球首部人工智能領(lǐng)域的全面監(jiān)管法規(guī)。美國出臺監(jiān)管政策,,但立法進(jìn)程較為緩慢,。相較于歐盟,美國監(jiān)管要求少,,主要強(qiáng)調(diào)安全原則,,鼓勵企業(yè)自律。2023年1月,,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)正式公布《人工智能風(fēng)險(xiǎn)管理框架》,,旨在指導(dǎo)組織機(jī)構(gòu)在開發(fā)和部署人工智能系統(tǒng)時(shí)降低安全風(fēng)險(xiǎn),,但該文件是一份非強(qiáng)制的指導(dǎo)文件,。10月,拜登簽署美國迄今為止最全面的人工智能監(jiān)管原則,,即《關(guān)于安全,、可靠、可信地開發(fā)和使用人工智能的行政令》,,該行政令超越了OpenAI,、谷歌和Meta等公司今年早些時(shí)候做出的自愿承諾,但仍缺乏強(qiáng)制執(zhí)行效能,。拜登政府在行政令發(fā)布后敦促國會盡快推出相關(guān)立法,。美國國會參議院多數(shù)黨領(lǐng)袖舒默已分別在9月和10月主持召開兩次人工智能洞察論壇收集業(yè)界建議,,并期望在數(shù)月內(nèi)準(zhǔn)備好人工智能立法,但未來此類法案能否順利通過尚未可知,。英國在人工智能治理外交上投入更多資源,。2023年11月,首屆全球人工智能安全峰會在英國布萊奇利園召開,。美國,、英國、歐盟,、中國,、印度等多方代表參會。會議最終通過《布萊奇利宣言》,,強(qiáng)調(diào)人工智能的許多風(fēng)險(xiǎn)本質(zhì)上是國際性的,,因此“最好通過國際合作來解決”。與會者同意協(xié)力打造一個“具有國際包容性”的前沿人工智能安全科學(xué)研究網(wǎng)絡(luò),,以對尚未完全了解的人工智能風(fēng)險(xiǎn)和能力加深理解,。英國為舉辦此次峰會開展大量前期準(zhǔn)備和外交斡旋,意在將本國樹立為全球人工智能治理的“召集人”,。未來,,越來越多的國家將在人工智能治理外交上投入更多資源,爭奪這一新興領(lǐng)域的話語權(quán),。中國高度重視人工智能治理問題,,治理理念側(cè)重于平衡發(fā)展和安全。2023年4月,,國家互聯(lián)網(wǎng)信息辦公室起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》,。《生成式人工智能服務(wù)管理暫行辦法》于7月正式公布,,從技術(shù)發(fā)展與治理,、服務(wù)規(guī)范、監(jiān)督檢查和法律責(zé)任等方面對生成式人工智能做出具體規(guī)定,,并于8月15日起施行,,是全球首部針對生成式人工智能的專門立法。與此同時(shí),,中國在年內(nèi)也推出一系列針對深度合成,、算法等專門領(lǐng)域的規(guī)定,例如1月生效的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,、3月生效的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,。10月,中國提出《全球人工智能治理倡議》,,對個人隱私與數(shù)據(jù)保護(hù),、數(shù)據(jù)獲取,、算法設(shè)計(jì)、技術(shù)開發(fā)以及風(fēng)險(xiǎn)等級測試評估和倫理準(zhǔn)則等提出了具體的原則準(zhǔn)則或建議,。美國為何行動遲緩相比于美國在人工智能技術(shù)應(yīng)用層面的發(fā)展速度,,美國關(guān)于人工智能監(jiān)管的政策和立法行動遲緩,這是諸多因素共同作用的結(jié)果,。首先,,美國不愿放棄人工智能有利地位。美國政府和戰(zhàn)略界人士普遍認(rèn)為,,人工智能是決定美國能否在下一輪全球科技競爭中勝出的戰(zhàn)略性技術(shù)之一,。從奧巴馬時(shí)期開始,美國政府即提出若干相關(guān)國家規(guī)劃和愿景,。特朗普政府和拜登政府的人工智能行政令均強(qiáng)調(diào)維護(hù)“美國人工智能的領(lǐng)導(dǎo)地位”,,將這一目標(biāo)作為美國治理人工智能的基礎(chǔ)性目標(biāo)。相比于治理風(fēng)險(xiǎn),,美國更不愿在確保自身技術(shù)絕對領(lǐng)先前就嚴(yán)格限制該技術(shù)的發(fā)展,。ChatGPT大熱后,美國相關(guān)監(jiān)管政策陸續(xù)出臺,,其目標(biāo)不僅僅是應(yīng)對治理風(fēng)險(xiǎn),,更是為了防范該技術(shù)快速擴(kuò)散從而削弱美國領(lǐng)先優(yōu)勢。其次,,人工智能倫理問題在美國被政治化,,兩黨難以協(xié)調(diào)分歧達(dá)成治理共識。近年來,,美國政治極化加劇,,兩黨在幾乎所有社會問題上均意見對立,在涉及民眾生活方式的人工智能倫理上更是如此,。在議題上,,民主黨更關(guān)注個人隱私、算法歧視,、算法公正等與多元化相關(guān)的議題,;共和黨則更關(guān)注國家安全、人工智能犯罪等安全性議題,。在風(fēng)險(xiǎn)防范上,,民主黨認(rèn)為人工智能造假,、傳謠領(lǐng)域的應(yīng)用是最突出風(fēng)險(xiǎn),,要求強(qiáng)化社交媒體等中間傳播渠道責(zé)任;共和黨則認(rèn)為此類治理措施存在政治動機(jī),,對共和黨參選人不利,。受2024年大選影響,,兩黨的矛盾和爭論更加尖銳,讓立法進(jìn)度明顯滯后于形勢發(fā)展,。從拜登政府在2023年底陸續(xù)推出一系列人工智能治理政策文件可以看出,,民主黨有意率先打破僵局,將人工智能治理作為一個潛在的競選議題,,加速該議題的立法進(jìn)程,。最后,美國管控人工智能也面臨一些制度上的障礙,。美國政治傳統(tǒng)中的所謂“自由至上”“個人至上”不利于管控去中心化,、風(fēng)險(xiǎn)分散、快速擴(kuò)散的技術(shù)和應(yīng)用,。這種傳統(tǒng)容易在各州之間形成監(jiān)管空白,,也讓政府難以動用行政資源鏟除非法利益鏈條。槍支泛濫,、毒品犯罪等美國社會頑疾均與此有關(guān),,危險(xiǎn)的人工智能應(yīng)用也可能成為美國下一個泛濫成災(zāi)的社會風(fēng)險(xiǎn),。這種遲疑可能會導(dǎo)致全球人工智能“軍備競賽”風(fēng)險(xiǎn)上升,。美國作為全球人工智能技術(shù)研發(fā)最為領(lǐng)先的國家,有義務(wù)成為全球推動人工智能相關(guān)監(jiān)管措施的最早參與者,,但美國尚未形成監(jiān)管立法,,在全球?qū)用嫱七M(jìn)人工智能治理的議程也隨之放緩,將使越來越多的國家忽視管控,,一味追求技術(shù)領(lǐng)先,,進(jìn)而加入算法“軍備競賽”,。這種競逐色彩可能會使人工智能漸漸偏離健康有序的發(fā)展方向,無疑將為后續(xù)全球立法和治理帶來更多阻礙,,也使各國圍繞人工智能的惡性競爭事件發(fā)生風(fēng)險(xiǎn)升高,。(李崢:中國現(xiàn)代國際關(guān)系研究院美國研究所所長助理;張嵐舒:中國現(xiàn)代國際關(guān)系研究院美國研究所助理研究員)■

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1085252.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。

(0)
新華社新媒體的頭像新華社新媒體
上一篇 2023年12月28日 上午9:47
下一篇 2023年12月28日 上午10:26
198搶自鏈數(shù)字人

相關(guān)推薦