轉(zhuǎn)自:光明日?qǐng)?bào)
光明圖片/視覺(jué)中國(guó)
光明圖片/視覺(jué)中國(guó)
光明圖片/視覺(jué)中國(guó)
編者按
??人工智能正深刻改變世界。但它如一把“雙刃劍”,既帶來(lái)巨大機(jī)遇,也引發(fā)諸多挑戰(zhàn)——在醫(yī)療,、教育、交通等領(lǐng)域,,人工智能提升了效率,,改善了生活質(zhì)量;然而,,它也可能沖擊就業(yè),、侵犯隱私、引發(fā)算法偏見(jiàn)等。如何握好這把“雙刃劍”,,讓人工智能真正成為推動(dòng)人類進(jìn)步的力量,。
??當(dāng)下的選擇決定未來(lái)的走向。本期我們邀請(qǐng)兩位專家,,共同探討如何避免風(fēng)險(xiǎn),,引導(dǎo)技術(shù)向善。
??人工智能技術(shù)無(wú)疑是新一輪科技革命和產(chǎn)業(yè)變革的先導(dǎo),。其中,,強(qiáng)調(diào)價(jià)值對(duì)齊、能夠自主定義并完成無(wú)限任務(wù)的通用人工智能,,更是新質(zhì)生產(chǎn)力的典型代表,,已經(jīng)成為全球科技戰(zhàn)略制高點(diǎn)。但另一方面,,由于大模型等人工智能技術(shù)具有“黑箱屬性”,,導(dǎo)致其決策行為不能被完全透明解釋,它的生成內(nèi)容也不能被完全預(yù)判控制,,當(dāng)這樣的人工智能技術(shù)應(yīng)用部署在國(guó)家社會(huì)經(jīng)濟(jì)生活中的方方面面時(shí),,就可能會(huì)出現(xiàn)偏離人類預(yù)期甚至危害國(guó)家安全和人類整體利益的巨大風(fēng)險(xiǎn)。
1,、在國(guó)家層面,,人工智能技術(shù)正在重構(gòu)國(guó)家安全治理的格局
??我國(guó)已將人工智能安全納入國(guó)家戰(zhàn)略,并上升至總體國(guó)家安全觀的重要組成部分,。這是因?yàn)?,人工智能技術(shù)的迅猛發(fā)展正在重構(gòu)國(guó)家安全治理的格局,其中部分風(fēng)險(xiǎn)突破了傳統(tǒng)技術(shù)倫理范疇,,形成系統(tǒng)性、多維度的威脅,。
??以當(dāng)下熱度最高的生成式大模型為例,,我們可以關(guān)注到這三類安全危機(jī):
首先,,是技術(shù)安全與自主創(chuàng)新的國(guó)際挑戰(zhàn)。大模型的算力,、算法與數(shù)據(jù),,構(gòu)成新型國(guó)家戰(zhàn)略資源,,其自主可控性直接關(guān)乎國(guó)家主權(quán)安全。目前,,全球算力中心依然集中于少數(shù)歐美科技巨頭,,英偉達(dá)的人工智能芯片占據(jù)了超過(guò)80%國(guó)際市場(chǎng)份額。而就在今年1月底,,美國(guó)國(guó)會(huì)首次提交了中美人工智能“脫鉤”的法案,,一旦該法案通過(guò),兩國(guó)所有人工智能的合作渠道將被截?cái)唷?/p>
其次,,意識(shí)形態(tài)與價(jià)值倫理的隱性危機(jī),。大模型沒(méi)有價(jià)值認(rèn)知的功能,但開(kāi)發(fā)者的價(jià)值觀可以滲透到大模型對(duì)外輸出的文本,,構(gòu)成意識(shí)形態(tài)方面的安全威脅,。比如,一些歐美研發(fā)的大模型,,其生成的視頻,、圖像表達(dá)延續(xù)歐美影視文化傾向,以西方藝術(shù)審美為主體,,卻無(wú)法識(shí)別和“理解”達(dá)喀爾建筑等非洲文化造型,。眾多案例表明,歐美大模型所蘊(yùn)含的西方中心主義價(jià)值觀值得我們提高警惕,。此外,,質(zhì)量參差不齊的國(guó)內(nèi)自媒體信息、不當(dāng)抓取的境外網(wǎng)頁(yè)錯(cuò)誤信息,、由大模型生成的未經(jīng)審核的合成數(shù)據(jù),,都可能會(huì)“毒化”AI大模型的訓(xùn)練過(guò)程,進(jìn)而導(dǎo)致輸出內(nèi)容價(jià)值觀的偏差,。繁雜的世界觀,、人生觀、價(jià)值觀數(shù)據(jù)彌漫在大模型神經(jīng)網(wǎng)絡(luò)的“黑箱”中,,導(dǎo)致我們很難分辨出大模型的某些反社會(huì)回答(例如“毀滅人類”)究竟是出自語(yǔ)料庫(kù),,還是根據(jù)模型的行為范式學(xué)習(xí)推理而來(lái)。隨著大模型廣泛應(yīng)用到各行各業(yè),,倘若任由這種不可控的“黑箱”發(fā)展下去,,我們將很難控制人工智能的價(jià)值體系與人類相一致,會(huì)造成較大的社會(huì)倫理風(fēng)險(xiǎn),。
再次,,制度監(jiān)管滯后與信息不對(duì)稱的結(jié)構(gòu)性困境。盡管世界各國(guó)已針對(duì)人工智能技術(shù)帶來(lái)的安全風(fēng)險(xiǎn)紛紛出臺(tái)相關(guān)法案,,但這些法律法規(guī)的制定完善一般需要漫長(zhǎng)復(fù)雜的流程,,往往滯后于人工智能新產(chǎn)品的發(fā)布更新速度,。各國(guó)人工智能的發(fā)展水平與應(yīng)用程度不同,,政府,、企業(yè)、高??蒲袡C(jī)構(gòu),、社會(huì)大眾對(duì)動(dòng)態(tài)更新發(fā)展的人工智能技術(shù)的認(rèn)知存在不小的信息差,導(dǎo)致國(guó)與國(guó)之間,、社會(huì)各行各業(yè)之間推出的人工智能治理措施出現(xiàn)大量無(wú)效重合和高度沖突,。這類信息不對(duì)稱和統(tǒng)一標(biāo)準(zhǔn)的缺失,對(duì)外易制造國(guó)際人工智能安全治理的合作爭(zhēng)端,,對(duì)內(nèi)會(huì)使得人工智能監(jiān)管出現(xiàn)“真空地帶”,,造成制度疊加的冗余和推行成本的增長(zhǎng)。
2,、在社會(huì)和個(gè)人層面,,濫用人工智能技術(shù)可能帶來(lái)勞動(dòng)秩序重構(gòu)、混淆視聽(tīng),、誘發(fā)心理依賴,、認(rèn)知和學(xué)習(xí)能力下降等問(wèn)題
??在社會(huì)和個(gè)人層面,除了侵犯?jìng)€(gè)人隱私,、引發(fā)版權(quán)糾紛等,,濫用人工智能還會(huì)造成不少問(wèn)題:
?社會(huì)重新分配,勞動(dòng)秩序重構(gòu),?!叭斯ぶ悄?”的落地應(yīng)用可能會(huì)引起“創(chuàng)造性破壞”,也就是普遍擔(dān)憂的“人工智能代替人類”——普通勞動(dòng)者的就業(yè)機(jī)會(huì)被人工智能剝奪,。國(guó)際貨幣基金組織發(fā)布報(bào)告稱,,人工智能預(yù)計(jì)將對(duì)全球近40%的工作崗位產(chǎn)生影響。創(chuàng)造性和技術(shù)需求較低工作的從業(yè)者都將面臨失業(yè)或轉(zhuǎn)型的危機(jī),,社會(huì)勞動(dòng)分工的結(jié)構(gòu)將經(jīng)歷一場(chǎng)“大洗牌”,。
難辨真假的“網(wǎng)絡(luò)垃圾”在信息渠道混淆視聽(tīng)。對(duì)于自然科學(xué),、金融,、醫(yī)學(xué)等特定領(lǐng)域的專業(yè)問(wèn)題,諸多大模型沒(méi)有經(jīng)過(guò)大規(guī)模專業(yè)語(yǔ)料訓(xùn)練,,可能會(huì)一本正經(jīng)“胡編亂造”,,制造“模型幻覺(jué)”。在缺乏必要監(jiān)管機(jī)制的當(dāng)下,,由大模型生成的大量未經(jīng)辨認(rèn)審核的文本與圖片流入互聯(lián)網(wǎng),,在稀釋真實(shí)信息的同時(shí),,還容易讓不具備專業(yè)知識(shí)的大眾信以為真。
過(guò)度使用人工智能“角色扮演”功能易誘發(fā)心理依賴,。經(jīng)過(guò)特定算法和數(shù)據(jù)庫(kù)訓(xùn)練的大模型,,能夠根據(jù)用戶的指示扮演符合用戶情感需求的虛擬角色,與用戶交流,。如果用戶過(guò)度沉迷其中,、忽略現(xiàn)實(shí)交際,則有可能因身心空虛導(dǎo)致極端性后果,。這是因?yàn)樗惴ú煌该餍院汀昂谙洹辈倏貦C(jī)制形成了信息的“繭房”,,使用者被困于AI挑選和過(guò)濾后的“信息泡泡”中。算法通過(guò)分析我們的信息偏好,,利用人類易產(chǎn)生恐懼焦慮的心理機(jī)制,、利用青少年心智不完全成熟和對(duì)某些信息的獵奇心,不斷投喂和推薦某類特定信息,,加強(qiáng)固有的缺陷和偏好,,讓人們身陷其中無(wú)法自拔,嚴(yán)重時(shí)可導(dǎo)致AI成癮效應(yīng),。
過(guò)分依賴人工智能進(jìn)行思考會(huì)導(dǎo)致認(rèn)知和學(xué)習(xí)能力下降,。抖音海外版顧問(wèn)格雷格·伊森伯格曾提到一名斯坦福大學(xué)畢業(yè)生,因過(guò)度使用ChatGPT,,在交談中經(jīng)常出現(xiàn)思維中斷,、言語(yǔ)遲滯的跡象。當(dāng)認(rèn)知過(guò)程被長(zhǎng)期“外包”給人工智能,,無(wú)論多么優(yōu)秀的大腦,,思考和學(xué)習(xí)功能都會(huì)“用進(jìn)廢退”。不假思索地全盤接受AI生成的“投喂式”內(nèi)容,,會(huì)導(dǎo)致本應(yīng)在教育過(guò)程中塑造并形成的信息收集,、篩選、處理,、應(yīng)用,、創(chuàng)造的批判性思維、邏輯性思維,、創(chuàng)新性思維能力的嚴(yán)重退化,。
3、構(gòu)建人工智能安全治理框架,,不僅要涵蓋現(xiàn)實(shí)中出現(xiàn)的問(wèn)題,,還應(yīng)從根源入手,避免“頭痛醫(yī)頭,、腳痛醫(yī)腳”
??面對(duì)人工智能這把“雙刃劍”,,我們亟須構(gòu)建完備的人工智能安全治理體系,。它不僅要涵蓋現(xiàn)實(shí)中的問(wèn)題,還應(yīng)基于系統(tǒng)化,、綜合化的人工智能理論,,從問(wèn)題的根源入手,避免“頭痛醫(yī)頭,、腳痛醫(yī)腳”的片面化處理,。
加強(qiáng)價(jià)值對(duì)齊,,制定人工智能評(píng)級(jí)標(biāo)準(zhǔn),。造成人工智能引發(fā)的意識(shí)形態(tài)、價(jià)值倫理,、信息混亂等問(wèn)題的根本原因,,是生成式大模型缺乏明確的認(rèn)知架構(gòu)和價(jià)值體系,只能按照人類設(shè)定的程序,,機(jī)械地對(duì)問(wèn)題做出反饋,,沒(méi)能做到與人類價(jià)值對(duì)齊。為此,,需要一套結(jié)合人類價(jià)值體系和認(rèn)知架構(gòu)的人工智能評(píng)級(jí)標(biāo)準(zhǔn),,作為評(píng)定和開(kāi)發(fā)人工智能的科學(xué)標(biāo)尺,輔助科學(xué)家打造更加符合人類需求,、更加安全的人工智能,。
改進(jìn)技術(shù),設(shè)置防沉迷預(yù)警,。不僅需要從外部對(duì)人工智能設(shè)置評(píng)級(jí)標(biāo)準(zhǔn),,也要從人工智能內(nèi)部進(jìn)行分級(jí)改造。使用人工智能的社會(huì)群體千差萬(wàn)別,、需求各有側(cè)重,,需要防范的風(fēng)險(xiǎn)也各異。以青少年群體為例,,我們應(yīng)該著重研發(fā)輔助課堂學(xué)習(xí),、引導(dǎo)興趣愛(ài)好的人工智能,讓其成為有利于青少年成長(zhǎng)的助手與“伙伴”,。同時(shí),,為防止青少年過(guò)度沉迷,應(yīng)在系統(tǒng)中編入使用時(shí)長(zhǎng),、特定功能分區(qū)的限制,,并出具生動(dòng)詳細(xì)的使用教程和預(yù)警聲明,保障青少年的身心健康,。
預(yù)測(cè)就業(yè)替代風(fēng)險(xiǎn),,加強(qiáng)人工智能職業(yè)培訓(xùn),。如何避免人工智能替代人類,不僅需要?jiǎng)趧?dòng)者個(gè)人順應(yīng)時(shí)代風(fēng)向,、積極主動(dòng)實(shí)現(xiàn)自我提升,,還需要政府部門和企事業(yè)單位制定保護(hù)勞動(dòng)者、協(xié)調(diào)人機(jī)關(guān)系的就業(yè)保障機(jī)制,。在部署“人工智能+”行動(dòng)時(shí),,可以要求企業(yè)在應(yīng)用人工智能的同時(shí),在算法中預(yù)置就業(yè)考量,,實(shí)現(xiàn)向善的人工智能倫理規(guī)則,。企業(yè)則應(yīng)做好就業(yè)倫理合規(guī),不應(yīng)追求用技術(shù)完全替代人,,而是追求如何用技術(shù)賦能生產(chǎn)效率,、優(yōu)化體驗(yàn)。此外,,在進(jìn)行就業(yè)前置性布局的時(shí)候,,也應(yīng)當(dāng)為可能被替代職業(yè)或工種的從業(yè)者安排相關(guān)的技能培訓(xùn),增加他們?cè)谛颅h(huán)境下的就業(yè)機(jī)會(huì),。
構(gòu)建平等開(kāi)放的國(guó)際人工智能安全秩序,。防范人工智能安全風(fēng)險(xiǎn)是全世界共同面臨的課題,并不是某一國(guó),、某一地區(qū)的特權(quán)或義務(wù),。目前,發(fā)達(dá)國(guó)家總體上掌握著比發(fā)展中國(guó)家更先進(jìn)的人工智能技術(shù),,后者往往因此失去了在國(guó)際舞臺(tái)上的話語(yǔ)權(quán),,并缺乏防范和化解人工智能風(fēng)險(xiǎn)的意識(shí)。
??需要強(qiáng)調(diào)的是,,理解與防范人工智能安全風(fēng)險(xiǎn)的目的,,并不是要讓大家畏懼、否定科技的進(jìn)步,,而是希望大家具備理性審視和應(yīng)對(duì)潛在風(fēng)險(xiǎn)的能力,,學(xué)會(huì)在人工智能的浪潮中保持清醒的頭腦,掌握駕馭人工智能的主動(dòng)權(quán),。讓我們?cè)谙硎苤悄軙r(shí)代紅利的同時(shí),,確保自身和社會(huì)的安全穩(wěn)定,實(shí)現(xiàn)科技向善,、人機(jī)和諧共生的美好愿景,!
??(作者:宋國(guó)杰,系北京大學(xué)智能學(xué)院黨委副書記、長(zhǎng)聘副教授)
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1141192.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。