確保人工智能安全,、可靠,、可控,,有利于人類文明進(jìn)步,,是人工智能發(fā)展必須解決的重要課題,。黨的二十屆三中全會《決定》作出“建立人工智能安全監(jiān)管制度”“完善生成式人工智能發(fā)展和管理機(jī)制”等重要部署。如何加強(qiáng)人工智能治理,,有效防范化解人工智能發(fā)展帶來的各類安全風(fēng)險(xiǎn),,不斷提升人工智能安全監(jiān)管的制度化、法治化水平,?本期學(xué)術(shù)版圍繞這些問題進(jìn)行探討,。——編 者提升生成式人工智能三大風(fēng)險(xiǎn)治理能力 劉艷紅習(xí)近平總書記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,,將對全球經(jīng)濟(jì)社會發(fā)展和人類文明進(jìn)步產(chǎn)生深遠(yuǎn)影響,。”生成式人工智能是指基于算法,、模型,、規(guī)則生成文本、圖片,、聲音,、視頻、代碼等內(nèi)容的技術(shù),。在海量數(shù)據(jù)與強(qiáng)大算力支撐下,,聽得懂、說得出,、能互動的生成式人工智能快速迭代升級,,呈現(xiàn)出良好互動性、高度通用性,、智能生成性等特征,,并正與各行各業(yè)形成更加剛性、高頻,、泛在,、深度的聯(lián)結(jié),也導(dǎo)致其潛在風(fēng)險(xiǎn)更多更真實(shí),。黨的二十屆三中全會《決定》科學(xué)把握人工智能發(fā)展規(guī)律和特點(diǎn),,提出“建立人工智能安全監(jiān)管制度”“完善生成式人工智能發(fā)展和管理機(jī)制”,體現(xiàn)了更好統(tǒng)籌發(fā)展和安全的客觀需要,為推動人工智能領(lǐng)域的技術(shù)進(jìn)步,、產(chǎn)業(yè)發(fā)展與安全保障指明前進(jìn)方向,。生成式人工智能在技術(shù)運(yùn)行上可分為三個(gè)階段,即前置性學(xué)習(xí)訓(xùn)練及人工標(biāo)注輔助算法升級的準(zhǔn)備階段,,輸入數(shù)據(jù)進(jìn)行算法處理得出生成物的運(yùn)算階段,,生成物進(jìn)入社會加以運(yùn)用的生成階段。我們要深入分析生成式人工智能的運(yùn)行機(jī)理,,把握各階段安全風(fēng)險(xiǎn)形成與發(fā)展的特征,,運(yùn)用法治手段加強(qiáng)系統(tǒng)性治理,確保生成式人工智能所蘊(yùn)含的巨大力量始終在法治軌道上發(fā)揮作用,。在生成式人工智能的準(zhǔn)備階段,,數(shù)據(jù)安全風(fēng)險(xiǎn)易發(fā)多發(fā)、較為突出,。生成式人工智能通過數(shù)據(jù)訓(xùn)練,、數(shù)據(jù)處理分析來提煉信息、預(yù)測趨勢,。這就必須對數(shù)據(jù)進(jìn)行適當(dāng)分類,,確立不同類型數(shù)據(jù)的利用模式和保護(hù)方式,以妥善應(yīng)對相關(guān)數(shù)據(jù)安全風(fēng)險(xiǎn),,避免數(shù)據(jù)違規(guī)利用或者不當(dāng)泄露,,產(chǎn)生侵權(quán)方面的糾紛。比如,,在政務(wù)處理流程中形成的政務(wù)數(shù)據(jù)是數(shù)字政府的核心要素,。生成式人工智能為了得出相對準(zhǔn)確的結(jié)論,不可避免地要收集分析政務(wù)數(shù)據(jù),。應(yīng)當(dāng)明確生成式人工智能獲取和利用政務(wù)數(shù)據(jù)的法律規(guī)則,,既滿足利用政務(wù)數(shù)據(jù)服務(wù)社會的需求,有力支持人工智能政務(wù)服務(wù)大模型開發(fā),、訓(xùn)練和應(yīng)用,,提高公共服務(wù)和社會治理智能化水平;又規(guī)范其加工方式,,避免利用政務(wù)數(shù)據(jù)得出的成果侵害個(gè)人權(quán)益,、破壞社會公共秩序。對于個(gè)人數(shù)據(jù)而言,,生成式人工智能通過組合分析挖掘其潛在價(jià)值,,其對個(gè)人數(shù)據(jù)的收集利用及其成果可能對公民權(quán)利造成侵害。實(shí)踐中,,生成式人工智能傾向于過度收集個(gè)人數(shù)據(jù)以提升結(jié)論準(zhǔn)確性,比如,,通過分析醫(yī)療健康數(shù)據(jù)來挖掘個(gè)人行蹤,、預(yù)測個(gè)人生活軌跡,。為此,必須堅(jiān)持依法收集,,按照技術(shù)所需的最小范圍收集個(gè)人數(shù)據(jù),,設(shè)置合理的數(shù)據(jù)處理深度,避免過度挖掘潛在信息,。綜上,,應(yīng)將分類分級的數(shù)據(jù)安全監(jiān)管要求嵌入生成式人工智能的準(zhǔn)備階段,避免數(shù)據(jù)安全風(fēng)險(xiǎn)演化為具體的法益損害后果,。在生成式人工智能的運(yùn)算階段,,內(nèi)生于人工智能大模型的算法偏見風(fēng)險(xiǎn)值得警惕。生成式人工智能對于數(shù)據(jù)的分析和處理主要通過算法模型,。不同于傳統(tǒng)算法模型,,生成式人工智能在進(jìn)行機(jī)器學(xué)習(xí)的同時(shí),還會以大量的人工標(biāo)注來校正機(jī)器學(xué)習(xí)的結(jié)論,,推動人工智能進(jìn)化,。但“機(jī)器學(xué)習(xí)+人工標(biāo)注”作為算法技術(shù)內(nèi)核,也會使人類的意志與偏好所產(chǎn)生的影響比單純的機(jī)器學(xué)習(xí)更大,。個(gè)人偏好的影響疊加在算法模型本身的偏見之上,,將導(dǎo)致算法偏見的負(fù)面效應(yīng)倍增,算法偏見的產(chǎn)生更加難以追溯和預(yù)防,。防范化解算法偏見風(fēng)險(xiǎn),,應(yīng)根據(jù)算法偏見的產(chǎn)生原理與產(chǎn)生場域進(jìn)行針對性治理。要將法律規(guī)范的要求深度嵌入生成式人工智能的算法模型之中,,推動技術(shù)向善,,消除算法偏見,確保合理利用生成式人工智能算法并分配算力資源,?;诩脊芙Y(jié)合理念,加強(qiáng)對算法的全周期安全監(jiān)管,,將法律規(guī)范的要求落實(shí)到生成式人工智能運(yùn)行的全流程之中,。在設(shè)置算法之初就要遵循相關(guān)法律規(guī)則與技術(shù)標(biāo)準(zhǔn),落實(shí)“機(jī)器學(xué)習(xí)+人工標(biāo)注”的規(guī)范要求,,審查存在風(fēng)險(xiǎn)的算法模塊,,更好發(fā)現(xiàn)生成式人工智能算法模型中的技術(shù)風(fēng)險(xiǎn);當(dāng)發(fā)現(xiàn)先天性算法偏見時(shí),,依據(jù)法律要求從生成式人工智能的算法內(nèi)部進(jìn)行糾正,,確保修改后的算法能正常運(yùn)行;事后出現(xiàn)問題時(shí),對人工智能算法進(jìn)行溯源治理,,實(shí)現(xiàn)精準(zhǔn)歸責(zé)并加以糾正,,推動完善生成式人工智能的算法監(jiān)管標(biāo)準(zhǔn),填補(bǔ)事前預(yù)防審查的不足,,以技術(shù)手段與法律手段并行做到發(fā)展與管理并重,。在生成式人工智能的生成階段,存在著與生成物相關(guān)的知識產(chǎn)權(quán)風(fēng)險(xiǎn),、生成物濫用風(fēng)險(xiǎn)等多種風(fēng)險(xiǎn),。由于生成式人工智能的智能化程度很高,可以實(shí)現(xiàn)內(nèi)容自動化編纂,、智能化潤色加工,、多模態(tài)轉(zhuǎn)換以及創(chuàng)造性生成,直接改變了內(nèi)容的生產(chǎn)方式與供給模式,,相較于以往的人工智能系統(tǒng)產(chǎn)生了顛覆性變化,,由此引發(fā)了生成式人工智能的生成物知識產(chǎn)權(quán)歸屬、知識產(chǎn)權(quán)保護(hù)等問題,。有的人認(rèn)為生成式人工智能生成物是數(shù)據(jù)算法的結(jié)論,,其本質(zhì)上是計(jì)算與模仿,而非智力勞動,,無法成為知識產(chǎn)權(quán)的客體,。反對者則認(rèn)為生成式人工智能模擬人腦神經(jīng)網(wǎng)絡(luò)的構(gòu)造來獲取與輸出數(shù)據(jù),通過卷積神經(jīng)網(wǎng)絡(luò)控制自身的設(shè)計(jì)與制造,,其具有獨(dú)創(chuàng)性與創(chuàng)新性的生成物應(yīng)當(dāng)受知識產(chǎn)權(quán)法保護(hù),。同時(shí),生成式人工智能還增加了知識產(chǎn)權(quán)糾紛風(fēng)險(xiǎn)和保護(hù)難度,,一些生成物可能含有侵犯他人知識產(chǎn)權(quán)的內(nèi)容,,或者經(jīng)過加工等手段被包裝成個(gè)人擁有完全知識產(chǎn)權(quán)的原創(chuàng)作品,引發(fā)相關(guān)知識產(chǎn)權(quán)爭議,。為及時(shí)化解相關(guān)問題,,應(yīng)對生成式人工智能的技術(shù)模式、技術(shù)原理按照知識產(chǎn)權(quán)法的標(biāo)準(zhǔn)開展實(shí)質(zhì)分析,,如果技術(shù)上需要人類意志介入,,使生成物能夠產(chǎn)生獨(dú)創(chuàng)性與創(chuàng)新性,應(yīng)賦予知識產(chǎn)權(quán)并明確其歸屬,,強(qiáng)化生成式人工智能領(lǐng)域知識產(chǎn)權(quán)的系統(tǒng)性保護(hù),;同時(shí)要合理確定對生成物知識產(chǎn)權(quán)保護(hù)的范圍,避免保護(hù)范圍無限擴(kuò)張,,妨礙生成式人工智能的推廣運(yùn)用和技術(shù)發(fā)展,。還要加強(qiáng)對生成物濫用風(fēng)險(xiǎn)的治理,。比如,要求作品清楚標(biāo)識生成式人工智能在作者創(chuàng)作中發(fā)揮作用的情況,,加強(qiáng)對可能涉及違法犯罪的深度偽造,、AI換臉等生成物的精準(zhǔn)化,、常態(tài)化監(jiān)管,,等等。生成式人工智能在社會應(yīng)用中產(chǎn)生的擴(kuò)散影響還有很多,,除了上述風(fēng)險(xiǎn)還有很多其他類型的風(fēng)險(xiǎn),,比如加劇信息不對稱、擴(kuò)大數(shù)字鴻溝,、損害數(shù)字弱勢群體的利益等,。要根據(jù)實(shí)際情況作出應(yīng)對,盡量降低新技術(shù)給社會發(fā)展帶來的不良沖擊,。(作者為中國政法大學(xué)刑事司法學(xué)院教授)守護(hù)好人工智能時(shí)代的隱私安全顧理平習(xí)近平總書記強(qiáng)調(diào):“堅(jiān)持以人為本,、智能向善”。當(dāng)前,,人工智能技術(shù)日新月異,,既深刻影響改變著人們的生產(chǎn)生活方式、加速了經(jīng)濟(jì)社會發(fā)展進(jìn)程,,也對法律規(guī)范,、道德倫理、公共治理等造成沖擊,。其中,,對隱私權(quán)、個(gè)人信息安全等的威脅是值得關(guān)注的重要問題,。黨的二十屆三中全會《決定》對“建立人工智能安全監(jiān)管制度”作出重要部署,,保護(hù)隱私權(quán)和個(gè)人信息安全是人工智能安全監(jiān)管的題中應(yīng)有之義。必須加強(qiáng)人工智能時(shí)代的隱私權(quán)保護(hù),,確保個(gè)人信息安全,。人工智能時(shí)代隱私權(quán)面臨嚴(yán)峻挑戰(zhàn)。隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間,、私密活動,、私密信息。民法典規(guī)定:“自然人享有隱私權(quán),。任何組織或者個(gè)人不得以刺探,、侵?jǐn)_、泄露,、公開等方式侵害他人的隱私權(quán),?!彪[私權(quán)作為人格權(quán)的核心要素,是構(gòu)筑人格尊嚴(yán)的重要基礎(chǔ),。不被公開,、不被知曉是隱私權(quán)的核心訴求。當(dāng)前,,人工智能以悄無聲息的方式介入人們生產(chǎn)生活的各領(lǐng)域各方面各環(huán)節(jié),,產(chǎn)生智能醫(yī)療、智能交通,、智能推薦等眾多應(yīng)用場景,,技術(shù)本身存在的某些缺陷和規(guī)則的不完善,不可避免帶來侵害隱私權(quán)的問題,。比如,,非法收集和使用個(gè)人信息,利用分析這些個(gè)人信息頻繁推送所謂“個(gè)性化”的“精準(zhǔn)廣告”,,泄露個(gè)人信息給第三方,,導(dǎo)致私人生活頻頻受到垃圾信息侵?jǐn)_;利用個(gè)人信息進(jìn)行“大數(shù)據(jù)殺熟”,,實(shí)現(xiàn)“一客一價(jià)”的精準(zhǔn)價(jià)格歧視,,令公民遭受財(cái)產(chǎn)損失;已脫敏個(gè)人信息被重新識別,,因保護(hù)措施不當(dāng)導(dǎo)致數(shù)據(jù)泄露,,非法買賣個(gè)人信息現(xiàn)象屢見不鮮,侵害個(gè)人信息安全,;借助個(gè)人信息進(jìn)行深度偽造,,通過聲音仿真、AI換臉等手段,,實(shí)施詐騙等違法犯罪行為,;等等。這說明,,侵害隱私權(quán)不僅侵犯了公民的人格尊嚴(yán),,也會造成其他嚴(yán)重社會后果。去私密化技術(shù)特征加劇個(gè)人信息安全風(fēng)險(xiǎn),。以大數(shù)據(jù)為基礎(chǔ)的人工智能在應(yīng)用之初,,許多人是抱著觀望、懷疑的心態(tài)看待這種新技術(shù)的,。隨著人工智能以擬人化的外在形式,、個(gè)性化的服務(wù)提供、沉浸式的互動過程不斷改善使用者的產(chǎn)品體驗(yàn)和心理感受,,越來越多的人逐漸成為人工智能的忠實(shí)用戶,,享受著人工智能給自己帶來的各種便捷,。隨著人機(jī)互動、萬物互聯(lián)的物聯(lián)網(wǎng)技術(shù)普及,智能家居,、智能辦公,、智能工廠、智能駕駛等人工智能應(yīng)用場景也不斷拓展,,個(gè)人能夠以數(shù)字人的存在形式在數(shù)字空間提出需求,、獲得服務(wù),也在不知不覺中向人工智能源源不斷地輸送著個(gè)人信息,。個(gè)人在數(shù)字空間留下的任何痕跡都被數(shù)字化,,形成個(gè)人信息,并作為人們“聯(lián)系世界的介質(zhì)”發(fā)揮著重要功能,。與此同時(shí),,人工智能為了改善服務(wù)質(zhì)量,,也傾向于過度收集使用個(gè)人信息。這都使得人工智能具有鮮明的去私密化技術(shù)特征,。也正是在那些人工智能使用者習(xí)以為常的個(gè)人信息流動中,,混合著公共數(shù)據(jù)和私人數(shù)據(jù)的大數(shù)據(jù)被挖掘、整合,、分析,、利用,人們難以憑自己的感官察覺到隱私權(quán)被侵害,,個(gè)人信息安全面臨著更高的風(fēng)險(xiǎn),。尊重個(gè)體選擇,堅(jiān)持知情同意,。不同的人對個(gè)人信息被知悉,、被利用的接受程度不同,應(yīng)尊重個(gè)人意愿,,科學(xué)合理地執(zhí)行“知情同意”原則,。知情同意原則包括知情和同意兩方面,同意必須以知情為前提,,沒有充分的知情和理解,,就不可能有真正意義上的同意。信息,、理解和自愿,,是知情同意原則的三要素。在全面“知情”的基礎(chǔ)上,,個(gè)人可以自主作出怎樣“同意”的意思表示,。這就需要在用戶使用人工智能時(shí),作出通俗易懂而又清晰明了的提示說明,,征得用戶對個(gè)人信息收集使用的同意,。如果個(gè)人信息會在不同平臺之間流動,需要將流動范圍,、目標(biāo),、使用邊界讓用戶知曉。為了良好和流暢的用戶體驗(yàn),,也可以給用戶提供一次性或分階段進(jìn)行授權(quán)的選擇,。要告知用戶收集個(gè)人信息的范圍、方式和用途以及與誰共享個(gè)人信息,,用戶也應(yīng)當(dāng)可以選擇隨時(shí)退出,。在進(jìn)行個(gè)人信息分析時(shí),應(yīng)以彈窗或其他形式提示用戶注意并實(shí)時(shí)授權(quán),。設(shè)置數(shù)據(jù)生命周期,、按時(shí)刪除個(gè)人信息也是保護(hù)個(gè)人信息安全的有效方式,。完善技術(shù)手段,確保智能向善,。技術(shù)導(dǎo)致的問題,,要善于從技術(shù)層面確立解決問題的思路。人工智能時(shí)代隱私權(quán)面臨挑戰(zhàn),,其直接的觸發(fā)因素是技術(shù)的演進(jìn),。從分析式人工智能到生成式人工智能,人工智能技術(shù)每一次迭代升級,,都可能對隱私權(quán)帶來新的沖擊,。因此,技術(shù)解決方案必須置于關(guān)鍵位置,,應(yīng)通過完善數(shù)據(jù)庫安全,、核心數(shù)據(jù)加密、個(gè)人數(shù)據(jù)脫敏等技術(shù),,建立保護(hù)隱私權(quán)和個(gè)人信息安全的防火墻,。個(gè)人信息一般會經(jīng)過收集、存儲和使用三個(gè)階段,,而這三個(gè)階段都可能存在侵害隱私權(quán)和個(gè)人信息安全的風(fēng)險(xiǎn)。應(yīng)根據(jù)不同階段個(gè)人信息所處的不同狀況,,從技術(shù)上進(jìn)行有效保護(hù),。在個(gè)人信息收集階段,加強(qiáng)匿名化技術(shù)推廣運(yùn)用,。收集個(gè)人信息雖然不可避免,,但只要匿名化,不把個(gè)人信息與身份對應(yīng),,隱私權(quán)就不會受到侵害,。個(gè)人信息存儲階段,要完善加密技術(shù),。當(dāng)前,,數(shù)據(jù)存儲主要有數(shù)據(jù)庫存儲和云存儲兩種方式。外部入侵竊取和內(nèi)部人員未經(jīng)授權(quán)的查看,、使用,、泄露是存儲階段個(gè)人信息安全的主要威脅。要強(qiáng)化數(shù)據(jù)加密,,同時(shí)嚴(yán)格數(shù)據(jù)訪問權(quán)限控制,。個(gè)人信息使用階段,要從技術(shù)上加強(qiáng)對個(gè)人信息違法使用的實(shí)時(shí)介入,、干擾,、阻斷,,為隱私權(quán)和個(gè)人信息安全多添一層保護(hù)。隨著我國法律規(guī)則日益完善,、保護(hù)力度持續(xù)加強(qiáng),,特別是民法典、個(gè)人信息保護(hù)法對隱私權(quán)和個(gè)人信息保護(hù)作出詳細(xì)規(guī)定,,明確了個(gè)人信息處理活動中權(quán)利和義務(wù)的邊界,,人工智能時(shí)代我國對隱私權(quán)和個(gè)人信息安全的法律保護(hù)必將邁上更高水平,為人工智能健康發(fā)展,、更好造福人民群眾提供堅(jiān)強(qiáng)法律保障,。(作者為南京師范大學(xué)新聞與傳播學(xué)院教授)探索人工智能體的模塊化治理框架張 欣科技興則民族興,科技強(qiáng)則國家強(qiáng),。黨的十八大以來,,我國高度重視人工智能發(fā)展,積極推動互聯(lián)網(wǎng),、大數(shù)據(jù),、人工智能和實(shí)體經(jīng)濟(jì)深度融合,培育壯大智能產(chǎn)業(yè),,加快發(fā)展新質(zhì)生產(chǎn)力,,為高質(zhì)量發(fā)展提供新動能。習(xí)近平總書記指出:“要堅(jiān)持促進(jìn)發(fā)展和依法管理相統(tǒng)一,,既大力培育人工智能,、物聯(lián)網(wǎng)、下一代通信網(wǎng)絡(luò)等新技術(shù)新應(yīng)用,,又積極利用法律法規(guī)和標(biāo)準(zhǔn)規(guī)范引導(dǎo)新技術(shù)應(yīng)用,。”習(xí)近平總書記的重要論述為我國人工智能發(fā)展提供了根本遵循和行動指南,。大力發(fā)展人工智能,,提高人工智能安全治理水平,要把黨的二十屆三中全會《決定》提出的“建立人工智能安全監(jiān)管制度”重要部署不折不扣貫徹落實(shí)好,,準(zhǔn)確把握人工智能發(fā)展動向,,重點(diǎn)關(guān)注人工智能前沿技術(shù)及其帶來的風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻性思考,,不斷探索人工智能治理的創(chuàng)新方案,。當(dāng)前,生成式人工智能開創(chuàng)了人機(jī)交互新范式,,憑借其強(qiáng)大的交互,、理解和生成能力,為發(fā)展以大型自然語言模型為核心組件,集記憶,、規(guī)劃和工具使用于一體,,具備感知和行動能力的人工智能體開辟了廣闊前景。人工智能體已成為通用人工智能最重要的前沿研究方向和科技企業(yè)競相布局的新賽道,。它以大型自然語言模型為“智慧引擎”,,具有自主性、適應(yīng)性和交互性特征,,可顯著提高生產(chǎn)效率,,增強(qiáng)用戶體驗(yàn),提供超越人類能力的決策支持,,已能夠應(yīng)用于軟件開發(fā),、科學(xué)研究等多種真實(shí)場景。盡管大規(guī)模商業(yè)化落地仍在初步探索和孵化階段,,但人工智能體所代表的虛實(shí)融合,、人機(jī)深度互動等趨勢對經(jīng)濟(jì)社會發(fā)展具有重要引領(lǐng)意義。然而,,由于技術(shù)局限,,人工智能體也可能引發(fā)復(fù)雜的、動態(tài)的,、不可預(yù)見的風(fēng)險(xiǎn)與隱憂,。從設(shè)計(jì)邏輯看,人工智能體需要通過控制端獲得認(rèn)知能力,,通過感知端從周圍環(huán)境獲取和利用信息,,最終在行動端成為基于物理實(shí)體進(jìn)行感知和行動的智能系統(tǒng)。在控制端,,大型自然語言模型作為人工智能體的“大腦”,通過學(xué)習(xí)海量數(shù)據(jù)形成知識,,構(gòu)成人工智能體控制系統(tǒng)中的記憶模塊,,但其在生成內(nèi)容的可靠性和準(zhǔn)確性方面存在風(fēng)險(xiǎn)。比如,,模型生成的內(nèi)容可能不遵循信息源或者與現(xiàn)實(shí)世界的真實(shí)情況不符,,產(chǎn)生所謂“機(jī)器幻覺”;由于訓(xùn)練數(shù)據(jù)中的人類偏見,,影響人工智能體的公平?jīng)Q策,;等等。在感知端,,為充分理解具體情境下的顯性信息和隱性信息,,準(zhǔn)確感知人類意圖,人工智能體將感知范圍從純文本拓展到包括文本、視覺和聽覺模式在內(nèi)的多模態(tài)領(lǐng)域,。這雖然提升了決策能力,,卻在融合和分析不同渠道和類型的多源數(shù)據(jù)時(shí)可能引發(fā)一系列隱私泄露和數(shù)據(jù)安全風(fēng)險(xiǎn)。比如,,不當(dāng)使用和分享人臉信息,、指紋、聲紋等高度個(gè)性化,、具有永久性的生物特征數(shù)據(jù),,導(dǎo)致長期甚至永久性的隱私風(fēng)險(xiǎn)。為更好地處理復(fù)雜任務(wù),,部署多個(gè)人工智能體進(jìn)行規(guī)劃,、合作甚至競爭,以完成和提高任務(wù)績效的多智能體系統(tǒng)將成為主流和常態(tài),。多個(gè)人工智能體的系統(tǒng)交互就可能引發(fā)不可預(yù)見的系統(tǒng)性安全風(fēng)險(xiǎn),。即使每個(gè)算法在單獨(dú)操作時(shí)看似安全和合理,但組合和交互之后仍可能產(chǎn)生完全不同且難以預(yù)測的風(fēng)險(xiǎn),,并迅速演化升級,。比如,在股票市場中,,如果人工智能被廣泛應(yīng)用,,多個(gè)算法自動識別股票價(jià)格微小變化,同時(shí)大量執(zhí)行高頻交易進(jìn)行套利,,就可能引發(fā)股票市場閃崩的系統(tǒng)性安全事件,。在行動端,部署于真實(shí)物理環(huán)境的人工智能體將可能以更為立體,、擬人的形象呈現(xiàn),。與虛擬空間不同,現(xiàn)實(shí)空間依賴交互式學(xué)習(xí)方法,,人工智能體需要豐富的,、全方位的信息感知來觀察、學(xué)習(xí)和行動,,通過基于反饋的學(xué)習(xí)優(yōu)化能力,,這可能對個(gè)人隱私構(gòu)成全面性、侵入性和隱蔽性的風(fēng)險(xiǎn),。比如,,解讀用戶的肢體語言并感知更加復(fù)雜的用戶活動,未經(jīng)用戶授權(quán)持續(xù)隱秘地收集數(shù)據(jù),,一旦系統(tǒng)存在安全漏洞,,可能引發(fā)巨大的數(shù)據(jù)安全風(fēng)險(xiǎn)。此外,隨著人工智能體自主性不斷提升,,不僅可能干預(yù)和影響人類的認(rèn)知和情緒,,也挑戰(zhàn)著人類作為獨(dú)立決策者和獨(dú)立行動者的能力與地位。比如,,一些聊天機(jī)器人在與用戶的交互過程中就出現(xiàn)了影響用戶情感的輸出,,有時(shí)是負(fù)面并且具有操縱性的。面對人工智能體帶來的風(fēng)險(xiǎn)和挑戰(zhàn),,要讓人工智能體的行為符合人類的意圖和價(jià)值觀,,需要探索創(chuàng)新性的治理方案,保證人工智能安全監(jiān)管制度切實(shí)管用,。人工智能體的發(fā)展正處于“從零到一”的關(guān)鍵期,。治理方案應(yīng)具備以不變應(yīng)萬變的能力,確保該技術(shù)的發(fā)展與應(yīng)用始終處于可控的軌道上,。人工智能體的開發(fā),、訓(xùn)練、部署,、運(yùn)行和服務(wù)等環(huán)節(jié)經(jīng)過高度專業(yè)化的分工,,形成了復(fù)雜的分層結(jié)構(gòu)。每一層均有不同的參與者,、利益相關(guān)方和潛在風(fēng)險(xiǎn)因素,,使人工智能體具有“模塊”化的產(chǎn)業(yè)鏈特質(zhì)。因此,,可以構(gòu)建一種能夠覆蓋整個(gè)產(chǎn)業(yè)鏈和各個(gè)端層的模塊化治理框架,,從數(shù)據(jù)模塊、算法模塊,、模型架構(gòu)等關(guān)鍵節(jié)點(diǎn)出發(fā),,設(shè)計(jì)相應(yīng)的治理模塊。例如在部署環(huán)節(jié),,就可根據(jù)應(yīng)用場景和部署模式的特性,,靈活選擇、協(xié)同組合不同的治理模塊,,構(gòu)建與之相匹配的治理方案。模塊化治理框架提供了一種具有可操作性的分解方法,,通過將治理目標(biāo)拆解為相對獨(dú)立但關(guān)聯(lián)耦合的治理模塊,,漸序推動治理體系形成,不僅提高了治理的靈活性和針對性,,還能夠適應(yīng)技術(shù)的快速迭代,。在構(gòu)建基于數(shù)據(jù)、算法、模型和場景等維度的治理模塊時(shí),,應(yīng)以技術(shù)賦能監(jiān)管,,打造與人工智能體模塊化治理框架相適配的、智慧化的治理工具,,從而彌合風(fēng)險(xiǎn)動態(tài)性與監(jiān)管靜態(tài)性之間的張力,,實(shí)現(xiàn)對特定高風(fēng)險(xiǎn)場景的精準(zhǔn)化治理。要構(gòu)建面向人工智能體的交互式治理生態(tài),。人工智能體具有深度交互性,、高度互聯(lián)性以及動態(tài)適應(yīng)性。相應(yīng)地,,治理方式應(yīng)當(dāng)超越傳統(tǒng)的以個(gè)體為中心的治理,,推動形成廣泛互聯(lián)、多方參與,、多層次協(xié)作的治理生態(tài),。其中,技術(shù)開發(fā)人員,、運(yùn)營維護(hù)人員等技術(shù)社群對于人工智能體的治理將起到至關(guān)重要的“吹哨人”作用,。應(yīng)更好發(fā)揮技術(shù)社群的監(jiān)督優(yōu)勢,在人工智能企業(yè)內(nèi)部構(gòu)建有效的約束機(jī)制,。還應(yīng)積極提高廣大用戶的數(shù)字素養(yǎng),,增強(qiáng)其依法、安全,、負(fù)責(zé)任使用人工智能體的意識,,實(shí)現(xiàn)與人工智能體的良性交互,推動形成向上向善的運(yùn)行狀態(tài),。(作者為對外經(jīng)濟(jì)貿(mào)易大學(xué)法學(xué)院教授)《 人民日報(bào) 》( 2024年11月04日 09 版)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1126903.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。