韓維正 毛翊興在北京舉行的全球數(shù)字經(jīng)濟(jì)大會上,,參觀者體驗(yàn)智能安全帽,。 陳曉根攝(人民視覺)
在瑞士日內(nèi)瓦舉行的“2024人工智能造福人類全球峰會” 聚焦人工智能監(jiān)管與治理等議題,現(xiàn)場展覽的繪畫機(jī)器人吸引眾多參會者目光,。 新華社記者 連 漪攝
安徽省含山縣姚廟中心學(xué)校為學(xué)生們開展網(wǎng)絡(luò)安全等宣講活動。 歐宗濤攝(人民視覺)
在福建福州舉辦的網(wǎng)絡(luò)安全博覽會上,,市民體驗(yàn)數(shù)字貨幣購物功能,。 王旺旺攝(人民視覺)AI“換臉”實(shí)施詐騙、AI偽造圖片傳播謠言,、AI“復(fù)活”逝者引發(fā)爭議……隨著人工智能技術(shù)的不斷發(fā)展,,AI深度偽造的例子屢見不鮮。不少網(wǎng)民驚呼,,以前總說“有圖有真相”,,如今我們連圖片和視頻也不敢輕易相信了。AI深度偽造是怎么回事,?該如何防范相關(guān)風(fēng)險,?用戶、平臺,、監(jiān)管,、司法等社會各界該如何形成合力,建立生成式AI信息安全規(guī)范,? 我們對此進(jìn)行了采訪,。“眼見不一定為實(shí)”關(guān)于AI深度偽造的熱點(diǎn)事件,,正引發(fā)全世界廣泛關(guān)注,。今年1月,美國一位流行歌手被人用AI惡意生成虛假照片,,在社交媒體迅速傳播,,給歌手本人造成困擾。2月,,香港一家公司遭遇“AI變臉”詐騙,,損失高達(dá)2億元港幣。據(jù)悉,,這家公司一名員工在視頻會議中被首席財務(wù)官要求轉(zhuǎn)賬,。然而,會議中的這位“領(lǐng)導(dǎo)”和其他員工,,實(shí)際都是深度偽造的AI影像,。詐騙者通過公開渠道獲取的資料,合成了首席財務(wù)官的形象和聲音,,并制作出多人參與視頻會議的虛假場景,。基于深度合成技術(shù)引發(fā)的侵權(quán)案例,,常見的手法是冒充熟人實(shí)施電信詐騙,。不久前,江蘇句容的楊女士,在收到自己“女兒”多條要求繳納報名費(fèi)的語音后,,向騙子賬戶轉(zhuǎn)賬3.5萬元,。相關(guān)辦案民警反復(fù)提醒:“遇到轉(zhuǎn)賬一定要慎之又慎,眼見不一定為實(shí),?!薄吧疃葌卧旒夹g(shù)利用AI深度學(xué)習(xí)功能,實(shí)現(xiàn)圖像,、聲音,、視頻的篡改、偽造和自動生成,,產(chǎn)生以假亂真的效果,。”上海人工智能研究院院長宋海濤給公眾應(yīng)對深度偽造支了三招:一是掌握甄別AI“換臉”的簡單技巧,,比如要求對方在視頻對話時在臉前揮揮手,,看是否出現(xiàn)圖像擾動等;二是學(xué)會使用檢測深度偽造的工具和軟件,;三是保持合理懷疑?!氨3种?jǐn)慎和警惕,,是公眾應(yīng)對AI造假的第一道防線?!彼魏f,。“用技術(shù)治理技術(shù)”如何把生成式AI的強(qiáng)大能力用于建立信息安全規(guī)范,,將制約行業(yè)發(fā)展的“絆腳石”變?yōu)椤皦号撌??業(yè)界一直在探索“用技術(shù)治理技術(shù)”的方案。瑞萊智慧是清華大學(xué)人工智能研究院孵化的企業(yè),,專攻人工智能安全領(lǐng)域,。瑞萊智慧總裁田天介紹,其公司研發(fā)的生成式人工智能內(nèi)容檢測平臺,,支持多種合成類型的圖片,、視頻、音頻,、文本的真?zhèn)螜z測,,應(yīng)用場景包括打擊網(wǎng)絡(luò)詐騙和聲譽(yù)侵害行為、檢測網(wǎng)絡(luò)內(nèi)容合規(guī)性,、檢測音視頻物證真實(shí)性等,。“利用AI技術(shù)治理AI犯罪,本身也是一個不斷博弈的過程,?!碧锾旖榻B,“紅隊(duì)測試”是目前生成式AI治理的重要手段,,旨在通過模擬攻擊者行為,,對目標(biāo)系統(tǒng)進(jìn)行全面網(wǎng)絡(luò)攻擊,針對性地發(fā)現(xiàn),、修補(bǔ)潛在系統(tǒng)漏洞,,使模型在面向公眾開放前,充分接受安全技術(shù)檢驗(yàn),。視頻合成AI平臺Sora,,在上市前就曾邀請數(shù)名從事信息安全漏洞研究的專家充當(dāng)紅隊(duì)進(jìn)行對抗測試,找出相當(dāng)數(shù)量的安全漏洞,。此外,,業(yè)界也在推動落實(shí)AI生成內(nèi)容標(biāo)識制度。中國政法大學(xué)數(shù)據(jù)法治研究院教授張凌寒表示,,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會在《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》中給出了內(nèi)容標(biāo)識方法:通過在交互界面中添加半透明文字的方式顯示水印標(biāo)識,,或通過人類無法直接感知但可通過技術(shù)手段從內(nèi)容中提取的隱式水印標(biāo)識,提示內(nèi)容由人工智能生成,?!皹?biāo)識制度可以提升AI信息內(nèi)容治理能力,減少虛假信息生成,,防止虛假信息污染下一代訓(xùn)練數(shù)據(jù),,營造良好的網(wǎng)絡(luò)信息生態(tài)環(huán)境?!睆埩韬f,。國際測試委員會創(chuàng)始人、中國科學(xué)院計算所研究員詹劍鋒建議,,應(yīng)將AI深度偽造納入監(jiān)測機(jī)制,,遇到負(fù)面影響較大的造假行為,第一時間快速反應(yīng),。通過建立針對深度偽造有害內(nèi)容的群眾舉報機(jī)制,,提高公眾的判斷力、鑒別力,?!爸贫纫龑?dǎo)技術(shù)向善”生成式AI技術(shù)是一把雙刃劍,如何在釋放創(chuàng)新活力的同時,,有效防范信息安全風(fēng)險,?不少專家表示,,盡快建立健全相關(guān)治理規(guī)范至關(guān)重要?!斑@一領(lǐng)域的治理不能完全寄希望于企業(yè)自治,,更需要法律硬性監(jiān)管?!睂ν饨?jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任張欣表示,,“通過立法為AI開發(fā)劃定基本底線,明確合規(guī)義務(wù),,可以從源頭防范風(fēng)險,,避免‘先污染后治理’的被動局面?!比ツ陣揖W(wǎng)信辦等部門發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》標(biāo)志著生成式AI有了專門性行政法規(guī),。2023年1月施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確提出,“任何組織和個人不得利用深度合成服務(wù)制作,、復(fù)制,、發(fā)布、傳播法律,、行政法規(guī)禁止的信息”“可能導(dǎo)致公眾混淆或者誤認(rèn)的,,應(yīng)當(dāng)在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識”,,等等,。在法律層面,中國已經(jīng)出臺了《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護(hù)法》等法律,,但針對AI領(lǐng)域的司法治理仍有進(jìn)一步細(xì)化的空間?!艾F(xiàn)有法律法規(guī)對數(shù)據(jù)權(quán)屬,、保護(hù)范圍等問題暫無具體規(guī)定。在人工智能生成結(jié)果的保護(hù)方面,,《民法典》的原則性條款在具體適用方面還有一定難度,。”北京互聯(lián)網(wǎng)法院綜合審判三庭負(fù)責(zé)人顏君建議,,要進(jìn)一步加快人工智能方面的法律供給,,推動國家層面生成式人工智能規(guī)范的確立。對已有案例出現(xiàn)的疑難法律問題,,要通過學(xué)術(shù)討論和司法實(shí)踐,,逐步形成共識,總結(jié)確立法律適用規(guī)則,,推動《人工智能法草案》的立法進(jìn)程,。在倫理層面,AI“復(fù)活”等行為引起部分用戶的反感和恐懼。對此,,科技部等10部門印發(fā)《科技倫理審查辦法(試行)》,,列出了需要開展倫理審查復(fù)核的科技活動清單,其中就包括具有社會動員能力和社會意識引導(dǎo)能力的算法模型,、應(yīng)用程序及系統(tǒng)研發(fā)等,。“我們要正確看待新業(yè)態(tài)帶來的可能性,,但也不能讓其偏離合法性,、合理性軌道。無論是技術(shù)開發(fā)者,、使用者還是監(jiān)管者,,都有必要用類似的倫理視角來審視技術(shù)發(fā)展。在追求科技進(jìn)步的同時,,確保AI技術(shù)循著以人為本和技術(shù)向善的理念發(fā)展,。”張凌寒說,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1107649.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。