“黑客”拿著攝像頭,拍下一張參觀者的照片,。10幾秒過后,,出現(xiàn)了參觀者“護照照”“明星照”“生活照”等不同風格照片,;接著,又生成了一段帶有抬頭,、轉頭,、張嘴、眨眼等動作的視頻,,幾乎與真人視頻無異,。然后,“黑客”試圖利用這段視頻,,解開參觀者所使用的人臉識別密碼……圖說:“AI造臉”吸引很多體驗者(任翀攝)
圖說:AI只花10幾秒鐘就生成不同形式的照片以及動態(tài)視頻,,真假難辨(任翀攝)在2024世界人工智能大會的展會上,一項名叫“諜影重重”的深度造假(Deepfake)互動體驗吸引了眾多參觀者,,排隊等候生成“假臉”,。面對短時間生成的數(shù)字形象,,尤其是動態(tài)的視頻形象,,很多體驗者連呼“太像了”。不過,,“黑客”使用視頻形象解鎖“人臉識別”時,,反深度造假平臺ZOLOZ提示,視頻涉嫌深度造假,,解鎖不成功,。
圖說:同樣是利用人工智能技術,,AI制造的假臉視頻被識破(任翀攝)“我們希望通過這一互動,,讓大家了解深度造假,不要輕信各種視頻,、圖像,。同時,呼吁更多的應用者和研發(fā)者關注深度造假,,用技術手段降低風險,。”展臺工作人員介紹,,隨著人工智能的發(fā)展,,“AI換臉”的水平越來越高,幾乎真假難辨,。但針對性的技術研發(fā),,有機會“用魔法打敗魔法”。在“諜影重重”互動中,,ZOLOZ能識別出視頻造假,,正是應用了人工智能:對用戶面部動態(tài)進行細致入微的分析,捕捉微表情,、肌肉紋理,、眼神流轉等細微特征,判斷其是否為真人實時互動,。目前,,相關技術已經應用在金融等領域。
圖說:用人工智能技術從細節(jié)判斷真?zhèn)危ˋI制圖)人工智能治理是今年世界人工智能大會的重要議題,,而防范人工智能造假,,具有很強的現(xiàn)實意義。申城好網民專家,、中國網安協(xié)會數(shù)據安全專家,、上海臨港數(shù)據評估有限公司總監(jiān)宗良介紹,以往的造假以文字編造、圖片編輯(PS),、視頻剪輯等居多,。但基于生成式人工智能,出現(xiàn)了“文生文”“文生圖”“文生視頻”“圖生視頻”等造假方式,,“以假亂真”的現(xiàn)象愈發(fā)普遍,,還被不法分子利用,比如香港警方披露的,、涉案金額高達2億港元的“AI多人換臉”詐騙案等,。面對新的造假方式,公眾要提高警惕,,不輕信網絡上的視頻和圖像,。同時,若在視頻通話中覺得可疑,,可以讓對方摸臉,、按鼻子,或者主動切換成方言對話,,增加AI造假的難度,,導致AI造假露出破綻,從而鑒別真?zhèn)?。此外,,公眾要注意保護個人隱私。現(xiàn)場的體驗讓大家看到,,一張照片就能生成真假難辨的動態(tài)“假臉”,,這說明,每個人都要保護好自己的信息,,包括面部信息,、靜態(tài)照片等,,避免被不法分子利用,。
免責聲明:本文來自網絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1111958.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。