“黑客”拿著攝像頭,,拍下一張參觀者的照片,。10幾秒過后,出現(xiàn)了參觀者“護照照”“明星照”“生活照”等不同風格照片;接著,,又生成了一段帶有抬頭,、轉(zhuǎn)頭、張嘴,、眨眼等動作的視頻,,幾乎與真人視頻無異。然后,,“黑客”試圖利用這段視頻,,解開參觀者所使用的人臉識別密碼……圖說:“AI造臉”吸引很多體驗者(任翀攝)
圖說:AI只花10幾秒鐘就生成不同形式的照片以及動態(tài)視頻,真假難辨(任翀攝)在2024世界人工智能大會的展會上,,一項名叫“諜影重重”的深度造假(Deepfake)互動體驗吸引了眾多參觀者,,排隊等候生成“假臉”。面對短時間生成的數(shù)字形象,,尤其是動態(tài)的視頻形象,,很多體驗者連呼“太像了”。不過,,“黑客”使用視頻形象解鎖“人臉識別”時,,反深度造假平臺ZOLOZ提示,視頻涉嫌深度造假,,解鎖不成功,。
圖說:同樣是利用人工智能技術(shù),,AI制造的假臉視頻被識破(任翀攝)“我們希望通過這一互動,,讓大家了解深度造假,不要輕信各種視頻,、圖像,。同時,呼吁更多的應用者和研發(fā)者關(guān)注深度造假,,用技術(shù)手段降低風險,。”展臺工作人員介紹,,隨著人工智能的發(fā)展,,“AI換臉”的水平越來越高,幾乎真假難辨,。但針對性的技術(shù)研發(fā),,有機會“用魔法打敗魔法”。在“諜影重重”互動中,,ZOLOZ能識別出視頻造假,,正是應用了人工智能:對用戶面部動態(tài)進行細致入微的分析,捕捉微表情,、肌肉紋理,、眼神流轉(zhuǎn)等細微特征,判斷其是否為真人實時互動,。目前,,相關(guān)技術(shù)已經(jīng)應用在金融等領(lǐng)域。
圖說:用人工智能技術(shù)從細節(jié)判斷真?zhèn)危ˋI制圖)人工智能治理是今年世界人工智能大會的重要議題,,而防范人工智能造假,,具有很強的現(xiàn)實意義,。申城好網(wǎng)民專家,、中國網(wǎng)安協(xié)會數(shù)據(jù)安全專家、上海臨港數(shù)據(jù)評估有限公司總監(jiān)宗良介紹,,以往的造假以文字編造,、圖片編輯(PS)、視頻剪輯等居多。但基于生成式人工智能,,出現(xiàn)了“文生文”“文生圖”“文生視頻”“圖生視頻”等造假方式,,“以假亂真”的現(xiàn)象愈發(fā)普遍,還被不法分子利用,,比如香港警方披露的,、涉案金額高達2億港元的“AI多人換臉”詐騙案等。面對新的造假方式,,公眾要提高警惕,,不輕信網(wǎng)絡(luò)上的視頻和圖像。同時,,若在視頻通話中覺得可疑,,可以讓對方摸臉、按鼻子,,或者主動切換成方言對話,,增加AI造假的難度,導致AI造假露出破綻,,從而鑒別真?zhèn)?。此外,公眾要注意保護個人隱私?,F(xiàn)場的體驗讓大家看到,,一張照片就能生成真假難辨的動態(tài)“假臉”,這說明,,每個人都要保護好自己的信息,,包括面部信息、靜態(tài)照片等,,避免被不法分子利用,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1111958.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。