“黑客”拿著攝像頭,,拍下一張參觀者的照片。10幾秒過后,,出現(xiàn)了參觀者“護(hù)照照”“明星照”“生活照”等不同風(fēng)格照片,;接著,,又生成了一段帶有抬頭,、轉(zhuǎn)頭,、張嘴、眨眼等動作的視頻,,幾乎與真人視頻無異。然后,,“黑客”試圖利用這段視頻,,解開參觀者所使用的人臉識別密碼……圖說:“AI造臉”吸引很多體驗(yàn)者(任翀攝)
圖說:AI只花10幾秒鐘就生成不同形式的照片以及動態(tài)視頻,,真假難辨(任翀攝)在2024世界人工智能大會的展會上,一項(xiàng)名叫“諜影重重”的深度造假(Deepfake)互動體驗(yàn)吸引了眾多參觀者,,排隊(duì)等候生成“假臉”,。面對短時間生成的數(shù)字形象,尤其是動態(tài)的視頻形象,,很多體驗(yàn)者連呼“太像了”,。不過,“黑客”使用視頻形象解鎖“人臉識別”時,,反深度造假平臺ZOLOZ提示,,視頻涉嫌深度造假,解鎖不成功,。
圖說:同樣是利用人工智能技術(shù),,AI制造的假臉視頻被識破(任翀攝)“我們希望通過這一互動,,讓大家了解深度造假,不要輕信各種視頻、圖像,。同時,,呼吁更多的應(yīng)用者和研發(fā)者關(guān)注深度造假,用技術(shù)手段降低風(fēng)險,?!闭古_工作人員介紹,隨著人工智能的發(fā)展,,“AI換臉”的水平越來越高,,幾乎真假難辨。但針對性的技術(shù)研發(fā),,有機(jī)會“用魔法打敗魔法”,。在“諜影重重”互動中,ZOLOZ能識別出視頻造假,,正是應(yīng)用了人工智能:對用戶面部動態(tài)進(jìn)行細(xì)致入微的分析,,捕捉微表情、肌肉紋理,、眼神流轉(zhuǎn)等細(xì)微特征,,判斷其是否為真人實(shí)時互動。目前,,相關(guān)技術(shù)已經(jīng)應(yīng)用在金融等領(lǐng)域,。
圖說:用人工智能技術(shù)從細(xì)節(jié)判斷真?zhèn)危ˋI制圖)人工智能治理是今年世界人工智能大會的重要議題,而防范人工智能造假,,具有很強(qiáng)的現(xiàn)實(shí)意義,。申城好網(wǎng)民專家、中國網(wǎng)安協(xié)會數(shù)據(jù)安全專家,、上海臨港數(shù)據(jù)評估有限公司總監(jiān)宗良介紹,,以往的造假以文字編造、圖片編輯(PS),、視頻剪輯等居多,。但基于生成式人工智能,出現(xiàn)了“文生文”“文生圖”“文生視頻”“圖生視頻”等造假方式,,“以假亂真”的現(xiàn)象愈發(fā)普遍,,還被不法分子利用,比如香港警方披露的,、涉案金額高達(dá)2億港元的“AI多人換臉”詐騙案等,。面對新的造假方式,公眾要提高警惕,不輕信網(wǎng)絡(luò)上的視頻和圖像,。同時,,若在視頻通話中覺得可疑,,可以讓對方摸臉,、按鼻子,或者主動切換成方言對話,,增加AI造假的難度,,導(dǎo)致AI造假露出破綻,從而鑒別真?zhèn)?。此外,,公眾要注意保護(hù)個人隱私。現(xiàn)場的體驗(yàn)讓大家看到,,一張照片就能生成真假難辨的動態(tài)“假臉”,,這說明,每個人都要保護(hù)好自己的信息,,包括面部信息,、靜態(tài)照片等,避免被不法分子利用,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1111958.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。