“黑客”拿著攝像頭,拍下一張參觀者的照片,。10幾秒過后,,出現(xiàn)了參觀者“護(hù)照照”“明星照”“生活照”等不同風(fēng)格照片;接著,,又生成了一段帶有抬頭,、轉(zhuǎn)頭、張嘴,、眨眼等動(dòng)作的視頻,,幾乎與真人視頻無異。然后,,“黑客”試圖利用這段視頻,,解開參觀者所使用的人臉識(shí)別密碼……圖說:“AI造臉”吸引很多體驗(yàn)者(任翀攝)圖說:AI只花10幾秒鐘就生成不同形式的照片以及動(dòng)態(tài)視頻,真假難辨(任翀攝)在2024世界人工智能大會(huì)的展會(huì)上,,一項(xiàng)名叫“諜影重重”的深度造假(Deepfake)互動(dòng)體驗(yàn)吸引了眾多參觀者,,排隊(duì)等候生成“假臉”。面對(duì)短時(shí)間生成的數(shù)字形象,,尤其是動(dòng)態(tài)的視頻形象,,很多體驗(yàn)者連呼“太像了”。不過,,“黑客”使用視頻形象解鎖“人臉識(shí)別”時(shí),,反深度造假平臺(tái)ZOLOZ提示,視頻涉嫌深度造假,,解鎖不成功,。圖說:同樣是利用人工智能技術(shù),,AI制造的假臉視頻被識(shí)破(任翀攝)“我們希望通過這一互動(dòng),,讓大家了解深度造假,不要輕信各種視頻,、圖像,。同時(shí),呼吁更多的應(yīng)用者和研發(fā)者關(guān)注深度造假,,用技術(shù)手段降低風(fēng)險(xiǎn),。”展臺(tái)工作人員介紹,,隨著人工智能的發(fā)展,,“AI換臉”的水平越來越高,幾乎真假難辨,。但針對(duì)性的技術(shù)研發(fā),,有機(jī)會(huì)“用魔法打敗魔法”。在“諜影重重”互動(dòng)中,,ZOLOZ能識(shí)別出視頻造假,,正是應(yīng)用了人工智能:對(duì)用戶面部動(dòng)態(tài)進(jìn)行細(xì)致入微的分析,捕捉微表情,、肌肉紋理,、眼神流轉(zhuǎn)等細(xì)微特征,判斷其是否為真人實(shí)時(shí)互動(dòng),。目前,,相關(guān)技術(shù)已經(jīng)應(yīng)用在金融等領(lǐng)域。圖說:用人工智能技術(shù)從細(xì)節(jié)判斷真?zhèn)危ˋI制圖)人工智能治理是今年世界人工智能大會(huì)的重要議題,,而防范人工智能造假,具有很強(qiáng)的現(xiàn)實(shí)意義。申城好網(wǎng)民專家,、中國網(wǎng)安協(xié)會(huì)數(shù)據(jù)安全專家,、上海臨港數(shù)據(jù)評(píng)估有限公司總監(jiān)宗良介紹,以往的造假以文字編造,、圖片編輯(PS),、視頻剪輯等居多。但基于生成式人工智能,,出現(xiàn)了“文生文”“文生圖”“文生視頻”“圖生視頻”等造假方式,,“以假亂真”的現(xiàn)象愈發(fā)普遍,還被不法分子利用,,比如香港警方披露的,、涉案金額高達(dá)2億港元的“AI多人換臉”詐騙案等。面對(duì)新的造假方式,,公眾要提高警惕,,不輕信網(wǎng)絡(luò)上的視頻和圖像。同時(shí),,若在視頻通話中覺得可疑,,可以讓對(duì)方摸臉、按鼻子,,或者主動(dòng)切換成方言對(duì)話,,增加AI造假的難度,導(dǎo)致AI造假露出破綻,,從而鑒別真?zhèn)?。此外,公眾要注意保護(hù)個(gè)人隱私?,F(xiàn)場(chǎng)的體驗(yàn)讓大家看到,,一張照片就能生成真假難辨的動(dòng)態(tài)“假臉”,這說明,,每個(gè)人都要保護(hù)好自己的信息,,包括面部信息、靜態(tài)照片等,,避免被不法分子利用,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1111958.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。