或許,在這個AI飛速發(fā)展的時代,,在真實和AI營造的虛幻之間,,我們應該思考的,是如何保持一個具備獨立思維和理智思辨的頭腦,。
這是一個人工智能(AI)技術飛速發(fā)展的時代,,這是一個真實和虛假愈加難辨的時代。一張美國前總統(tǒng)特朗普親吻前白宮首席醫(yī)療顧問福奇的照片近日引發(fā)爭議,,后經網友仔細查證,,這是一張AI生成圖,由特朗普的黨內競爭對手德桑蒂斯團隊炮制,,目的是抨擊特朗普在任時抗疫不力,。克隆聲音,、一鍵換臉,、炮制假新聞……當AI制造的謊言潛入現(xiàn)實,究竟該如何厘清真假的邊界,?
擬聲換臉騙局頻現(xiàn)
當電話另一端傳來親友的呼救聲,,誰會想到這竟然是一個赤裸裸的AI騙局。前段時間,,一對加拿大夫婦就經歷了這樣一場“聲音克隆噩夢”,。
據《華盛頓郵報》報道,這對夫婦3月接到一通電話,,電話那頭一名自稱律師的男子說,,他們的兒子珀金因在一場車禍中撞死一名美國外交官而入獄,出庭前急需21000美元律師費,。讓故事顯得更為逼真的是,,電話中還傳來了近似珀金的聲音。這對夫婦掛完電話慌作一團,,立刻跑去銀行將錢轉給“律師”,。直到兒子當晚打電話過來,他們才發(fā)覺被騙,。這家人迅速報警,,經警方調查,電話中“兒子”的聲音是詐騙集團根據珀金在社交平臺發(fā)布的視頻,,利用AI技術仿造他的聲音,。盡管查明了事情真相,,被騙的錢財卻一去不復返。美國聯(lián)邦貿易委員會(FTC)營銷實踐部助理主任威爾·麥克森表示,,追蹤語音詐騙者極為困難,,他們使用的電話可能位于世界上任何角落。同樣在3月,,美國的格雷格夫婦也接到了類似的電話,。詐騙者模擬他們孫子布蘭登的聲音,稱人在監(jiān)獄,,需要一筆保釋金。AI技術正在讓冒名詐騙變得更容易,,且成本更低,。FTC最新統(tǒng)計結果顯示,冒名詐騙已經成為當下美國第二大熱門詐騙類型,。2022年此類案件超過3.6萬起,,其中約5000起為電話詐騙,損失金額超過1100萬美元,。
AI軟件生成的特朗普福奇親吻圖。圖源:GJ
加州大學伯克利分校數字取證學教授漢尼·法里德指出,,AI技術的進步讓詐騙者能夠輕易地根據簡短的音頻樣本來復制聲音,。“兩年前,,你可能需要大量音頻來克隆一個人的聲音,。但現(xiàn)在,只要你在臉書或者TikTok發(fā)一段超過30秒的音頻,,復制聲音就可以迅速實現(xiàn),。”聲音可以模仿,,面容也可以替換,,AI換臉早已不是新鮮事。美國游戲主播Atrioc就發(fā)現(xiàn)自己的臉被“偷”了,,有不法分子利用AI換臉技術制作她的不雅視頻,,并發(fā)布在社交媒體上。崩潰的Atrioc試著向警方求助,,等來的答復卻是——她所在的州目前還沒有相關法律可約束或懲罰這樣的行為,。
虛假信息混淆視聽
不只是普通人,,在AI的騙術面前,一些媒體也難以招架,。英國《每日郵報》4月報道,,一名22歲的加拿大年輕人為了能在韓國娛樂圈出道,以某韓國男團成員的面容為模板,,花了約22萬美元整容了12次,,最后在韓國一家醫(yī)院不幸喪命。這則新聞一出,,便引發(fā)了《紐約郵報》八卦版“第六頁”,、加拿大媒體公司Postmedia等媒體的跟風報道。但沒過多久,,一些媒體進一步查證后發(fā)現(xiàn),,或許這根本就是個編造的故事,主人公可能并不存在,。因為韓國媒體詢問警方后得到的回答是——當時并未收到類似的死亡案例報告,。而檢測網站的結果顯示,這名加拿大年輕人的照片有75%可能由AI生成,。面對公眾質疑,,《每日郵報》刪去了這則報道。但意外的是,,5月又有媒體報道,,這名年輕人的家人站出來證明他們兒子的死亡和報道的真實性,。不過,,這篇報道沒有提供任何實質性的證據,也沒有提供家人的真實信息和照片,。
AI軟件可以輕易生成“逼真”圖片,。圖源:GJ
如今,這名年輕人的身份和報道的真?zhèn)我琅f成謎,。在自由撰稿人拉斐爾·拉希德看來,這件事向媒體人發(fā)出了警示,,就是現(xiàn)在比以往任何時候都更需要在核查事實、揭穿謠言以及問責方面發(fā)揮作用,,提升自己的媒體素養(yǎng)和批判性思維能力,。AI生成的虛假信息還廣泛出現(xiàn)在政治領域。幾張?zhí)乩势赵诩~約街頭遭警察圍捕的圖片3月在社交平臺瘋傳,,圖片中特朗普被警察抓住雙手摁倒在地,,場面十分混亂。而事實上,,這些圖片均出自開源信息調查網站bellingcat創(chuàng)始人,、英國獨立記者艾略特·希金斯之手。他利用AI繪圖軟件生成了特朗普被捕的圖片,,“我只是在鬧著玩,,原以為只有幾個人會轉發(fā)”。但令他沒有想到的是,,這條推文的瀏覽量在兩天后就突破了500萬次,。如果說這些AI炮制的假新聞只是混淆了視聽,那還有些假新聞則對社會產生了實實在在的影響,。5月22日,,一張五角大樓爆炸的AI生成圖在網絡上引起軒然大波。數字原創(chuàng)媒體Vox報道,,在短短幾天內,,這一假圖片就引起了一陣恐慌,甚至在短時間內撼動了美國金融市場,。值得注意的是,,用AI技術抹黑政治對手并不只是民主黨的伎倆,。共和黨也曾使用AI制作一段30秒的視頻,呈現(xiàn)美國總統(tǒng)拜登連任后的場景:銀行紛紛倒閉,、金融市場崩盤,、舊金山被封鎖……用虛假的圖片和報道描繪了一系列危機。人工智能公司“抱抱臉”安全和政策專家艾琳·索萊曼認為,AI已經被廣泛用于政治宣傳和操縱選舉,,未來的道路將會十分艱難,。觀察人士擔心,AI技術的快速普及可能會加劇2024年美國大選中虛假信息的傳播,。美國聯(lián)邦眾議員伊維特·克拉克警告,,“如果AI技術在大選中被用來大規(guī)模操縱和欺騙選民,將會對美國的國家安全造成嚴重后果”,。
如何治理面臨挑戰(zhàn)
雖然自互聯(lián)網誕生以來,,虛假信息就一直存在于網絡世界,但近年來隨著ChatGPT,、Midjourney等AI工具的出現(xiàn),,以及Photoshop等繪圖軟件功能的更新,大規(guī)模生產超逼真的假圖像,、視頻和文本變得更加容易便捷,。歐洲刑警組織一份報告預測,到2026年互聯(lián)網上多達90%的內容可能由AI創(chuàng)建或編輯,。目前,,完全由AI生成的假新聞網站已經出現(xiàn),而且在短短幾周內這些網站的數量就上漲了兩倍,。當AI造假的浪潮日益逼近,,我們該如何分辨真?zhèn)?、找尋真實?有媒體分析認為,,或許應從技術研發(fā),、完善法律法規(guī)以及提高公眾意識和教育等層面入手。
AI軟件生成的特朗普被捕圖,。圖源:GJ
有業(yè)內人士建議加強AI反制技術研究。眼下確實有一些科技企業(yè)正在加強對圖像,、聲音偽造技術的反制研究,,但到目前為止,并沒有一個通用的標準來識別真實或虛假的內容,,AI反制技術要隨著AI技術的進步而不斷更新,。也有分析指出,AI技術的健康發(fā)展離不開相關法律法規(guī)的完善,。例如,,對于流媒體平臺上AI高度模仿歌手的行為,完善版權法或許是一個相對有效的策略,。另有專家表示,,未來AI可根據大數據創(chuàng)造出無比接近真實的“真實”,,要通過不斷的教育改變大眾觀念,,讓人知道眼見不一定為實,有圖不一定有真相,,對網絡信息提升辨識力,。盡管對“AI造假”的有效治理道阻且長,但不少國家和地區(qū)已經開始著手應對,。德國《世界報》近日報道,,歐盟正在采取行動打擊AI深度造假。歐盟委員會委員薇拉·堯羅娃表示,,識別深度造假的技術已經存在,,希望臉書、谷歌,、TikTok等社交媒體平臺能夠大規(guī)模使用這些技術,,并且通過軟件發(fā)出警報提醒用戶,而這項規(guī)則以后也可能被納入歐盟正在制定的《人工智能法》,。誠然,,AI技術的發(fā)展是把雙刃劍,,一方面,它以驚人的速度在推進醫(yī)療技術,、改善人類生活質量等領域發(fā)揮著積極作用,;另一方面,它也帶來了一定的風險和挑戰(zhàn),。在5月召開的伯克希爾-哈撒韋公司的年度股東大會上,,“股神”巴菲特談及對AI的看法時流露擔憂。他表示,,盡管發(fā)明AI的初衷是好的,,“但當某種事物可以做各種各樣的事情時,我有點擔心”,。他將人工智能比作原子彈:“在二戰(zhàn)期間,,我們基于充分的理由發(fā)明了原子彈,但這項發(fā)明對未來世界而言,,真的是件好事嗎,?”巴菲特認為,AI將改變世界上的一切,,除了人類的思維和行為方式,。或許,,在這個AI飛速發(fā)展的時代,,在真實和AI營造的虛幻之間,我們應該思考的,,是如何保持一個具備獨立思維和理智思辨的頭腦,。
出品 深海區(qū)工作室
撰稿 王若弦
編輯 深海鹽
免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1048783.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。