A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

“AI騙局”橫行 人工智能安全亟待加碼

來源:21世紀(jì)經(jīng)濟(jì)報道

  人工智能的“雙刃劍”效應(yīng)日益明顯,。

  AI技術(shù)在引發(fā)科技變革,、提升生產(chǎn)力和效率等方面展現(xiàn)了充分的潛力,,但與此同時,,它帶來的安全隱患也越來越凸顯,。利用深度偽造制造假象、操縱輿論甚至進(jìn)行欺詐活動已經(jīng)侵?jǐn)_了正常的公眾生活,,“AI騙局”的新手段層出不窮,,讓人防不勝防。

  同樣不容忽視的是,,惡意AI大模型的出現(xiàn),、網(wǎng)絡(luò)釣魚攻擊以及LLM自身的安全風(fēng)險等,在不同層面上放大甚至催生了新的安全隱患,,給經(jīng)濟(jì)安全,、信息安全、算法安全,、數(shù)據(jù)安全等帶來了威脅,。中國銀河證券分析師認(rèn)為,人工智能在知識產(chǎn)權(quán),、勞動權(quán)益、倫理準(zhǔn)則等方面存在侵權(quán)風(fēng)險,。

  而隨著我國《全球人工智能治理倡議》,、美國《關(guān)于安全、可靠和值得信賴的人工智能的行政命令》以及歐盟《人工智能法案》等與人工智能相關(guān)的法案發(fā)布,,AI安全的相關(guān)法律規(guī)定得到完善,,在AI安全問題上的法律實踐有望逐步落實。

  宏觀上,,監(jiān)管層已經(jīng)“出手”,。微觀上,目前的形勢也對各主體提出了相應(yīng)的要求,。在企業(yè)層面,,金社研究院分析師指出,AI領(lǐng)域的企業(yè)應(yīng)當(dāng)考慮搭建相應(yīng)的AI安全與合規(guī)體系,,從而對于AI的安全與合規(guī)問題形成系統(tǒng)性保障,;對公民個人而言,對虛假信息保持警惕是面對威脅加強自身防護(hù)的第一步,。

“AI騙局”橫行 人工智能安全亟待加碼圖片來源:視覺中國

  “無孔不入”

  生成式AI面世以來,,看得見和看不見的變革和顛覆正在持續(xù)進(jìn)行著,因為其便捷性和應(yīng)用的廣泛性,,AI滲透到人們工作生活的方方面面,,而與之相對應(yīng)的是AI濫用風(fēng)險的日益顯露。這其中,,深度偽造“劣跡昭著”,。

  深度偽造(deep fake)是一種使用人工智能技術(shù)合成人物圖像、音頻和視頻,,使得偽造內(nèi)容趨于真實的技術(shù),,可能滋生多種新型違法犯罪,,例如利用AI合成虛假的人物圖像或色情視頻進(jìn)行侮辱誹謗、敲詐勒索,、操控輿論以制造或推動網(wǎng)絡(luò)暴力等對社會安全造成了威脅,。

  隨著生成式AI全身動作生成等技術(shù)的進(jìn)步,深度偽造內(nèi)容的可信度也進(jìn)一步增加,。利用AI工具制作虛假色情視頻進(jìn)行傳播、勒索等惡意行為引起廣泛關(guān)注,。去年6月,,美國網(wǎng)絡(luò)犯罪投訴中心(IC3)發(fā)布了公共服務(wù)公告,美國聯(lián)邦調(diào)查局(FBI)警示公眾警惕惡意行為者利用受害者社交媒體上發(fā)布的圖像和視頻來AI篡改,,進(jìn)行性勒索和騷擾,。

  其次是惡意人工智能大模型帶來的威脅。

  惡意人工智能大模型是指由非法組織或不法分子操縱,,借助開源模式模仿ChatGPT等合法模型,,基于有害語料庫訓(xùn)練而生滋生的、專門用于網(wǎng)絡(luò)犯罪,、詐騙等非法行為的一類非法大模型,。

  據(jù)悉,首個惡意大模型WormGPT于2021年7月在暗網(wǎng)發(fā)布,,主要用于生成復(fù)雜的網(wǎng)絡(luò)釣魚和商業(yè)電子郵件攻擊及編寫惡意代碼,。

  惡意大模型產(chǎn)生的直接目的就是用于各類非法行為,帶來的威脅具有明確指向性,。惡意大模型主要運行于暗網(wǎng),,具有更強的隱蔽性、危害性,,對國家安全,、行業(yè)創(chuàng)新、生產(chǎn)生活等方面造成危害,。

  AI與數(shù)據(jù)和算法聯(lián)系密切,,因而也帶來了潛在的安全隱患,主要涉及數(shù)據(jù)的隱私與保護(hù),、算法偏見與歧視和跨境數(shù)據(jù)流通三方面,。

  一方面,AI在與用戶交互過程中可能收集許多私密或敏感數(shù)據(jù),,這些數(shù)據(jù)也被用于訓(xùn)練AI模型,。這些數(shù)據(jù)包括但不限于個人身份信息、位置數(shù)據(jù),、消費習(xí)慣,,甚至是生物識別信息,。如果它們沒有得到充分保護(hù)或被不當(dāng)處理,可能會導(dǎo)致嚴(yán)重的隱私泄露,,進(jìn)而損害個人權(quán)益,,甚至威脅到社會的公共安全。另一方面,,AI可基于其采集到無數(shù)個看似不相關(guān)的數(shù)據(jù)片段,,通過深度挖掘分析得到更多與用戶個人信息或隱私相關(guān)的信息,導(dǎo)致現(xiàn)行的數(shù)據(jù)匿名化等安全保護(hù)措施無效,。

  算法偏見和歧視可能導(dǎo)致決策不公,。同時,根據(jù)部分AI產(chǎn)品的運作原理,,用戶在對話框進(jìn)行交互時,,相關(guān)問答數(shù)據(jù)可能會被傳輸?shù)轿挥诰惩獾漠a(chǎn)品開發(fā)公司,其間數(shù)據(jù)的跨境流動可能會引發(fā)數(shù)據(jù)跨境安全問題,。

  在此基礎(chǔ)上,,AI產(chǎn)品對算法、算力和數(shù)據(jù)的高度依賴,,可能導(dǎo)致科技企業(yè)的寡頭壟斷,。

  而除了AI帶來的這些威脅,LLM(Large Language Model)自身也存在安全風(fēng)險,?!?024人工智能安全報告》指出,AI與大語言模型本身伴隨著安全風(fēng)險,,業(yè)內(nèi)對潛在影響的研究與重視程度仍遠(yuǎn)遠(yuǎn)不足,。

  OWASP研究發(fā)布了LLM存在處理輸入不安全、訓(xùn)練數(shù)據(jù)投毒,、供應(yīng)鏈漏洞,、敏感信息披露、過度依賴等10大安全漏洞,,騰訊朱雀實驗室也發(fā)布了《AI安全威脅風(fēng)險矩陣》(以下稱“矩陣”),。矩陣以全生命周期視角來看待人工智能領(lǐng)域可能存在的各類安全問題,涉及環(huán)境接觸,、數(shù)據(jù)搜集整理,、模型訓(xùn)練等AI模型創(chuàng)建到投入使用的全過程階段,指出AI在各個環(huán)節(jié)可能存在的潛在風(fēng)險,,包括環(huán)境接觸階段的Docker惡意訪問,、模型使用階段的數(shù)據(jù)泄露攻擊等等。

  需要注意的是,,硬件傳感器相關(guān)威脅帶來的對人類身體健康甚至生命安全的侵害,,則是更加直接的,。高度自治的AI系統(tǒng),如無人駕駛汽車,、醫(yī)療機(jī)器人等,,一旦出現(xiàn)數(shù)據(jù)泄露、網(wǎng)絡(luò)連通性差等問題,,可能會造成嚴(yán)重的安全事故,。

  2021年2月,歐盟網(wǎng)絡(luò)安全局(ENISA)和聯(lián)合研究中心(JRC)發(fā)布《在自動駕駛中采用人工智能的網(wǎng)絡(luò)安全挑戰(zhàn)》報告,。報告總結(jié)了四種網(wǎng)絡(luò)安全威脅,,一是傳感器卡塞、致盲,、欺騙或飽和,攻擊者可以通過這種方式操縱人工智能模型,,降低自動決策的有效性,;二是DoS/DDoS攻擊,中斷自動駕駛車輛可用的通信通道,,使車輛無法看到外部世界,,干擾自動駕駛導(dǎo)致車輛失速或故障;三是操縱自動駕駛車輛的通信設(shè)備,,劫持通信通道并操縱傳感器讀數(shù),,或者錯誤地解讀道路信息和標(biāo)志;四是信息泄露,。

  此外,,AI帶來的威脅還包括利用AI自動化攻擊、惡意軟件,、釣魚郵件,、口令爆破、驗證碼破解,、社會工程學(xué)的技術(shù)支持等,,種類繁多,技術(shù)復(fù)雜,。

  風(fēng)險和利好是同在的,,在現(xiàn)代社會幾乎是“無孔不入”。

  AI安全治理在路上

  在立法層面,,AI安全已經(jīng)踏出了重要的一步,。

  今年,全球第一部關(guān)于人工智能的綜合法律《人工智能法案》(以下簡稱《法案》)已經(jīng)在上周由歐洲議會正式投票批準(zhǔn)通過,,相關(guān)條款將分階段實施,?!斗ò浮犯鶕?jù)風(fēng)險級別對人工智能系統(tǒng)進(jìn)行分類,以界定對人的健康和安全或基本權(quán)利構(gòu)成重大風(fēng)險的“高風(fēng)險”人工智能系統(tǒng),,而對于某些特定的人工智能系統(tǒng),,只提出了最低限度的透明度義務(wù)。其主要目標(biāo)之一是防范任何人工智能對健康和安全構(gòu)成威脅,,并保護(hù)基本權(quán)利和價值觀,。

  在經(jīng)歷深度偽造所帶來的一系列負(fù)面社會事件后,美國政府于2023年10月底簽署了《關(guān)于安全,、可靠和值得信賴的人工智能的行政命令》,。該行政令包含建立AI安全的新標(biāo)準(zhǔn)、保護(hù)美國民眾隱私等8個目標(biāo),。中國銀河證券分析師認(rèn)為,,該法案側(cè)重于安全與隱私的高度保護(hù),防止人工智能導(dǎo)致的不公平與歧視加劇,,保障個體權(quán)利的同時,,提升政府在人工智能數(shù)據(jù)與技術(shù)方面的管控。

  我國將引導(dǎo)技術(shù)發(fā)展與加強監(jiān)管“并駕齊驅(qū)”,,致力于有關(guān)部門和行業(yè)共同完善人工智能監(jiān)管體系,,相關(guān)法律文件相繼推出,為引導(dǎo)人工智能發(fā)展和監(jiān)管提供法律依據(jù),。

  2023年6月,,國務(wù)院宣布“人工智能法”列入立法議程。2023年10月,,國家互聯(lián)網(wǎng)信息辦公室(“網(wǎng)信辦”)發(fā)布《全球人工智能治理倡議》,,圍繞人工智能發(fā)展、安全,、治理三方面系統(tǒng)闡述了人工智能治理中國方案,,強調(diào)各國應(yīng)在人工智能治理中加強信息交流和技術(shù)合作,以共同促進(jìn)AI治理規(guī)范和行業(yè)標(biāo)準(zhǔn)的框架搭建,。

  落實到行業(yè)層面,,近日,包括圖靈獎得主約書亞·本吉奧,、杰弗里·辛頓,、姚期智等在內(nèi)的數(shù)十位中外專家,在北京聯(lián)合簽署了《北京AI安全國際共識》,,要求任何人工智能系統(tǒng)都不應(yīng)在人類沒有明確批準(zhǔn)和協(xié)助的情況下復(fù)制或改進(jìn)自身,,包括制作自身的精確副本以及創(chuàng)造具有相似或更高能力的新人工智能系統(tǒng)?!皡f(xié)助不良行為者”則是指所有人工智能系統(tǒng)都不應(yīng)輔助提升其使用者的能力,,使之能夠達(dá)到設(shè)計大規(guī)模殺傷性武器,、違反生物或化學(xué)武器公約或執(zhí)行導(dǎo)致嚴(yán)重財務(wù)損失或同等傷害的網(wǎng)絡(luò)攻擊領(lǐng)域?qū)<业乃健?/p>

  以上法案和條令等均強調(diào)了AI在社會安全、算法安全,、科技倫理安全等存在的風(fēng)險,,并分別給出了相應(yīng)的指導(dǎo)和建議。

  在打擊深度偽造等AI虛假信息生成方面,,拜登政府出臺了相關(guān)的規(guī)定和措施,,要求AI生成內(nèi)容加上標(biāo)識和水印,并保護(hù)用戶免受聊天機(jī)器人的欺騙,。歐盟委員會副主席喬羅娃(Vera Jourova)也于去年6月宣布,,要求向谷歌、抖音國際版,、微軟,、Facebook和Instagram母公司Meta等超過40家科技企業(yè)檢測人工智能生成的圖片、視頻和文本,,向用戶提供明確的標(biāo)記,。在歐盟《法案》中,也要求生成深度合成內(nèi)容的AI系統(tǒng)使用者需要對外告知該等內(nèi)容是由AI生成或操縱的,,而并非真實內(nèi)容。

  同時,,我國,、美國以及歐盟等國家和地區(qū)均將數(shù)據(jù)安全視為AI安全方面最為重要的問題之一。據(jù)金杜研究院分析師整理,,歐盟《法案》要求針對高風(fēng)險的AI系統(tǒng)在系統(tǒng)全生命周期落實透明度要求,,并且要求AI系統(tǒng)提供方向下游AI系統(tǒng)部署方、分銷商等披露特定信息,。

  中共中央辦公廳,、國務(wù)院辦公廳于2022年發(fā)布了《關(guān)于加強科技倫理治理的意見》,該意見是我國首個國家層面的,、專門針對科技倫理治理的指導(dǎo)性文件,,提出了科技倫理治理原則以及基本要求。2023年10月新發(fā)布的《科技倫理審查辦法(試行)》對于科技倫理審查的基本程序,、標(biāo)準(zhǔn),、條件等提出統(tǒng)一要求,標(biāo)志著我國AI倫理治理監(jiān)管體系建設(shè)進(jìn)入了新階段,。

  AI安全的法律法規(guī)建設(shè)已經(jīng)提上日程,,各項法案和規(guī)定的出臺逐漸給AI這個新興領(lǐng)域劃出了“分界線”。

  AI什么可以做,、什么不應(yīng)該做,、什么地方應(yīng)該加以規(guī)范,、什么地方應(yīng)該嚴(yán)令禁止,都會在這些法律事件中逐步明晰,。但這些措施是否有效,,是否及時,尚需要檢驗,。

  在針對AI帶來安全威脅的具體的應(yīng)對措施上,,各界看法不一,但大體有一個一致的方向,,即分行分業(yè),、協(xié)同治理。

  金杜研究院分析師認(rèn)為,,當(dāng)前我國的實踐中,,AI領(lǐng)域的企業(yè)應(yīng)當(dāng)考慮搭建相應(yīng)的AI安全與合規(guī)體系,從而對AI的安全與合規(guī)問題形成系統(tǒng)性保障,。在內(nèi)部合規(guī)管理體系上,,建議AI領(lǐng)域企業(yè)根據(jù)自身實際情況判斷是否需要辦理特殊資質(zhì)證照,在外部合作層面,,提出企業(yè)應(yīng)當(dāng)考慮AI安全方面的要求,,在互聯(lián)網(wǎng)應(yīng)用層面指出企業(yè)在涉及AIGC平臺等互聯(lián)網(wǎng)應(yīng)用時應(yīng)考慮到其對信息安全、數(shù)據(jù)安全造成的風(fēng)險,,修訂用戶協(xié)議,、隱私政策等文件。

  AI安全是一個不容忽視又實時更新的問題,,道遠(yuǎn)路長,,也或許將有超出現(xiàn)有認(rèn)知的挑戰(zhàn),需要每一個主體的不懈求索,。

 ?。ㄗ髡撸嚎缀{悾瑢嵙?xí)生張奕丹 編輯:朱益民)

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1093643.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。

(0)
新浪財經(jīng)的頭像新浪財經(jīng)
上一篇 2024年3月22日 上午4:18
下一篇 2024年3月22日
198搶自鏈數(shù)字人

相關(guān)推薦