《生成式人工智能服務管理暫行辦法》發(fā)布
促進產(chǎn)業(yè)健康發(fā)展和規(guī)范應用
近日,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委,、教育部,、科技部、工業(yè)和信息化部,、公安部,、廣電總局公布了《生成式人工智能服務管理暫行辦法》(以下稱《辦法》),,該《辦法》自2023年8月15日起施行,。
國家互聯(lián)網(wǎng)信息辦公室有關負責人表示,出臺《辦法》,,旨在促進生成式人工智能健康發(fā)展和規(guī)范應用,,維護國家安全和社會公共利益,保護公民,、法人和其他組織的合法權益,。
ChatGPT這一現(xiàn)象級的產(chǎn)品“騰空出世”,在國內(nèi)外掀起了一場大語言模型產(chǎn)業(yè)和生成式人工智能產(chǎn)業(yè)的熱潮,。然而,,熱潮背后,通過生成式人工智能偽造內(nèi)容導致的詐騙事件也屢有發(fā)生,?!?span id="a6otyhj" class="wpcom_tag_link">AI詐騙成功率接近100%”的話題甚至一度沖上熱搜,利用“AI換臉”“AI換聲”等虛假音視頻進行詐騙,、誹謗的違法行為引起社會關注,。
“作為今年最熱門的新技術,生成式人工智能給社會生產(chǎn)生活帶來了很多便利,,但也給數(shù)據(jù)安全,、隱私保護帶來更加復雜的風險和挑戰(zhàn)?!逼姘残偶瘓F副總裁張卓在接受記者采訪時表示,。
據(jù)悉,《辦法》提出國家堅持發(fā)展和安全并重,、促進創(chuàng)新和依法治理相結合的原則,,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管,,明確了提供和使用生成式人工智能服務總體要求,。張卓認為,,促進發(fā)展和防范風險需要兩者并重,從《辦法》中可以看出,,數(shù)據(jù)安全和隱私保護貫穿于生成式人工智能數(shù)據(jù)的標注,、模型預訓練、模型訓練,、提供服務等各個環(huán)節(jié),,避免了監(jiān)管盲區(qū)導致的安全風險。
在張卓看來,,《辦法》從源頭層面對數(shù)據(jù)標注提出了明確規(guī)范,。所謂數(shù)據(jù)標注,指的是對未經(jīng)處理的語音,、圖片,、文本,、視頻等原始數(shù)據(jù)進行加工處理,使其成為結構化數(shù)據(jù)讓機器可識別的過程。因此,,它決定著生成式人工智能最底層“原材料”的安全屬性,?!掇k法》第八條要求,,在生成式人工智能技術研發(fā)過程中進行數(shù)據(jù)標注的,生成式人工智能服務提供者(以下稱提供者)應當制定符合本辦法要求的清晰,、具體,、可操作的標注規(guī)則;開展數(shù)據(jù)標注質(zhì)量評估,,抽樣核驗標注內(nèi)容的準確性,;對標注人員進行必要培訓,提升尊法守法意識,,監(jiān)督指導標注人員規(guī)范開展標注工作,。
張卓表示,《辦法》從數(shù)據(jù)訓練處理環(huán)節(jié),,明確并細化了監(jiān)管要求?!掇k法》第七條指出,,提供者應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,,遵守以下規(guī)定:使用具有合法來源的數(shù)據(jù)和基礎模型,;涉及知識產(chǎn)權的,不得侵害他人依法享有的知識產(chǎn)權,;涉及個人信息的,,應當取得個人同意或者符合法律,、行政法規(guī)規(guī)定的其他情形;采取有效措施提高訓練數(shù)據(jù)質(zhì)量,,增強訓練數(shù)據(jù)的真實性,、準確性、客觀性,、多樣性,;遵守《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》等相關法律、行政法規(guī)以及相關監(jiān)管要求,。
“《辦法》從數(shù)據(jù)服務和使用環(huán)節(jié)形成了監(jiān)管閉環(huán),,避免了安全盲區(qū)?!掇k法》在第三章‘服務規(guī)范’第九條中指出,,提供者應當依法承擔網(wǎng)絡信息內(nèi)容生產(chǎn)者責任,履行網(wǎng)絡信息安全義務,。涉及個人信息的,,依法承擔個人信息處理者責任,履行個人信息保護義務,。第十一條指出,,提供者對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,。第十二條提出,,提供者應當按照《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》對圖片、視頻等生成內(nèi)容進行標識,。所有這些措施,,都充分考慮到了生成式人工智能的使用服務場景,尤其是面向公眾的場景,?!睆堊空f道。
“今年上半年以來,,世界各國出臺了一系列政策,,最新的政策就是我國發(fā)布的《生成式人工智能服務管理暫行辦法》,我覺得這是相輔相成的,。人工智能的發(fā)展和人工智能風險的管控要同時重視,,我們才可能迎來光明的未來?!北本┲窃慈斯ぶ悄苎芯吭涸洪L,、北京大學計算機學院教授黃鐵軍表示。
除了大眾普遍關心的數(shù)據(jù)安全,、隱私保護等問題,,《辦法》也為生成式人工智能技術在各行業(yè),、各領域的創(chuàng)新應用提供了方向。在中國政法大學法理學教授鄭玉雙看來,,此次政策出臺非常積極,。《辦法》明確
指出“鼓勵生成式人工智能技術在各行業(yè),、各領域的創(chuàng)新應用”“對生成式人工智能服務實行分類分級監(jiān)管”,,這意味著百度、華為這類深耕行業(yè),、面向B端的大模型會被批給企業(yè)提供服務,。
鄭玉雙分析稱,讓企業(yè)盡快用上用好大模型,、促進數(shù)實融合,,將成為《辦法》出臺的核心目標之一?!按竽P驼谶M入產(chǎn)業(yè)落地期,,根據(jù)百度、華為等企業(yè)近期密集發(fā)聲的情況來看,,企業(yè)應用大模型主要有三種方式,。第一種是構建基礎大模型,只有少數(shù)企業(yè)會自建大模型,,因為訓練大模型的成本和技術壁壘都非常高,。第二種是建立行業(yè)大模型,通常是了解行業(yè)know-how(專門知識,、技能)的企業(yè),,結合自身掌握的行業(yè)數(shù)據(jù),用基礎大模型精調(diào)出更貼合實際場景的行業(yè)大模型,。第三種是在基礎大模型和行業(yè)大模型之上,,開發(fā)AI應用,他們要思考的是如何在這個大模型之上做好提示詞工程,,解決特定應用場景的問題,,如何從模型效果、迭代速度,、工具鏈這三大方面去選擇一個好的大模型,。”鄭玉雙說,。
文 | 本報記者 王洋
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1059886.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。