原標題:生成式AI引發(fā)治理新思考
過去幾個月,ChatGPT為人工智能技術按下加速鍵,。這個聊天程序證明了超大參數(shù)模型和通用型人工智能的可行性,,谷歌、亞馬遜等巨頭紛紛推出自主研發(fā)的相關平臺,,國內也已有十數(shù)家企業(yè)在該領域有所布局。
它們被統(tǒng)稱為“生成式人工智能”,。簡單來說,這種AI可以通過算法生成新內容,,包括圖像,、文字、音樂,,甚至視頻,、代碼等。
這令人興奮也不乏擔憂,。數(shù)據(jù)安全、個人隱私,、信息造假,、算法歧視……各國監(jiān)管部門對一系列潛在風險反應迅速,動作不斷,。
3月底,意大利個人數(shù)據(jù)保護局宣布暫時禁止使用ChatGPT,,歐盟多個國家跟進,醞釀具體監(jiān)管措施,。美國商務部4月公開征求意見,討論新人工智能模型在發(fā)布前是否應經(jīng)過認證程序等內容,。我國國家網(wǎng)信辦也于近日發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,針對準入門檻,、數(shù)據(jù)來源、標注規(guī)則等作出明確規(guī)定,。
風險到哪里 監(jiān)管到哪里
“相比以往的AI技術,,生成式AI可以直接利用自然語言和計算機進行交互,,使用門檻低,生成內容質量高,?!笔垒x律師事務所合伙人、律師王新銳對科技日報記者表示,,“這讓其一旦被濫用或誤用,,迷惑性比以往的人工智能技術更強,潛在損害也更大,。并且它有可能成為一種影響各行業(yè)的底座型技術?!?/p>
除了涉及數(shù)據(jù)安全、個人信息保護等傳統(tǒng)問題,,中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括強調,,生成式AI也給內容治理,、社會運行產(chǎn)生沖擊和影響,,這給現(xiàn)有的治理體制機制的敏捷性,、覆蓋性和穿透性帶來很大挑戰(zhàn),。
據(jù)王新銳介紹,,目前,,意大利、西班牙,、德國、加拿大,、英國等國家出于數(shù)據(jù)和隱私保護的考慮對ChatGPT及其開發(fā)者展開調查,,此外,域外有可能將ChatGPT等生成式AI列入高風險人工智能清單,,希望通過立法防范其風險。
吳沈括表示,,前述主要國家對于生成式AI的監(jiān)管依然從經(jīng)典的數(shù)據(jù)治理、數(shù)據(jù)安全的角度切入,,在他們看來,,生成式AI的核心邏輯在于海量數(shù)據(jù)的匯集、加工,、處理以及豐富的運算輸出,因此,,采取數(shù)據(jù)治理的思路順理成章,。
但回到我國,,僅從數(shù)據(jù)治理出發(fā)還不夠,,“我們的關切涉及內容治理,、消費者權益、透明度,、公平性,、知識產(chǎn)權保護等各個方面,,基本覆蓋了目前與生成式AI相關的主要風險類型,故而采取的是一種風險預防,、風險干預的多層次綜合治理思路?!眳巧蚶ㄕf。
建構多方參與的治理生態(tài)
技術大步向前,,如何平衡技術創(chuàng)新和政策管理,,考驗各方智慧,。
“一方面,,我們需要加強數(shù)據(jù)隱私和個人信息安全的保護,,對生成式AI從訓練到投入使用的全生命周期的個人信息的處理和數(shù)據(jù)保護作出規(guī)范,。另一方面,,從生成式AI可能帶來的風險出發(fā),,在現(xiàn)有法律框架上進一步建立健全生成式AI產(chǎn)業(yè)各方主體治理框架和問責機制,落實生成式AI相關主體的權利義務,?!蓖跣落J說,下一步需要進一步細化落實平臺合規(guī)機制,、加強科技倫理要求,、確保算法安全并建立健全問責機制,、促進高質量數(shù)據(jù)合法合規(guī)地流通共享,。
吳沈括提出,,治理規(guī)則的明確性和確定性需要不斷提升,努力打造實時,、敏捷,、全面的監(jiān)管機制,,最大限度發(fā)揮監(jiān)管的引導作用及紅線保護的根本價值,。
生成式AI爆火,,涉及諸多利益訴求及關切。對此,,王新銳建議,,需要充分觀察產(chǎn)業(yè)界和監(jiān)管機構,、大眾媒體的互動,建立多方參與的治理機制,。同時,,加強公眾教育和參與,提高公眾對生成式AI的認識和理解,,共同推動生成式AI的健康發(fā)展。
作者:記者崔爽
來源:科技日報
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1021339.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。