長安街知事微信公眾號 | 作者 劉典
4月11日,,國家網信辦起草《生成式人工智能服務管理辦法(征求意見稿)》(下稱《辦法》),并向社會公開征求意見,。幾個月以來,,生成式人工智能(AIGC)一直是人們關注的焦點,,從ChatGPT到文心一言,,再到GPT-4和各類生成式人工智能,生成式人工智能的浪潮滾滾向前,。
而在國內外近半年來的體驗中,發(fā)現了生成式人工智能的許多問題,。也是因此,,國家主動出手,秉承著發(fā)展的主基調,,劃定責任主體,,制定行業(yè)底線,為中國的生成式人工智能健康發(fā)展亮起綠燈,。
《辦法》首先明確,,國家支持人工智能算法、框架等基礎技術的自主創(chuàng)新,、推廣應用,、國際合作。因此,,制訂管理辦法正是為了未來更好地發(fā)展該技術,,而不是限制該技術。
三大問題,,一次規(guī)定
《辦法》集中瞄準生成式人工智能的三大問題,,從明確條件要求、劃定責任主體,、形成問題處理機制,、清晰法律責任幾個方面為行業(yè)劃定底線。而研發(fā),、利用生成式人工智能產品,,面向中華人民共和國境內公眾提供服務的,均在《辦法》的適用范圍內,。
無論是中國還是外國公司,,在底線之上,則大有可為,。
一是隱私安全問題,。人工智能對大數據極度依賴,往往需要經年累月的有關于用戶的深度信息才能塑造一個成熟的人工智能,。而有關于數據收集和保存的問題已經引起了有關隱私問題的擔憂,。即使是風靡全球的ChatGPT,,近日也被爆出存在隱私泄露風險。
據英國廣播公司(BBC)報道,,當地時間3月22日,,ChatGPT的開發(fā)公司OpenAI創(chuàng)始人山姆·阿爾特曼在推特發(fā)文稱,該AI的一個故障讓一些用戶能夠看到其他用戶對話歷史記錄的標題,。幾乎是同時,,意大利成為全球首個禁用ChatGPT的國家。意大利隱私保護監(jiān)管機構因隱私安全問題封鎖ChatGPT,。
OpenAI創(chuàng)始人山姆·阿爾特曼 資料圖
在生成式人工智能發(fā)展的道路上,隱私安全是不可能繞過的問題,。對此,,《辦法》規(guī)定,生成式人工智能提供者需“承擔該產品生成內容生產者的責任,;涉及個人信息的,,承擔個人信息處理者的法定責任,履行個人信息保護義務,?!?/p>
二是技術濫用問題。人工智能本質上是提升人類生產力的工具,,但當這種工具和技術被用于損害公共利益和安全時,,他們的“尤其好用”會變?yōu)椤坝绕湮kU”。而如果人工智能技術被用于金融,、網絡犯罪,,將會給執(zhí)法機關造成前所未有的破案難度。
截至目前,,人工智能生成圖片已經造成了不小的問題,。例如Midjourney這類人工智能生成圖片的應用軟件被濫用,引起了混亂,。
近日,,馬斯克接連在Twitter上評論了多張人工智能合成的他本人的照片,其中有一張照片是馬斯克和通用汽車女掌門人Mary Barra手牽手,。馬斯克評論道:“我肯定不會穿這身衣服,。”國內,,也有人使用人工智能給地鐵上的女乘客“一鍵脫衣”。隨著生成式人工智能的進步,,類似的技術濫用問題可能會越來越嚴重,。
在與技術濫用問題相關的虛假信息管理和他人權益問題上,,《辦法》規(guī)定“利用生成式人工智能生成的內容應當真實準確,采取措施防止生成虛假信息,。尊重他人合法利益,,防止傷害他人身心健康,損害肖像權,、名譽權和個人隱私,,侵犯知識產權。禁止非法獲取,、披露,、利用個人信息和隱私、商業(yè)秘密,?!?/p>
三是知識產權和他人權益問題。生成式人工智能在輸出內容的過程中,,其輸出的內容很有可能造成專利侵權,、商標侵權、版權侵權,、未經許可使用軟件或數據等問題,。同時,生成式人工智能所產生的內容是否具有著作權,,也是有爭議的問題,。
對此,《辦法》也作出了初步規(guī)定,,包括生成式人工智能的訓練“不含有侵犯知識產權的內容”“數據包含個人信息的,,應當征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形”等,。
同時,,生成式人工智能提供者需要建立侵權投訴及保護機制,“及時處置個人關于更正,、刪除,、屏蔽其個人信息的請求;發(fā)現,、知悉生成的文本,、圖片、聲音,、視頻等侵害他人肖像權,、名譽權、個人隱私、商業(yè)秘密,,或者不符合本辦法要求時,,應當采取措施,停止生成,,防止危害持續(xù),。”
多國為AIGC發(fā)展建立護欄
對于中國這樣一個用戶主體龐大且極其多樣化,、數據質量參差不齊的巨大市場,,某一行業(yè)的高速發(fā)展永遠離不開監(jiān)管的保駕護航。特別是生成式人工智能這樣一個嶄新卻又充滿挑戰(zhàn)性的領域,。實際上,,各國對于生成式人工智能的監(jiān)管都已在路上。
中國方面,?!渡墒饺斯ぶ悄芊展芾磙k法(征求意見稿)》的制定與實施將幫助確保人工智能產品的合理與安全使用。強調提供者承擔生成內容生產者的責任,,以及涉及個人信息時承擔個人信息處理者的法定責任,,并履行個人信息保護義務,有利于保護用戶數據和隱私,。
美國方面,。得益于ChatGPT的流行,美國企業(yè)開始不斷嘗試使用人工智能賦能應用場景,。但與此同時,,對人工智能的擔憂也在增加。幾乎與《辦法》同時,,美國商務部4月11日也就相關問責措施正式公開征求意見,,包括新人工智能模型在發(fā)布前是否應經過認證程序等。美商務部下屬國家電信和信息管理局(NTIA)正在就企業(yè)和監(jiān)管機構如何合作進行調研,,以此為基礎,,建立人工智能模型可信度、合法性和道德準則相關的審查制度,。NTIA的調查將側重于搭建監(jiān)管人工智能的最佳方法,,并在技術發(fā)展進程中,為白宮和國會不斷輸出政策建議,。這項調查擬邀請公司,、民間社會團體、研究人員和公眾群策群力,。目前拜登政府也已經開始研究是否需要對ChatGPT等人工智能工具實行檢查,。
拜登政府正在權衡為ChatGPT等人工智能工具設定規(guī)則 圖源:《華爾街日報》
歐盟方面。目前歐盟和美國一樣,,還并沒有針對生成式人工智能的立法,,但已經有了成型的人工智能立法。歐盟的人工智能立法,,即《人工智能法案》(AI Act),將于2024年正式生效,?!度斯ぶ悄芊ò浮返哪繕耸亲尮窈拖M者感到信任,并維護歐盟的價值基礎,。2023年2月8日,,歐洲議會人工智能倫理領域顧問Anna Fell?nder在歐盟委員會官網發(fā)表了ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI一文,提出了關于為什么要對生成式AI進行監(jiān)管,。人工智能監(jiān)管的根本問題在于:究竟是人工智能來控制人類,,還是人類來控制人工智能。因此,,道德,、法律、風險評估都十分重要,。
“看到這些工具即使在相對初級階段也能做到的事情,,真是令人驚訝,”NTIA局長艾倫·戴維森說,,“我們知道,,我們需要設置一些護欄,以確保它們被負責任地使用,?!?/p>
目前不管是歐盟、美國還是中國,,都已經意識到了人工智能領域,,尤其是生成式人工智能,既充滿了發(fā)展的潛力,,也遍布了危險的荊棘,。因此三個主要經濟體幾乎同一時間對生成式人工智能設置“護欄”,保證發(fā)展的安全性,。完善的治理,,一方面將保障國家安全和公共安全,另一方面,,也可以促進新興技術和產業(yè)的發(fā)展,,加強國際競爭力,。
走好AIGC安全發(fā)展之路
在人工智能技術的發(fā)展、落地和應用場景擴散的趨勢不斷擴大的當下,,《辦法》的推出堅定了中國未來走好生成式人工智能發(fā)展之路的決心,。
要發(fā)展,也要安全,?!掇k法》中明確提到,國家支持人工智能算法,、框架等基礎技術的自主創(chuàng)新,、推廣應用、國際合作,,鼓勵優(yōu)先采用安全可信的軟件,、工具、計算和數據資源,??梢钥闯觯墒饺斯ぶ悄苁菄覉远ㄖС值念I域,,發(fā)展是主基調,。對于這個領域的企業(yè)和組織來說,前途廣闊,、大有可為,。
數據安全、隱私安全,、道德和法律,,則是生成式人工智能治理的基礎?!掇k法》提出,,“利用生成式人工智能產品向公眾提供服務前,應當按照《具有輿論屬性或社會動員能力的互聯網信息服務安全評估規(guī)定》向國家網信部門申報安全評估,,并按照《互聯網信息服務算法推薦管理規(guī)定》履行算法備案和變更,、注銷備案手續(xù)?!蓖瑫r,,提供者應當明確并公開其服務的適用人群、場合,、用途,,采取適當措施防范用戶過分依賴或沉迷生成內容。
各國對生成式AI的重視不單單是針對一個未來有前景的新生事物,,更重要的是其背后解放和發(fā)展當前其他領域的生產力的潛力,。未來生成式人工智能極有可能成為主流生產力本身,。中國出臺相關管理辦法正是為了未來發(fā)展該技術做準備。
目前《辦法》仍處于征求意見階段,,未來還可能收納各方意見進行調整,。《辦法》敲定之后,,將有助于行業(yè)健康發(fā)展,,遏制不良行為。這一舉措顯示出中國對生成式人工智能服務發(fā)展的關注和支持,,希望通過規(guī)范管理,,保障人工智能技術在安全、合規(guī)的環(huán)境中發(fā)展,,同時保護用戶的隱私和權益。未來也可將有代表性的人工智能公司納入治理體系,,同監(jiān)管機關合作開發(fā)與技術發(fā)展和市場競爭相適應的監(jiān)管框架,。
作者為復旦大學中國研究院特邀副研究員
免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1014924.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。