長安街知事微信公眾號 | 作者 劉典
4月11日,,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《辦法》),,并向社會公開征求意見。幾個(gè)月以來,,生成式人工智能(AIGC)一直是人們關(guān)注的焦點(diǎn),從ChatGPT到文心一言,,再到GPT-4和各類生成式人工智能,,生成式人工智能的浪潮滾滾向前。
而在國內(nèi)外近半年來的體驗(yàn)中,,發(fā)現(xiàn)了生成式人工智能的許多問題。也是因此,,國家主動出手,,秉承著發(fā)展的主基調(diào),劃定責(zé)任主體,,制定行業(yè)底線,,為中國的生成式人工智能健康發(fā)展亮起綠燈。
《辦法》首先明確,,國家支持人工智能算法,、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用,、國際合作,。因此,,制訂管理辦法正是為了未來更好地發(fā)展該技術(shù),而不是限制該技術(shù),。
三大問題,,一次規(guī)定
《辦法》集中瞄準(zhǔn)生成式人工智能的三大問題,從明確條件要求,、劃定責(zé)任主體,、形成問題處理機(jī)制、清晰法律責(zé)任幾個(gè)方面為行業(yè)劃定底線,。而研發(fā),、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,,均在《辦法》的適用范圍內(nèi),。
無論是中國還是外國公司,在底線之上,,則大有可為,。
一是隱私安全問題。人工智能對大數(shù)據(jù)極度依賴,,往往需要經(jīng)年累月的有關(guān)于用戶的深度信息才能塑造一個(gè)成熟的人工智能,。而有關(guān)于數(shù)據(jù)收集和保存的問題已經(jīng)引起了有關(guān)隱私問題的擔(dān)憂。即使是風(fēng)靡全球的ChatGPT,,近日也被爆出存在隱私泄露風(fēng)險(xiǎn),。
據(jù)英國廣播公司(BBC)報(bào)道,當(dāng)?shù)貢r(shí)間3月22日,,ChatGPT的開發(fā)公司OpenAI創(chuàng)始人山姆·阿爾特曼在推特發(fā)文稱,,該AI的一個(gè)故障讓一些用戶能夠看到其他用戶對話歷史記錄的標(biāo)題。幾乎是同時(shí),,意大利成為全球首個(gè)禁用ChatGPT的國家,。意大利隱私保護(hù)監(jiān)管機(jī)構(gòu)因隱私安全問題封鎖ChatGPT。
OpenAI創(chuàng)始人山姆·阿爾特曼 資料圖
在生成式人工智能發(fā)展的道路上,,隱私安全是不可能繞過的問題。對此,,《辦法》規(guī)定,,生成式人工智能提供者需“承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任;涉及個(gè)人信息的,,承擔(dān)個(gè)人信息處理者的法定責(zé)任,,履行個(gè)人信息保護(hù)義務(wù)?!?/p>
二是技術(shù)濫用問題,。人工智能本質(zhì)上是提升人類生產(chǎn)力的工具,,但當(dāng)這種工具和技術(shù)被用于損害公共利益和安全時(shí),他們的“尤其好用”會變?yōu)椤坝绕湮kU(xiǎn)”,。而如果人工智能技術(shù)被用于金融,、網(wǎng)絡(luò)犯罪,將會給執(zhí)法機(jī)關(guān)造成前所未有的破案難度,。
截至目前,,人工智能生成圖片已經(jīng)造成了不小的問題。例如Midjourney這類人工智能生成圖片的應(yīng)用軟件被濫用,,引起了混亂,。
近日,馬斯克接連在Twitter上評論了多張人工智能合成的他本人的照片,,其中有一張照片是馬斯克和通用汽車女掌門人Mary Barra手牽手,。馬斯克評論道:“我肯定不會穿這身衣服?!眹鴥?nèi),,也有人使用人工智能給地鐵上的女乘客“一鍵脫衣”。隨著生成式人工智能的進(jìn)步,,類似的技術(shù)濫用問題可能會越來越嚴(yán)重,。
在與技術(shù)濫用問題相關(guān)的虛假信息管理和他人權(quán)益問題上,《辦法》規(guī)定“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,,采取措施防止生成虛假信息。尊重他人合法利益,,防止傷害他人身心健康,,損害肖像權(quán)、名譽(yù)權(quán)和個(gè)人隱私,,侵犯知識產(chǎn)權(quán),。禁止非法獲取、披露,、利用個(gè)人信息和隱私,、商業(yè)秘密?!?/p>
三是知識產(chǎn)權(quán)和他人權(quán)益問題,。生成式人工智能在輸出內(nèi)容的過程中,其輸出的內(nèi)容很有可能造成專利侵權(quán),、商標(biāo)侵權(quán),、版權(quán)侵權(quán)、未經(jīng)許可使用軟件或數(shù)據(jù)等問題,。同時(shí),,生成式人工智能所產(chǎn)生的內(nèi)容是否具有著作權(quán),,也是有爭議的問題。
對此,,《辦法》也作出了初步規(guī)定,,包括生成式人工智能的訓(xùn)練“不含有侵犯知識產(chǎn)權(quán)的內(nèi)容”“數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)征得個(gè)人信息主體同意或者符合法律,、行政法規(guī)規(guī)定的其他情形”等,。
同時(shí),生成式人工智能提供者需要建立侵權(quán)投訴及保護(hù)機(jī)制,,“及時(shí)處置個(gè)人關(guān)于更正,、刪除、屏蔽其個(gè)人信息的請求,;發(fā)現(xiàn),、知悉生成的文本、圖片,、聲音,、視頻等侵害他人肖像權(quán)、名譽(yù)權(quán),、個(gè)人隱私,、商業(yè)秘密,或者不符合本辦法要求時(shí),,應(yīng)當(dāng)采取措施,,停止生成,防止危害持續(xù),?!?/p>
多國為AIGC發(fā)展建立護(hù)欄
對于中國這樣一個(gè)用戶主體龐大且極其多樣化、數(shù)據(jù)質(zhì)量參差不齊的巨大市場,,某一行業(yè)的高速發(fā)展永遠(yuǎn)離不開監(jiān)管的保駕護(hù)航,。特別是生成式人工智能這樣一個(gè)嶄新卻又充滿挑戰(zhàn)性的領(lǐng)域。實(shí)際上,,各國對于生成式人工智能的監(jiān)管都已在路上,。
中國方面?!渡墒饺斯ぶ悄芊?wù)管理辦法(征求意見稿)》的制定與實(shí)施將幫助確保人工智能產(chǎn)品的合理與安全使用,。強(qiáng)調(diào)提供者承擔(dān)生成內(nèi)容生產(chǎn)者的責(zé)任,以及涉及個(gè)人信息時(shí)承擔(dān)個(gè)人信息處理者的法定責(zé)任,,并履行個(gè)人信息保護(hù)義務(wù),,有利于保護(hù)用戶數(shù)據(jù)和隱私。
美國方面。得益于ChatGPT的流行,,美國企業(yè)開始不斷嘗試使用人工智能賦能應(yīng)用場景,。但與此同時(shí),對人工智能的擔(dān)憂也在增加,。幾乎與《辦法》同時(shí),,美國商務(wù)部4月11日也就相關(guān)問責(zé)措施正式公開征求意見,包括新人工智能模型在發(fā)布前是否應(yīng)經(jīng)過認(rèn)證程序等,。美商務(wù)部下屬國家電信和信息管理局(NTIA)正在就企業(yè)和監(jiān)管機(jī)構(gòu)如何合作進(jìn)行調(diào)研,,以此為基礎(chǔ),建立人工智能模型可信度,、合法性和道德準(zhǔn)則相關(guān)的審查制度,。NTIA的調(diào)查將側(cè)重于搭建監(jiān)管人工智能的最佳方法,并在技術(shù)發(fā)展進(jìn)程中,,為白宮和國會不斷輸出政策建議,。這項(xiàng)調(diào)查擬邀請公司、民間社會團(tuán)體,、研究人員和公眾群策群力,。目前拜登政府也已經(jīng)開始研究是否需要對ChatGPT等人工智能工具實(shí)行檢查。
拜登政府正在權(quán)衡為ChatGPT等人工智能工具設(shè)定規(guī)則 圖源:《華爾街日報(bào)》
歐盟方面,。目前歐盟和美國一樣,還并沒有針對生成式人工智能的立法,,但已經(jīng)有了成型的人工智能立法,。歐盟的人工智能立法,即《人工智能法案》(AI Act),,將于2024年正式生效,。《人工智能法案》的目標(biāo)是讓公民和消費(fèi)者感到信任,,并維護(hù)歐盟的價(jià)值基礎(chǔ)。2023年2月8日,,歐洲議會人工智能倫理領(lǐng)域顧問Anna Fell?nder在歐盟委員會官網(wǎng)發(fā)表了ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI一文,,提出了關(guān)于為什么要對生成式AI進(jìn)行監(jiān)管。人工智能監(jiān)管的根本問題在于:究竟是人工智能來控制人類,,還是人類來控制人工智能,。因此,道德,、法律,、風(fēng)險(xiǎn)評估都十分重要。
“看到這些工具即使在相對初級階段也能做到的事情,,真是令人驚訝,,”NTIA局長艾倫·戴維森說,,“我們知道,我們需要設(shè)置一些護(hù)欄,,以確保它們被負(fù)責(zé)任地使用,。”
目前不管是歐盟,、美國還是中國,,都已經(jīng)意識到了人工智能領(lǐng)域,尤其是生成式人工智能,,既充滿了發(fā)展的潛力,,也遍布了危險(xiǎn)的荊棘。因此三個(gè)主要經(jīng)濟(jì)體幾乎同一時(shí)間對生成式人工智能設(shè)置“護(hù)欄”,,保證發(fā)展的安全性,。完善的治理,一方面將保障國家安全和公共安全,,另一方面,,也可以促進(jìn)新興技術(shù)和產(chǎn)業(yè)的發(fā)展,加強(qiáng)國際競爭力,。
走好AIGC安全發(fā)展之路
在人工智能技術(shù)的發(fā)展,、落地和應(yīng)用場景擴(kuò)散的趨勢不斷擴(kuò)大的當(dāng)下,《辦法》的推出堅(jiān)定了中國未來走好生成式人工智能發(fā)展之路的決心,。
要發(fā)展,,也要安全?!掇k法》中明確提到,,國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新,、推廣應(yīng)用,、國際合作,鼓勵(lì)優(yōu)先采用安全可信的軟件,、工具,、計(jì)算和數(shù)據(jù)資源??梢钥闯?,生成式人工智能是國家堅(jiān)定支持的領(lǐng)域,發(fā)展是主基調(diào),。對于這個(gè)領(lǐng)域的企業(yè)和組織來說,,前途廣闊、大有可為。
數(shù)據(jù)安全,、隱私安全,、道德和法律,則是生成式人工智能治理的基礎(chǔ),?!掇k法》提出,“利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,,應(yīng)當(dāng)按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》向國家網(wǎng)信部門申報(bào)安全評估,,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù),?!蓖瑫r(shí),提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群,、場合,、用途,采取適當(dāng)措施防范用戶過分依賴或沉迷生成內(nèi)容,。
各國對生成式AI的重視不單單是針對一個(gè)未來有前景的新生事物,,更重要的是其背后解放和發(fā)展當(dāng)前其他領(lǐng)域的生產(chǎn)力的潛力。未來生成式人工智能極有可能成為主流生產(chǎn)力本身,。中國出臺相關(guān)管理辦法正是為了未來發(fā)展該技術(shù)做準(zhǔn)備,。
目前《辦法》仍處于征求意見階段,未來還可能收納各方意見進(jìn)行調(diào)整,?!掇k法》敲定之后,將有助于行業(yè)健康發(fā)展,,遏制不良行為,。這一舉措顯示出中國對生成式人工智能服務(wù)發(fā)展的關(guān)注和支持,希望通過規(guī)范管理,,保障人工智能技術(shù)在安全,、合規(guī)的環(huán)境中發(fā)展,同時(shí)保護(hù)用戶的隱私和權(quán)益,。未來也可將有代表性的人工智能公司納入治理體系,,同監(jiān)管機(jī)關(guān)合作開發(fā)與技術(shù)發(fā)展和市場競爭相適應(yīng)的監(jiān)管框架。
作者為復(fù)旦大學(xué)中國研究院特邀副研究員
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1014924.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。