本報記者 秦梟 北京報道
從去年年底由OpenAI研發(fā)的ChatGPT引發(fā)的AI浪潮,其發(fā)展速度超出了所有人的預(yù)期,在給人們帶來驚喜之余,,也衍生出數(shù)據(jù)泄露,、電信詐騙、個人隱私風險等問題,。為此,,關(guān)于AI監(jiān)管的討論正在全球范圍內(nèi)升溫。
近日,,國家網(wǎng)信辦等七部門聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》),。此外,聯(lián)合國安理會也在近日舉行了一場主題為“人工智能給國際和平與安全帶來的機遇與風險”的高級別公開會議。這是聯(lián)合國安理會首次就人工智能問題舉行會議,。
多位業(yè)內(nèi)人士在接受《中國經(jīng)營報》記者采訪時表示,,生成式人工智能服務(wù)在監(jiān)管方面還存在相關(guān)法律法規(guī)與標準體系不健全、缺乏多部門協(xié)同的自上而下的監(jiān)管體系,、監(jiān)管技術(shù)手段落后等突出問題,,各國政府和監(jiān)管機構(gòu)已開始采取措施加強監(jiān)管,以確保公眾利益和安全,。隨著《辦法》的出臺,,標志著我國AI治理已經(jīng)走在國際前列。
驚喜與問題同存
從ChatGPT模型連續(xù)迭代帶來的技術(shù)震撼,,到國內(nèi)外科技巨頭迅速涌入的“百模大戰(zhàn)”,, AI儼然成為當今科技的“必爭之地”。與此同時,,AI創(chuàng)業(yè)企業(yè)們進入新一輪“吸金”熱潮,。
天眼查發(fā)布2023年上半年人工智能產(chǎn)業(yè)投融資情況分析,。從行業(yè)分布來看,前沿技術(shù),、機器人以及集成電路的融資事件數(shù)量位居前列,,自動駕駛在這三者之后,也有20起相關(guān)的融資事件,。
但是,,AI在大熱的同時,也在衍生出新的問題,。浙江大學國際聯(lián)合商學院數(shù)字經(jīng)濟與金融創(chuàng)新研究中心聯(lián)席主任,、研究員盤和林對記者表示,目前AI監(jiān)管面臨以下問題:其一,,數(shù)據(jù)安全方面,,利用生成式AI窺探個人隱私,甚至破壞商業(yè)機密和破壞國家安全,,當AIGC掌握在不法分子手中的時候,,數(shù)據(jù)安全形勢會更加嚴峻;其二,,生成式AI替代就業(yè),,生成式AI會影響一部分人,另一部分人將學會使用生成式AI,,但一部分人在學習新事物方面存在瓶頸,,所以要平衡好生成式AI和這部分人之間的關(guān)系;其三,,生成式AI 存在知識產(chǎn)權(quán)保護的問題,,我們說AI創(chuàng)作繪畫的風格類似于某位畫家,但AI繪畫不曾支付版權(quán)費,,這是不公平的,,要在數(shù)據(jù)訓練的源頭通過數(shù)據(jù)確權(quán)來分配權(quán)益;其四,,倫理問題,介于AI現(xiàn)在水平?jīng)]到高智慧程度,,這個可能會在未來探討,。
天使投資人、資深人工智能專家郭濤也認為,,當前,,生成式人工智能產(chǎn)業(yè)還處于發(fā)展的早期階段,研發(fā)與應(yīng)用的相關(guān)法律法規(guī),、標準體系和倫理規(guī)范等還不健全,,存在隱私與數(shù)據(jù)保護風險,、著作權(quán)侵權(quán)風險、深度偽造風險,、失業(yè)加劇風險,,以及歧視與偏見風險等潛在問題,制約行業(yè)長遠健康發(fā)展,,迫切需要對生成式人工智能服務(wù)加強規(guī)范管理,,進一步細化明確相關(guān)監(jiān)管要求,完善相關(guān)法律,、法規(guī)和標準體系等,。
隨著問題的凸顯,各國也把對于AI的監(jiān)管提上日程,。斯坦福大學發(fā)布的《2023年人工智能指數(shù)報告》中提到,,對127個國家的立法記錄調(diào)研的結(jié)果顯示,包含“人工智能”的法案被通過成為法律的數(shù)量,,從2016年的僅1個增長到2022年的37個,。報告對81個國家2016年以來的人工智能法律法規(guī)記錄的分析也同樣表明,全球立法程序中提及人工智能的次數(shù)增加了近6.5倍,。
歐盟與美國的監(jiān)管差異
美國是這場AI風暴的中心,。今年3月份,數(shù)千名人工智能領(lǐng)域的企業(yè)家,、學者,、高管發(fā)出了一封題為《暫停大型人工智能研究》的公開信,呼吁關(guān)注人工智能研發(fā)中產(chǎn)生的安全問題,,并敦促各國政府及時介入人工智能的監(jiān)管,。
隨后,微軟,、Adobe,、IBM 、甲骨文等多家AI巨頭組成的美國科技倡導組織“商業(yè)軟件聯(lián)盟”(BSA)公開發(fā)文呼吁在國家隱私立法基礎(chǔ)上制定管理人工智能使用的規(guī)則,。該聲明向美國國會提出了四個明確的呼吁:一是美國國會應(yīng)該明確要求公司何時必須評估人工智能的設(shè)計或影響,,二是美國國會應(yīng)該定義何為人工智能做出的“重大決定”,三是美國國會應(yīng)該指定一個現(xiàn)有的聯(lián)邦機構(gòu)來審查公司是否遵守了規(guī)則,,四是美國國會應(yīng)該要求公司為高風險的人工智能制定風險管理計劃,。
而在近日,美國眾議院網(wǎng)站顯示,,《國家人工智能委員會法案》已被提交,。根據(jù)議員們提供的法案概要,擬建立的“國家AI委員會”,,將確保通過監(jiān)管減輕人工智能帶來的風險和可能造成的危害,,并在建立必要,、長期的AI法規(guī)過程中起到主導作用。
對于美國關(guān)于AI的監(jiān)管政策,,百度法律研究中心主任陳晨稱:“美國通過一些行政命令強調(diào)要用一種創(chuàng)新的方式監(jiān)管人工智能,,同時保護公民的隱私和自由。但是美國也強調(diào),,要考慮如何減少人工智能技術(shù)發(fā)展創(chuàng)新的阻礙,,美國更多的是通過‘軟法’來監(jiān)管,不會用‘硬法’去強制性地干預(yù)產(chǎn)業(yè)發(fā)展,?!?/p>
與美國還停留在“口頭呼吁”階段不同,6月14日,,歐洲議會通過了一項名為《人工智能法案》(AI Act)的法律草案,,該法案將對被視為該技術(shù)最危險的用途施加新的限制——投票禁止實時遠程生物識別技術(shù),歐盟禁令意味著不能在公共場合實時人臉掃描,;同時要求OpenAI和谷歌等公司必須進行風險評估,,并披露更多用于創(chuàng)建程序的數(shù)據(jù)。不僅如此,,《人工智能法案》將人工智能風險分為不可接受的風險,、高風險、有限的風險和極小的風險四級,,對應(yīng)不同的監(jiān)管要求,。
實際上,歐洲地區(qū)是較早將AI監(jiān)管提上日程的地區(qū),。早在2018年4月,,歐盟便發(fā)布政策文件《歐盟人工智能》,提出要逐步建立適當?shù)膫惱砗头煽蚣堋?020年,,《人工智能白皮書——通往卓越和信任的歐洲路徑》也指出,,應(yīng)構(gòu)建基于風險的人工智能監(jiān)管框架,通過為不同的企業(yè)劃定風險等級避免過高的合規(guī)負擔,。
對此,,軒睿基金總經(jīng)理蓋宏對記者表示,,歐盟推動人工智能立法,,有利于維護歐盟在數(shù)字主權(quán)和科技領(lǐng)域的領(lǐng)導地位,并通過立法搶占全球人工智能監(jiān)管先機,。但其本身具有局限性,。相關(guān)條令并非針對特定人工智能應(yīng)用領(lǐng)域,,而是試圖把所有人工智能都納入監(jiān)管范圍,,整體看起來像是為了立法而立法,,執(zhí)行效果或?qū)⒋蟠蛘劭邸?/p>
陳晨表示:“總體來看,從美國和歐盟對人工智能監(jiān)管的差異可以看到,,監(jiān)管思路上美國更希望由市場決定,,以市場為導向,更加注重效率,;歐盟采用了預(yù)防的方法,,在傷害出現(xiàn)之前先對其進行監(jiān)管,更加注重安全,?!?/p>
中國:監(jiān)管政策已落地
與歐美國家相比,國內(nèi)在AI治理方面已走在了世界前列,。
從今年4月11日,,國家網(wǎng)信辦起草《生成式人工智能服務(wù)管理辦法(征求意見稿)》,到7月13日,,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委,、教育部、科技部,、工業(yè)和信息化部,、公安部、廣電總局發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,,僅僅用了3個月的時間,,并且自2023年8月15日起施行。
《辦法》明確了提供和使用生成式人工智能服務(wù)的總體要求,,提出國家堅持發(fā)展和安全并重,、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管,。
與此同時,《辦法》做出了一系列的規(guī)范和管理措施,,例如要求服務(wù)提供者需要取得相應(yīng)的資質(zhì)和許可,,并且需要遵守一系列的技術(shù)規(guī)范和安全標準等,這些規(guī)定確保了生成式人工智能服務(wù)的合規(guī)性和安全性,,保護了用戶的數(shù)據(jù)和隱私安全,,可以減少人工智能帶來的不良影響;另一方面,,《辦法》明確規(guī)定了生成式人工智能服務(wù)的范圍和標準,,以及相關(guān)責任和義務(wù),這些規(guī)定可以指導企業(yè),、個人和監(jiān)管機構(gòu)在生成式人工智能服務(wù)方面進行規(guī)范操作,,避免一些可能存在的法律和道德風險,。
對此,盤和林表示,,《辦法》主要是從安全性角度出發(fā),,包括數(shù)據(jù)確權(quán)、數(shù)據(jù)隱私保護,,以及內(nèi)容上的合規(guī)性,。這里內(nèi)容合規(guī)是我國獨有的需求,需要讓AIGC和自媒體采取一樣的尺度,,防止非法內(nèi)容傳播,。
深度研究院院長張孝榮表示,《辦法》標志著我國AI治理已經(jīng)走在國際前列,,生成式AI需要認真學習,,打磨技術(shù),以便維護產(chǎn)業(yè)健康發(fā)展,,維護國家安全和社會公共利益,,保護公民、法人和其他組織的合法權(quán)益,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1060568.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。