找尋AI平衡發(fā)展之道
編者按
2023年以來,ChatGPT開始“掛帥”人工智能(AI)領(lǐng)域,,不僅在數(shù)字經(jīng)濟(jì)領(lǐng)域異軍突起,,更是用幾乎“日行千里”的迭代技術(shù)更新和進(jìn)步,向全世界重新定義了新一代數(shù)字技術(shù)的“方生方死,、方死方生”,。面對AI技術(shù)迅猛突圍,一股針對人工智能可能衍生諸多不確定性的思潮正席卷而來,意圖通過一場“叫停AI”的行動,,為正呈懸崖轉(zhuǎn)石之勢的人工智能按下“暫停鍵”,,更待“先完善監(jiān)管環(huán)境再行技術(shù)研究”。試問:AI發(fā)展與監(jiān)管如何博弈平衡,?
政策前哨
圖片來源/攝圖網(wǎng)
■中國經(jīng)濟(jì)時報記者 李海楠
中國工程院院士莊松林曾言:所有的科技監(jiān)管歷來都是“刀鋒上的舞蹈”,,必須準(zhǔn)確掌握監(jiān)管與創(chuàng)新的平衡點。稍微偏左或者稍微偏右,,都有可能失之毫厘,、謬以千里。
面對有著“一日千里”更新迭代速度的生成式人工智能(AIGeneratedContent,,簡稱AIGC),,4月11日,國家互聯(lián)網(wǎng)信息辦公室“及時出手”,,就《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《征求意見稿》)公開征求意見,,彰顯出鮮明的中國版監(jiān)管態(tài)度:促成我國AI產(chǎn)業(yè)理順科學(xué)、有序發(fā)展邏輯,,杜絕野蠻生長,。
未雨綢繆開全球規(guī)范之先
∨
今年以來,ChatGPT引領(lǐng)AI人工智能技術(shù)率先“出圈”,,由此衍生出一系列關(guān)聯(lián)反應(yīng)值得關(guān)注,。其中,就包括各國政府對發(fā)展生成式人工智能技術(shù)采取的態(tài)度,。
3月底,,意大利個人數(shù)據(jù)保護(hù)局宣布禁止使用ChatGPT,此后,德國,、加大拿,、法國等也相繼表達(dá)相似態(tài)度,一度讓AIGC在歐洲陷入僵局,。
反觀我國,,盡管未能搶占先機(jī)優(yōu)勢,但一眾IT巨頭密切跟蹤并紛紛下場開發(fā)AIGC產(chǎn)品,。阿里,、華為、百度,、商湯等科技企業(yè)近期相繼發(fā)布各自生成式人工智能產(chǎn)品,,“合體”向世界展示了中國科技實力。
論及我國AI產(chǎn)業(yè)發(fā)展,,用一句“風(fēng)景這邊獨好”也是恰當(dāng)?shù)?。我國政府對科技新事物歷來包容,相對寬松的監(jiān)管環(huán)境只為確保產(chǎn)業(yè)規(guī)范發(fā)展,?!墩髑笠庖姼濉返陌l(fā)布開全球規(guī)范之先,讓我國再一次走在了規(guī)范科技發(fā)展政策的前列,。
“科技發(fā)展在打開未知的同時,,也會成就一番全新的未來,元宇宙,、AIGC正在改變?nèi)藗兊娜粘9ぷ髋c生活,。”北京信息產(chǎn)業(yè)協(xié)會元宇宙專家委員會主任,、武漢元宇宙研究院院長龔才春對中國經(jīng)濟(jì)時報記者表示,,要更好地發(fā)展和應(yīng)用AIGC大模型及相關(guān)產(chǎn)品,就必須積極應(yīng)對其可能帶來的知識產(chǎn)權(quán),、安全,、倫理、環(huán)境等方面挑戰(zhàn),,實現(xiàn)科學(xué)有效堅持監(jiān)管與創(chuàng)新發(fā)展的平衡,,以順應(yīng)這一輪不可逆的趨勢。
北京師范大學(xué)法學(xué)院博士生導(dǎo)師,、中國互聯(lián)網(wǎng)協(xié)會研究中心副主任吳沈括也認(rèn)為,,《征求意見稿》的發(fā)布體現(xiàn)了提前研判、介入和監(jiān)管的政策思路,?!坝兄谄髽I(yè)提前構(gòu)建合規(guī)解決方案,,提前布局必要的合規(guī)機(jī)制和工具,有效減少風(fēng)險,?!彼麑Ρ緢笥浾弑硎荆渌嘎冻觥皬?qiáng)調(diào)權(quán)益保護(hù),、數(shù)據(jù)治理,、內(nèi)容治理”的多維治理思路,,也對未來國內(nèi)外一眾科技企業(yè)在中國市場合規(guī)發(fā)展提前構(gòu)建了規(guī)范框架,,利好相關(guān)方面及時調(diào)整和適配自身的產(chǎn)品和服務(wù),。
《征求意見稿》明確,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,,采取措施防止生成虛假信息。尊重知識產(chǎn)權(quán),、商業(yè)道德,,不得利用算法、數(shù)據(jù),、平臺等優(yōu)勢實施不公平競爭,。提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔(dān)保護(hù)義務(wù),。不得非法留存能夠推斷出用戶身份的輸入信息,,不得根據(jù)用戶輸入信息和使用情況進(jìn)行畫像,不得向他人提供用戶輸入信息,。
科學(xué),、專業(yè)順應(yīng)趨勢方能“舞步輕盈”
∨
花開兩朵,各表一枝,。如果說ChatGPT在意大利遭遇“閉門羹”有可能引起整個歐洲對AIGC類產(chǎn)品的集體“叫?!保瑥亩孉IGC在歐洲遭遇“滑鐵盧”,,那么,,即便是在ChatGPT誕生地的美國本土,AIGC的發(fā)展同樣不夠順?biāo)臁?/p>
3月底,,馬斯克等1100余名科技人士聯(lián)名簽署公開信,,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)至少6個月?!爸钡姜毩<议_發(fā),、實施和審核這一類設(shè)計的共享安全協(xié)議,并呼吁開發(fā)者與決策者在治理和監(jiān)管機(jī)構(gòu)方面進(jìn)行合作,?!?/p>
馬斯克代表的科技界人士對AIGC大模型訓(xùn)練的擔(dān)憂主要集中在兩方面:一是AI技術(shù)未來可能失控,給人類文明帶來風(fēng)險;二是AI技術(shù)可能被惡意使用,,造成錯誤虛假信息傳播,、侵占版權(quán)或被用來犯罪。
“隨著科技水平的進(jìn)步,,生成式AI在文化創(chuàng)意產(chǎn)業(yè),、新聞媒體、金融,、醫(yī)療等領(lǐng)域得到廣泛應(yīng)用,。其中一大風(fēng)險就是可能被用于惡意目的,因此,,政府,、企業(yè)及其相關(guān)組織應(yīng)該加強(qiáng)監(jiān)管,及時有效地預(yù)防生成式AI技術(shù)及產(chǎn)品的濫用,?!闭憬髮W(xué)國際聯(lián)合商學(xué)院數(shù)字經(jīng)濟(jì)與金融創(chuàng)新研究中心聯(lián)席主任盤和林對本報記者表示,有必要對AIGC實施監(jiān)管,,但監(jiān)管目標(biāo)應(yīng)該是使用AI的人而非AI本身,,即以“了解AI使用者想要達(dá)到的目的”為監(jiān)管初衷。
顯然,,對于科技界而言,,培育溫和良性且能兼顧監(jiān)管和創(chuàng)新發(fā)展的政策環(huán)境實屬必要。龔才春認(rèn)為,,抓住科技發(fā)展機(jī)遇能讓我們獲得科技發(fā)展的紅利,;錯失科技發(fā)展機(jī)遇,則讓我們可能失去發(fā)展良機(jī),。
“科技新事物開始的時候一般都會出現(xiàn)這樣和那樣的問題,。放縱科技恣意發(fā)展顯然不可取,但直接將科技新事物扼殺在搖籃中,,則有可能讓我們失去一個發(fā)展的時代,。”龔才春強(qiáng)調(diào),,互聯(lián)網(wǎng)發(fā)展的歷史經(jīng)驗表明,,沒有政府監(jiān)管的網(wǎng)絡(luò)世界只能遵循叢林法則。如今,,元宇宙,、AIGC等作為數(shù)字經(jīng)濟(jì)產(chǎn)業(yè)集合體,更需要科學(xué)化,、專業(yè)化的政府監(jiān)管,,絕不能走曾經(jīng)“先發(fā)展再治理”的老路,。
數(shù)智前瞻
多層面加強(qiáng)人工智能監(jiān)管勢在必行
圖片來源/攝圖網(wǎng)
■中國經(jīng)濟(jì)時報記者 林春霞
日前,科技界人士呼吁叫停ChatGPT訓(xùn)練,,用6個月時間制定相關(guān)約束,,同時,多國呼吁限制GPT,,如意大利因隱私問題已成為第一個禁止ChatGPT的西方國家,。
從火遍全球到被多國“圍堵”,ChatGPT在短短兩個月內(nèi)經(jīng)歷了從高峰到低谷的起伏,,這也進(jìn)一步引發(fā)了人們對ChatGPT以及人工智能的技術(shù)漏洞和安全監(jiān)管的關(guān)注,。
ChatGPT究竟觸碰了什么紅線
∨
從ChatGPT騰空問世給人們所帶來的驚喜到對其安全隱患的擔(dān)憂,ChatGPT的境遇發(fā)生了180度急轉(zhuǎn)彎,。那么,,ChatGPT究竟觸碰了什么紅線?歐洲多國意欲暫停使用ChatG?PT,,主要原因在于ChatGPT存在隱私泄露以及數(shù)據(jù)安全等問題,。
中國社會科學(xué)院信息化研究中心主任姜奇平在接受中國經(jīng)濟(jì)時報記者采訪時表示,ChatGPT從高峰到低谷起伏有一個明顯的規(guī)律,,高峰跟技術(shù)有關(guān)。低谷,、碰到紅線,,與社會相關(guān),從政治,、法律,,再到道德、倫理,、隱私,,還與知識、信息,、判斷真假等有關(guān),。“人工智能技術(shù)應(yīng)用既涉及技術(shù)又涉及社會,,技術(shù)專家對社會問題考慮不周全是很自然的,,甚至有一定必然性?!彼J(rèn)為,,一旦被廣泛應(yīng)用技術(shù),就必須承擔(dān)起社會責(zé)任,。
“未來如何恰當(dāng),、科學(xué)使用人工智能是個關(guān)鍵問題,。”中央財經(jīng)大學(xué)中國互聯(lián)網(wǎng)經(jīng)濟(jì)研究院副院長歐陽日輝對本報記者表示,,人工智能對輿論,、文化、人物評價,、政府監(jiān)管等都會提出一些新挑戰(zhàn),。這些新技術(shù)應(yīng)用到經(jīng)濟(jì)社會層面,對原有的經(jīng)濟(jì)社會秩序會造成較大沖擊,?!爱?dāng)我們還沒有做好充分應(yīng)對的時候,技術(shù)走得太快,,就會容易引起社會混亂,,這跟技術(shù)促進(jìn)人類社會進(jìn)步的宗旨就相悖?!?/p>
浙江瀾沐浦科技有限公司常務(wù)副總經(jīng)理吳志連對中國經(jīng)濟(jì)時報記者分析認(rèn)為,,由于全球范圍內(nèi)不同國家、文化群體的差異,,ChatGPT所掌握的知識,、信息存在一定偏見、歧視,,甚至危害性,。另外,它還可能存在著被惡意使用,、帶來誤導(dǎo)性回答,、引發(fā)隱私問題等。雖然在訓(xùn)練過程中,,工作人員已采取一些措施,,盡可能地避免ChatGPT回答出具有網(wǎng)絡(luò)安全危害性的言論,但是工具畢竟不是人,,在一定程度的誘導(dǎo)下,,它還是會發(fā)生數(shù)據(jù)泄露、歧視偏見,、危害國家安全等問題,。
應(yīng)從多層面加強(qiáng)對人工智能的監(jiān)管
∨
科技是把“雙刃劍”,從實驗室到經(jīng)濟(jì)社會的廣泛應(yīng)用,,中間還需要加一道“安全防護(hù)墻”,。
歐陽日輝表示,對于人工智能技術(shù)及其產(chǎn)品的研發(fā)和使用,,從規(guī)范制度體系層面要加強(qiáng)三方面監(jiān)管,。一是通過倫理范疇來進(jìn)行規(guī)范,,二是通過標(biāo)準(zhǔn)規(guī)范方式來約束技術(shù)的使用,三是通過法律法規(guī)來加強(qiáng)監(jiān)管,,讓技術(shù)及其產(chǎn)品在經(jīng)濟(jì)社會中規(guī)范使用,。
從組織層面也要加強(qiáng)規(guī)范,歐陽日輝認(rèn)為,,一是研發(fā)技術(shù)和產(chǎn)品的企業(yè)對風(fēng)險要進(jìn)行自控,,二是相關(guān)行業(yè)協(xié)會對人工智能技術(shù)和產(chǎn)品的研發(fā)和使用要進(jìn)行自律,三是政府要通過制定法律法規(guī)來促進(jìn)和約束人工智能及其產(chǎn)品的使用,,這是對技術(shù)和產(chǎn)品風(fēng)險控制的“最后一道防線”,。當(dāng)然,這并不是完全為了限制它,,而是要促進(jìn)它朝著有利的方向發(fā)展,,限制它出現(xiàn)大的風(fēng)險事件。
“技術(shù)漏洞與監(jiān)管漏洞是兩個不同的問題,?!苯嫫秸J(rèn)為,堵住技術(shù)漏洞的主體是企業(yè),。出現(xiàn)技術(shù)漏洞是技術(shù)發(fā)展中的正?,F(xiàn)象,不斷對技術(shù)漏洞打補(bǔ)丁,,是技術(shù)發(fā)展的慣例,。出現(xiàn)技術(shù)漏洞,對企業(yè)來說,,一是要及時發(fā)現(xiàn),,及時修復(fù),,二是要降低被惡意使用者利用的風(fēng)險,,這都屬于技術(shù)安全措施的加強(qiáng)和完善。
堵住監(jiān)管漏洞的主體是監(jiān)管者,。要根據(jù)出現(xiàn)的問題,,不斷豐富和完善監(jiān)管手段與措施。一方面,,應(yīng)對技術(shù)公司提出要求,,及時發(fā)現(xiàn)修復(fù)技術(shù)漏洞,并推動技術(shù)標(biāo)準(zhǔn)與行業(yè)規(guī)范的形成,;另一方面,,要運用監(jiān)管手段制止與打擊對技術(shù)漏洞的惡意利用,其中特別要針對形成產(chǎn)業(yè)鏈,、背后有行業(yè)利益推動的惡意利用等行為進(jìn)行嚴(yán)厲打擊,,不斷完善相關(guān)法律法規(guī),。
在姜奇平看來,進(jìn)行技術(shù)限制應(yīng)慎之又慎,,大模型,、芯片、數(shù)據(jù)算法算力等都屬于技術(shù)和生產(chǎn)力范疇,,我們不可能把限制,、“約束”生產(chǎn)力當(dāng)作任務(wù)完成,而是要用合理的生產(chǎn)關(guān)系和上層建筑,,使技術(shù)與人的社會關(guān)系相互適應(yīng),。
吳志連認(rèn)為,未來可以通過促進(jìn)人機(jī)融合,,培養(yǎng)更多能夠與ChatGPT等人工智能技術(shù)協(xié)同工作的人才,,為實現(xiàn)人機(jī)共生、人工智能與人類的和諧共處打下基礎(chǔ),;確保其應(yīng)用符合法律法規(guī)和道德標(biāo)準(zhǔn),,防止惡意不當(dāng)使用;增強(qiáng)公眾的理解和認(rèn)知,,減少不必要的擔(dān)憂和誤解,。
數(shù)智講堂
應(yīng)謹(jǐn)防對AI“膝跳反射式”的監(jiān)管
圖片來源/新華社
■楊舸
2023年至今,以ChatGPT牽引出對人工智能的關(guān)注熱度持續(xù)升溫,,尤其是自3月15日凌晨OpenAI正式發(fā)布升級后的ChatGPT-4至今的一個月內(nèi),,世界范圍內(nèi)針對AI大語言模型帶來的迭代更新驚訝之余,也開始刮起了一股“從嚴(yán)監(jiān)管”風(fēng),。
比如意大利個人數(shù)據(jù)保護(hù)局3月底就宣布禁止使用ChatGPT,;與此同時,美國科技界千余名科學(xué)家聯(lián)名簽署暫停訓(xùn)練比ChatGPT-4更強(qiáng)大的AI系統(tǒng)至少6個月的公開信,,并呼吁開發(fā)者與決策者在治理和監(jiān)管機(jī)構(gòu)方面進(jìn)行合作,。
這背后是因為人們對于人工智能技術(shù)的發(fā)展和應(yīng)用存在著諸多關(guān)切和擔(dān)憂。
淺層原因,,是對AI挑戰(zhàn)數(shù)據(jù)與隱私保護(hù),、人類職業(yè)需求等方面的恐懼,對任何一個國家來說,,光是就業(yè)機(jī)會的縮減,,都是觸及根本的大問題。
深層原因,,是隨著AIGC(生成式人工智能)向AGI(通用人工智能)不斷挺進(jìn),,超級人工智能遲早會出現(xiàn),而一旦出現(xiàn)了超級人工智能,,那么或許會帶來巨大的對既有人類社會形態(tài)的改變,。
而對生成式人工智能如ChatGPT類語言模型實施監(jiān)管,,既是對這些擔(dān)憂的回應(yīng),也是保障人工智能技術(shù)可持續(xù)發(fā)展和應(yīng)用的必要手段,。
從技術(shù)發(fā)展角度看,,AI監(jiān)管的必要性在于防范技術(shù)濫用和技術(shù)風(fēng)險。雖然AI技術(shù)的應(yīng)用領(lǐng)域非常廣泛,,但是也存在一些潛在的風(fēng)險和危害,,比如數(shù)據(jù)泄露、歧視性算法,、自主行動系統(tǒng)失控等問題,。AI監(jiān)管需要關(guān)注技術(shù)安全、數(shù)據(jù)隱私,、透明度和公正性等方面,。
從科學(xué)倫理角度看,AI監(jiān)管的必要性在于確??茖W(xué)研究和技術(shù)應(yīng)用的合法性和道德性,。AI技術(shù)的研究和應(yīng)用需要遵循一些基本的科學(xué)倫理原則,比如尊重人的尊嚴(yán)和隱私,、維護(hù)公正和公平,、遵循法律法規(guī)等。
那么,,對于ChatGPT類的生成類人工智能訓(xùn)練模型來說,,現(xiàn)在去談監(jiān)管是不是為時尚早?還是已經(jīng)有點晚了,?
AI必須以合適的方式監(jiān)管,,這毋庸置疑,但也要注意的是,,監(jiān)管本身是一個含義模糊的詞,,根本不讓AI發(fā)展,也是一種監(jiān)管,,但很顯然,,這未必是想要的成果,。歐洲歷來監(jiān)管更嚴(yán)厲,,也因此在過去20年的科技浪潮中明顯落后于中國,跟過去認(rèn)知中歐洲應(yīng)當(dāng)在科學(xué)技術(shù)浪潮中應(yīng)有的地位完全不相稱,,固然避免了很多“問題”,,但從長遠(yuǎn)來看是福還是禍很難講清楚。
那么,,如何對AI實施監(jiān)管呢,?其實,,對AIGC這樣一個生成技術(shù)機(jī)理還存在很多“黑箱效應(yīng)”的服務(wù)應(yīng)用,在沒搞清技術(shù)機(jī)理之前,,高效的監(jiān)管可以說是很難的,,先“管兩頭”“管一進(jìn)一出”——即“訓(xùn)練數(shù)據(jù)+結(jié)果對齊”,這也是目前務(wù)實的唯一做法,。
監(jiān)管的核心要義和本質(zhì)在于平衡發(fā)展和風(fēng)險,、平衡權(quán)利和義務(wù)。在制定監(jiān)管措施時,,需要考慮技術(shù)的安全性和透明度,、數(shù)據(jù)的隱私保護(hù)和公正性、應(yīng)用的道德性和合法性等方面,,充分尊重和保障人的權(quán)利和自主選擇權(quán),。同時,還需要建立相應(yīng)的監(jiān)管機(jī)構(gòu)和制度,,加強(qiáng)對技術(shù)研究和應(yīng)用的監(jiān)督和管理,,提高技術(shù)評估和風(fēng)險評估的科學(xué)性和客觀性。
當(dāng)然,,AI監(jiān)管的平衡與落地也需要考慮監(jiān)管的成本和效益,、監(jiān)管的時效性和靈活性等因素,避免過度或不足的監(jiān)管,,保證監(jiān)管的有效性和可持續(xù)性,。
平衡監(jiān)管和發(fā)展環(huán)境的關(guān)系,也是AI監(jiān)管的重要問題,。AI技術(shù)的發(fā)展和應(yīng)用需要一個開放,、自由的環(huán)境,鼓勵技術(shù)創(chuàng)新和進(jìn)步,。因此,,監(jiān)管不能過于嚴(yán)格和僵化,阻礙技術(shù)發(fā)展和應(yīng)用的進(jìn)步,。但是,,監(jiān)管也不能太松散和放任,導(dǎo)致技術(shù)濫用和風(fēng)險加劇,。平衡監(jiān)管和發(fā)展環(huán)境的關(guān)系,,需要依靠科學(xué)、合法,、公正的監(jiān)管機(jī)制和制度,,保護(hù)人的權(quán)利和自由,促進(jìn)技術(shù)的發(fā)展和應(yīng)用。
總而言之,,不可做“膝跳反射式”的監(jiān)管,,即在還沒有了解這個事情的本質(zhì)之前,就憑著恐慌或者憑著焦慮的本能反應(yīng)來作出決定,,這種決定很可能不是基于完備的事實而作出的,,也不是基于對長遠(yuǎn)的深刻洞察作出的,落后于現(xiàn)實的監(jiān)管也不能構(gòu)成有效的監(jiān)管,。我們必須正視,,對于技術(shù)的發(fā)展,無論高興也好,,焦慮也罷,,趨勢是擋也擋不住的?;蛟S,,有了人工智能助力,人類社會生產(chǎn)力可能呈指數(shù)級暴增,。
(作者單位:騰訊微信市場戰(zhàn)略拓展中心)
本公眾號版權(quán)歸中國經(jīng)濟(jì)時報所有,。如轉(zhuǎn)載或引用本文內(nèi)容須經(jīng)許可,并注明轉(zhuǎn)自中國經(jīng)濟(jì)時報,。
熱點鏈接
●時報時評丨人工智能應(yīng)在發(fā)展中深度治理
●區(qū)域觀察丨淄博:小燒烤背后的大轉(zhuǎn)型
●視點丨轉(zhuǎn)換動力是實現(xiàn)服務(wù)業(yè)高質(zhì)量發(fā)展的關(guān)鍵
●稅收優(yōu)惠再發(fā)力③丨稅惠“春雨”煥發(fā)小微生機(jī)
●綠色低碳丨乘“風(fēng)”而上 發(fā)展海上風(fēng)電是大勢所趨
總 監(jiān) 制丨王輝王繼承
監(jiān) 制丨李丕光 王彧 劉衛(wèi)民
主 編丨毛晶慧 編 輯丨蔣 帥
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1016763.html
溫馨提示:投資有風(fēng)險,入市須謹(jǐn)慎,。本資訊不作為投資理財建議,。