《科創(chuàng)板日?qǐng)?bào)》4月15日訊 (實(shí)習(xí)記者 譚海燕) 國(guó)家互聯(lián)網(wǎng)信息辦公室近日起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《征求意見稿》),,旨在促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,?!墩髑笠庖姼濉烦雠_(tái)的背景,ChatGPT出圈后,,以大模型為底座的人工智能在全球范圍的爆火,,由此引發(fā)了社會(huì)各界對(duì)于生成式人工智能安全與倫理隱私風(fēng)險(xiǎn)的擔(dān)憂。
上海市人工智能行業(yè)協(xié)會(huì)秘書長(zhǎng)鐘俊浩向《科創(chuàng)板日?qǐng)?bào)》表示,,比起失控的技術(shù),,更有可能失控的是用技術(shù)來(lái)為非作歹的‘人’。 防止人工智能作惡,,關(guān)鍵在于控制背后的人,。
能夠像人類一樣對(duì)話的AI,會(huì)給社會(huì)帶來(lái)什么風(fēng)險(xiǎn),,是否將取代人類,?當(dāng)賽博朋克電影中老生常談的命題急風(fēng)驟雨般映入現(xiàn)實(shí),科技革命加速正在進(jìn)行時(shí),,我們是否準(zhǔn)備好迎接以ChatGPT為首的強(qiáng)大人工智能系統(tǒng)帶來(lái)的挑戰(zhàn),?
▍AI可能會(huì)“說(shuō)謊”,,還會(huì)“傳染”,?
據(jù)外媒報(bào)道,在一份讓ChatGPT生成曾有過性騷擾他人歷史的法律學(xué)者名單中,,法學(xué)教授喬納森·特利 (Jonathan Turley) 位列榜上,。ChatGPT援引媒體2018年3月的一篇文章作為信源,并且給出了引文詳盡細(xì)節(jié),,指出“喬治城大學(xué)法律中心教授喬納森·特利被一名以前的學(xué)生指控性騷擾”,。最后,被援引的媒體現(xiàn)身辟謠:這篇文章根本不存在,,特利本人也并未在ChatGPT所說(shuō)的大學(xué)工作過,。
在人類社會(huì),面臨這樣的“謠言”,,常見的處理方式是要求對(duì)方停止散播謠言,,運(yùn)用法律手段等手段維權(quán),但在AI世界,,處理人工智能“造謠”并不那么容易,,這樣的“謠言”還可能出現(xiàn)“機(jī)傳機(jī)”現(xiàn)象,信息溯源難加之傳播速度快,,帶來(lái)了潛藏的風(fēng)險(xiǎn),。
在由GPT-4提供支持的微軟Bing上重復(fù)了“有性騷擾歷史的法律學(xué)者”問題,Bing重復(fù)了對(duì)于特利的錯(cuò)誤論述,,但在消息來(lái)源中引用了相關(guān)媒體的報(bào)道,,概述了特利被ChatGPT“誣告”的過程。有評(píng)論認(rèn)為,,這表明了錯(cuò)誤信息會(huì)由一個(gè)人工智能傳遞至另一個(gè)人工智能。
幾乎在同一時(shí)期,,澳大利亞一區(qū)市長(zhǎng)向OpenAI“宣戰(zhàn)”——稱如果ChatGPT不糾正對(duì)他的虛假指控,,他將起訴OpenAI公司,如果他提起訴訟,,那么這將是全球首例針對(duì)生成式AI誹謗訴訟,。澳大利亞墨爾本西部赫本郡的市長(zhǎng)布賴恩?胡德(Brian Hood)并未真的遭到任何指控,但在ChatGPT的論述中,,他“曾因賄賂入獄服刑”,。胡德的律師團(tuán)隊(duì)與3月21日向OpenAI發(fā)出關(guān)注信,讓對(duì)方在28天修改對(duì)于胡德的錯(cuò)誤描述,,否則將提起訴訟,。
▍人工智能“造謠”完全可以避免
針對(duì)人工智能侵權(quán)追責(zé),上海市人工智能行業(yè)協(xié)會(huì)秘書長(zhǎng)鐘俊浩在接受《科創(chuàng)板日?qǐng)?bào)》采訪時(shí)指出,追責(zé)大概率會(huì)成功,,從技術(shù)層面而言,,人工智能“造謠”完全可以避免,大型語(yǔ)言模型(LLM)不光能通過模型,、基于過去的經(jīng)驗(yàn)自動(dòng)生成內(nèi)容,,也能基于靠譜的互聯(lián)網(wǎng)文本源,重新整理并生成新的內(nèi)容,,“無(wú)非是后者的響應(yīng)時(shí)間會(huì)長(zhǎng)一點(diǎn),,運(yùn)算的過程要多繞一些彎路,但是更靠譜,。類比自動(dòng)駕駛,,技術(shù)上其實(shí)早已基本實(shí)現(xiàn)L5了,但是目前只允許低于L3的上路,,技術(shù)應(yīng)該在可控范圍逐步推廣,。”
實(shí)際上,,3月15日,,OpenAI正式發(fā)布了升級(jí)后的GPT-4,官網(wǎng)于4月5日公布了安全地構(gòu)建,、部署和使用 AI 系統(tǒng)的策略,,內(nèi)容安全測(cè)試顯示,GPT-4的得分比此前的模型GPT-3.5高40%,。實(shí)際上,,在OpenAI官網(wǎng)使用條款中就有對(duì)于ChatGPT準(zhǔn)確性的論述,“在某些情況下使用我們的服務(wù)可能會(huì)導(dǎo)致輸出不正確,,無(wú)法準(zhǔn)確反映真實(shí)的人物,、地點(diǎn)或事實(shí)。您應(yīng)該根據(jù)您的情況評(píng)估任何輸出的準(zhǔn)確性,,包括對(duì)輸出進(jìn)行人工審查,。”官網(wǎng)4月5日公布的AI安全策略提到,,當(dāng)用戶注冊(cè)使用ChatGPT時(shí),,官網(wǎng)關(guān)于準(zhǔn)確性的論述盡可能做到透明,以避免 ChatGPT 可能給出錯(cuò)誤回復(fù),。
兩起“謠言”并非ChatGPT及其所有者OpenAI第一次陷入輿論風(fēng)暴中,,3月20日起,,陸續(xù)有用戶反映在聊天記錄中顯示了其他人的 ChatGPT 聊天對(duì)話,。針對(duì)事件,OpenAI于3月25日在推特上發(fā)文解釋,,稱“數(shù)據(jù)被泄露給其他人的用戶數(shù)量極少,,已經(jīng)聯(lián)系可能受到影響的用戶”,表明了積極處理問題的態(tài)度,。
生成式人工智能加速中,,社會(huì)各界表示了對(duì)高速發(fā)展的AI2.0的擔(dān)憂。3月底,,未來(lái)生命研究所發(fā)表題為“暫停巨型AI實(shí)驗(yàn)”的公開信,,呼吁所有人工智能實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個(gè)月,包括辛頓,、馬庫(kù)斯和馬斯克在內(nèi)的上千位知名企業(yè)家,、學(xué)者簽署了這封公開信。
▍重點(diǎn)要防止利用人工智能作惡
在國(guó)內(nèi),,人工智能技術(shù)的使用與管理更是“謹(jǐn)小慎微”,。《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等法律,、法規(guī)均有針對(duì)信息技術(shù)管理相關(guān)規(guī)定,,如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》規(guī)定,AI合成平臺(tái)必須要求內(nèi)容創(chuàng)作者實(shí)名認(rèn)證,,監(jiān)督創(chuàng)作者標(biāo)明“這是由AI合成”類標(biāo)識(shí),,以免誤導(dǎo)公眾;在提供“換臉”技術(shù)前,,應(yīng)該征得“被換臉”者的同意,;完善數(shù)據(jù)管理、保障個(gè)人信息安全等,。
上海市人工智能行業(yè)協(xié)會(huì)秘書長(zhǎng)鐘俊浩解釋了目前可能由大模型人工智能系統(tǒng)帶來(lái)的風(fēng)險(xiǎn),,包括知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)、數(shù)據(jù)安全風(fēng)險(xiǎn),、內(nèi)容濫用風(fēng)險(xiǎn)等,,馬斯克等人的聯(lián)名信更是“一石激起千層浪”,目前針對(duì)人工智能2.0的態(tài)度整體上可以分為“暫停半年派”,、“擁抱未來(lái)派”和“徹底封禁派”等,。4月11日國(guó)家網(wǎng)信辦公布的《征求意見稿》是國(guó)內(nèi)有關(guān)生成式人工智能的第一個(gè)管理?xiàng)l例,。在他看來(lái),,《征求意見稿》最大的意義在于通過規(guī)章確定“生成式人工智能”的規(guī)范名稱,并強(qiáng)調(diào)了國(guó)家對(duì)人工智能技術(shù)和產(chǎn)業(yè)持鼓勵(lì)的態(tài)度,。
鐘俊浩向《科創(chuàng)板日?qǐng)?bào)》記者表示,,《征求意見稿》并不是簡(jiǎn)單叫停,,而是通過科技風(fēng)險(xiǎn)的認(rèn)知和研判,建立更良性健康的發(fā)展路途和管控方式,,探尋可以接受的研究和創(chuàng)新,,“比起失控的技術(shù),更有可能失控的是用技術(shù)來(lái)為非作歹的‘人’,。比如,,惡意使用者可能會(huì)利用ChatGPT來(lái)制造虛假信息、實(shí)施欺詐活動(dòng)或進(jìn)行其他不道德行為,。防止人工智能作惡,,關(guān)鍵在于控制背后的人。 ”**
目前,,國(guó)內(nèi)各個(gè)大廠正在鋪設(shè)自家AI大模型上“開卷”,,百度的“文心一言”、阿里的“通義千問”,、王小川的“百川智能”,、商湯科技的日日新SenseNova大模型、昆侖萬(wàn)維的大語(yǔ)言模型“天工”3.5紛紛加入人工智能賽道,。
“(針對(duì)人工智能的規(guī)范)需要不停追趕AI發(fā)展的腳步,,掌握行之有效的監(jiān)管能力”,鐘俊浩提到,。
免責(zé)聲明:本文來(lái)自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1016836.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。