《科創(chuàng)板日報》4月15日訊 (實習(xí)記者 譚海燕) 國家互聯(lián)網(wǎng)信息辦公室近日起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(下稱《征求意見稿》),,旨在促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,。《征求意見稿》出臺的背景,,ChatGPT出圈后,,以大模型為底座的人工智能在全球范圍的爆火,由此引發(fā)了社會各界對于生成式人工智能安全與倫理隱私風(fēng)險的擔(dān)憂,。
上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩向《科創(chuàng)板日報》表示,,比起失控的技術(shù),,更有可能失控的是用技術(shù)來為非作歹的‘人’。 防止人工智能作惡,,關(guān)鍵在于控制背后的人,。
能夠像人類一樣對話的AI,會給社會帶來什么風(fēng)險,,是否將取代人類,?當(dāng)賽博朋克電影中老生常談的命題急風(fēng)驟雨般映入現(xiàn)實,科技革命加速正在進行時,,我們是否準備好迎接以ChatGPT為首的強大人工智能系統(tǒng)帶來的挑戰(zhàn),?
▍AI可能會“說謊”,,還會“傳染”?
據(jù)外媒報道,,在一份讓ChatGPT生成曾有過性騷擾他人歷史的法律學(xué)者名單中,,法學(xué)教授喬納森·特利 (Jonathan Turley) 位列榜上。ChatGPT援引媒體2018年3月的一篇文章作為信源,,并且給出了引文詳盡細節(jié),,指出“喬治城大學(xué)法律中心教授喬納森·特利被一名以前的學(xué)生指控性騷擾”。最后,,被援引的媒體現(xiàn)身辟謠:這篇文章根本不存在,,特利本人也并未在ChatGPT所說的大學(xué)工作過。
在人類社會,,面臨這樣的“謠言”,,常見的處理方式是要求對方停止散播謠言,運用法律手段等手段維權(quán),,但在AI世界,,處理人工智能“造謠”并不那么容易,這樣的“謠言”還可能出現(xiàn)“機傳機”現(xiàn)象,,信息溯源難加之傳播速度快,,帶來了潛藏的風(fēng)險。
在由GPT-4提供支持的微軟Bing上重復(fù)了“有性騷擾歷史的法律學(xué)者”問題,,Bing重復(fù)了對于特利的錯誤論述,,但在消息來源中引用了相關(guān)媒體的報道,概述了特利被ChatGPT“誣告”的過程,。有評論認為,,這表明了錯誤信息會由一個人工智能傳遞至另一個人工智能。
幾乎在同一時期,,澳大利亞一區(qū)市長向OpenAI“宣戰(zhàn)”——稱如果ChatGPT不糾正對他的虛假指控,,他將起訴OpenAI公司,,如果他提起訴訟,那么這將是全球首例針對生成式AI誹謗訴訟,。澳大利亞墨爾本西部赫本郡的市長布賴恩?胡德(Brian Hood)并未真的遭到任何指控,,但在ChatGPT的論述中,他“曾因賄賂入獄服刑”,。胡德的律師團隊與3月21日向OpenAI發(fā)出關(guān)注信,,讓對方在28天修改對于胡德的錯誤描述,否則將提起訴訟,。
▍人工智能“造謠”完全可以避免
針對人工智能侵權(quán)追責(zé),上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩在接受《科創(chuàng)板日報》采訪時指出,,追責(zé)大概率會成功,,從技術(shù)層面而言,人工智能“造謠”完全可以避免,,大型語言模型(LLM)不光能通過模型,、基于過去的經(jīng)驗自動生成內(nèi)容,也能基于靠譜的互聯(lián)網(wǎng)文本源,,重新整理并生成新的內(nèi)容,,“無非是后者的響應(yīng)時間會長一點,運算的過程要多繞一些彎路,,但是更靠譜,。類比自動駕駛,技術(shù)上其實早已基本實現(xiàn)L5了,,但是目前只允許低于L3的上路,,技術(shù)應(yīng)該在可控范圍逐步推廣?!?/p>
實際上,,3月15日,OpenAI正式發(fā)布了升級后的GPT-4,,官網(wǎng)于4月5日公布了安全地構(gòu)建,、部署和使用 AI 系統(tǒng)的策略,內(nèi)容安全測試顯示,,GPT-4的得分比此前的模型GPT-3.5高40%,。實際上,在OpenAI官網(wǎng)使用條款中就有對于ChatGPT準確性的論述,,“在某些情況下使用我們的服務(wù)可能會導(dǎo)致輸出不正確,,無法準確反映真實的人物、地點或事實,。您應(yīng)該根據(jù)您的情況評估任何輸出的準確性,,包括對輸出進行人工審查,。”官網(wǎng)4月5日公布的AI安全策略提到,,當(dāng)用戶注冊使用ChatGPT時,,官網(wǎng)關(guān)于準確性的論述盡可能做到透明,以避免 ChatGPT 可能給出錯誤回復(fù),。
兩起“謠言”并非ChatGPT及其所有者OpenAI第一次陷入輿論風(fēng)暴中,,3月20日起,,陸續(xù)有用戶反映在聊天記錄中顯示了其他人的 ChatGPT 聊天對話。針對事件,,OpenAI于3月25日在推特上發(fā)文解釋,,稱“數(shù)據(jù)被泄露給其他人的用戶數(shù)量極少,已經(jīng)聯(lián)系可能受到影響的用戶”,,表明了積極處理問題的態(tài)度,。
生成式人工智能加速中,社會各界表示了對高速發(fā)展的AI2.0的擔(dān)憂,。3月底,,未來生命研究所發(fā)表題為“暫停巨型AI實驗”的公開信,呼吁所有人工智能實驗室立即暫停訓(xùn)練比GPT-4更強大的人工智能系統(tǒng)至少6個月,,包括辛頓,、馬庫斯和馬斯克在內(nèi)的上千位知名企業(yè)家、學(xué)者簽署了這封公開信,。
▍重點要防止利用人工智能作惡
在國內(nèi),,人工智能技術(shù)的使用與管理更是“謹小慎微”?!毒W(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等法律,、法規(guī)均有針對信息技術(shù)管理相關(guān)規(guī)定,如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》規(guī)定,,AI合成平臺必須要求內(nèi)容創(chuàng)作者實名認證,,監(jiān)督創(chuàng)作者標明“這是由AI合成”類標識,以免誤導(dǎo)公眾,;在提供“換臉”技術(shù)前,,應(yīng)該征得“被換臉”者的同意;完善數(shù)據(jù)管理,、保障個人信息安全等,。
上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩解釋了目前可能由大模型人工智能系統(tǒng)帶來的風(fēng)險,包括知識產(chǎn)權(quán)風(fēng)險、數(shù)據(jù)安全風(fēng)險,、內(nèi)容濫用風(fēng)險等,,馬斯克等人的聯(lián)名信更是“一石激起千層浪”,目前針對人工智能2.0的態(tài)度整體上可以分為“暫停半年派”,、“擁抱未來派”和“徹底封禁派”等,。4月11日國家網(wǎng)信辦公布的《征求意見稿》是國內(nèi)有關(guān)生成式人工智能的第一個管理條例。在他看來,,《征求意見稿》最大的意義在于通過規(guī)章確定“生成式人工智能”的規(guī)范名稱,,并強調(diào)了國家對人工智能技術(shù)和產(chǎn)業(yè)持鼓勵的態(tài)度。
鐘俊浩向《科創(chuàng)板日報》記者表示,,《征求意見稿》并不是簡單叫停,,而是通過科技風(fēng)險的認知和研判,建立更良性健康的發(fā)展路途和管控方式,,探尋可以接受的研究和創(chuàng)新,,“比起失控的技術(shù),更有可能失控的是用技術(shù)來為非作歹的‘人’,。比如,惡意使用者可能會利用ChatGPT來制造虛假信息,、實施欺詐活動或進行其他不道德行為,。防止人工智能作惡,關(guān)鍵在于控制背后的人,。 ”**
目前,,國內(nèi)各個大廠正在鋪設(shè)自家AI大模型上“開卷”,百度的“文心一言”,、阿里的“通義千問”,、王小川的“百川智能”、商湯科技的日日新SenseNova大模型,、昆侖萬維的大語言模型“天工”3.5紛紛加入人工智能賽道,。
“(針對人工智能的規(guī)范)需要不停追趕AI發(fā)展的腳步,掌握行之有效的監(jiān)管能力”,,鐘俊浩提到,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1016836.html
溫馨提示:投資有風(fēng)險,入市須謹慎。本資訊不作為投資理財建議,。