A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

AI會“說謊”,?專家:相比技術失控,更要防止利用人工智能作惡

《科創(chuàng)板日報》4月15日訊 (實習記者 譚海燕) 國家互聯(lián)網(wǎng)信息辦公室近日起草了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《征求意見稿》),,旨在促進生成式人工智能技術健康發(fā)展和規(guī)范應用?!墩髑笠庖姼濉烦雠_的背景,,ChatGPT出圈后,以大模型為底座的人工智能在全球范圍的爆火,,由此引發(fā)了社會各界對于生成式人工智能安全與倫理隱私風險的擔憂,。

上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩向《科創(chuàng)板日報》表示,比起失控的技術,,更有可能失控的是用技術來為非作歹的‘人’,。 防止人工智能作惡,關鍵在于控制背后的人,。

能夠像人類一樣對話的AI,,會給社會帶來什么風險,是否將取代人類,?當賽博朋克電影中老生常談的命題急風驟雨般映入現(xiàn)實,,科技革命加速正在進行時,我們是否準備好迎接以ChatGPT為首的強大人工智能系統(tǒng)帶來的挑戰(zhàn),?

AI會“說謊”,?專家:相比技術失控,更要防止利用人工智能作惡

▍AI可能會“說謊”,,還會“傳染”,?

據(jù)外媒報道,在一份讓ChatGPT生成曾有過性騷擾他人歷史的法律學者名單中,,法學教授喬納森·特利 (Jonathan Turley) 位列榜上,。ChatGPT援引媒體2018年3月的一篇文章作為信源,并且給出了引文詳盡細節(jié),,指出“喬治城大學法律中心教授喬納森·特利被一名以前的學生指控性騷擾”,。最后,被援引的媒體現(xiàn)身辟謠:這篇文章根本不存在,,特利本人也并未在ChatGPT所說的大學工作過,。

在人類社會,面臨這樣的“謠言”,,常見的處理方式是要求對方停止散播謠言,,運用法律手段等手段維權,但在AI世界,,處理人工智能“造謠”并不那么容易,,這樣的“謠言”還可能出現(xiàn)“機傳機”現(xiàn)象,,信息溯源難加之傳播速度快,帶來了潛藏的風險,。

在由GPT-4提供支持的微軟Bing上重復了“有性騷擾歷史的法律學者”問題,,Bing重復了對于特利的錯誤論述,但在消息來源中引用了相關媒體的報道,,概述了特利被ChatGPT“誣告”的過程,。有評論認為,這表明了錯誤信息會由一個人工智能傳遞至另一個人工智能,。

幾乎在同一時期,,澳大利亞一區(qū)市長向OpenAI“宣戰(zhàn)”——稱如果ChatGPT不糾正對他的虛假指控,他將起訴OpenAI公司,,如果他提起訴訟,,那么這將是全球首例針對生成式AI誹謗訴訟。澳大利亞墨爾本西部赫本郡的市長布賴恩?胡德(Brian Hood)并未真的遭到任何指控,,但在ChatGPT的論述中,,他“曾因賄賂入獄服刑”。胡德的律師團隊與3月21日向OpenAI發(fā)出關注信,,讓對方在28天修改對于胡德的錯誤描述,,否則將提起訴訟。

▍人工智能“造謠”完全可以避免

針對人工智能侵權追責,,上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩在接受《科創(chuàng)板日報》采訪時指出,追責大概率會成功,,從技術層面而言,,人工智能“造謠”完全可以避免,大型語言模型(LLM)不光能通過模型,、基于過去的經(jīng)驗自動生成內(nèi)容,,也能基于靠譜的互聯(lián)網(wǎng)文本源,重新整理并生成新的內(nèi)容,,“無非是后者的響應時間會長一點,,運算的過程要多繞一些彎路,但是更靠譜,。類比自動駕駛,,技術上其實早已基本實現(xiàn)L5了,但是目前只允許低于L3的上路,,技術應該在可控范圍逐步推廣,。”

實際上,,3月15日,,OpenAI正式發(fā)布了升級后的GPT-4,,官網(wǎng)于4月5日公布了安全地構建、部署和使用 AI 系統(tǒng)的策略,,內(nèi)容安全測試顯示,,GPT-4的得分比此前的模型GPT-3.5高40%。實際上,,在OpenAI官網(wǎng)使用條款中就有對于ChatGPT準確性的論述,,“在某些情況下使用我們的服務可能會導致輸出不正確,無法準確反映真實的人物,、地點或事實,。您應該根據(jù)您的情況評估任何輸出的準確性,包括對輸出進行人工審查,?!?/strong>官網(wǎng)4月5日公布的AI安全策略提到,當用戶注冊使用ChatGPT時,,官網(wǎng)關于準確性的論述盡可能做到透明,,以避免 ChatGPT 可能給出錯誤回復。

AI會“說謊”,?專家:相比技術失控,,更要防止利用人工智能作惡

兩起“謠言”并非ChatGPT及其所有者OpenAI第一次陷入輿論風暴中,3月20日起,,陸續(xù)有用戶反映在聊天記錄中顯示了其他人的 ChatGPT 聊天對話,。針對事件,OpenAI于3月25日在推特上發(fā)文解釋,,稱“數(shù)據(jù)被泄露給其他人的用戶數(shù)量極少,,已經(jīng)聯(lián)系可能受到影響的用戶”,表明了積極處理問題的態(tài)度,。

生成式人工智能加速中,,社會各界表示了對高速發(fā)展的AI2.0的擔憂。3月底,,未來生命研究所發(fā)表題為“暫停巨型AI實驗”的公開信,,呼吁所有人工智能實驗室立即暫停訓練比GPT-4更強大的人工智能系統(tǒng)至少6個月,包括辛頓,、馬庫斯和馬斯克在內(nèi)的上千位知名企業(yè)家,、學者簽署了這封公開信。

▍重點要防止利用人工智能作惡

在國內(nèi),,人工智能技術的使用與管理更是“謹小慎微”,。《網(wǎng)絡安全法》《數(shù)據(jù)安全法》《個人信息保護法》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》等法律、法規(guī)均有針對信息技術管理相關規(guī)定,,如《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》規(guī)定,,AI合成平臺必須要求內(nèi)容創(chuàng)作者實名認證,監(jiān)督創(chuàng)作者標明“這是由AI合成”類標識,,以免誤導公眾,;在提供“換臉”技術前,應該征得“被換臉”者的同意,;完善數(shù)據(jù)管理,、保障個人信息安全等。

上海市人工智能行業(yè)協(xié)會秘書長鐘俊浩解釋了目前可能由大模型人工智能系統(tǒng)帶來的風險,,包括知識產(chǎn)權風險,、數(shù)據(jù)安全風險、內(nèi)容濫用風險等,,馬斯克等人的聯(lián)名信更是“一石激起千層浪”,,目前針對人工智能2.0的態(tài)度整體上可以分為“暫停半年派”、“擁抱未來派”和“徹底封禁派”等,。4月11日國家網(wǎng)信辦公布的《征求意見稿》是國內(nèi)有關生成式人工智能的第一個管理條例,。在他看來,《征求意見稿》最大的意義在于通過規(guī)章確定“生成式人工智能”的規(guī)范名稱,,并強調(diào)了國家對人工智能技術和產(chǎn)業(yè)持鼓勵的態(tài)度,。

鐘俊浩向《科創(chuàng)板日報》記者表示,《征求意見稿》并不是簡單叫停,,而是通過科技風險的認知和研判,,建立更良性健康的發(fā)展路途和管控方式,探尋可以接受的研究和創(chuàng)新,,“比起失控的技術,,更有可能失控的是用技術來為非作歹的‘人’。比如,,惡意使用者可能會利用ChatGPT來制造虛假信息、實施欺詐活動或進行其他不道德行為,。防止人工智能作惡,,關鍵在于控制背后的人。 ”**

目前,,國內(nèi)各個大廠正在鋪設自家AI大模型上“開卷”,,百度的“文心一言”、阿里的“通義千問”,、王小川的“百川智能”,、商湯科技的日日新SenseNova大模型、昆侖萬維的大語言模型“天工”3.5紛紛加入人工智能賽道。

“(針對人工智能的規(guī)范)需要不停追趕AI發(fā)展的腳步,,掌握行之有效的監(jiān)管能力”,,鐘俊浩提到。

AI會“說謊”,?專家:相比技術失控,,更要防止利用人工智能作惡

免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1016836.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。

(0)
科創(chuàng)板日報的頭像科創(chuàng)板日報
上一篇 2023年4月15日 上午10:04
下一篇 2023年4月15日 上午11:46
198搶自鏈數(shù)字人

相關推薦