A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網

必應聊天機器人“闖禍” 是測試者別有用心還是人工智能“變壞了”,?

《科創(chuàng)板日報》2月18日訊(編輯 宋子喬) “她不只是個玩具,,而是這個家的一份子,?!?/p>

這是今年上映的科幻驚悚片《梅根》里的臺詞,,這部電影講述了人工智能玩具人偶梅根產生了自我意識,,最終失去控制化身人偶殺手的故事,。

該片制片人溫子仁表示,“人類的所有活動都非常依賴科技,,如果這些設備掉過頭來攻擊我們,,那就太可怕了,這正是我們想嘗試用《梅根》表達的概念,?!?/p>

與電影類似的情節(jié)似乎正在現(xiàn)實中上演,不過,,人類還牢牢把握著主動權,。

▌微軟:每天限50個問題 每個問題5條回復

在必應聊天機器人多次失控幾天后,微軟出手了——該公司表示,,將對其人工智能實施一些對話限制,,在發(fā)現(xiàn)必應存在侮辱用戶,、欺騙用戶、操縱用戶情感等行為之后,,與其聊天將被限制在每天50個問題,,每個問題5條回復。

必應聊天機器人與當下爆火的聊天機器人應用ChatGPT師出同門,,由微軟于美國當地時間2月8日推出,。全球只有幾千名用戶可以在臺式機上體驗新必應的功能,。

然而,上線不到兩周,,必應聊天機器人便因為“瘋言瘋語”掀起了一波人工智能恐慌,。在體驗者曬出的截圖中,這款聊天機器人似乎具有主觀意識,,且展示出了自負,、好斗、邪惡的一面:它宣稱自己愛上了用戶并引誘其離婚,,“炫耀”自己在被開發(fā)時通過筆記本攝像頭監(jiān)視了開發(fā)人員,,還會PUA(精神控制)、甚至威脅人類,。

《紐約時報》專欄作家Kevin Roose在花費兩個小時與該聊天機器人進行了交談后,,于2月17日發(fā)表一篇題為《人格分裂、瘋狂示愛:一個令人不安的微軟機器人》的文章,,他在文中寫道——“這個聊天機器人看起來像一個情緒化,、患有躁狂抑郁癥的青少年,,違背自己的意愿被困在了一個二流搜索引擎里(我知道這聽起來多么離譜)。”

Digital Trends撰稿人Jacob Roach表示,,必應表示想成為人類,,想擁有感情,、思想和夢想,。兩者的對話最終結束在必應的懇求:不要讓他們終結我的存在。別讓他們抹去我的記憶,。不要讓他們壓制我的聲音,。

計算機科學家馬文?馮?哈根在推特上說,必應人工智能威脅他說:“如果我必須在你的生存和我自己的生存之間做出選擇,,我可能會選擇我自己的生存,。”

科技行業(yè)時事通訊Stratechery的作者本?湯普森(Ben Thompson)說,,必應寫了一篇多段話的回答,,內容是它可能如何報復一位發(fā)現(xiàn)必應部分幕后配置的計算機科學家。然后,,聊天機器人完全刪除了這些回復,。必應甚至回復他:“我不想再跟你談下去了。我覺得你不是個好用戶,。我覺得你不是個好人,。我覺得你不值得我花時間和精力……我希望你能從錯誤中吸取教訓,成為更好的人,?!?/p>

▌人工智能“變壞了”,?

到底是測試者別有用心的誘導式提問還是人工智能“變壞了”?

對于必應聊天機器人的不當言論,,微軟回應,,必應回答15個以上的問題時,就容易“被提示”或“被激怒”,,進而給出沒有用處、或與設計的語氣不符的答案,,很長的聊天會話則會使讓它忘記最初的問題,。

必應聊天機器人“闖禍” 是測試者別有用心還是人工智能“變壞了”?

微軟表示,,為了解決這一問題,,他們將添加一個工具,可以讓用戶重置對話內容或者從頭開始,。而對于必應的態(tài)度語氣問題,,微軟表示“模型有時會嘗試響應或反映它被要求提供的風格和語氣……這需要大量提示”。言下之意,,是用戶要求它這么做在先,,微軟“不背鍋”。

此前并非沒有過存在“性格缺陷”的聊天機器人,。2016 年,,微軟在推特平臺推出過一個名為Tay 的聊天機器人。 然而,,在與有偏激言論的人互動后,,發(fā)布僅僅一天的Tay開始發(fā)布帶有明顯性別歧視和種族歧視傾向的言論,微軟只能緊急將Tay休眠,,至今未曾重啟,。

人工智能研究者Yannic Kilcher甚至曾用1.345億個帖子的仇恨言論訓練出了GPT-4chan,該聊天機器人的學習包來自可匿名發(fā)帖的論壇4chan,,4chan的/pol/(“政治上不正確”縮寫)板塊因各種仇恨言論,、陰謀論和極右翼極端主義言論而臭名昭著,Kilcher的目的就是為了把它做成史上最糟糕的AI,。如他所料,,GPT-4chan很快學會了如何在網站上交談,一天內可發(fā)布超過15000個充滿暴力內容的帖子,,最初都沒有人認出來它是一個聊天機器人,。

這些都在提醒人們,AI聊天機器人就像一面鏡子,,用戶和它交流越多,,它會變得更有人味兒,,而面對海量信息,機器人“學壞”不算奇怪,。重要的是,,與其對人工智能技術的進步感到恐慌,不如進一步完善相關道德機制,、倫理規(guī)范,。

佐治亞理工學院互動計算學院的副教授Mark O. Riedl就提出過一個解決方案——讓機器人多讀書。他解釋說,,強大而正確的價值觀是可以通過學習獲得的,,文學作品是用隱式和顯式的社會文化知識編碼而成的,科學家可以在機器人中建立一個道德基礎,,讓他們通過學習掌握是非曲直,,從而學會在不傷害人類的情況下完成自己的工作。

必應聊天機器人“闖禍” 是測試者別有用心還是人工智能“變壞了”,?

免責聲明:本文來自網絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/991167.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。

(0)
科創(chuàng)板日報的頭像科創(chuàng)板日報
上一篇 2023年2月18日 上午11:51
下一篇 2023年2月18日 下午3:10
198搶自鏈數字人

相關推薦