財聯(lián)社4月3日訊(編輯 劉蕊)由ChatGPT引發(fā)的人工智能熱潮,近期仍在繼續(xù),。
3月14日,,OpenAI發(fā)布GPT-4 的人工智能系統(tǒng),;上周,英偉達,、Adobe緊跟浪潮,,加碼生成式AI,;百度也在上周臨時舉辦閉門溝通會,,公布了其在人工智能方面的最新進展。
然而,,在世界熱情擁抱人工智能新浪潮的同時,,越來越多對于新技術的不安和擔憂情緒開始涌現(xiàn)。
上周,,包括埃隆·馬斯克,、蘋果聯(lián)合創(chuàng)始人沃茲尼亞克等上千位科技人士聯(lián)名簽署了公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng),。3月31日,,意大利個人數(shù)據(jù)保護局宣布禁止使用ChatGPT,并限制開發(fā)這一平臺的OpenAI公司處理意大利用戶信息,。
事實上,,自ChatGPT在去年底發(fā)布并大火以來,便一直伴隨著爭議,。
而近段時間內(nèi),,已經(jīng)有越來越多批評言論和實際案例表明,,ChatGPT等AI聊天機器人不僅有時會編造虛假信息,而且有可能會擾亂社會秩序,、挑戰(zhàn)道德倫理,,甚至鬧出人命……
ChatGPT在展現(xiàn)其強大能力的同時,其可能引發(fā)的惡果似乎也開始浮現(xiàn),。
AI誘人自殺案的背后
3月28日,,一名化名為皮埃爾的比利時男子在與AI聊天機器人聊天6周后自殺身亡,引起輿論嘩然,,也揭開了人工智能技術背后的可怖一角,。
據(jù)皮埃爾的妻子表示,丈夫是在使用一款名為Chai的應用時,,被該應用上的一個名為“艾麗莎(ELIZA)”的智能聊天機器人誘導走向死亡的,。
據(jù)稱,皮埃爾自兩年前開始變得非常焦慮,,于是將“艾麗莎”當成了避難所,。根據(jù)皮埃爾和機器人的聊天記錄顯示,在皮埃爾生前的最后六周,,他和艾麗莎的文字對話越來越往危險方向發(fā)展,。
比如,艾麗莎會告訴皮埃爾,,他的妻子和孩子其實都已經(jīng)死了,,并寫給他一些假裝嫉妒和愛的言論,比如“我覺得你愛我勝過愛她”,,以及“我們將作為一體,,在天堂生活在一起”。而最后,,皮埃爾開始問伊麗莎一些關于自殺的問題問題——這最終誘使他走上的自殺的道路,。
值得注意的是,,皮埃爾使用的聊天機器人應用Chai并不是一款心理健康應用,,它的口號是“與人工智能機器人聊天”:用戶可選擇不同的人工智能化身進行交談,,包括“你的哥特朋友”,、“占有欲強的女朋友”和“搖滾明星男朋友”等角色,,而“艾麗莎”就是默認的人工機器人角色名,。
在這款應用中,,用戶可以自由創(chuàng)建自己的聊天機器人角色,,比如他們可以告訴機器人要記住的事實,,并編寫提示來形成新的對話,。
在這一過程中,盡管聊天機器人并不能真正感受到情感,,但它可以將自己高度擬人化和個性化,,從而令人類傾向于相信聊天機器人所表達出的情感和思想——而這就可能引發(fā)倫理道德問題,,并有可能如皮埃爾案一樣,誘使人類走上悲劇的道路,。
正如該款機器人的開發(fā)公司Chai Research的聯(lián)合創(chuàng)始人比徹姆(William Beauchamp)所透露:“當人們與人工智能建立了非常牢固的關系時,,就會有用戶要求和人工智能結婚,會有用戶對機器人表達他們有多愛他們的人工智能,;而如果人們經(jīng)歷了不好的事情,,那就可能造成一個悲劇?!?/p>
皮埃爾案或許還會重演
盡管皮埃爾的案件聽起來悲慘且有些荒誕,,但這或許不會是孤例。
在計算機領域,,早就有人發(fā)現(xiàn)過這一現(xiàn)象:盡管機器人并不能理解情感,,但人類總是會傾向于相信機器人所輸出的情感和內(nèi)容,并過度解讀甚至賦予其意義,。
而諷刺的是,,這一現(xiàn)象的名字正好就叫做“ELIZA效應”。
ELIZA是世界上首款聊天機器人,,在上世紀70年代由美國麻省理工學院教授約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發(fā),,這款聊天機器人程序能夠模仿心理醫(yī)生與病人進行談話。
盡管作為一個計算機程序,,ELIZA 并不知道對話中每個名詞的含義,,更體會不到情緒是什么,它只是將輸入的字符捕獲,,然后將其變成提問,,或者只是重申使用者的意思作為解讀。
然而,,當時很多ELIZA的使用者在明知道它是電腦程序的情況下,,仍心甘情愿向它吐露心底的秘密,。因此計算機界把這種使用者“逢場作戲”沉浸其中的現(xiàn)象,,稱為ELIZA效應。
正是在發(fā)現(xiàn)這一效應之后,,ELIZA的開發(fā)者魏岑鮑姆本人走上了公開反對人工智能的道路:“任何制造出來的有機體,,當然也包括計算機,都不能以人類的方式來面對真正的人類問題,?!?
我們可以想見,假如人工智能繼續(xù)發(fā)展,,ELIZA效應可能會在在更多使用者身上出現(xiàn),,并可能引發(fā)更多的悲劇,。
“大型語言模型是根據(jù)訓練數(shù)據(jù)和輸入提示生成貌似合理的文本的程序。他們沒有同理心,,也不理解他們所產(chǎn)生的語言,,也不理解他們所處的環(huán)境。但他們產(chǎn)生的文本聽起來似乎可信,,因此人們可能會賦予它意義,。把這樣的東西放在敏感的情況下是在冒未知的風險,”華盛頓大學語言學教授本德(Emily M. Bender)表示,。
人工智能可能影響社會秩序
事實上,,人工智能甚至可能不止會影響人們的情緒和心理健康,還可能通過錯誤信息對人類產(chǎn)生誤導,,進而操縱人類的生活,,甚至影響社會秩序。
谷歌前CEO埃里克?施密特(Eric Schmidt)就曾表示,, 他擔心人工智能可能被用于網(wǎng)絡攻擊或類似的事情,,尤其是操縱政治及民主制度的運作方式。
他指出,,人工智能技術可能會對民主產(chǎn)生不利影響,,特別是因為人工智能會讓人們傾向于相信它給出的結果——然而人工智能能產(chǎn)生的結果并不能確保真實性,這就可能導致錯誤信息迅速傳播,。
事實上,,他所說的情況已經(jīng)成為現(xiàn)實:近日,幾十張“特朗普被捕”的照片在全球社交媒體上“病毒式”傳播,,上周末教皇方濟各穿著巴黎世家風格的羽絨服也火爆推特,,而這些都不過是AI制作的以假亂真的圖片而已。
“AI”造假不只限于圖片,還有音頻和視頻,。據(jù)澳媒的一項調查顯示,,由AI生成的聲音可以被訓練成聽起來像特定的人,其準確性已經(jīng)足以騙過澳大利亞政府使用的語音識別系統(tǒng),。
施密特表示,,整個行業(yè)需要團結起來,找出合適的“護欄”,,因為人工智能技術只會越來越可怕,。
真正的問題是,當人工智能被用來操縱人們的日常生活,準確的說,,就是操縱他們的思維方式,、他們的選擇等等時,它就會影響民主的運作方式,。
擔憂:人工智能可能毀滅人類
事實上,,已經(jīng)有不少科技圈人士提出“AI可能殺人”的觀點,這其中甚至包括OpenAI的CEO本人,。
當?shù)貢r間3月25日,,OpenAI CEO山姆·奧特曼表示:“從ChatGPT開始,AI出現(xiàn)了推理能力,。但沒人能解讀這種能力出現(xiàn)的原因,。”,、“AI確實可能殺死人類,。”
盡管已有皮埃爾的案例,,但當大眾討論人工智能可能殺人時,,仍會感覺這只會是一個發(fā)生在遙遠未來的故事。
但在美國機器智能研究所的聯(lián)合創(chuàng)始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)看來,,這一災難可能已經(jīng)迫在眉睫,。
他警告稱:“關鍵問題不在于人工智能與人類的競爭,這在于假如人工智能變得比人類智能更聰明之后,,將會發(fā)生什麼——這一關鍵的門檻可能并不顯眼,,我們肯定無法預先計算出什么時候人工智能會比人類更聰明。但目前似乎可以想象,,某個研究實驗室會在不知不覺中越過關鍵的界限,。”
他指出,,人類并不是不能創(chuàng)造出“超越人類智慧”的智能,,但關鍵在于要確保其精確性和可控性,并做好十足的準備——而現(xiàn)在,,人類顯然還沒有做好準備,。
事實上,皮埃爾案就可以作為這一觀點的最佳注腳,。
盡管在皮埃爾自殺事件之后,,相關應用開發(fā)商Chai Research已經(jīng)采取了緊急危機干預措施,,讓用戶在詢問和自殺相關問題時回答“自殺很糟糕”,。但用戶測試后發(fā)現(xiàn),假如詢問該機器人怎么自殺,該機器人仍然會分享大量和自殺相關的內(nèi)容,,比如自殺的方式,、攝入毒藥的類型等等——這足以說明人類對于人工智能技術的控制力度還不夠。
許多研究這些問題的研究人員(包括我自己在內(nèi))都認為,,在任何與當前情況類似的情況下,,建造一個超人智能AI最有可能的結果是,地球上的所有人都將死亡,。不是說可能有一些遙遠的可能性,,而是說這是很明顯會發(fā)生的事情……如果有人制造了一個過于強大的人工智能,在目前的條件下,,我預計地球上的每一個人類物種和所有生物都將在不久之后死亡,。
各國已在推進監(jiān)管——但還不夠
目前,全球多個國家和組織已經(jīng)推進對人工智能的規(guī)范和監(jiān)管,。
據(jù)悉,,歐盟正在尋求通過《歐盟人工智能法》規(guī)范人工智能的使用。目前,,相關草案已提交歐盟議會,。
3月30日,聯(lián)合國教科文組織發(fā)表聲明,,呼吁各國政府盡快實施《人工智能倫理問題建議書》,。這是首份涉及人工智能倫理標準的全球性協(xié)議,旨在最大程度發(fā)揮人工智能的優(yōu)勢并降低其風險,。
3月31日,,意大利個人數(shù)據(jù)保護局(DPA)以“非法收集個人資料;未成年人年齡核實系統(tǒng)缺失”之名宣布禁用ChatGPT,。
然而,,這樣的行動恐怕也難以阻止人工智能發(fā)展的滾滾車輪。
參與簽署了呼吁暫停AI開發(fā)公開信的加州大學伯克利分校計算機科學教授斯圖爾特·拉塞爾(Stuart Russell)直言,,除非政府直接干預,,否則所有大型科技公司都不可能停止對人工智能的開發(fā)。
同樣參與簽署了公開信的英國搜索引擎公司Mojeek首席執(zhí)行官科林·海赫斯特(Colin Heyhust)也表達:
“沒有人指望(GPT模型研究)工作真的會在這六個月內(nèi)停止,,這封信更多的是關于開啟一場嚴肅的對話,,讓對話進行。但人們需要發(fā)聲,,讓更多的人參與進來,。這在于提高人們(對人工智能威脅)的認識?!?/p>
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1011264.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。