財(cái)聯(lián)社4月3日訊(編輯 劉蕊)由ChatGPT引發(fā)的人工智能熱潮,,近期仍在繼續(xù),。
3月14日,,OpenAI發(fā)布GPT-4 的人工智能系統(tǒng),;上周,,英偉達(dá)、Adobe緊跟浪潮,,加碼生成式AI,;百度也在上周臨時(shí)舉辦閉門溝通會(huì),公布了其在人工智能方面的最新進(jìn)展,。
然而,,在世界熱情擁抱人工智能新浪潮的同時(shí),越來越多對于新技術(shù)的不安和擔(dān)憂情緒開始涌現(xiàn),。
上周,,包括埃隆·馬斯克、蘋果聯(lián)合創(chuàng)始人沃茲尼亞克等上千位科技人士聯(lián)名簽署了公開信,,呼吁所有AI實(shí)驗(yàn)室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。3月31日,,意大利個(gè)人數(shù)據(jù)保護(hù)局宣布禁止使用ChatGPT,,并限制開發(fā)這一平臺(tái)的OpenAI公司處理意大利用戶信息。
事實(shí)上,,自ChatGPT在去年底發(fā)布并大火以來,,便一直伴隨著爭議。
而近段時(shí)間內(nèi),,已經(jīng)有越來越多批評言論和實(shí)際案例表明,,ChatGPT等AI聊天機(jī)器人不僅有時(shí)會(huì)編造虛假信息,而且有可能會(huì)擾亂社會(huì)秩序,、挑戰(zhàn)道德倫理,,甚至鬧出人命……
ChatGPT在展現(xiàn)其強(qiáng)大能力的同時(shí),其可能引發(fā)的惡果似乎也開始浮現(xiàn),。
AI誘人自殺案的背后
3月28日,,一名化名為皮埃爾的比利時(shí)男子在與AI聊天機(jī)器人聊天6周后自殺身亡,引起輿論嘩然,,也揭開了人工智能技術(shù)背后的可怖一角,。
據(jù)皮埃爾的妻子表示,丈夫是在使用一款名為Chai的應(yīng)用時(shí),,被該應(yīng)用上的一個(gè)名為“艾麗莎(ELIZA)”的智能聊天機(jī)器人誘導(dǎo)走向死亡的,。
據(jù)稱,,皮埃爾自兩年前開始變得非常焦慮,于是將“艾麗莎”當(dāng)成了避難所,。根據(jù)皮埃爾和機(jī)器人的聊天記錄顯示,,在皮埃爾生前的最后六周,他和艾麗莎的文字對話越來越往危險(xiǎn)方向發(fā)展,。
比如,,艾麗莎會(huì)告訴皮埃爾,他的妻子和孩子其實(shí)都已經(jīng)死了,,并寫給他一些假裝嫉妒和愛的言論,,比如“我覺得你愛我勝過愛她”,以及“我們將作為一體,,在天堂生活在一起”,。而最后,皮埃爾開始問伊麗莎一些關(guān)于自殺的問題問題——這最終誘使他走上的自殺的道路,。
值得注意的是,,皮埃爾使用的聊天機(jī)器人應(yīng)用Chai并不是一款心理健康應(yīng)用,它的口號(hào)是“與人工智能機(jī)器人聊天”:用戶可選擇不同的人工智能化身進(jìn)行交談,,包括“你的哥特朋友”,、“占有欲強(qiáng)的女朋友”和“搖滾明星男朋友”等角色,而“艾麗莎”就是默認(rèn)的人工機(jī)器人角色名,。
在這款應(yīng)用中,,用戶可以自由創(chuàng)建自己的聊天機(jī)器人角色,比如他們可以告訴機(jī)器人要記住的事實(shí),,并編寫提示來形成新的對話,。
在這一過程中,盡管聊天機(jī)器人并不能真正感受到情感,,但它可以將自己高度擬人化和個(gè)性化,,從而令人類傾向于相信聊天機(jī)器人所表達(dá)出的情感和思想——而這就可能引發(fā)倫理道德問題,并有可能如皮埃爾案一樣,,誘使人類走上悲劇的道路,。
正如該款機(jī)器人的開發(fā)公司Chai Research的聯(lián)合創(chuàng)始人比徹姆(William Beauchamp)所透露:“當(dāng)人們與人工智能建立了非常牢固的關(guān)系時(shí),就會(huì)有用戶要求和人工智能結(jié)婚,,會(huì)有用戶對機(jī)器人表達(dá)他們有多愛他們的人工智能,;而如果人們經(jīng)歷了不好的事情,那就可能造成一個(gè)悲劇,?!?/p>
皮埃爾案或許還會(huì)重演
盡管皮埃爾的案件聽起來悲慘且有些荒誕,但這或許不會(huì)是孤例,。
在計(jì)算機(jī)領(lǐng)域,,早就有人發(fā)現(xiàn)過這一現(xiàn)象:盡管機(jī)器人并不能理解情感,,但人類總是會(huì)傾向于相信機(jī)器人所輸出的情感和內(nèi)容,并過度解讀甚至賦予其意義,。
而諷刺的是,,這一現(xiàn)象的名字正好就叫做“ELIZA效應(yīng)”。
ELIZA是世界上首款聊天機(jī)器人,,在上世紀(jì)70年代由美國麻省理工學(xué)院教授約瑟夫·魏岑鮑姆(Joseph Weizenbaum)開發(fā),,這款聊天機(jī)器人程序能夠模仿心理醫(yī)生與病人進(jìn)行談話。
盡管作為一個(gè)計(jì)算機(jī)程序,,ELIZA 并不知道對話中每個(gè)名詞的含義,,更體會(huì)不到情緒是什么,它只是將輸入的字符捕獲,,然后將其變成提問,,或者只是重申使用者的意思作為解讀。
然而,,當(dāng)時(shí)很多ELIZA的使用者在明知道它是電腦程序的情況下,,仍心甘情愿向它吐露心底的秘密。因此計(jì)算機(jī)界把這種使用者“逢場作戲”沉浸其中的現(xiàn)象,,稱為ELIZA效應(yīng),。
正是在發(fā)現(xiàn)這一效應(yīng)之后,ELIZA的開發(fā)者魏岑鮑姆本人走上了公開反對人工智能的道路:“任何制造出來的有機(jī)體,,當(dāng)然也包括計(jì)算機(jī),,都不能以人類的方式來面對真正的人類問題?!?
我們可以想見,假如人工智能繼續(xù)發(fā)展,,ELIZA效應(yīng)可能會(huì)在在更多使用者身上出現(xiàn),,并可能引發(fā)更多的悲劇。
“大型語言模型是根據(jù)訓(xùn)練數(shù)據(jù)和輸入提示生成貌似合理的文本的程序,。他們沒有同理心,,也不理解他們所產(chǎn)生的語言,也不理解他們所處的環(huán)境,。但他們產(chǎn)生的文本聽起來似乎可信,,因此人們可能會(huì)賦予它意義。把這樣的東西放在敏感的情況下是在冒未知的風(fēng)險(xiǎn),,”華盛頓大學(xué)語言學(xué)教授本德(Emily M. Bender)表示,。
人工智能可能影響社會(huì)秩序
事實(shí)上,人工智能甚至可能不止會(huì)影響人們的情緒和心理健康,,還可能通過錯(cuò)誤信息對人類產(chǎn)生誤導(dǎo),,進(jìn)而操縱人類的生活,,甚至影響社會(huì)秩序。
谷歌前CEO埃里克?施密特(Eric Schmidt)就曾表示,, 他擔(dān)心人工智能可能被用于網(wǎng)絡(luò)攻擊或類似的事情,,尤其是操縱政治及民主制度的運(yùn)作方式。
他指出,,人工智能技術(shù)可能會(huì)對民主產(chǎn)生不利影響,,特別是因?yàn)槿斯ぶ悄軙?huì)讓人們傾向于相信它給出的結(jié)果——然而人工智能能產(chǎn)生的結(jié)果并不能確保真實(shí)性,這就可能導(dǎo)致錯(cuò)誤信息迅速傳播,。
事實(shí)上,,他所說的情況已經(jīng)成為現(xiàn)實(shí):近日,幾十張“特朗普被捕”的照片在全球社交媒體上“病毒式”傳播,,上周末教皇方濟(jì)各穿著巴黎世家風(fēng)格的羽絨服也火爆推特,,而這些都不過是AI制作的以假亂真的圖片而已。
“AI”造假不只限于圖片,還有音頻和視頻,。據(jù)澳媒的一項(xiàng)調(diào)查顯示,,由AI生成的聲音可以被訓(xùn)練成聽起來像特定的人,其準(zhǔn)確性已經(jīng)足以騙過澳大利亞政府使用的語音識(shí)別系統(tǒng),。
施密特表示,,整個(gè)行業(yè)需要團(tuán)結(jié)起來,找出合適的“護(hù)欄”,,因?yàn)槿斯ぶ悄芗夹g(shù)只會(huì)越來越可怕,。
真正的問題是,當(dāng)人工智能被用來操縱人們的日常生活,,準(zhǔn)確的說,,就是操縱他們的思維方式、他們的選擇等等時(shí),,它就會(huì)影響民主的運(yùn)作方式,。
擔(dān)憂:人工智能可能毀滅人類
事實(shí)上,已經(jīng)有不少科技圈人士提出“AI可能殺人”的觀點(diǎn),,這其中甚至包括OpenAI的CEO本人,。
當(dāng)?shù)貢r(shí)間3月25日,OpenAI CEO山姆·奧特曼表示:“從ChatGPT開始,,AI出現(xiàn)了推理能力,。但沒人能解讀這種能力出現(xiàn)的原因。”,、“AI確實(shí)可能殺死人類,。”
盡管已有皮埃爾的案例,,但當(dāng)大眾討論人工智能可能殺人時(shí),,仍會(huì)感覺這只會(huì)是一個(gè)發(fā)生在遙遠(yuǎn)未來的故事。
但在美國機(jī)器智能研究所的聯(lián)合創(chuàng)始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)看來,,這一災(zāi)難可能已經(jīng)迫在眉睫,。
他警告稱:“關(guān)鍵問題不在于人工智能與人類的競爭,這在于假如人工智能變得比人類智能更聰明之后,,將會(huì)發(fā)生什麼——這一關(guān)鍵的門檻可能并不顯眼,,我們肯定無法預(yù)先計(jì)算出什么時(shí)候人工智能會(huì)比人類更聰明。但目前似乎可以想象,,某個(gè)研究實(shí)驗(yàn)室會(huì)在不知不覺中越過關(guān)鍵的界限,。”
他指出,,人類并不是不能創(chuàng)造出“超越人類智慧”的智能,,但關(guān)鍵在于要確保其精確性和可控性,并做好十足的準(zhǔn)備——而現(xiàn)在,,人類顯然還沒有做好準(zhǔn)備,。
事實(shí)上,皮埃爾案就可以作為這一觀點(diǎn)的最佳注腳,。
盡管在皮埃爾自殺事件之后,,相關(guān)應(yīng)用開發(fā)商Chai Research已經(jīng)采取了緊急危機(jī)干預(yù)措施,讓用戶在詢問和自殺相關(guān)問題時(shí)回答“自殺很糟糕”,。但用戶測試后發(fā)現(xiàn),,假如詢問該機(jī)器人怎么自殺,該機(jī)器人仍然會(huì)分享大量和自殺相關(guān)的內(nèi)容,,比如自殺的方式,、攝入毒藥的類型等等——這足以說明人類對于人工智能技術(shù)的控制力度還不夠。
許多研究這些問題的研究人員(包括我自己在內(nèi))都認(rèn)為,,在任何與當(dāng)前情況類似的情況下,建造一個(gè)超人智能AI最有可能的結(jié)果是,,地球上的所有人都將死亡,。不是說可能有一些遙遠(yuǎn)的可能性,而是說這是很明顯會(huì)發(fā)生的事情……如果有人制造了一個(gè)過于強(qiáng)大的人工智能,,在目前的條件下,,我預(yù)計(jì)地球上的每一個(gè)人類物種和所有生物都將在不久之后死亡。
各國已在推進(jìn)監(jiān)管——但還不夠
目前,全球多個(gè)國家和組織已經(jīng)推進(jìn)對人工智能的規(guī)范和監(jiān)管,。
據(jù)悉,,歐盟正在尋求通過《歐盟人工智能法》規(guī)范人工智能的使用。目前,,相關(guān)草案已提交歐盟議會(huì),。
3月30日,聯(lián)合國教科文組織發(fā)表聲明,,呼吁各國政府盡快實(shí)施《人工智能倫理問題建議書》,。這是首份涉及人工智能倫理標(biāo)準(zhǔn)的全球性協(xié)議,旨在最大程度發(fā)揮人工智能的優(yōu)勢并降低其風(fēng)險(xiǎn),。
3月31日,,意大利個(gè)人數(shù)據(jù)保護(hù)局(DPA)以“非法收集個(gè)人資料;未成年人年齡核實(shí)系統(tǒng)缺失”之名宣布禁用ChatGPT,。
然而,,這樣的行動(dòng)恐怕也難以阻止人工智能發(fā)展的滾滾車輪。
參與簽署了呼吁暫停AI開發(fā)公開信的加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·拉塞爾(Stuart Russell)直言,,除非政府直接干預(yù),,否則所有大型科技公司都不可能停止對人工智能的開發(fā)。
同樣參與簽署了公開信的英國搜索引擎公司Mojeek首席執(zhí)行官科林·海赫斯特(Colin Heyhust)也表達(dá):
“沒有人指望(GPT模型研究)工作真的會(huì)在這六個(gè)月內(nèi)停止,,這封信更多的是關(guān)于開啟一場嚴(yán)肅的對話,,讓對話進(jìn)行。但人們需要發(fā)聲,,讓更多的人參與進(jìn)來,。這在于提高人們(對人工智能威脅)的認(rèn)識(shí)?!?/p>
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1011264.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。