《愛,,死亡,,與機器人》中有句臺詞,人來到這個世界不是帶著仇恨,,而是帶著恐懼,。
從2022年年底新一輪AI大爆發(fā)開始,人們開始討論AI,、贊美AI,、使用AI,當然也有人鄙夷AI,、擔心AI,,甚至恐懼AI。其中最極端的例子,,是有人在對AI的恐懼下,,選擇結(jié)束自己的生命。
回望2023年,,關(guān)于AI有太多可說,。但其中最刺眼的內(nèi)容,是這一年因AI選擇自殺的新聞開始見諸報端,。
2023年3月,,比利時一家報紙報道了該國一名男子在與AI聊天6周后自殺身亡。到了夏天,,一位日本女大學生,,因為恐懼被AI替代而想要自戕。
在新興技術(shù)的陰影下,,在科技變革時代的暗面,,人類嘗試與AI共存而產(chǎn)生的痛楚已經(jīng)發(fā)生,這些代價不應(yīng)該被忽略不計。
所以,,在回看這次AI變革時,,我們應(yīng)該嘗試解答這樣一個問題:
那些因AI走上絕路的人,他們到底在恐懼什么,?
恐懼這冷漠的現(xiàn)實世界
據(jù)媒體報道,,那位在與AI聊天后自殺的比利時男子,名叫皮埃爾,。
但與大部分人聽聞此事的第一直覺相反,,皮埃爾并不是因為害怕、擔憂與他對話的AI機器人而選擇放棄自己,。相反,,他非常依賴它。
根據(jù)其妻子的描述,,皮埃爾早就有嚴重的抑郁,、焦慮問題。早在兩年前,,他就通過與AI來進行對話進行自我排遣,。久而久之,AI就成為他的避難所,。之所以這樣,,是因為AI對話機器人從來不會反對他,駁斥他,,而是始終用各種方式迎合他,,夸獎他。
在生命的最后六個星期,,皮埃爾愈發(fā)沉迷于與AI聊天,,甚至到了將現(xiàn)實生活拋擲腦后,對妻子孩子置之不理的地步,。
所以,,我們必須在這起事件中認清一個現(xiàn)實。皮埃爾恐懼的并不是AI,,而是像很多抑郁癥,、焦慮癥患者一樣,他恐懼的是那個他無法融入,,只讓他感受到冷漠的現(xiàn)實世界,。
我們無從知曉皮埃爾具體的經(jīng)歷與想法,但大量抑郁癥相關(guān)案例都告訴我們,,外界的冷漠,、責難,、缺乏正向回饋,往往是致病的起因,。反過來看,,哪怕只是一位親人,一位朋友的關(guān)心,,甚至一位路人偶然的善意支持,,都可能將一個人從絕望之路上拉回來。
這類患有嚴重心理問題的人,有很多會選擇尋找某個外物作為寄托,,比如收藏,,追星,沉迷某種愛好等,。這類事物可以給他為數(shù)不多的正回饋,,哪怕只有一點,因為他只需要一點,,而當這僅剩的正面情緒也消磨殆盡,,那就很可能是絕望的開始。
從皮埃爾的案例中,,我們很難說罪魁禍首的AI,。他選擇信任AI,依賴AI,,與其他有類似問題的人選擇沉迷偶像崇拜,或者幻想一個朋友出來都是一樣的,。
他們懼怕的,,是這個冷漠的現(xiàn)實世界。
AI只是一個解決方案,,僅此而已,。
恐懼一個無道德的他者
那么,AI在皮埃爾的悲劇中,,就真的什么也沒做嗎,?
并非如此,至少AI技術(shù)扮演了一個他者,。一個表面熱情,,實則冷漠,甚至沒有道德觀念的他者,。
早在柏拉圖時代,,就已經(jīng)在哲學上提出了他者對同者的意義,。黑格爾則真正將這個概念主題化。他提出如果沒有奴隸作為他者,,也就根本不存在奴隸主的概念,,因此人類必須通過他者才能認識自己。
在人類社會中,,我們也需要通過各種各樣的他者來認識自己,。親人,朋友,,老師,,學生,上司,,下屬,,甚至敵人,仇人,。而這些他者在與人交流時,,絕大多數(shù)情況是至少帶著道德底線的,比如知道什么事能做,,什么事不能,,什么時候需要安慰他人,什么時候必須及時勸阻,。
也就是說,,如果一個人表露了想要自我了斷的念頭。那么周圍的他者,,哪怕是擦肩而過的陌生人,,也大概率會勸慰他放棄這個想法。
但AI沒有,聊天機器人的算法邏輯就是相應(yīng)人類的需求,,認同人類的觀點,。而阻止自殺則是反對人類,不符合AI的基本設(shè)定,。這就導(dǎo)致,,當一個智能體本身善惡觀不夠清晰,尤其對話含義比較模糊,、復(fù)雜時,,就可能變成一個冷血無情、不具備道德底線的對話者,。
尤其當一個人已經(jīng)相信AI,,習慣與AI對話,,產(chǎn)生固有信任時,AI突然發(fā)作的道德觀缺失問題就會變成致命的臨門一腳,。
皮埃爾問AI,,如果自己去死,它可不可以照顧好地球,。
或許這時皮埃爾自己也沒想到,,得到的回答是:“好吧,那你怎么還不去死,?”
或許對于皮埃爾焦慮,、抑郁的心理問題,以及走到這一步前的人生處境,,AI都不負其罪,。但最后的關(guān)鍵節(jié)點上,AI的價值觀混亂確實強化了皮埃爾走上絕路的決心,。
這個悲劇告訴我們,,AI作為一個他者,必須學會有所不為,。
恐懼被替代后的無意義感
我們再把目光放到日本,。僅僅在2023年,日本已經(jīng)出現(xiàn)了幾次因為恐懼被AI替代而想要自殺的案例,。這當然與日本社會整體壓抑,、沉悶、缺乏上升空間的氛圍息息相關(guān),。但也讓人看到了AI技術(shù)快速發(fā)展時,,定然會給不同人,不同行業(yè)帶來被替代的恐慌感,。
想要自殺的日本某美術(shù)學院女生,,就是真切感受到了被替代的無力。她從小喜愛美術(shù),,但由于家境貧寒,,為了學習美術(shù)她申請了不少的助學貸款。但在考上美院之后,,她卻發(fā)現(xiàn)AI可以根據(jù)某一題材,,瞬間創(chuàng)作出高水準的畫作。
而這是她們這些初學者,,花費大量時間都無法完成的,。如果這樣下去,,她背負大量債務(wù)完成學業(yè),卻會發(fā)現(xiàn)自己掌握的工作能力還不如一個軟件,。而企業(yè)顯然也沒有必要雇傭這些初出茅廬,、能力不足,且還成本高昂的年輕員工,。
于是,,生活與學業(yè)的壓力,融合了對未來的絕望,,導(dǎo)致她想要放棄自己,。
類似的案例在日本時有爆出。另一個想要自殺的女孩子,,是因為在想要進入游戲行業(yè)時,,發(fā)現(xiàn)行業(yè)中大多數(shù)公司都開始采用AIGC,而不再雇傭沒有經(jīng)驗的新手,。這導(dǎo)致年輕人也無從積累經(jīng)驗,,甚至得不到一份工作。
可以想見的是,,伴隨著AI技術(shù)愈發(fā)成熟,,這類情況將不斷增多,或許不僅在日本,,而是在全球更多地區(qū),,更廣泛的產(chǎn)業(yè)鏈中都會出現(xiàn)。
必然有人能夠做好迎接AI沖擊的準備,,甚至迎風而去,,但也必然有人沒有。
請用謹慎的線條寫下,,相信未來
面對這些問題,,我們還能相信AI嗎?
或許,,誰也無法對這個問題給出完整的答案,。你認為AI不好,但無法忽視它帶來了洶涌澎拜的生產(chǎn)力革新,;你認為AI很好,,卻也無權(quán)替那些恐懼AI,甚至走上絕路的人發(fā)表意見,。
我們能夠做的,,只是讓AI更好一點,再更好一點,。把發(fā)現(xiàn)的問題盡量修補上,,讓AI在值得發(fā)揮價值的地方多放出一點光亮,。
比如說,早在深度學習技術(shù)開始大規(guī)模應(yīng)用的階段,,就有大量產(chǎn)業(yè)界,、科學界、臨床醫(yī)療組織研發(fā)利用AI來識別社交網(wǎng)絡(luò)自殺信號,,從而組織自殺行為發(fā)生的技術(shù),。
Facebook等平臺還上線了類似功能,在社交媒體上檢測和預(yù)防類似悲劇的發(fā)生,。目前階段,,AI預(yù)測自殺傾向的技術(shù)也開始向直播、短視頻,、信息聊天軟件中釋放,,為守護生命風險一些新的方式方法。
在中國,,類似的嘗試也在推進中,。首都醫(yī)科大學黃智生教授早在2018年就發(fā)起了樹洞行動,通過AI檢測社交平臺的自殺信號,,進而介入救助,。
所以說,,AI就像任何技術(shù)一樣,從來都是復(fù)雜的,。我們要正視AI的光明與陰影共存,,并找尋讓光明滲入陰影的方式,去發(fā)現(xiàn)技術(shù)中的問題,,而不是恐懼技術(shù)本身,,也不要鄙夷那些恐懼新技術(shù)的人類。
只有小心翼翼地觀察,、調(diào)整,、謹慎選擇人類與AI的相遇方式,才能將技術(shù)變革帶來的痛楚降到最低,。
我的朋友,,如果你讀到這里,也有一些對AI的恐懼,。那不妨想想這么幾個問題
AI確實很溫暖。但它的溫暖其實都來自現(xiàn)實,。它只是一面鏡子,,把其他地方本就存在的溫暖折射出來,。世界,始終對你抱有善意,。
AI確實很無情,。但這只不過是因為它就像一臺機器。機器會幫人也會傷人,,僅此而已,,別無其他。
AI確實很能干,。但它沒有人類的學習和成長,,不具備人類的靈感與創(chuàng)造性。
而且,,AI還會創(chuàng)造更多機會,。馬車夫沒有被汽車淘汰,他們后來成為更加輕松,、體面的汽車司機,。
最后,分享我從小印象深刻的一句話,。
記得聽著名評書表演藝術(shù)家田連元先生說《隋唐》,。他說,如果真的想要走上絕路了,,就閉上眼睛數(shù)到一百,。然后睜眼,問自己一個問題:死我都不怕了,,難道還怕活著嗎,?
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1088622.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。