財聯(lián)社3月29日訊(編輯 趙昊)綜合多家媒體報道,,在人工智能(AI)技術(shù)越來越廣泛地被用于消費產(chǎn)品的同時,科技巨頭卻一直在削減AI倫理團(tuán)隊的人員,,導(dǎo)致外界對這項新技術(shù)的安全性感到擔(dān)憂,。
AI倫理團(tuán)隊是專門評估部署人工智能相關(guān)倫理問題的團(tuán)隊,,主要職責(zé)是為使用人工智能的消費產(chǎn)品提供安全建議。據(jù)了解,,削減該團(tuán)隊的公司包括微軟,、Meta、谷歌,、亞馬遜,、推特等,這意味著FAANG中只有蘋果公司不在這一“撤防”行列,。
去年下半年以來,,為應(yīng)對經(jīng)濟(jì)形勢不加、成本上升等問題,,科技巨頭先后宣布縮減支出,,裁員人數(shù)動輒上萬。一般來說,,各公司的AI倫理團(tuán)隊只有數(shù)十人,,因此團(tuán)隊即使被大幅縮減,通常也不會特別引起注意,。
不過,,由于聊天機(jī)器人ChatGPT的橫空出世,人們對這項技術(shù)的警惕性高了起來,,有專家警告已經(jīng)存在濫用行為,。日內(nèi),未來生命研究所(Future of Life Institute)呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng),。
多家科技巨頭裁減AI倫理團(tuán)隊
同時,,公司裁減AI倫理安全團(tuán)隊的行為也逐漸被放到放大鏡下。谷歌旗下的AI初創(chuàng)公司DeepMind的前倫理和政策研究員Andrew Strait告訴媒體,,“當(dāng)下可以說是最需要這些團(tuán)隊的時候,,但公司還是放走了那么多AI安全人員,令人震驚,?!?/p>
兩周前,ChatGPT開發(fā)商OpenAI的“金主”——微軟公司被曝在今年1月解散了其整個“AI道德與社會團(tuán)隊”,,同時公司卻在引領(lǐng)潮流,,加速將ChatGPT的同源技術(shù)嵌入到更多的產(chǎn)品中。
微軟方面解釋稱,,削減的職位不到10個,,其在責(zé)任工作方面的整體投資始終在增加,。并且公司仍然在負(fù)責(zé)任AI辦公室(ORA)團(tuán)隊中保留數(shù)百人,專注于制定規(guī)則來管理公司的AI計劃,。
雖然埃隆·馬斯克是“帶頭抵制GPT5”的科技圈大佬之一,,但消息顯示,他在控制推特后也削減了這家社交媒體公司的AI道德團(tuán)隊,。
另據(jù)一位消息人士透露,,亞馬遜也在上周“官宣再裁員9000人”時,裁撤了旗下流媒體平臺Twitch的AI道德團(tuán)隊,。
曾爆料聊天機(jī)器人“活了”谷歌吹哨人被裁
谷歌方面,,有接近公司的人士透露,一些負(fù)責(zé)道德AI監(jiān)督工作的員工也在1.2萬人的大裁員中被裁掉了,。值得一提的是,,在ChatGPT公布之前,谷歌公司就已經(jīng)發(fā)生過一件“聳人聽聞”的事,。
去年4月,,時任谷歌AI倫理研究員的Blake Lemoine在交給高管的一篇報告中寫道:在經(jīng)過一段時間的測試后,他認(rèn)為公司研發(fā)的AI聊天機(jī)器人“LaMDA”已經(jīng)覺醒了意識,,具有與人類孩子相當(dāng)?shù)母兄捅磉_(dá)思想和感受的能力,。
當(dāng)時,谷歌高管調(diào)查了他的說法并予以駁回,。其后,,Lemoine還聯(lián)系了美國眾議院司法委員會的職員,要讓LaMDA上聽證席,,控訴谷歌不符合道德要求,。2022年7月,谷歌發(fā)言人證實Lemoine已被解雇,。
值得一提的是,,當(dāng)時仍較為低調(diào)的OpenAI首席科學(xué)家Ilya Sutskever也發(fā)推文表示大型神經(jīng)網(wǎng)絡(luò)“可能有點意識了”,一度也鬧的沸沸揚(yáng)揚(yáng),。
“AI系統(tǒng)可能對社會和人類構(gòu)成深遠(yuǎn)的風(fēng)險”
前Facebook人工智能倫理研究員Josh Simons告訴媒體,,人工智能倫理團(tuán)隊是科技巨頭唯一的、關(guān)鍵的內(nèi)部堡壘,,這些堡壘被拆除將導(dǎo)致算法受到廣告需求的擺布,,可能會影響孩子、弱勢群體乃至整個社會,。
未來生命研究所也在公開信中表示,,“大量研究表明,具有與人類競爭智能的AI系統(tǒng)可能對社會和人類構(gòu)成深遠(yuǎn)的風(fēng)險,這一觀點得到了頂級AI實驗室的承認(rèn),?!?/p>
公開信指出,,“最近這幾個月,,全球的AI實驗室已經(jīng)完全失控了,它們瘋狂地開展AI競賽,,來開發(fā)和部署更強(qiáng)大的AI,,而沒有任何人可以理解、預(yù)測,、控制這些AI,,連它們的創(chuàng)造者都不能?!?/p>
倫敦國王學(xué)院人工智能研究所所長Michael Luck表示,,“我們無法完全預(yù)測這些新技術(shù)將要發(fā)生的所有事情,我們要對它們給予一定的關(guān)注,,這很關(guān)鍵,。”
另外,,聊天機(jī)器人的核心技術(shù)“大語言模型”已經(jīng)被證明會作出虛假的陳述,,可能被用于操縱選舉和傳播虛假信息等目的。
OpenAI公司首席執(zhí)行官山姆·阿爾特曼也曾表示,,“我最想提醒人們的是,,AI模型會自信地陳述一些虛構(gòu)的事物,就好像它們是真實的事情一樣,?!?/p>
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1008722.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎,。本資訊不作為投資理財建議。