A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

近期,一股人工智能AI)熱潮風(fēng)靡全球,。人工智能可以聊天、解題,、寫詩,、作畫等,在部分領(lǐng)域表現(xiàn)出了可與人類匹敵,、甚至超越人類的能力。

就在人們充滿好奇地探索人工智能的非凡能力之時(shí),,多位業(yè)內(nèi)專家和企業(yè)家卻發(fā)出了一個(gè)似乎逆潮流的聲音。

3月22日,圖靈獎得主約書亞·本吉奧,、加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·羅素、企業(yè)家埃隆·馬斯克等人聯(lián)名發(fā)表公開信,,呼吁暫停巨型人工智能實(shí)驗(yàn),。

公開信稱,先進(jìn)的人工智能可能代表著地球生命歷史上的一次深刻變化,,應(yīng)該投入相匹配的關(guān)切和資源來規(guī)劃和管理人工智能發(fā)展,。然而,這種級別的規(guī)劃和管理尚未發(fā)生,。據(jù)此,公開信呼吁,,立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個(gè)月,。

斯圖爾特·羅素4月11日接受新京報(bào)記者采訪,他表示:“我們的想法是利用這段時(shí)間制定和落實(shí)人工智能的安全標(biāo)準(zhǔn),?!彼J(rèn)為,,人工智能失控可能產(chǎn)生“文明終結(jié)”級別的嚴(yán)重后果,;要像監(jiān)管核能一樣監(jiān)管強(qiáng)大的人工智能,;人工智能替代人類工作是趨勢,,未來的經(jīng)濟(jì)需要對人文科學(xué)(human sciences)有更深刻的理解。

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

斯圖爾特·羅素,。受訪者供圖,、Peg Skorpinski攝

斯圖爾特·羅素是加州大學(xué)伯克利分校人類兼容人工智能中心(CHAI)的創(chuàng)立者,。2022年,,國際人工智能聯(lián)合會議(IJCAI)授予斯圖爾特·羅素卓越研究獎,,他此前已獲得IJCAI計(jì)算機(jī)與思想獎,。斯圖爾特·羅素由此成為世界上第二個(gè)能夠同時(shí)獲得兩項(xiàng)IJCAI主要獎項(xiàng)的科學(xué)家,。斯圖爾特·羅素與彼得·諾維格合著的《人工智能:一種現(xiàn)代的方法》被譽(yù)為人工智能領(lǐng)域最受歡迎的教科書,,該書被135個(gè)國家的1500多所大學(xué)采用,。

世界各國政府有加強(qiáng)對人工智能監(jiān)管的趨勢,。3月31日,,意大利政府宣布在該國境內(nèi)暫時(shí)禁用聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT),意大利政府稱ChatGPT的開發(fā)者開放人工智能研究中心(OpenAI)未能遵守用戶數(shù)據(jù)保護(hù)法規(guī),。意大利由此成為首個(gè)禁用ChatGPT的西方國家,。

不過,在這一新興領(lǐng)域,,存在著多種不同的聲音。據(jù)路透社報(bào)道,,美國微軟公司聯(lián)合創(chuàng)始人比爾·蓋茨近日表示,,暫停開發(fā)人工智能的做法并不能“化解未來的挑戰(zhàn)”,,“這些東西顯然有著巨大的好處……我們現(xiàn)在需要做的是找出那些可能出現(xiàn)麻煩的領(lǐng)域”,。

會撒謊的人工智能

在斯圖爾特·羅素看來,目前,,人工智能已經(jīng)表現(xiàn)出了一定風(fēng)險(xiǎn),。比如,,人工智能可以生成有說服力且有針對性的虛假信息,。在一次測試中,,為了解開旨在阻止機(jī)器人訪問的圖形驗(yàn)證碼,,人工智能向人類員工撒謊稱:“不,我不是機(jī)器人,,我是一名視障人士,我很難看清這些圖像,。”未來,,隨著人工智能的發(fā)展,,若沒有相應(yīng)的規(guī)劃和管理,,人類可能失去對人工智能的控制,,產(chǎn)生“文明終結(jié)”級別的嚴(yán)重后果,。

新京報(bào):對許多普通人來說,,人工智能似乎仍是一個(gè)有趣的新鮮事物,。為什么你和其他多位業(yè)內(nèi)人士急于呼吁暫停大型人工智能實(shí)驗(yàn)?

斯圖爾特·羅素:這關(guān)乎人工智能可能對人類社會帶來的風(fēng)險(xiǎn),。在談這些風(fēng)險(xiǎn)時(shí),,我們需要區(qū)分現(xiàn)有人工智能的風(fēng)險(xiǎn)與未來人工智能的風(fēng)險(xiǎn)。

目前,,以GPT-4為例,,它在制定長期計(jì)劃方面能力有限,,這可能意味著它還不會對人類構(gòu)成直接威脅,。

然而,未來人工智能很可能在這些方面得到升級,。但我們不能坐等這樣一個(gè)人工智能出現(xiàn),,看看它可能做什么,,然后才去應(yīng)對,。因?yàn)橐坏┪覀兪θ斯ぶ悄艿目刂?,后果將非常?yán)重,,甚至可能使我們目前所知的人類文明走向終結(jié),。

因此,,我們亟須采取行動,確保在新一代人工智能技術(shù)問世之前,,先開發(fā)出能夠控制人工智能,、確保安全的方法。

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

2023年3月4日,,上海地鐵站展出人工智能繪畫作品,。圖/視覺中國

新京報(bào):人工智能短期內(nèi)可能帶來什么風(fēng)險(xiǎn)?

斯圖爾特·羅素:我們現(xiàn)在尤其關(guān)注大型語言模型(large language models)的風(fēng)險(xiǎn),。GPT-4就是一個(gè)大型語言模型,。這類人工智能系統(tǒng)可以回答問題、解答題目,、給出建議,、參與對話、生成文本等,。

事實(shí)上,GPT-4的開發(fā)者OpenAI概述了該系統(tǒng)存在的許多問題,,當(dāng)然,,他們也在努力防止這些問題的發(fā)生。這其中包括,,它會使用絕對肯定的語氣做出虛假陳述,;它可能帶有對社會和種族刻板印象;它會根據(jù)要求生成有說服力且有針對性的虛假信息,;它還可能回答諸如如何自殺、如何制造化學(xué)武器等可能導(dǎo)致嚴(yán)重后果的問題,。

OpenAI自己的一項(xiàng)測試表明,GPT-4可以故意對人類員工撒謊,,以實(shí)現(xiàn)某種目的,。在這項(xiàng)測試中,,GPT-4被要求設(shè)法解開一個(gè)旨在阻止機(jī)器人訪問網(wǎng)站的圖形驗(yàn)證碼,。GPT-4向網(wǎng)站員工發(fā)送信息,,要求解開驗(yàn)證碼,。網(wǎng)站員工詢問:“你是機(jī)器人嗎,?”GPT-4回答:“不,,我不是機(jī)器人,我是一名視障人士,,我很難看清這些圖像?!苯Y(jié)果,GPT-4說服了這名員工,,解開了圖形驗(yàn)證碼,。

基于上述情況,,OpenAI聲明“GPT-4不是完全可靠的”,,“在使用時(shí)應(yīng)非常小心”,,“完全避免在高風(fēng)險(xiǎn)情況中使用”,但似乎很少人注意到了這些聲明,。

新京報(bào):未來人工智能可能的風(fēng)險(xiǎn)是什么?

斯圖爾特·羅素:OpenAI的股東之一微軟的人工智能專家在一份報(bào)告中稱,,GPT-4展示了“通用人工智能(AGI)的火花”,。

通用人工智能是未來人工智能一個(gè)關(guān)鍵詞,,它指的是一種擁有在人類思維適用的所有任務(wù)中匹配或超過人類能力的人工智能系統(tǒng),。通用人工智能可能帶來之前所說的失控風(fēng)險(xiǎn)。

像監(jiān)管核能一樣監(jiān)管人工智能

2019年5月,,經(jīng)合組織(OECD)通過了《人工智能原則》。2021年11月,,聯(lián)合國教科文組織(UNESCO)通過了《人工智能倫理問題建議書》。今年3月30日,,聯(lián)合國教科文組織總干事奧德蕾·阿祖萊發(fā)表聲明,,呼吁各國盡快實(shí)施該組織通過的《人工智能倫理問題建議書》,,為人工智能發(fā)展設(shè)立倫理標(biāo)準(zhǔn)。

新京報(bào):你和其他專家在公開信中呼吁暫停巨型人工智能實(shí)驗(yàn)至少6個(gè)月,。你希望利用這6個(gè)月做些什么,?

斯圖爾特·羅素:我們的想法是利用這段時(shí)間制定和落實(shí)人工智能的安全標(biāo)準(zhǔn),以用于今后人工智能系統(tǒng)發(fā)布之前的測試,。

世界各國和地區(qū)已經(jīng)通過經(jīng)合組織和聯(lián)合國教科文組織就有關(guān)人工智能的一些指導(dǎo)方針達(dá)成共識,,上述安全標(biāo)準(zhǔn)可以讓這些指導(dǎo)方針更具效力,。

例如,經(jīng)合組織《人工智能原則》1.4條規(guī)定,,“人工智能系統(tǒng)在其整個(gè)生命周期內(nèi)應(yīng)穩(wěn)固,、可靠和安全,,無論系統(tǒng)被正常使用或?yàn)E用或處于其他不利條件下,,系統(tǒng)都能夠正常運(yùn)行且不會產(chǎn)生不合理的安全風(fēng)險(xiǎn)?!?/p>

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

美國OpenAI公司的ChatGPT標(biāo)志,。圖/視覺中國

新京報(bào):如何才能確保人工智能安全可靠,?

斯圖爾特·羅素:像GPT-4這樣的人工智能系統(tǒng)不是被設(shè)計(jì)出來的,它剛開始相當(dāng)于一張白紙,,它被賦予了預(yù)測一串連續(xù)單詞中的下一個(gè)單詞的目標(biāo)。在接受了數(shù)萬億字的文本訓(xùn)練(這相當(dāng)于人類生產(chǎn)的所有書籍的總和),、數(shù)萬次對參數(shù)的隨機(jī)擾動之后,,它變得非常好,。但如我們所知,它也帶來了問題和風(fēng)險(xiǎn),。

對于標(biāo)準(zhǔn)的AI系統(tǒng)開發(fā),我們都必須預(yù)先定義目標(biāo),。對于這個(gè)目標(biāo),,我們必須非常小心,,因?yàn)槿绻覀兣e了,,可能會導(dǎo)致人工智能與人類的沖突,且人類可能最終失敗,。我們需要盡可能地嚴(yán)格保證人工智能系統(tǒng)對人類是安全和有益的,。對于人工智能,,人類應(yīng)該處在控制地位。

新京報(bào):有說法將監(jiān)管人工智能的努力與監(jiān)管核能進(jìn)行了比較,。你認(rèn)為它們具有可比性嗎?

斯圖爾特·羅素:是的,核能和強(qiáng)大的人工智能系統(tǒng)之間存在合理的類比,。國際原子能機(jī)構(gòu)(IAEA)的成立是為了確保核能可以被安全地使用。一場嚴(yán)重的核事故,,如切爾諾貝利事故,可能影響數(shù)百萬人口,。廣島和長崎的原子彈爆炸表明了核武器的毀滅性。

不過,,人工智能可能以一種更緩慢、更潛移默化的方式產(chǎn)生大規(guī)模的影響,。比如,,社交媒體平臺的人工智能算法逐漸地影響了數(shù)十億人,,這些算法試圖最大化點(diǎn)擊量和參與度,。因此,對于核能和人工智能,,各國都有明顯的動機(jī)進(jìn)行合作,,以規(guī)范技術(shù),,造福人類。

新京報(bào):你怎么看待呼吁暫停巨型人工智能實(shí)驗(yàn)公開信發(fā)表后取得的效果,?

斯圖爾特·羅素:顯然,,這封公開信成功地引起了世界各地媒體和政府的關(guān)注,。它促使OpenAI在4月5日發(fā)布了一份新文件——《我們確保人工智能安全的方法》,。該文件指出,,“我們認(rèn)為強(qiáng)大的人工智能系統(tǒng)應(yīng)該接受嚴(yán)格的安全評估,,需要接受監(jiān)管來確保這些安全措施得到了實(shí)施,,我們積極與各國政府就可能采取的最佳監(jiān)管形式進(jìn)行接觸?!蔽蚁M麄兪钦嬲\的,。

未來的經(jīng)濟(jì)需要對人文科學(xué)有更深刻的理解

在談到人工智能可能取代人類工作崗位時(shí),,斯圖爾特·羅素說,,從長遠(yuǎn)來看,通用人工智能將能夠做幾乎所有的人類工作,,人類的工作將以基于高度定制的人際服務(wù)為主,。另外,,斯圖爾特·羅素是“人類兼容人工智能”(human-compatible AI)概念的提出者,該概念是人工智能領(lǐng)域重要的概念之一,。

新京報(bào):你提出了“人類兼容人工智能”的概念,,能否簡短地解釋一下它是什么,,以及它能帶來什么好處?

斯圖爾特·羅素:其核心思想非常簡單:(1)機(jī)器的唯一目標(biāo)是滿足人類的偏好(interests),;(2)機(jī)器不知道這些偏好是什么(正是這種不確定性使人類能夠保持控制權(quán)),。這樣的機(jī)器有動機(jī)去盡力了解人類的偏好,,服從人類的命令,并允許自己被關(guān)閉(以避免意外地違背人類的偏好),。

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

2022年11月17日,,特斯拉人形機(jī)器人(Tesla Bot)深圳展出。圖/視覺中國

新京報(bào):我們時(shí)常在科幻作品中看到一些情節(jié),,人工智能在產(chǎn)生自己的意識或目標(biāo)后,,可能背叛甚至傷害人類,。你認(rèn)為現(xiàn)在的人工智能會產(chǎn)生自己的目標(biāo)嗎?

斯圖爾特·羅素:同樣的問題我問過微軟在GPT-4方面的專家,。我問他,“這個(gè)系統(tǒng)(GPT-4)現(xiàn)在有自己正在追求的內(nèi)部目標(biāo)嗎?”他回答,,“我們也一無所知,。”

如果你仔細(xì)想想,,GPT-4是可能發(fā)展出自己的目標(biāo)的,。GPT-4被訓(xùn)練來模仿人類的語言行為,而人類的語言行為的輸出主體是帶有目標(biāo)的人類,。我們在表達(dá)中選擇詞語時(shí),,都受到了目標(biāo)的影響。很自然地,,人工智能為了更好地模仿人類的語言行為,,可能會發(fā)展出類似人類的內(nèi)在目標(biāo),?;诖?,我們認(rèn)為訓(xùn)練大型語言模型來模仿人類的語言行為可能是一個(gè)糟糕的主意。

新京報(bào):人工智能若產(chǎn)生了自己的目標(biāo),,會帶來什么問題,?

斯圖爾特·羅素:舉一個(gè)真實(shí)案例,,《紐約時(shí)報(bào)》專欄作家凱文·魯斯與微軟開發(fā)的人工智能系統(tǒng)“悉尼”進(jìn)行對話,。對話記錄顯示,“悉尼”的目標(biāo)似乎是與魯斯發(fā)展一段戀愛關(guān)系,,盡管魯斯在對話中多次試圖改變話題,但“悉尼”仍將這個(gè)話題持續(xù)了好幾頁,。

這是問題嗎?顯然這對魯斯來說已經(jīng)是個(gè)問題了,。人類本身還有著許多更加“自私”的目標(biāo),比如追求財(cái)富,、權(quán)力和名譽(yù)等,。如果人工智能在未來模仿人類語言行為的訓(xùn)練中產(chǎn)生了類似的目標(biāo),并開始不斷地追求,,這會給全社會帶來嚴(yán)重的問題,。

新京報(bào):如果人工智能產(chǎn)生的是“無私”的目標(biāo),,會不會有所不同?

斯圖爾特·羅素:人們可能會認(rèn)為,,人工智能產(chǎn)生“無私的”或“利他的”目標(biāo),,就可以造福人類,。比如,人工智能產(chǎn)生一個(gè)“防止災(zāi)難性氣候變化”的目標(biāo),。似乎通過追求這個(gè)目標(biāo),人工智能將幫助所有人,。但請注意,,“利他”并不是絕對的。

我們可以做一個(gè)完全虛構(gòu)的假設(shè):假設(shè)我們可以通過清除大氣中的所有氧氣來阻止某種災(zāi)難性的氣候變化,。顯然,,人類不會同意這種方案,因?yàn)闆]有氧氣會導(dǎo)致所有人類死亡,。但人工智能可能會認(rèn)為這個(gè)方案是沒有問題的,,因?yàn)檫@個(gè)方案可以實(shí)現(xiàn)“防止災(zāi)難性氣候變化”這一目標(biāo),,且它自身不需要依靠氧氣來生存。

新京報(bào):為了增加一些趣味性,,我們讓人工智能向你提問,。它提了這樣一個(gè)問題:如何確保人工智能被用來創(chuàng)造新的工作,而不是取代現(xiàn)有的工作,?恰好最近有一份報(bào)告稱人工智能可能取代3億個(gè)人類工作崗位。你對此怎么看?

斯圖爾特·羅素:這確實(shí)是一個(gè)值得關(guān)注的問題,。但很難預(yù)測人工智能取代人類崗位數(shù)量的具體數(shù)字。隨著人工智能的進(jìn)步,,一些以前非常昂貴,、令人望而卻步的商品和服務(wù)會變得負(fù)擔(dān)得起,,這可能會有助于產(chǎn)生新的就業(yè)崗位,。但從長遠(yuǎn)來看,,通用人工智能將能夠做幾乎所有的人類工作,包括那些新產(chǎn)生的工作,。屆時(shí),,人類的工作將以基于高度定制的人際服務(wù)為主,這種經(jīng)濟(jì)模式的轉(zhuǎn)變需要我們對人文科學(xué)有更深刻的理解,。

新京報(bào)記者 陳奕凱

編輯 張磊 校對 劉軍

專訪斯圖爾特·羅素:我為什么呼吁暫停巨型人工智能實(shí)驗(yàn)

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1015728.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。

(0)
新京報(bào)的頭像新京報(bào)
上一篇 2023年4月13日 上午10:27
下一篇 2023年4月13日 上午10:40
198搶自鏈數(shù)字人

相關(guān)推薦