A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序,?

從谷歌AlphaGo擊敗人類棋手,到ChatGpt引發(fā)科技界熱議,人工智能科技的每一次進(jìn)展都牽動(dòng)著人們的神經(jīng),。毋庸置疑的是,人工智能正深刻改變著我們的社會(huì),、經(jīng)濟(jì)、政治甚至是外交政策,,而對(duì)于解釋這一切的影響來說,,過往傳統(tǒng)的理論往往失靈,。在《人工智能時(shí)代與人類未來》一書中,著名外交家基辛格,、谷歌前CEO施密特和麻省理工學(xué)院蘇世民計(jì)算機(jī)學(xué)院院長(zhǎng)胡滕洛赫爾從不同角度梳理了人工智能的前世今生,,并全面探討了其發(fā)展可能給個(gè)人,、企業(yè),、政府、社會(huì),、國(guó)家?guī)淼姆N種沖擊,。幾位頂尖的思想者認(rèn)為,隨著人工智能的能力越來越強(qiáng),,如何定位人類的角色,,將是我們?cè)谖磥淼臅r(shí)間中必須長(zhǎng)期思考的命題。以下內(nèi)容經(jīng)過出版社授權(quán)摘編自《人工智能時(shí)代與人類未來》,,有刪改,,小標(biāo)題為摘編者所加。

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序,?

《人工智能時(shí)代與人類未來》,,作者: [美] 亨利·基辛格 / [美] 埃里克·施密特 / [美] 丹尼爾·胡滕洛赫爾,版本: 中信出版社,,2023年5月,。

原作者 | [美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼爾·胡滕洛赫爾

通用人工智能會(huì)帶來什么?

人類和人工智能是否從不同的角度接近同一個(gè)現(xiàn)實(shí),,并且可以優(yōu)勢(shì)互補(bǔ),、相輔相成呢?還是說,,我們會(huì)感知到兩種不同但部分重疊的現(xiàn)實(shí):一種是人類可以通過理性闡述的,,另一種則是人工智能可以通過算法說明的?如果答案是后一種,,那么人工智能就能感知我們尚未感知也無法感知的事物——不僅因?yàn)槲覀儧]有足夠的時(shí)間以我們的方式去推理它們,,還因?yàn)樗鼈兇嬖谟谝粋€(gè)我們的心智無法概念化的領(lǐng)域之中。人類對(duì)“完全了解世界”的追求將會(huì)發(fā)生改變,,人們會(huì)意識(shí)到,,為了獲得某些知識(shí),我們可能需要委托人工智能為我們獲取知識(shí),,并向我們回稟消息,。無論答案是哪一個(gè),隨著人工智能追求的目標(biāo)愈加全面和廣泛,,它在人類看來都將越來越像一個(gè)體驗(yàn)和了解世界的“生靈”—— 一種結(jié)合了工具,、寵物和心智的存在,。

當(dāng)研究人員接近或已然實(shí)現(xiàn)通用人工智能時(shí),這個(gè)謎題只會(huì)顯得越發(fā)深邃,。正如我們?cè)诘谌滤?,通用人工智能將不?huì)局限于學(xué)習(xí)和執(zhí)行特定的任務(wù);相反,,根據(jù)其定義,,通用人工智能將能夠?qū)W習(xí)并執(zhí)行范圍極廣的任務(wù),一如人類所為,。開發(fā)通用人工智能將需要巨大的算力,,這可能導(dǎo)致只有少數(shù)資金充足的組織有能力創(chuàng)建此類人工智能。與目前的人工智能一樣,,盡管通用人工智能可能隨時(shí)被分散部署,,但鑒于其能力,其應(yīng)用有必要受到限制,??梢酝ㄟ^只允許經(jīng)批準(zhǔn)的組織運(yùn)營(yíng)通用人工智能來對(duì)其施加限制。那么問題將變成:誰來控制通用人工智能,?誰來授權(quán)對(duì)其的使用,?在一個(gè)少數(shù)“天才”機(jī)器由少數(shù)組織操縱的世界里,民主還是可能的嗎,?在這種情況下,,人類與人工智能的合作會(huì)是何種模樣?

如果通用人工智能真的出現(xiàn)在世上,,這將是智力,、科學(xué)和戰(zhàn)略上的重大成就。但即便未能如此,,人工智能也同樣能為人類事務(wù)帶來一場(chǎng)革命,。人工智能在應(yīng)對(duì)突發(fā)事件(或者說意外事件)及提供解決方案方面展現(xiàn)出的動(dòng)力和能力使其有別于以往的技術(shù)。如果不受監(jiān)管,,人工智能可能會(huì)偏離我們的預(yù)期,,進(jìn)而偏離我們的意圖。到底是限制它,、與它合作還是順從它的決定,,將不僅僅由人類做出。在某些情況下,,這將由人工智能本身決定,;在其他情況下,則取決于各種助力因素,。人類可能參與一場(chǎng)“逐底競(jìng)爭(zhēng)”,。

隨著人工智能實(shí)現(xiàn)流程自動(dòng)化,、允許人類探索大量數(shù)據(jù),并組織和重構(gòu)物質(zhì)和社會(huì)領(lǐng)域,,那些先行者可能獲得先發(fā)優(yōu)勢(shì),。競(jìng)爭(zhēng)壓力可能會(huì)迫使各方在沒有足夠時(shí)間評(píng)估風(fēng)險(xiǎn)或干脆無視風(fēng)險(xiǎn)的情況下競(jìng)相部署通用人工智能。關(guān)于人工智能的倫理道德是必不可少的,。每個(gè)個(gè)體的決定—— 限制,、合作或順從——也許會(huì)產(chǎn)生戲劇性的后果,也許不會(huì),,但當(dāng)它們匯合起來,,影響就會(huì)倍增,。

這些決定不可能是孤立的,。如果人類想要塑造未來,需要就指導(dǎo)每一個(gè)選擇的共同原則達(dá)成一致,。確實(shí),,集體行動(dòng)很難實(shí)現(xiàn),有時(shí)甚至不可能,,但缺乏共同道德規(guī)范指導(dǎo)的個(gè)人行動(dòng)只會(huì)讓人類整體陷入更大的動(dòng)蕩與變亂,。那些設(shè)計(jì)、訓(xùn)練人工智能并與人工智能合作的人所能夠?qū)崿F(xiàn)的目標(biāo),,將達(dá)到迄今人類無法企及的規(guī)模和復(fù)雜程度,,比如新的科學(xué)突破、新的經(jīng)濟(jì)效率,、新的安全形式,,以及社會(huì)監(jiān)控的新維度。而在擴(kuò)展人工智能及其用途的過程中,,那些未能獲得主導(dǎo)權(quán)的人卻可能會(huì)感到,,他們正在被自己不了解, 而且并非由自身設(shè)計(jì)或選擇的力量所監(jiān)視,、研究和采取行動(dòng),。這種力量的運(yùn)作是不透明的,在許多社會(huì)中,,這是傳統(tǒng)的人類行為者或機(jī)構(gòu)不能容忍的,。人工智能的設(shè)計(jì)者和部署者應(yīng)該準(zhǔn)備好解決這些問題,首先要做的是向非技術(shù)人員解釋人工智能在做什么,、它“知道”什么,,又會(huì)如何去做。人工智能的動(dòng)態(tài)性和新興性至少令其在兩個(gè)方面產(chǎn)生了模糊性,。首先,,人工智能可能按照我們的預(yù)期運(yùn)行,,但會(huì)產(chǎn)生我們無法預(yù)見的結(jié)果。這些結(jié)果可能會(huì)把人類引入其創(chuàng)造者也始料未及的境地,,就像 1914 年的政治家沒有認(rèn)識(shí)到軍事動(dòng)員的舊邏輯加上新技術(shù)會(huì)把歐洲拖入戰(zhàn)爭(zhēng)一樣,。如果不加審慎的考慮就部署和運(yùn)用人工智能,也可能會(huì)造成嚴(yán)重后果,。

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序,?

電影《阿麗塔:戰(zhàn)斗天使》劇照。

這些后果可能是小范圍的,,比如自動(dòng)駕駛汽車做出的決定危及生命,;也可能是極其重大的,比如嚴(yán)重軍事沖突,。其次,,在某些應(yīng)用領(lǐng)域中,人工智能可能是不可預(yù)測(cè)的,,它的行動(dòng)完全出人意料,。以 AlphaZero 為例,它只是根據(jù)“贏棋”的指示,,就發(fā)展出一種人類在幾千年的國(guó)際象棋歷史中從未設(shè)想過的棋風(fēng),。雖然人類可能會(huì)小心規(guī)定人工智能的目標(biāo),但隨著我們賦予其更大的自由度,,其實(shí)現(xiàn)目標(biāo)的路徑可能會(huì)讓我們感到驚訝,,甚至感到恐慌。因此,,對(duì)人工智能的目標(biāo)和授權(quán)都需要謹(jǐn)慎地設(shè)計(jì),,尤其是在其決策可能致命的領(lǐng)域。我們既不應(yīng)將人工智能視為自動(dòng)運(yùn)作,、無須照管的存在,,也不應(yīng)允許其在無人監(jiān)督、監(jiān)視或直接控制的情況下采取不可撤銷的行動(dòng),。人工智能由人類創(chuàng)造,,故也應(yīng)由人類來監(jiān)管。但在我們這個(gè)時(shí)代,,人工智能面臨的挑戰(zhàn)之一是,,具備了創(chuàng)造人工智能所需的技能和資源的人并非必然具有理解其更廣泛內(nèi)涵的哲學(xué)視角。許多人工智能的創(chuàng)造者主要關(guān)注的是他們?cè)噲D實(shí)現(xiàn)的應(yīng)用和他們想要解決的問題:他們可能不會(huì)停下來考慮這個(gè)解決方案是否會(huì)產(chǎn)生一場(chǎng)歷史性的革命,,或者他們的技術(shù)將如何影響不同的人群,。人工智能時(shí)代需要它自己的笛卡兒和康德,來解釋我們創(chuàng)造了什么及其對(duì)人類有何意義。

我們有必要組織政府,、大學(xué)和私營(yíng)行業(yè)創(chuàng)新者均參與其中的理性討論和協(xié)商,,其目標(biāo)應(yīng)該是對(duì)實(shí)際行動(dòng)建立限制就像今天管理個(gè)人和組織行動(dòng)的那些限制一樣。人工 智 能 具 有 的 屬性,,部分與目前受監(jiān)管的產(chǎn)品,、服務(wù)、技術(shù)和實(shí)體相同,,但在一些重要方面又與它們不同,, 其缺乏自身完全界定的概念和法律框架。例如,,人工智能不斷演變,、推陳出新的特性給監(jiān)管帶來了挑戰(zhàn):它在世界上的運(yùn)作對(duì)象和方式可能因不同領(lǐng)域而異,并隨著時(shí)間的推移而演變,,而且并不總是以可預(yù)測(cè)的方式呈現(xiàn),。對(duì)人的治理是以道德準(zhǔn)則為指導(dǎo)的。人工智能需要一種自己的道德準(zhǔn)則,,這種準(zhǔn)則不僅反映了技術(shù)的本質(zhì),,也反映了它所帶來的挑戰(zhàn),。

通常,,既有原則并不適用于此處。在信仰時(shí)代,,當(dāng)神明裁判中的被告面臨戰(zhàn)斗裁決時(shí),,法院可以判定罪行,但上帝決定誰獲得勝利,。在理性時(shí)代,,人類根據(jù)理性的戒律來確定罪責(zé),并根據(jù)因果關(guān)系和犯罪意圖等概念來判罪和施以懲罰,。但是人工智能并不依靠人類的理性運(yùn)作,,也沒有人類的動(dòng)機(jī)、意圖或自我反省,。因此,,人工智能的引入將使適用于人類的現(xiàn)有正義原則更為復(fù)雜化。

當(dāng)一個(gè)自主系統(tǒng)基于自己的感知和決策行動(dòng)時(shí),,其創(chuàng)造者承擔(dān)責(zé)任嗎,?還是說,人工智能的行為不可與其創(chuàng)造者相混同,,至少在罪責(zé)方面不應(yīng)連坐,?如果人工智能被用來監(jiān)測(cè)犯罪行為的跡象,或者幫助判斷某人是否有罪,,那么人工智能必須能夠“解釋”它是如何得出結(jié)論的,,以便人類官員對(duì)此加以采信嗎,?此外,在技術(shù)發(fā)展的哪個(gè)時(shí)點(diǎn),、何種背景之下,,人工智能應(yīng)該受到國(guó)際協(xié)商的限制?這是另一個(gè)重要的辯論主題,。如果試探過早,,這項(xiàng)技術(shù)的發(fā)展可能會(huì)受到阻礙,或者可能誘使其隱藏自身能力,;而如果拖延太久,,則可能會(huì)造成破壞性后果,尤其是在軍事方面,。對(duì)于一種虛無縹緲,、晦澀難懂且易于傳播的技術(shù),難以對(duì)其設(shè)計(jì)有效的核查機(jī)制使得這一挑戰(zhàn)更加復(fù)雜,。官方的協(xié)商者必然是政府,,但也需要為技術(shù)專家、倫理學(xué)家,、創(chuàng)造和運(yùn)營(yíng)人工智能的公司以及其他領(lǐng)域外人士搭建發(fā)聲平臺(tái),。

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序?

美劇《西部世界》劇照,。

對(duì)不同社會(huì)來說,,人工智能帶來的兩難困境均具有深遠(yuǎn)意義。如今,,我們的社會(huì)和政治生活很大程度上是在人工智能賦能的網(wǎng)絡(luò)平臺(tái)上發(fā)生的,,民主國(guó)家尤其如此,它們依靠這些信息空間進(jìn)行辯論和交流,,形成公眾輿論并賦予其合法性,。誰,或者什么機(jī)構(gòu),,應(yīng)該界定技術(shù)的角色,?誰又應(yīng)該監(jiān)管它?使用人工智能的個(gè)人應(yīng)該扮演什么樣的角色,?生產(chǎn)人工智能的公司呢,?部署使用它的社會(huì)政府呢?作為這些問題解決方案的一部分,,我們應(yīng)該設(shè)法使其可審核,,即使其過程和結(jié)論既是可檢查的又是可糾正的。反過來,糾正能否實(shí)施,,將取決于能否將針對(duì)人工智能感知和決策形式的原則加以細(xì)化,。道德、意志甚至因果關(guān)系都不能很好地契合自主人工智能的世界,。從交通運(yùn)輸?shù)浇鹑谠俚结t(yī)藥,,社會(huì)的大多數(shù)層面都會(huì)出現(xiàn)類似的問題。

想想人工智能對(duì)社交媒體的影響吧,。借助最近的創(chuàng)新,,這些平臺(tái)已迅速成為我們公共生活的重要方面。正如我們?cè)诘谒恼轮兴懻摰?,推特和臉書用以突顯,、限制或完全禁止內(nèi)容或個(gè)人的功能全都仰仗人工智能,這便是其力量的證明,。使用人工智能進(jìn)行單邊的,、通常不透明的內(nèi)容和概念推廣或刪除,這對(duì)各國(guó)尤其是民主國(guó)家來說都是一個(gè)挑戰(zhàn),。隨著我們的社會(huì)和政治生活越來越多地轉(zhuǎn)向由人工智能管理的領(lǐng)域,,并且我們只能依靠這種管理來駕馭這些領(lǐng)域,我們是否有可能保留主導(dǎo)權(quán),?

使用人工智能處理大量信息的做法也帶來了另一挑戰(zhàn):人工智能加大了對(duì)世界的扭曲,,以迎合人類的本能偏好。在這一領(lǐng)域,,人工智能可以輕易地放大我們的認(rèn)知偏差,,而我們卻還與之共鳴。伴隨著這些聲音,,面對(duì)選擇的多樣性,又被賦予了選擇和篩選的權(quán)力,,人們接受的錯(cuò)誤信息將會(huì)泛濫,。社交媒體公司不會(huì)通過新聞推送來推動(dòng)極端和暴力的政治極化,但顯而易見的是,,這些服務(wù)也沒有導(dǎo)致開明話語的最大化,。

人工智能、自由信息和獨(dú)立思考

那么,,我們與人工智能的關(guān)系應(yīng)該是怎樣的呢,?在管理這些領(lǐng)域時(shí),它應(yīng)該被約束,、被授權(quán),,還是被當(dāng)作伙伴?某些信息的傳播,尤其是故意制造的虛假信息,,會(huì)造成損害,、分裂和煽動(dòng),這是毋庸置疑的,。因此一些限制是需要的,。然而,現(xiàn)在對(duì)“有害信息”的譴責(zé),、打擊和壓制顯得過于寬松,,這也應(yīng)該引起反思。

在一個(gè)自由社會(huì)里,,有害信息和虛假信息的界定不應(yīng)該被囿于公司的職權(quán)范圍,。但是,如果將此類職責(zé)委托給一個(gè)政府小組或機(jī)構(gòu),,該小組或機(jī)構(gòu)應(yīng)該根據(jù)確定的公共標(biāo)準(zhǔn)并通過可核查的程序來運(yùn)作,,以避免被當(dāng)權(quán)者利用。如果將其委托給人工智能算法,,則該算法的目標(biāo)函數(shù),、學(xué)習(xí)、決策和行動(dòng)必須清晰并接受外部審查,,而且至少要有某種形式的人類訴求,。

當(dāng)然,不同的社會(huì)會(huì)對(duì)此得出不同的答案,。有些社會(huì)可能會(huì)強(qiáng)調(diào)言論自由,,強(qiáng)調(diào)程度可能因其對(duì)個(gè)人表達(dá)的相對(duì)理解差異而有所不同,并且可能因此限制人工智能在調(diào)和內(nèi)容方面的作用,。每個(gè)社會(huì)都會(huì)選擇各自重視的觀念,,這可能會(huì)導(dǎo)致其與跨國(guó)網(wǎng)絡(luò)平臺(tái)運(yùn)營(yíng)商之間的復(fù)雜關(guān)系。人工智能就像海綿一樣善于吸收,,它向人類學(xué)習(xí),,甚至在我們?cè)O(shè)計(jì)和塑造它的時(shí)候也是如此。

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序,?

美劇《西部世界》劇照,。

因此,不僅每個(gè)社會(huì)的選擇是不同的,,每個(gè)社會(huì)與人工智能的關(guān)系,、對(duì)人工智能的感知,及其人工智能模仿人類,、向人類老師學(xué)習(xí)的模式也是各不相同的,。但有一點(diǎn)是確定的,,那就是人類對(duì)事實(shí)和真理的追求不應(yīng)該使一個(gè)社會(huì)通過一個(gè)輪廓不明、無法檢驗(yàn)的過濾器來體驗(yàn)生活,。對(duì)現(xiàn)實(shí)的自發(fā)體驗(yàn)盡管有其矛盾性和復(fù)雜性,,卻是人類境況的一個(gè)重要方面,即使這種體驗(yàn)導(dǎo)致了低效或錯(cuò)誤,。

人工智能和國(guó)際秩序

在全球范圍內(nèi),,有無數(shù)問題正亟待解答。如何對(duì)人工智能網(wǎng)絡(luò)平臺(tái)進(jìn)行監(jiān)管,,而不會(huì)引發(fā)擔(dān)心其安全性的國(guó)家之間的緊張關(guān)系,?這些網(wǎng)絡(luò)平臺(tái)是否會(huì)侵蝕傳統(tǒng)的國(guó)家主權(quán)觀念?由此產(chǎn)生的變化會(huì)給世界帶來自蘇聯(lián)解體以來從未有過的兩極分化嗎,?小國(guó)會(huì)反對(duì)嗎,?試圖調(diào)解這些后果的努力會(huì)成功嗎?或者有成功的希望嗎,?

隨著人工智能的能力不斷增強(qiáng),,如何定位與人工智能合作時(shí)人類的角色將變得愈加重要和復(fù)雜。我們可以設(shè)想這樣一個(gè)世界:在這個(gè)世界里,,人類在日益重要的問題上越發(fā)尊重人工智能的意見,。在一個(gè)進(jìn)攻對(duì)手成功部署人工智能的世界里,防御方的領(lǐng)導(dǎo)人能否決定不部署自己的人工智能并為此擔(dān)責(zé)嗎,?即使他們也不確定這種部署將帶來怎樣的演變,。而如果人工智能擁有推薦一種行動(dòng)方案的優(yōu)越能力,那么決策者是否有理由接受它,,即使該行動(dòng)方案需要做出一定程度的犧牲,?人類怎能知道這種犧牲是否對(duì)勝利必不可少呢?如果確實(shí)必不可少,,那么決策者真的愿意否決它嗎,?換句話說,我們可能別無選擇,,而只能選擇扶植人工智能,。但我們也有責(zé)任以一種與人類未來相容的方式來對(duì)它加以塑造。不完美是人類經(jīng)驗(yàn)中的常態(tài)之一,,尤其是在領(lǐng)導(dǎo)力方面。

通常,,決策者會(huì)因偏狹的擔(dān)憂而杯弓蛇影,。有時(shí),他們的行動(dòng)基于錯(cuò)誤的假設(shè),;有時(shí),,他們的行動(dòng)純粹是出于感情用事,;還有一些時(shí)候,意識(shí)形態(tài)扭曲了他們的視野,。無論用何種策略來構(gòu)建人類與人工智能的伙伴關(guān)系,,它們都必須適應(yīng)人類。如果人工智能在某些領(lǐng)域顯示出超人的能力,,則其使用必須能夠被不完美的人類環(huán)境所兼容并包,。

在安全領(lǐng)域,人工智能賦能系統(tǒng)響應(yīng)速度非???,使得對(duì)手可能會(huì)在系統(tǒng)運(yùn)行之前嘗試攻擊。結(jié)果是可能造就一種內(nèi)在不穩(wěn)定的局勢(shì),,堪比核武器所造成的局勢(shì),。然而,核武器被置于國(guó)際安全和軍備控制概念的框架中,,這些概念是由各國(guó)政府,、科學(xué)家、戰(zhàn)略家和倫理學(xué)家通過不斷的提煉,、辯論和談判,,在過去幾十年里發(fā)展起來的。人工智能和網(wǎng)絡(luò)武器沒有類似的框架,。

事實(shí)上,,政府可能并不愿意承認(rèn)它們的存在。各國(guó)——可能還有科技公司——需要就如何與武器化的人工智能共存達(dá)成一致,。人工智能通過政府防務(wù)職能的擴(kuò)散,,將改變國(guó)際平衡以及在我們這個(gè)時(shí)代維持這種平衡所依賴的計(jì)算。核武器代價(jià)高昂,,而且由于其規(guī)模和結(jié)構(gòu)而難以被隱藏,。與之相反,人工智能卻可以在隨處可見的計(jì)算機(jī)上運(yùn)行,。由于訓(xùn)練機(jī)器學(xué)習(xí)模型需要專業(yè)知識(shí)和計(jì)算資源,,因此創(chuàng)造一個(gè)人工智能需要大公司或國(guó)家級(jí)的資源;而由于人工智能的應(yīng)用是在相對(duì)較小的計(jì)算機(jī)上進(jìn)行的,,因此其必將被廣泛使用,,包括以我們意想不到的方式。任何擁有筆記本電腦,、連接到互聯(lián)網(wǎng)并致力于窺探人工智能黑暗面的人,,最終都能獲得人工智能賦能的武器嗎?政府是否會(huì)允許與其關(guān)系若即若離或毫無關(guān)系的行為者使用人工智能來騷擾他們的對(duì)手,?恐怖分子會(huì)策劃人工智能襲擊嗎,?他們是否能夠?qū)⑦@些活動(dòng)嫁禍給國(guó)家或其他行為者,?

過去,外交在一個(gè)有組織,、可預(yù)測(cè)的舞臺(tái)上進(jìn)行,;如今,其信息獲取和行動(dòng)范圍將獲得極大的擴(kuò)展,。以往因地理和語言差異而形成的清晰界線將逐漸消失,。人工智能翻譯將促進(jìn)對(duì)話,而且不用像以往的譯者那樣不僅要有語言造詣,,還要精通文化,。人工智能賦能的網(wǎng)絡(luò)平臺(tái)將促進(jìn)跨境交流,而黑客攻擊和虛假信息將繼續(xù)扭曲人們的認(rèn)知和評(píng)估,。隨著形勢(shì)愈加復(fù)雜,,制定具有可預(yù)測(cè)結(jié)果的可執(zhí)行協(xié)議將變得更加困難。

將人工智能功能與網(wǎng)絡(luò)武器相結(jié)合的可能性加深了這一困境,。人類通過明確區(qū)分常規(guī)武器(被認(rèn)為與傳統(tǒng)戰(zhàn)略相調(diào)和)和核武器(被認(rèn)為是例外)而回避了核悖論,。核武器的破壞力量一旦釋放就是無差別的,不分對(duì)象,;而常規(guī)武器可以辨別打擊目標(biāo),。但是,既能辨別目標(biāo)又能進(jìn)行大規(guī)模破壞的網(wǎng)絡(luò)武器消除了這一區(qū)分,。

如果再有人工智能推波助瀾,,這些武器將如虎添翼,變得更加不可預(yù)測(cè),,潛在的破壞性也更大,。同時(shí),當(dāng)這些武器在網(wǎng)絡(luò)中伺機(jī)游弋時(shí),,是無法確定歸屬的,。它們無法被察覺,因?yàn)樗鼈儾幌窈宋淦髂敲幢恐?;它們還可以通過 U 盤攜帶,,而這有利于擴(kuò)散。在某些形式下,,這些武器一旦被運(yùn)用就難以控制,,如果考慮到人工智能的動(dòng)態(tài)和新興特性就更加如此。

這種形勢(shì)挑戰(zhàn)了以規(guī)則為基礎(chǔ)的世界秩序的前提,。此外,,它還讓發(fā)展人工智能軍備控制的相關(guān)概念成了當(dāng)務(wù)之急。在人工智能時(shí)代,,威懾將不再依照歷史上的準(zhǔn)則,, 它也做不到這一點(diǎn)。在核時(shí)代之初,,依據(jù)哈佛大學(xué),、麻省理工學(xué)院和加州理工學(xué)院的領(lǐng)軍教授、學(xué)者(有政府工作經(jīng)驗(yàn))在討論中形成的真知灼見,,人們搭建了一個(gè)核軍備控制的概念框架,,繼而又促成了一個(gè)制度(以及在美國(guó)和其他國(guó)家實(shí)施該制度的機(jī)構(gòu))的建立。

盡管學(xué)術(shù)界的思想很重要,,但它與五角大樓對(duì)常規(guī)戰(zhàn)爭(zhēng)的考量是分開實(shí)施的—— 它是一種新的補(bǔ)充,,而非對(duì)原有的修改。但人工智能的潛在軍事用途比核武器更廣泛,,而且至少目前其進(jìn)攻和防御還談不上涇渭分明,。在一個(gè)如此復(fù)雜、內(nèi)在又如此叵測(cè)的世界里,,人工智能成了另一種誤解和錯(cuò)誤的可能來源,,擁有高科技能力的大國(guó)遲早將不得不就此進(jìn)行一場(chǎng)持續(xù)對(duì)話。

這種對(duì)話應(yīng)聚焦于一個(gè)根本問題:避免災(zāi)難,,并以此求得生存,。人工智能和其他新興技術(shù)(比如量子計(jì)算)似乎正在讓超越人類感知范圍的現(xiàn)實(shí)變得更加觸手可及。然而,,最終我們可能會(huì)發(fā)現(xiàn),,即使是這些技術(shù)也有其局限性。我們的問題是,,我們尚未領(lǐng)會(huì)它們的哲學(xué)蘊(yùn)含,。我們正在被它們不由自主地推動(dòng)向前,而非有意識(shí)的,。

上一次人類意識(shí)發(fā)生重大變化是在啟蒙運(yùn)動(dòng)時(shí)期,,這一轉(zhuǎn)變的發(fā)生是因?yàn)樾录夹g(shù)產(chǎn)生了新的哲學(xué)見解,而這些見解又通過技術(shù)(以印刷機(jī)的形式)傳播開來,。在我們這個(gè)時(shí)代,,新技術(shù)已經(jīng)發(fā)展起來,但相應(yīng)的指導(dǎo)性的哲學(xué)理念卻暫付闕如,。人工智能是一項(xiàng)具有深遠(yuǎn)潛在利益的宏大事業(yè),。人類正在努力開發(fā)人工智能,但我們是用它來讓我們的生活變得更好還是更糟,?它允諾帶來更強(qiáng)力的藥物,、更高效公平的醫(yī)療保健、更可持續(xù)的環(huán)境實(shí)踐,,以及其他種種進(jìn)步圖景,。然而與此同時(shí),,它也可以使信息失真,或者至少使信息的消費(fèi)和真相識(shí)別的過程變得更加錯(cuò)綜復(fù)雜,,并由此令一部分人的獨(dú)立推理和判斷能力日漸萎落,。

最后,一個(gè)“元”問題浮現(xiàn)出來:在對(duì)世界有著不同解釋和理解的人工智能的“輔助”下,,人類能否滿足對(duì)哲學(xué)的需求,?人類并不完全了解機(jī)器,但我們最終將與它們和平共處,,并以此改變世界,?伊曼努爾 ·康德在他的《純粹理性批判》一書的序言中以這樣一個(gè)觀點(diǎn)開篇:

人類理性具有此種特殊運(yùn)命,即在其所有知識(shí)之一門類中,,為種種問題所困,,此等問題以其為理性自身之本質(zhì)所加之于其自身者,故不能置之不顧,,但又因其超越理性所有之一切能力,, 故又不能解答之也。

在此后的幾個(gè)世紀(jì)里,,人類對(duì)這些問題進(jìn)行了深入的探索,,其中一些問題涉及心靈、理性乃至現(xiàn)實(shí)的本質(zhì),。人類已取得了重大突破,,但也遇到了康德提出的許多限制:一個(gè)其無法回答的問題領(lǐng)域,一個(gè)其無法完全了解的事實(shí)領(lǐng)域,。人工智能的出現(xiàn),,帶來了人類僅憑理性無法實(shí)現(xiàn)的學(xué)習(xí)和處理信息的能力,其可能會(huì)讓我們?cè)谀切┮驯蛔C明超出我們回答能力的問題上取得進(jìn)展,。但是,,成功將產(chǎn)生新的問題,其中一些問題我們已經(jīng)試圖在本書中闡明,。人類智能和人工智能正值風(fēng)云際會(huì),,兩者將彼此融匯于國(guó)家、大洲,,甚至全球范圍內(nèi)的各種追求之中,。理解這一轉(zhuǎn)變,并為之發(fā)展一種指導(dǎo)性道德準(zhǔn)則,,需要社會(huì)各個(gè)階層,,包括科學(xué)家和戰(zhàn)略家、政治家和哲學(xué)家、神職人員和首席執(zhí)行官們,,群策群力,、各抒己見并做出共同的承諾。不僅各國(guó)內(nèi)部應(yīng)有此承諾,,國(guó)與國(guó)之間也同樣如此,。我們與人工智能究竟能建立何種伙伴關(guān)系,由此又會(huì)產(chǎn)生什么樣的現(xiàn)實(shí)呢,?現(xiàn)在,是時(shí)候?qū)Υ思右越缍恕?/p>

作者:/[美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼爾·胡滕洛赫爾

摘編/劉亞光

編輯/劉亞光

校對(duì)/趙琳

基辛格談人工智能:如何看待人工智能時(shí)代的國(guó)際秩序,?

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1050491.html
溫馨提示:投資有風(fēng)險(xiǎn),入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議,。

(0)
新京報(bào)的頭像新京報(bào)
上一篇 2023年6月25日 下午1:54
下一篇 2023年6月25日 下午2:18
198搶自鏈數(shù)字人

相關(guān)推薦