A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

基辛格談人工智能:如何看待人工智能時代的國際秩序,?

從谷歌AlphaGo擊敗人類棋手,到ChatGpt引發(fā)科技界熱議,,人工智能科技的每一次進展都牽動著人們的神經(jīng),。毋庸置疑的是,人工智能正深刻改變著我們的社會,、經(jīng)濟、政治甚至是外交政策,,而對于解釋這一切的影響來說,,過往傳統(tǒng)的理論往往失靈。在《人工智能時代與人類未來》一書中,,著名外交家基辛格,、谷歌前CEO施密特和麻省理工學(xué)院蘇世民計算機學(xué)院院長胡滕洛赫爾從不同角度梳理了人工智能的前世今生,并全面探討了其發(fā)展可能給個人,、企業(yè),、政府、社會,、國家?guī)淼姆N種沖擊,。幾位頂尖的思想者認(rèn)為,隨著人工智能的能力越來越強,,如何定位人類的角色,,將是我們在未來的時間中必須長期思考的命題。以下內(nèi)容經(jīng)過出版社授權(quán)摘編自《人工智能時代與人類未來》,,有刪改,,小標(biāo)題為摘編者所加。

基辛格談人工智能:如何看待人工智能時代的國際秩序,?

《人工智能時代與人類未來》,,作者: [美] 亨利·基辛格 / [美] 埃里克·施密特 / [美] 丹尼爾·胡滕洛赫爾,版本: 中信出版社,,2023年5月,。

原作者 | [美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼爾·胡滕洛赫爾

通用人工智能會帶來什么?

人類和人工智能是否從不同的角度接近同一個現(xiàn)實,,并且可以優(yōu)勢互補,、相輔相成呢?還是說,,我們會感知到兩種不同但部分重疊的現(xiàn)實:一種是人類可以通過理性闡述的,,另一種則是人工智能可以通過算法說明的?如果答案是后一種,,那么人工智能就能感知我們尚未感知也無法感知的事物——不僅因為我們沒有足夠的時間以我們的方式去推理它們,,還因為它們存在于一個我們的心智無法概念化的領(lǐng)域之中。人類對“完全了解世界”的追求將會發(fā)生改變,人們會意識到,,為了獲得某些知識,,我們可能需要委托人工智能為我們獲取知識,并向我們回稟消息,。無論答案是哪一個,,隨著人工智能追求的目標(biāo)愈加全面和廣泛,它在人類看來都將越來越像一個體驗和了解世界的“生靈”—— 一種結(jié)合了工具,、寵物和心智的存在。

當(dāng)研究人員接近或已然實現(xiàn)通用人工智能時,,這個謎題只會顯得越發(fā)深邃,。正如我們在第三章所述,通用人工智能將不會局限于學(xué)習(xí)和執(zhí)行特定的任務(wù),;相反,,根據(jù)其定義,通用人工智能將能夠?qū)W習(xí)并執(zhí)行范圍極廣的任務(wù),,一如人類所為,。開發(fā)通用人工智能將需要巨大的算力,這可能導(dǎo)致只有少數(shù)資金充足的組織有能力創(chuàng)建此類人工智能,。與目前的人工智能一樣,,盡管通用人工智能可能隨時被分散部署,但鑒于其能力,,其應(yīng)用有必要受到限制,。可以通過只允許經(jīng)批準(zhǔn)的組織運營通用人工智能來對其施加限制,。那么問題將變成:誰來控制通用人工智能,?誰來授權(quán)對其的使用?在一個少數(shù)“天才”機器由少數(shù)組織操縱的世界里,,民主還是可能的嗎,?在這種情況下,人類與人工智能的合作會是何種模樣,?

如果通用人工智能真的出現(xiàn)在世上,,這將是智力、科學(xué)和戰(zhàn)略上的重大成就,。但即便未能如此,,人工智能也同樣能為人類事務(wù)帶來一場革命。人工智能在應(yīng)對突發(fā)事件(或者說意外事件)及提供解決方案方面展現(xiàn)出的動力和能力使其有別于以往的技術(shù),。如果不受監(jiān)管,,人工智能可能會偏離我們的預(yù)期,進而偏離我們的意圖,。到底是限制它,、與它合作還是順從它的決定,,將不僅僅由人類做出。在某些情況下,,這將由人工智能本身決定,;在其他情況下,則取決于各種助力因素,。人類可能參與一場“逐底競爭”,。

隨著人工智能實現(xiàn)流程自動化、允許人類探索大量數(shù)據(jù),,并組織和重構(gòu)物質(zhì)和社會領(lǐng)域,,那些先行者可能獲得先發(fā)優(yōu)勢。競爭壓力可能會迫使各方在沒有足夠時間評估風(fēng)險或干脆無視風(fēng)險的情況下競相部署通用人工智能,。關(guān)于人工智能的倫理道德是必不可少的,。每個個體的決定—— 限制、合作或順從——也許會產(chǎn)生戲劇性的后果,,也許不會,,但當(dāng)它們匯合起來,影響就會倍增,。

這些決定不可能是孤立的,。如果人類想要塑造未來,需要就指導(dǎo)每一個選擇的共同原則達成一致,。確實,,集體行動很難實現(xiàn),有時甚至不可能,,但缺乏共同道德規(guī)范指導(dǎo)的個人行動只會讓人類整體陷入更大的動蕩與變亂,。那些設(shè)計、訓(xùn)練人工智能并與人工智能合作的人所能夠?qū)崿F(xiàn)的目標(biāo),,將達到迄今人類無法企及的規(guī)模和復(fù)雜程度,,比如新的科學(xué)突破、新的經(jīng)濟效率,、新的安全形式,,以及社會監(jiān)控的新維度。而在擴展人工智能及其用途的過程中,,那些未能獲得主導(dǎo)權(quán)的人卻可能會感到,,他們正在被自己不了解, 而且并非由自身設(shè)計或選擇的力量所監(jiān)視,、研究和采取行動,。這種力量的運作是不透明的,在許多社會中,這是傳統(tǒng)的人類行為者或機構(gòu)不能容忍的,。人工智能的設(shè)計者和部署者應(yīng)該準(zhǔn)備好解決這些問題,,首先要做的是向非技術(shù)人員解釋人工智能在做什么、它“知道”什么,,又會如何去做,。人工智能的動態(tài)性和新興性至少令其在兩個方面產(chǎn)生了模糊性。首先,,人工智能可能按照我們的預(yù)期運行,,但會產(chǎn)生我們無法預(yù)見的結(jié)果。這些結(jié)果可能會把人類引入其創(chuàng)造者也始料未及的境地,,就像 1914 年的政治家沒有認(rèn)識到軍事動員的舊邏輯加上新技術(shù)會把歐洲拖入戰(zhàn)爭一樣,。如果不加審慎的考慮就部署和運用人工智能,也可能會造成嚴(yán)重后果,。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

電影《阿麗塔:戰(zhàn)斗天使》劇照,。

這些后果可能是小范圍的,,比如自動駕駛汽車做出的決定危及生命;也可能是極其重大的,,比如嚴(yán)重軍事沖突,。其次,在某些應(yīng)用領(lǐng)域中,,人工智能可能是不可預(yù)測的,,它的行動完全出人意料。以 AlphaZero 為例,,它只是根據(jù)“贏棋”的指示,,就發(fā)展出一種人類在幾千年的國際象棋歷史中從未設(shè)想過的棋風(fēng)。雖然人類可能會小心規(guī)定人工智能的目標(biāo),,但隨著我們賦予其更大的自由度,,其實現(xiàn)目標(biāo)的路徑可能會讓我們感到驚訝,甚至感到恐慌,。因此,,對人工智能的目標(biāo)和授權(quán)都需要謹(jǐn)慎地設(shè)計,尤其是在其決策可能致命的領(lǐng)域,。我們既不應(yīng)將人工智能視為自動運作,、無須照管的存在,也不應(yīng)允許其在無人監(jiān)督,、監(jiān)視或直接控制的情況下采取不可撤銷的行動,。人工智能由人類創(chuàng)造,故也應(yīng)由人類來監(jiān)管。但在我們這個時代,,人工智能面臨的挑戰(zhàn)之一是,,具備了創(chuàng)造人工智能所需的技能和資源的人并非必然具有理解其更廣泛內(nèi)涵的哲學(xué)視角。許多人工智能的創(chuàng)造者主要關(guān)注的是他們試圖實現(xiàn)的應(yīng)用和他們想要解決的問題:他們可能不會停下來考慮這個解決方案是否會產(chǎn)生一場歷史性的革命,,或者他們的技術(shù)將如何影響不同的人群,。人工智能時代需要它自己的笛卡兒和康德,來解釋我們創(chuàng)造了什么及其對人類有何意義,。

我們有必要組織政府,、大學(xué)和私營行業(yè)創(chuàng)新者均參與其中的理性討論和協(xié)商,其目標(biāo)應(yīng)該是對實際行動建立限制就像今天管理個人和組織行動的那些限制一樣,。人工 智 能 具 有 的 屬性,,部分與目前受監(jiān)管的產(chǎn)品、服務(wù),、技術(shù)和實體相同,,但在一些重要方面又與它們不同, 其缺乏自身完全界定的概念和法律框架,。例如,,人工智能不斷演變、推陳出新的特性給監(jiān)管帶來了挑戰(zhàn):它在世界上的運作對象和方式可能因不同領(lǐng)域而異,,并隨著時間的推移而演變,,而且并不總是以可預(yù)測的方式呈現(xiàn)。對人的治理是以道德準(zhǔn)則為指導(dǎo)的,。人工智能需要一種自己的道德準(zhǔn)則,,這種準(zhǔn)則不僅反映了技術(shù)的本質(zhì),也反映了它所帶來的挑戰(zhàn),。

通常,,既有原則并不適用于此處。在信仰時代,,當(dāng)神明裁判中的被告面臨戰(zhàn)斗裁決時,,法院可以判定罪行,但上帝決定誰獲得勝利,。在理性時代,,人類根據(jù)理性的戒律來確定罪責(zé),并根據(jù)因果關(guān)系和犯罪意圖等概念來判罪和施以懲罰,。但是人工智能并不依靠人類的理性運作,,也沒有人類的動機、意圖或自我反省,。因此,,人工智能的引入將使適用于人類的現(xiàn)有正義原則更為復(fù)雜化,。

當(dāng)一個自主系統(tǒng)基于自己的感知和決策行動時,其創(chuàng)造者承擔(dān)責(zé)任嗎,?還是說,,人工智能的行為不可與其創(chuàng)造者相混同,至少在罪責(zé)方面不應(yīng)連坐,?如果人工智能被用來監(jiān)測犯罪行為的跡象,,或者幫助判斷某人是否有罪,那么人工智能必須能夠“解釋”它是如何得出結(jié)論的,,以便人類官員對此加以采信嗎,?此外,在技術(shù)發(fā)展的哪個時點,、何種背景之下,,人工智能應(yīng)該受到國際協(xié)商的限制,?這是另一個重要的辯論主題,。如果試探過早,,這項技術(shù)的發(fā)展可能會受到阻礙,或者可能誘使其隱藏自身能力,;而如果拖延太久,,則可能會造成破壞性后果,尤其是在軍事方面,。對于一種虛無縹緲、晦澀難懂且易于傳播的技術(shù),,難以對其設(shè)計有效的核查機制使得這一挑戰(zhàn)更加復(fù)雜,。官方的協(xié)商者必然是政府,但也需要為技術(shù)專家,、倫理學(xué)家,、創(chuàng)造和運營人工智能的公司以及其他領(lǐng)域外人士搭建發(fā)聲平臺。

基辛格談人工智能:如何看待人工智能時代的國際秩序,?

美劇《西部世界》劇照,。

對不同社會來說,人工智能帶來的兩難困境均具有深遠(yuǎn)意義,。如今,,我們的社會和政治生活很大程度上是在人工智能賦能的網(wǎng)絡(luò)平臺上發(fā)生的,民主國家尤其如此,,它們依靠這些信息空間進行辯論和交流,,形成公眾輿論并賦予其合法性。誰,,或者什么機構(gòu),,應(yīng)該界定技術(shù)的角色,?誰又應(yīng)該監(jiān)管它?使用人工智能的個人應(yīng)該扮演什么樣的角色,?生產(chǎn)人工智能的公司呢,?部署使用它的社會政府呢?作為這些問題解決方案的一部分,,我們應(yīng)該設(shè)法使其可審核,,即使其過程和結(jié)論既是可檢查的又是可糾正的。反過來,,糾正能否實施,,將取決于能否將針對人工智能感知和決策形式的原則加以細(xì)化。道德,、意志甚至因果關(guān)系都不能很好地契合自主人工智能的世界,。從交通運輸?shù)浇鹑谠俚结t(yī)藥,社會的大多數(shù)層面都會出現(xiàn)類似的問題,。

想想人工智能對社交媒體的影響吧,。借助最近的創(chuàng)新,這些平臺已迅速成為我們公共生活的重要方面,。正如我們在第四章中所討論的,,推特和臉書用以突顯、限制或完全禁止內(nèi)容或個人的功能全都仰仗人工智能,,這便是其力量的證明,。使用人工智能進行單邊的,、通常不透明的內(nèi)容和概念推廣或刪除,,這對各國尤其是民主國家來說都是一個挑戰(zhàn)。隨著我們的社會和政治生活越來越多地轉(zhuǎn)向由人工智能管理的領(lǐng)域,,并且我們只能依靠這種管理來駕馭這些領(lǐng)域,,我們是否有可能保留主導(dǎo)權(quán)?

使用人工智能處理大量信息的做法也帶來了另一挑戰(zhàn):人工智能加大了對世界的扭曲,,以迎合人類的本能偏好,。在這一領(lǐng)域,人工智能可以輕易地放大我們的認(rèn)知偏差,,而我們卻還與之共鳴,。伴隨著這些聲音,面對選擇的多樣性,,又被賦予了選擇和篩選的權(quán)力,,人們接受的錯誤信息將會泛濫。社交媒體公司不會通過新聞推送來推動極端和暴力的政治極化,,但顯而易見的是,,這些服務(wù)也沒有導(dǎo)致開明話語的最大化,。

人工智能、自由信息和獨立思考

那么,,我們與人工智能的關(guān)系應(yīng)該是怎樣的呢,?在管理這些領(lǐng)域時,,它應(yīng)該被約束、被授權(quán),,還是被當(dāng)作伙伴,?某些信息的傳播,尤其是故意制造的虛假信息,,會造成損害、分裂和煽動,,這是毋庸置疑的,。因此一些限制是需要的。然而,,現(xiàn)在對“有害信息”的譴責(zé),、打擊和壓制顯得過于寬松,,這也應(yīng)該引起反思。

在一個自由社會里,,有害信息和虛假信息的界定不應(yīng)該被囿于公司的職權(quán)范圍。但是,,如果將此類職責(zé)委托給一個政府小組或機構(gòu),該小組或機構(gòu)應(yīng)該根據(jù)確定的公共標(biāo)準(zhǔn)并通過可核查的程序來運作,,以避免被當(dāng)權(quán)者利用,。如果將其委托給人工智能算法,,則該算法的目標(biāo)函數(shù),、學(xué)習(xí),、決策和行動必須清晰并接受外部審查,而且至少要有某種形式的人類訴求,。

當(dāng)然,,不同的社會會對此得出不同的答案。有些社會可能會強調(diào)言論自由,,強調(diào)程度可能因其對個人表達的相對理解差異而有所不同,,并且可能因此限制人工智能在調(diào)和內(nèi)容方面的作用。每個社會都會選擇各自重視的觀念,,這可能會導(dǎo)致其與跨國網(wǎng)絡(luò)平臺運營商之間的復(fù)雜關(guān)系,。人工智能就像海綿一樣善于吸收,它向人類學(xué)習(xí),,甚至在我們設(shè)計和塑造它的時候也是如此,。

基辛格談人工智能:如何看待人工智能時代的國際秩序?

美劇《西部世界》劇照,。

因此,,不僅每個社會的選擇是不同的,每個社會與人工智能的關(guān)系,、對人工智能的感知,,及其人工智能模仿人類、向人類老師學(xué)習(xí)的模式也是各不相同的,。但有一點是確定的,,那就是人類對事實和真理的追求不應(yīng)該使一個社會通過一個輪廓不明、無法檢驗的過濾器來體驗生活,。對現(xiàn)實的自發(fā)體驗盡管有其矛盾性和復(fù)雜性,,卻是人類境況的一個重要方面,即使這種體驗導(dǎo)致了低效或錯誤,。

人工智能和國際秩序

在全球范圍內(nèi),,有無數(shù)問題正亟待解答。如何對人工智能網(wǎng)絡(luò)平臺進行監(jiān)管,,而不會引發(fā)擔(dān)心其安全性的國家之間的緊張關(guān)系,?這些網(wǎng)絡(luò)平臺是否會侵蝕傳統(tǒng)的國家主權(quán)觀念?由此產(chǎn)生的變化會給世界帶來自蘇聯(lián)解體以來從未有過的兩極分化嗎,?小國會反對嗎,?試圖調(diào)解這些后果的努力會成功嗎?或者有成功的希望嗎,?

隨著人工智能的能力不斷增強,,如何定位與人工智能合作時人類的角色將變得愈加重要和復(fù)雜。我們可以設(shè)想這樣一個世界:在這個世界里,,人類在日益重要的問題上越發(fā)尊重人工智能的意見,。在一個進攻對手成功部署人工智能的世界里,,防御方的領(lǐng)導(dǎo)人能否決定不部署自己的人工智能并為此擔(dān)責(zé)嗎?即使他們也不確定這種部署將帶來怎樣的演變,。而如果人工智能擁有推薦一種行動方案的優(yōu)越能力,,那么決策者是否有理由接受它,即使該行動方案需要做出一定程度的犧牲,?人類怎能知道這種犧牲是否對勝利必不可少呢,?如果確實必不可少,那么決策者真的愿意否決它嗎,?換句話說,,我們可能別無選擇,而只能選擇扶植人工智能,。但我們也有責(zé)任以一種與人類未來相容的方式來對它加以塑造,。不完美是人類經(jīng)驗中的常態(tài)之一,尤其是在領(lǐng)導(dǎo)力方面,。

通常,,決策者會因偏狹的擔(dān)憂而杯弓蛇影。有時,,他們的行動基于錯誤的假設(shè),;有時,他們的行動純粹是出于感情用事,;還有一些時候,,意識形態(tài)扭曲了他們的視野。無論用何種策略來構(gòu)建人類與人工智能的伙伴關(guān)系,,它們都必須適應(yīng)人類,。如果人工智能在某些領(lǐng)域顯示出超人的能力,則其使用必須能夠被不完美的人類環(huán)境所兼容并包,。

在安全領(lǐng)域,,人工智能賦能系統(tǒng)響應(yīng)速度非常快,,使得對手可能會在系統(tǒng)運行之前嘗試攻擊,。結(jié)果是可能造就一種內(nèi)在不穩(wěn)定的局勢,堪比核武器所造成的局勢,。然而,核武器被置于國際安全和軍備控制概念的框架中,,這些概念是由各國政府,、科學(xué)家、戰(zhàn)略家和倫理學(xué)家通過不斷的提煉,、辯論和談判,,在過去幾十年里發(fā)展起來的,。人工智能和網(wǎng)絡(luò)武器沒有類似的框架。

事實上,,政府可能并不愿意承認(rèn)它們的存在,。各國——可能還有科技公司——需要就如何與武器化的人工智能共存達成一致。人工智能通過政府防務(wù)職能的擴散,,將改變國際平衡以及在我們這個時代維持這種平衡所依賴的計算,。核武器代價高昂,而且由于其規(guī)模和結(jié)構(gòu)而難以被隱藏,。與之相反,,人工智能卻可以在隨處可見的計算機上運行。由于訓(xùn)練機器學(xué)習(xí)模型需要專業(yè)知識和計算資源,,因此創(chuàng)造一個人工智能需要大公司或國家級的資源,;而由于人工智能的應(yīng)用是在相對較小的計算機上進行的,因此其必將被廣泛使用,,包括以我們意想不到的方式,。任何擁有筆記本電腦、連接到互聯(lián)網(wǎng)并致力于窺探人工智能黑暗面的人,,最終都能獲得人工智能賦能的武器嗎,?政府是否會允許與其關(guān)系若即若離或毫無關(guān)系的行為者使用人工智能來騷擾他們的對手?恐怖分子會策劃人工智能襲擊嗎,?他們是否能夠?qū)⑦@些活動嫁禍給國家或其他行為者,?

過去,外交在一個有組織,、可預(yù)測的舞臺上進行,;如今,其信息獲取和行動范圍將獲得極大的擴展,。以往因地理和語言差異而形成的清晰界線將逐漸消失,。人工智能翻譯將促進對話,而且不用像以往的譯者那樣不僅要有語言造詣,,還要精通文化,。人工智能賦能的網(wǎng)絡(luò)平臺將促進跨境交流,而黑客攻擊和虛假信息將繼續(xù)扭曲人們的認(rèn)知和評估,。隨著形勢愈加復(fù)雜,,制定具有可預(yù)測結(jié)果的可執(zhí)行協(xié)議將變得更加困難。

將人工智能功能與網(wǎng)絡(luò)武器相結(jié)合的可能性加深了這一困境,。人類通過明確區(qū)分常規(guī)武器(被認(rèn)為與傳統(tǒng)戰(zhàn)略相調(diào)和)和核武器(被認(rèn)為是例外)而回避了核悖論,。核武器的破壞力量一旦釋放就是無差別的,不分對象;而常規(guī)武器可以辨別打擊目標(biāo),。但是,,既能辨別目標(biāo)又能進行大規(guī)模破壞的網(wǎng)絡(luò)武器消除了這一區(qū)分。

如果再有人工智能推波助瀾,,這些武器將如虎添翼,,變得更加不可預(yù)測,潛在的破壞性也更大,。同時,,當(dāng)這些武器在網(wǎng)絡(luò)中伺機游弋時,是無法確定歸屬的,。它們無法被察覺,,因為它們不像核武器那么笨重;它們還可以通過 U 盤攜帶,,而這有利于擴散,。在某些形式下,這些武器一旦被運用就難以控制,,如果考慮到人工智能的動態(tài)和新興特性就更加如此,。

這種形勢挑戰(zhàn)了以規(guī)則為基礎(chǔ)的世界秩序的前提。此外,,它還讓發(fā)展人工智能軍備控制的相關(guān)概念成了當(dāng)務(wù)之急,。在人工智能時代,威懾將不再依照歷史上的準(zhǔn)則,, 它也做不到這一點,。在核時代之初,依據(jù)哈佛大學(xué),、麻省理工學(xué)院和加州理工學(xué)院的領(lǐng)軍教授,、學(xué)者(有政府工作經(jīng)驗)在討論中形成的真知灼見,人們搭建了一個核軍備控制的概念框架,,繼而又促成了一個制度(以及在美國和其他國家實施該制度的機構(gòu))的建立,。

盡管學(xué)術(shù)界的思想很重要,但它與五角大樓對常規(guī)戰(zhàn)爭的考量是分開實施的—— 它是一種新的補充,,而非對原有的修改,。但人工智能的潛在軍事用途比核武器更廣泛,,而且至少目前其進攻和防御還談不上涇渭分明,。在一個如此復(fù)雜,、內(nèi)在又如此叵測的世界里,,人工智能成了另一種誤解和錯誤的可能來源,擁有高科技能力的大國遲早將不得不就此進行一場持續(xù)對話。

這種對話應(yīng)聚焦于一個根本問題:避免災(zāi)難,,并以此求得生存。人工智能和其他新興技術(shù)(比如量子計算)似乎正在讓超越人類感知范圍的現(xiàn)實變得更加觸手可及,。然而,,最終我們可能會發(fā)現(xiàn),,即使是這些技術(shù)也有其局限性,。我們的問題是,,我們尚未領(lǐng)會它們的哲學(xué)蘊含,。我們正在被它們不由自主地推動向前,,而非有意識的,。

上一次人類意識發(fā)生重大變化是在啟蒙運動時期,這一轉(zhuǎn)變的發(fā)生是因為新技術(shù)產(chǎn)生了新的哲學(xué)見解,,而這些見解又通過技術(shù)(以印刷機的形式)傳播開來,。在我們這個時代,,新技術(shù)已經(jīng)發(fā)展起來,,但相應(yīng)的指導(dǎo)性的哲學(xué)理念卻暫付闕如,。人工智能是一項具有深遠(yuǎn)潛在利益的宏大事業(yè),。人類正在努力開發(fā)人工智能,,但我們是用它來讓我們的生活變得更好還是更糟?它允諾帶來更強力的藥物,、更高效公平的醫(yī)療保健,、更可持續(xù)的環(huán)境實踐,,以及其他種種進步圖景。然而與此同時,它也可以使信息失真,,或者至少使信息的消費和真相識別的過程變得更加錯綜復(fù)雜,并由此令一部分人的獨立推理和判斷能力日漸萎落,。

最后,,一個“元”問題浮現(xiàn)出來:在對世界有著不同解釋和理解的人工智能的“輔助”下,人類能否滿足對哲學(xué)的需求,?人類并不完全了解機器,,但我們最終將與它們和平共處,并以此改變世界,?伊曼努爾 ·康德在他的《純粹理性批判》一書的序言中以這樣一個觀點開篇:

人類理性具有此種特殊運命,,即在其所有知識之一門類中,為種種問題所困,,此等問題以其為理性自身之本質(zhì)所加之于其自身者,,故不能置之不顧,但又因其超越理性所有之一切能力,, 故又不能解答之也,。

在此后的幾個世紀(jì)里,人類對這些問題進行了深入的探索,,其中一些問題涉及心靈,、理性乃至現(xiàn)實的本質(zhì)。人類已取得了重大突破,,但也遇到了康德提出的許多限制:一個其無法回答的問題領(lǐng)域,,一個其無法完全了解的事實領(lǐng)域。人工智能的出現(xiàn),,帶來了人類僅憑理性無法實現(xiàn)的學(xué)習(xí)和處理信息的能力,,其可能會讓我們在那些已被證明超出我們回答能力的問題上取得進展。但是,,成功將產(chǎn)生新的問題,,其中一些問題我們已經(jīng)試圖在本書中闡明。人類智能和人工智能正值風(fēng)云際會,,兩者將彼此融匯于國家,、大洲,,甚至全球范圍內(nèi)的各種追求之中。理解這一轉(zhuǎn)變,,并為之發(fā)展一種指導(dǎo)性道德準(zhǔn)則,,需要社會各個階層,包括科學(xué)家和戰(zhàn)略家,、政治家和哲學(xué)家,、神職人員和首席執(zhí)行官們,群策群力,、各抒己見并做出共同的承諾,。不僅各國內(nèi)部應(yīng)有此承諾,國與國之間也同樣如此,。我們與人工智能究竟能建立何種伙伴關(guān)系,,由此又會產(chǎn)生什么樣的現(xiàn)實呢?現(xiàn)在,,是時候?qū)Υ思右越缍恕?/p>

作者:/[美]亨利·基辛格 / [美]埃里克·施密特 / [美]丹尼爾·胡滕洛赫爾

摘編/劉亞光

編輯/劉亞光

校對/趙琳

基辛格談人工智能:如何看待人工智能時代的國際秩序?

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1050491.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。

(0)
新京報的頭像新京報
上一篇 2023年6月25日 下午1:54
下一篇 2023年6月25日 下午2:18
198搶自鏈數(shù)字人

相關(guān)推薦