來源:烏鴉智能說
周一發(fā)布的一份美國政府委托報告顯示,美國政府必須”迅速果斷”采取行動,,避免人工智能(AI)潛在的重大國家安全風險,。
“當前人工智能前沿發(fā)展對國家安全構(gòu)成的風險,,緊迫且日益增長,?!薄稌r代》周刊在發(fā)布前獲得了這份報告,。“先進人工智能和AGI(人工通用智能)的崛起有可能破壞全球安全的穩(wěn)定,,其威力不禁讓人想起上世紀的核武器,。”AGI目前仍是一種假想技術。據(jù)傳,,AGI可以執(zhí)行大多數(shù)任務,,達到或超過人類的水平。這種系統(tǒng)尚未出世,,但領先的人工智能實驗室正在加緊研發(fā)相關技術,。許多人預計這將在未來五年或更短時間內(nèi)成為現(xiàn)實。
撰寫報告的三位作者花了一年多的時間與200多名政府雇員,、專家和前沿人工智能公司的工作人員進行了交談,例如OpenAI,GoogleDeepMind,Anthropic和Meta等公司的研發(fā)人員,。與專家的談話傳遞了很多讓人不安的訊息,頂尖實驗室中的許多人工智能安全工作者認為,,公司高管在決策過程中采取的部分激勵措施過于激進,。
這份題為《提高先進人工智能安全性的行動計劃》(AnActionPlantoIncreasetheSafetyandSecurityofAdvancedAI)的文件建議,,政府應當采取一系列監(jiān)管AI發(fā)展的政策,,而這些政策一經(jīng)頒布,,將從根本上顛覆現(xiàn)有人工智能產(chǎn)業(yè),。報告建議,國會應將訓練超過規(guī)定算力的人工智能模型定性為非法行為。報告建議成立一個新的聯(lián)邦人工智能機構(gòu)來設定算力標準,,將這一門檻設定在略高于目前用于訓練OpenAI的GPT-4等尖端模型的計算能力水平之上,。報告還說,新的人工智能機構(gòu)應要求處于行業(yè)”前沿”的人工智能公司在訓練和部署新模型時獲得政府許可,,使其高于某個較低的門檻,。報告稱,當局還應”緊急”考慮禁止公布強大的人工智能模型的”權(quán)重”或內(nèi)部工作原理,,例如在開源許可下公布,,違者可能會被判處監(jiān)禁。報告建議,,政府應進一步加強對人工智能芯片制造和出口的控制,,并將聯(lián)邦資金用于”對齊”研究,,使先進的人工智能更加安全,。
根據(jù)公開記錄,這份報告是美國國務院于2022年11月委托編寫的,,隸屬于一份價值25萬美元的聯(lián)邦合同,。該報告由格拉德斯通人工智能公司(GladstoneAI)撰寫。該公司是一個專門為政府雇員提供人工智能技術簡報的四人團隊,。(行動計劃的部分內(nèi)容建議政府投入大量資金,,對官員進行人工智能系統(tǒng)技術基礎方面的教育,以便他們更好地了解其風險),。
報告文件共計247頁,于2024年2月26日提交給國務院,。報告第一頁說,這些建議“并不反映美國國務院或美國政府的觀點”,。至今,,國務院尚未就該報告發(fā)表任何官方言論。
這份報告中的建議主要針對人工智能行業(yè)目前的高速發(fā)展,。2022年11月,,聊天機器人ChatGPT的橫空出世,讓公眾開始撕開AI可能給人類社會帶來的生存風險,。在世界各國政府緊急商議人工智能監(jiān)管政策的同時,,世界上最大的科技公司也在加大力度建設基礎設施,以訓練更強大的AI系統(tǒng)–某些情況下,,公司計劃使用10倍或100倍以上的計算能力,。與此同時,80%以上的美國公眾認為人工智能可能會意外引發(fā)災難性事件,,77%的選民認為政府應該加大對人工智能的監(jiān)管力度,。該份民意調(diào)查來自人工智能政策研究所,。
報告指出,嚴格規(guī)范人工智能系統(tǒng)的算力規(guī)格,,可能會”緩和現(xiàn)有人工智能開發(fā)者之間的競爭態(tài)勢”,,并有助于降低芯片行業(yè)制造更快硬件的速度。報告建議,,隨著時間的推移,,一旦尖端模型的安全性得到充分證明,聯(lián)邦人工智能機構(gòu)可以提高門檻,,允許訓練更先進的人工智能系統(tǒng),。報告稱,同樣,,如果發(fā)現(xiàn)現(xiàn)有模型存在危險能力,,政府也可以降低門檻。
但政府可能不會采納這份建議,。戰(zhàn)略與國際研究中心(CSIS)瓦德瓦尼人工智能與先進技術中心主任格雷格-艾倫(GregAllen)在回應《時代》周刊就報告中關于取締超過一定閾值的人工智能訓練運行的建議所提供的摘要時說:“我認為美國政府采納極有可能不會采納這份建議,。”他指出,,美國政府目前的人工智能政策是設定計算閾值,,超過該閾值則需要額外的透明度監(jiān)控和監(jiān)管要求,,但并沒有設定超過該閾值的訓練運行即為非法的限制,。艾倫說:“不出意外的話,他們不太可能改變這種做法,?!?/p>
自2021年起,格萊斯頓公司(Gladstone)的首席執(zhí)行官和首席技術官,,杰雷米-哈里斯(JeremieHarris)和愛德華-哈里斯(EdouardHarris)一直在向美國政府介紹人工智能的風險,。他們說,早期關注該事件的政府官員都認為人工智能的風險很大,,這些風險的責任應分散到不同的團隊或部門,。
哈里斯兄弟說,2021年底,,格萊斯頓終于找到了監(jiān)管人工智能風險的政府部門:國務院國際安全與防擴散局,。國際安全與防擴散局內(nèi)的各個小組承擔著跨機構(gòu)的任務,負責應對新興技術帶來的風險,,包括化學和生物武器以及放射性和核風險,。在杰雷米和格萊斯頓公司當時的首席執(zhí)行官馬克-比厄爾(MarkBeall)做簡報后,該局于2022年10月發(fā)出了一份報告招標書,,決定是否將人工智能加入其監(jiān)控的其他風險清單,。(國務院沒有回應就該決定結(jié)果發(fā)表評論的請求),。格拉德斯通團隊贏得了這份合同,周一發(fā)布的報告就是其成果,。
報告重點闡述了兩類不同的風險,。報告將第一類風險稱為“武器化風險”:“這類系統(tǒng)有可能被用來設計甚至實施災難性的生物、化學或網(wǎng)絡攻擊,,或在蜂群機器人技術中實現(xiàn)前所未有的武器化應用”,。第二類是報告中所說的”失控”風險,即先進的人工智能系統(tǒng)可能超越其創(chuàng)造者,。報告稱,,“我們有理由相信,如果使用現(xiàn)有技術開發(fā),,它們可能無法控制,,并可能在默認情況下對人類采取敵對行為”。
報告稱,,人工智能行業(yè)的”競爭態(tài)勢”加劇了這兩類風險,。最先研發(fā)人工智能的公司將獲得大部分的經(jīng)濟利潤,因此他們會優(yōu)先考慮發(fā)展速度而非相關安全議題,。”報告說:“前沿人工智能實驗室面臨著一種強烈而直接的激勵,,鞭策他們盡可能快地擴展其人工智能系統(tǒng)?!芭cAI相關的安全安保措施不會帶來經(jīng)濟利益,,鮮少有公司將錢花在這上面?!?/p>
格拉德斯通報告指出,,硬件–特別是目前用于訓練人工智能系統(tǒng)的高端計算機芯片–是提高人工智能能力的重要瓶頸。報告認為,,規(guī)范這種硬件的擴散可能是“保障人工智能長期全球安全和安保的最重要要求”,。報告稱,政府應探索將芯片出口許可證與芯片技術掛鉤的可能性,,以監(jiān)測芯片是否被用于大型人工智能訓練運行,,以此來執(zhí)行針對訓練規(guī)模超過GPT-4的人工智能系統(tǒng)的擬議規(guī)則。不過,,報告也指出,,美國也應謹慎過度監(jiān)管可能會促進外國芯片產(chǎn)業(yè)的發(fā)展,從而削弱美國影響供應鏈的能力,。
報告還提出了一種可能性,,即宇宙不會眷顧那些試圖通過芯片阻止高級人工智能發(fā)展的人?!半S著人工智能算法的不斷優(yōu)化,,用較少的算力就能實現(xiàn)更多的人工智能功能,。隨著這一趨勢不斷增強,通過壟斷算力阻撓AI發(fā)展只是癡人說夢,。鑒于此,,報告建議成立新的聯(lián)邦人工智能機構(gòu),阻止相關研究成果的發(fā)表,。當然,,因為這會極大損害美國的人工智能產(chǎn)業(yè),最終將難以落地,。
哈里斯夫婦在談話中認識到,,他們的建議會讓人工智能行業(yè)的許多人覺得過于瘋狂。他們預計,,禁止開源高級人工智能模型開源的建議不會受歡迎,。格拉德斯通公司首席技術官愛德華說:“開源通常是一種美妙的愿景,將造福整個人類社會,?!币岢鲞@樣的建議極具挑戰(zhàn)性,我們花了很多時間尋找方法來規(guī)避這樣的建議措施,。”CSIS的人工智能政策專家艾倫說,,他認可開源人工智能讓政策制定者更難掌控風險的觀點。但他表示,,任何取締超過一定規(guī)模的模型開源的提議,,都需要考慮到美國法律的適用范圍有限這一事實。”他說:“這是否意味著開源社區(qū)將遷往歐洲,?鑒于世界之大,,你必須考慮到這一點?!?/p>
報告作者說,很多網(wǎng)民都已經(jīng)學會了如何跨越AI系統(tǒng)設置的安全防護欄獲使用更多存在爭議性的功能,。埃杜阿德說:“發(fā)布開源模型始終會面臨風險,,但開源作為一種趨勢已經(jīng)不可逆轉(zhuǎn),我們能做的只有承擔風險”
該報告的第三位合著者,、前國防部官員比厄爾后來離開了格萊斯頓,,創(chuàng)辦了一個旨在支持人工智能政策的超級政治行動委員會。該政治行動委員會名為“美國人支持人工智能安全”(AmericansforAISafety),,于本周一正式成立,。該組織在給《時代》周刊的一份聲明中說,它的目標是使人工智能安全和安保成為“2024年美國大選中的一個關鍵問題,,目標是在2024年底之前通過人工智能安全立法”,。PAC沒有透露其融資信息,,但表示“已經(jīng)設定了籌集數(shù)百萬美元以完成使命的目標”。
在與Beall共同創(chuàng)辦Gladstone之前,,哈里斯兄弟經(jīng)營著一家人工智能公司,,該公司通過了硅谷著名孵化器YCombinator的審核,當時由OpenAI首席執(zhí)行官山姆-奧特曼(SamAltman)掌舵,。這對兄弟將這作為他們以行業(yè)利益為重的證據(jù),,盡管他們的建議一旦實施,將顛覆整個AI產(chǎn)業(yè),。”杰雷米告訴《時代》周刊:“快速行動,,打破常規(guī),這是我們的人生信條,。我們就是在這種理念的熏陶下成長起來的,。”但他說,,當你的行動可能帶來巨大的負面影響時,,這一信條就不再適用了?!彼f,,“我們現(xiàn)在正在設計的系統(tǒng)正在朝著超級智能的方向前行,某種程度上,,這種級別的科技很有可能被武器化,,帶來不可估量的影響。不過還有什么更糟的呢,?無非就是某一天,,AI突然不受控制,屆時,,我們就會全面禁止AI,,不再享受這項科技的福利?!?/p>
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1092326.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。