財聯(lián)社5月22日訊(編輯 周子意)面對可能迅速發(fā)展的人工智能,全球的風險應對能力似乎并未步入正軌,。
在韓國首爾舉行的第二屆人工智能安全峰會(5月21日至22日)開展之際,,25位世界領先的人工智能科學家在《科學》雜志上共同發(fā)表了一篇專家共識論文,,他們認為,當今全球在保護人類免受技術滋生的風險方面做得還不夠,。
在論文中,他們概述了全球領導人應該采取的緊急政策優(yōu)先事項,,以應對人工智能技術的威脅,。
重要建議
該論文的合著者包括Geoffrey Hinton, Andrew Yao, Dawn Song,Daniel Kahneman等25位世界領先的人工智能及其治理學術專家,。這些作者來自美國,、中國、歐盟,、英國和其他人工智能大國,,其中還包括圖靈獎得主、諾貝爾獎獲得者和標準人工智能教科書的作者,。
這些科學家指出,,世界各國領導人必須認真對待在當前十年或未來十年開發(fā)出強大的通用人工智能(AGI)系統(tǒng)的可能性,這種系統(tǒng)有可能在許多關鍵領域的表現(xiàn)都超越了人類,。
他們還稱,,盡管世界各國政府一直在討論前沿人工智能,并在引入初步指導方針方面做出了一些嘗試,,但這與許多專家預期的快速,、變革性進展的可能性根本不相稱。
該論文的合著者,、牛津大學工程科學系的Philip Torr教授稱,,“在上次人工智能峰會上,全世界都贊成需要采取行動,,但現(xiàn)在是時候從模糊的建議變成具體的承諾了,。”
這篇論文為公司和政府應該承諾做什么提供了一些重要建議,,包括:
建立能迅速對風險作出反應的專家機構來監(jiān)督人工智能,,并為這些機構提供更多的資金。
要求更嚴格的風險評估,并具有可執(zhí)行的結果,,而不是依賴于自愿的或未明確的模型評估,。
要求人工智能公司優(yōu)先考慮安全,并證明他們的系統(tǒng)不會造成傷害,,人工智能開發(fā)人員應考慮安全性,。
實施與人工智能系統(tǒng)構成的風險水平相符的風險緩釋標準。應設置適當?shù)牟呗?,當人工智能達到某些能力里程碑時自動觸發(fā)嚴格的要求,;但如果人工智能進展緩慢,要求會相應放寬,。
值得一提的是,,當?shù)貢r間周二(5月21日)在首爾人工智能峰會上,微軟,、亞馬遜,、OpenAI等科技巨頭就人工智能安全達成了一項具有里程碑意義的國際協(xié)議。
這項協(xié)議下,,許多企業(yè)做出承諾,,包括發(fā)布安全框架,列出衡量潛在風險,;一旦發(fā)現(xiàn)了這種極端情況,,如果不能保證降低風險,企業(yè)們就需要打開“緊急停止開關”,,叫停AI模型的開發(fā)進程,。
政府監(jiān)管帶頭
根據(jù)作者的說法,對于未來異常強大的人工智能系統(tǒng),,政府必須準備好在監(jiān)管方面發(fā)揮帶頭作用,。這包括:許可這些系統(tǒng)的開發(fā),限制其在關鍵社會角色中的自主權,,停止其開發(fā)和部署以應對令人擔憂的功能,,強制訪問控制,以及要求對國家級黑客采取強有力的信息安全措施,。
加州大學伯克利分校計算機科學教授,、世界標準人工智能教科書的作者斯圖爾特·羅素Stuart Russell OBE表示,“這是一份由頂尖專家達成共識的論文,,它呼吁政府嚴格監(jiān)管,,而不是由行業(yè)制定自愿的行為準則?!?/p>
他補充道,“是時候認真對待先進的人工智能系統(tǒng)了。這些不是玩具,。如果說‘監(jiān)管扼殺了創(chuàng)新’,,那太荒唐了,因為對那些普通三明治店的監(jiān)管甚至比對人工智能公司的監(jiān)管還多,?!?/p>
(財聯(lián)社 周子意)
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1103801.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。