本報記者 曲忠芳 李正豪 北京報道
6月6日,,國際非營利組織“人工智能安全中心”(Center for AI Safety,以下簡稱“CAIS”)主任丹·亨德里克斯通過社交媒體表示,,上周已有數(shù)百名頂級人工智能科學家和知名公眾人物簽署了一份關(guān)于人工智能風險的公開聲明,該聲明由CAIS撰寫,,其內(nèi)容非常簡短,,即“降低人工智能的滅絕風險,應(yīng)當與流行病,、核戰(zhàn)爭等其他大規(guī)模的風險一起納入全球優(yōu)先事項”,。
《中國經(jīng)營報》記者從CAIS官網(wǎng)獲悉,該份公開聲明的簽署者來自美國,、中國,、俄羅斯、巴西,、韓國等20多個國家,,涵蓋人工智能專家、哲學家,、法律專家,、企業(yè)家、新聞記者,、政治人物等,其中包括2018年圖靈獎獲得者,、被稱為“深度學習三巨頭”中的杰弗里·辛頓 ,、約書亞·本吉奧,微軟聯(lián)合創(chuàng)始人比爾·蓋茨,、谷歌DeepMind公司CEO戴米斯·哈薩比斯,、OpenAI公司CEO山姆·奧特曼等,來自中國的清華大學航空航天研究院院長張亞勤,、中國科學院自動化研究所教授曾毅等也在簽名者行列中,。
值得注意的是,隨著今年AI大模型及生成式AI的火爆,,AI的安全風險也越來越被廣泛地討論與重視,。就在今年3月底,非營利組織“未來生命研究所”發(fā)出一封“呼吁所有AI實驗室立即暫停對比GPT-4更強大的AI系統(tǒng)的訓練至少6個月”的公開信,特斯拉,、Space X,、推特等公司CEO埃隆·馬斯克,杰弗里·辛頓,、約書亞·本吉奧等均在聯(lián)合署名者名單中,。
在丹·亨德里克斯創(chuàng)建的CAIS看來,人工智能的典型風險集中表現(xiàn)在幾個方面:武器化——如將深度學習用于空戰(zhàn),、用機器學習來制造化學武器等,;生成大量錯誤信息——甚至產(chǎn)生一些有說服力的、帶有任何偏見的內(nèi)容從而引發(fā)強烈的情緒反應(yīng),,導致激化矛盾,、阻礙道德進步;未來先進的AI系統(tǒng)產(chǎn)生意想不到的惡意行為,,人類可能會失去對AI的控制等等,。丹·亨德里克斯援引一項民意調(diào)查稱,約61%的美國人認為人工智能威脅人類的未來,,人類必須解決各種各樣的人工智能風險,。CAIS指出,人工智能的“風險”包括錯誤信息,、武器化,、任意偏見、網(wǎng)絡(luò)攻擊等,,“滅絕”是未來先進的人工智能系統(tǒng)所帶來的最重要且緊迫的風險,,因此CAIS在公開聲明中呼吁將人工智能的滅絕風險列入世界上最重要的問題。
“人工智能不應(yīng)該是一場軍備競賽,。想象一群人站在薄冰覆蓋的海上,,在遙遠的海岸,他們看到了金銀財寶,。有些人可能會想沖刺,,但他們會冒著破冰且跳入冰冷海水的風險。在這種情況下,,即使是自私的人也應(yīng)該謹慎行事,。”丹·亨德里克斯如是表示,。
對于CAIS的這份聲明,,英國首相里希·蘇納克率先在個人社交平臺轉(zhuǎn)發(fā)并表示,,英國政府正在非常仔細地研究這一問題,。與此同時,,他還透露,前不久他已經(jīng)“向AI企業(yè)強調(diào)了設(shè)置防護措施以確保AI開發(fā)安全可靠的重要性”,。此外,,6月5日據(jù)路透社報道,歐盟委員會副主席維拉·喬羅娃公開表示,,向包括谷歌,、微軟、Meta,、TikTok等超過40家科技企業(yè)要求,,檢測通過AI生成的文本、圖片和視頻,,并且向用戶提供明顯的標識,。喬羅娃稱,此舉是歐盟委員會打擊虛假信息工作的重要內(nèi)容,。另據(jù)《華爾街日報》報道,,5月23日,美國政府正在尋求制定一項國家人工智能戰(zhàn)略,,以防范錯誤信息和該技術(shù)帶來的其他潛在問題,,目前正在向公眾征集意見。種種跡象表明,,AI新技術(shù)帶來的風險與挑戰(zhàn)已越來越引起各個國家和地區(qū)政策法律制定者的關(guān)注與重視,。
在對生成式AI的監(jiān)管規(guī)范方面,國內(nèi)同樣也走在國際前列,。今年4月11日,,國家互聯(lián)網(wǎng)信息辦公室起草了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,向公眾征求意見的時間窗口已于5月10日結(jié)束,。該文件中明確生成式AI應(yīng)遵循的合規(guī)要求,,重點強化了個人信息保護的相關(guān)要求,明確個人信息處理者的法定責任和義務(wù),,還要求生成式AI產(chǎn)品或服務(wù)建立評估備案,、實名制、投訴處理等機制,,豐富了包括人工標注、防沉迷,、內(nèi)容標識等管理措施,,并且規(guī)定了相應(yīng)的處罰措施。
不難預測,,未來一段時間,,AI大模型及各種新應(yīng)用,、新產(chǎn)業(yè)火爆發(fā)展的同時,AI由此帶來的風險也會更多地被重視,,通過立法立規(guī)來約束技術(shù)邊界,、強化監(jiān)管和治理也將成為國際范圍內(nèi)的常態(tài)。
(編輯:吳清 校對:燕郁霞)
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1043676.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。