中新網(wǎng)3月26日電 中國發(fā)展高層論壇2024年年會于2024年3月24-25日舉行,。3月24日下午舉行了“人工智能發(fā)展與治理專題研討會”,清華大學智能產(chǎn)業(yè)研究院院長,、中國工程院院士張亞勤在“小組討論二”環(huán)節(jié)的發(fā)言中表示:各國要在全球智能領(lǐng)域共同合作,,將人工智能紅線作為社會風險共同應對。張亞勤簡要總結(jié)了人工智能大模型的發(fā)展趨勢,,一是多模態(tài),、多尺度、跨模態(tài)的新智能,;二是未來五年要在整個架構(gòu)上有大的突破,,追隨尺度定律(Scaling Law),但未必是transformer模型結(jié)構(gòu),;三是智能逐漸向“人工智能手機”“人工智能PC”邊緣側(cè)延伸,;四是可以實現(xiàn)定義任務、規(guī)劃路徑,、自我升級,、自我編碼等的自主智能;五是信息式智能逐漸走向物理世界,;六是大模型與生物體連結(jié)的生物智能,。張亞勤認為,未來五年隨著各大領(lǐng)域大規(guī)模應用人工智能技術(shù),將帶來三方面風險,,包括:信息世界的風險,,包含錯誤、虛假信息的風險,;已經(jīng)出現(xiàn)的大模型幻覺問題,,隨著信息智能大規(guī)模應用延伸至物理智能、生物智能時,,風險也會規(guī)?;淮竽P团c經(jīng)濟體系,、金融體系,、軍事系統(tǒng)、電力網(wǎng)絡相連接的風險,。如何防范這些風險問題,,張亞勤提出五個長期建議。一是像標識廣告一樣,,對人工智能生產(chǎn)的數(shù)字人等智能體進行標識,。二是設立映射和注冊機制。明確機器人作為從屬體,,必須映射到主體,,這個主體可以是人或公司等法定實體,如果機器人出現(xiàn)問題,,就可以追溯主體責任,。三是建立分級監(jiān)管體制機制。對應用在物理世界,、生物系統(tǒng)等不同領(lǐng)域的大模型,分級監(jiān)管,。四是加大對大模型風險研究的投入,,呼吁政府、科學家,、技術(shù)從業(yè)者和企業(yè)家共同參與,,一邊發(fā)展,一邊治理,。五是制定人工智能發(fā)展的紅線,。目前北京人工智能國際安全對話已經(jīng)達成了《北京AI安全國際共識》,提出人工智能發(fā)展的紅線,。各國要在全球智能領(lǐng)域共同合作,,將人工智能紅線作為社會風險共同應對。
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請注明出處:http://lequren.com/1094242.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。