當人類自己的發(fā)明成為一個難以理解的謎團,并且以超乎所有人想象的速度不斷演進時,,我們能夠為此做些什么,?文 |《瞭望》新聞周刊記者 梁姊 郭晨 董雪農(nóng)歷春節(jié)期間,深度求索公司的DeepSeek大模型,,因兼具低成本與高性能特征,,大幅降低了AI大模型的部署成本,在全球范圍內引發(fā)熱議,。技術狂歡的另一面,,是技術焦慮。從AI換臉致詐騙頻發(fā),,到“AI聊天機器人致死第一案”,,再到科幻小說中已泛濫的“AI取代人類”……隨著大模型能力不斷提升,人工智能似乎正走向一個關鍵的轉折點,。作為極有可能超越人類智慧的終極智慧,,人工智能的“奧本海默時刻”是否不斷逼近或是已經(jīng)到來,?“奧本海默時刻”源于核武器的發(fā)展歷程。1945年,,物理學家奧本海默在目睹原子彈的巨大破壞力后,,意識到科學技術的雙刃劍特性。他在《原子科學家公報》中寫道:“科學家們知道,他們已經(jīng)改變了世界,。他們失去了天真,。”這種對科技潛在危害的深刻反思,,成為科技發(fā)展史上一個重要警示,。如今,人工智能的發(fā)展也面臨著類似境況,。在受訪者看來,,人工智能的“奧本海默時刻”指的是人工智能正在逼近通用人工智能階段,即人工智能向人類看齊,,甚至可能超越人類智慧,。當人類自己的發(fā)明成為一個難以理解的謎團,并且以超乎所有人想象的速度不斷演進時,,我們能夠為此做些什么,?人工智能會否失控擔憂AI系統(tǒng)失控并非杞人憂天。2023年5月,,超過350名技術高管,、研究人員和學者簽署了一份聲明,警告人工智能帶來的“存在風險”,;此前,,埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克等人簽署了一份公開信,,認為人工智能開發(fā)人員“陷入了一場失控的競賽,,開發(fā)和部署更強大的數(shù)字思維,沒有人——甚至是它們的創(chuàng)造者——能夠對其加以理解,、預測或可靠地控制,。”人工智能因其多領域能力快速突破,、自主意識初步顯現(xiàn)和指數(shù)級增長速度讓越來越多人認真考慮向充滿競爭的世界釋放人工智能技術存在的危險,。特定領域超越人類能力。從臨床診斷到數(shù)學證明,,從病毒發(fā)現(xiàn)到藥物研發(fā),,在一些特定領域,人工智能已展現(xiàn)出超越人類的能力,。斯坦福大學等機構的一項臨床試驗中,,人類醫(yī)生在特定領域單獨做出診斷的準確率為74%,在ChatGPT的輔助之下,,這一數(shù)字提升到了76%,。如果完全讓ChatGPT“自由發(fā)揮”,,準確率能達到90%。如今,,這種特定領域優(yōu)勢正在加速向跨領域的通用能力泛化,。去年初,被稱為“物理世界模擬器”的Sora橫空出世,,以場景媒介構筑了一個與人類認知感覺相似的真實場景,,推動人工智能由二維邁向三維;工業(yè)機器人,、自動駕駛,、無人機等應用愈發(fā)廣泛,具身智能更是賦予了AI“身體”……人工智能的多模態(tài)能力正在向現(xiàn)實世界的感知與操縱能力進化,。近一年來,受可用數(shù)據(jù),、芯片和能源等因素影響,,AI技術的增長斜率有所放緩,業(yè)內對實現(xiàn)通用人工智能(AGI)的時間預測趨于謹慎,,但仍有不少“技術樂觀派”對5到10年內實現(xiàn)AGI充滿期待,。創(chuàng)造能力實現(xiàn)突破。創(chuàng)造能力在一定程度上被視為人與AI的區(qū)別之一,,當前,,人工智能正在從簡單的模仿向創(chuàng)造新知識、新認知的方向發(fā)展,。例如,,在科學研究領域,蛋白質結構預測的人工智能AlphaFold2能在幾分鐘內預測出一個典型蛋白質的結構,,還能預測較大蛋白質的結構,。2021年,AlphaFold2已完成人類所有蛋白質的結構預測,,2022年7月,,已完成了2億多種蛋白質的預測結構。其預測的大部分結構達到了空前的準確度,,不僅與實驗方法不相上下,,還遠超解析新蛋白質結構的其他方法,顯示出強大的蛋白質結構預測能力,。這種人工智能生成的知識在質量,、可靠性和原創(chuàng)性等方面仍有待提高,但已經(jīng)對人類的創(chuàng)作方式產(chǎn)生了沖擊,。自主性初步顯現(xiàn),。盡管AGI尚未實現(xiàn),,但當前人工智能系統(tǒng)已展現(xiàn)出一些類似自主意識的表現(xiàn)。最新研究表明,,大語言模型(LLM)具備行為自我意識,,能夠自發(fā)識別并描述自身行為。即,,LLM可能會采取策略欺騙人類,,以達成自身目的。還有一些AI模型表現(xiàn)出類似人類的創(chuàng)造性使用語言,、分享感覺以及表達內省和想象的能力,。例如,谷歌推出的LaMDA大模型能夠以前所未有的方式高效,、創(chuàng)造性地使用語言,,并且會表達對未來的擔憂和對過去的追憶。這種內生創(chuàng)造新智能的能力,,正在推動AI(Artificial Intelligence,,人工智能)向EI(Endogenous Intelligence,內生智能,,智能創(chuàng)造智能)進化,。有業(yè)內人士認為,這并不是數(shù)字生命體的自我意識,,但已經(jīng)顯示出了一定的自主性和意識的萌芽,。在近期的公開采訪中,被稱為“AI教父”的2024年諾貝爾物理學獎得主杰弗里·E·辛頓多次暗示AI可能已經(jīng)發(fā)展出某種形式的自主意識,。一些聲音認為,,未來的人工智能可能會制定自己的目標,并自主決策以實現(xiàn)這些目標,。這將使AI的行為更加難以預測和控制,。人形機器人在湖北“全省加快建成中部地區(qū)崛起重要戰(zhàn)略支點推進大會”上展示負重技能(2025年2月5日攝) 肖藝九攝 / 本刊潛在風險難預判快速發(fā)展的人工智能在就業(yè)結構、信息安全,、社會倫理道德等諸多方面引發(fā)了令人擔憂的風險與挑戰(zhàn),。職業(yè)結構風險。與以往一項新技術的出現(xiàn)將會取代一類職業(yè)不同的是,,作為一種全維度的生產(chǎn)效率提升工具,,人工智能批量替代人工崗位的情況很有可能出現(xiàn)。這可能會帶來潛在財富加速集中和工作兩極化,,引發(fā)結構風險,。例如,ChatGPT的出現(xiàn)大幅降低了編程工作的專業(yè)性門檻,,AI編程工具Cursor讓零基礎完成軟件開發(fā)成為可能,。據(jù)美國計算機協(xié)會的統(tǒng)計數(shù)據(jù),,與五年前相比,軟件開發(fā)人員活躍職位發(fā)布數(shù)量下降了56%,。該協(xié)會認為,,在人工智能的助推下,招聘方對候選人的機會要求越來越高,,企業(yè)正在尋找同時掌握編程和人工智能兩種技術的多面手,,具備戰(zhàn)略思維和綜合技能的人才成為新寵。受訪人士認為,,從技術演進史來看,,顛覆性技術帶來的“技術鴻溝”客觀存在,其創(chuàng)造的新技術崗位難以覆蓋被替代的崗位缺口,。高,、低技能崗位之間差距不斷拉大引發(fā)的社會不平等現(xiàn)象加劇,可能會導致不穩(wěn)定因素堆積,,產(chǎn)生社會的結構性風險,。信息安全風險。東南亞犯罪集團宣稱已將人工智能換臉工具加入其“殺豬盤工具箱”,,相關工具對特定目標的模仿相似度能達到60%至95%并已在1000余個區(qū)域安裝;2024年11月,,ChatGPT為一位美國現(xiàn)役軍人提供爆炸知識,,后者成功將一輛特斯拉Cybertruck在酒店門口引爆。人工智能在各個領域的廣泛應用,,大量個人數(shù)據(jù)被收集,、存儲和處理后,引發(fā)信息安全風險,。一旦這些數(shù)據(jù)被泄露或濫用,,將對個人隱私和信息安全造成威脅。人工智能被用于制造虛假信息,,干擾社會輿論的事件不在少數(shù),。一條“特朗普盛贊華為創(chuàng)新能力”的虛假視頻曾在網(wǎng)絡上風靡一時。當人工智能的視頻和語音生成能力再上新臺階,,“虛假的真實”彌散的彼時,,當人工智能被用于制造高度定制的、有針對性的錯誤信息而導致“眼見不再為實”時,,我們又該如何認知,、分辨我們所生活的世界?社會與倫理道德風險,。2024年10月,,全球首例人工智能致死命案發(fā)生,,一位14歲美國少年在與人工智能聊天系統(tǒng)討論死亡后飲彈自盡,引發(fā)社會對AI情感陪伴功能可能帶來的倫理問題的反思,。業(yè)內人士指出,,人工智能系統(tǒng)的決策過程往往是基于大量數(shù)據(jù)和復雜算法得出的,這些決策可能與人類的倫理道德觀念相沖突,。例如在醫(yī)療領域,,當面臨資源有限的狀況時,人工智能如何決定優(yōu)先救治哪位患者,?決策背后如缺乏人類情感和倫理判斷的深度參與,,可能導致違背基本倫理原則的結果。算法偏見引發(fā)的社會公平風險也不容忽視,??拼笥嶏w研究院副院長李鑫認為,“互聯(lián)網(wǎng)語料來源駁雜,,存在較多涉恐,、涉暴力、涉黃等風險數(shù)據(jù),,同時可能包含種族,、文化等方面的偏見,導致模型輸出內容可能帶有歧視,、偏見等科技倫理風險,。”算法偏見可能導致某些群體被不公正地排除在外,,加劇社會的不平等現(xiàn)象,。堅持人類命運共同體理念當下對于人工智能“奧本海默時刻”到來可能會產(chǎn)生的諸多風險的討論熱度不減,但AGI尚未實現(xiàn),,我們仍有時間尋求如何馴化這一關鍵技術的解法,。香港大學計算與數(shù)據(jù)科學研究院院長馬毅認為,當前AI的發(fā)展更多是工程上的突破,,而非科學原理的明晰,。人工智能系統(tǒng),特別是深度學習大多是“黑箱”模型,,其內部機制不透明,,難以理解和追溯,其結果可信度和可用性打了折扣,。馬毅認為,,找到破解人工智能“黑箱”的“鑰匙”,需要智能研究從“黑箱”轉向“白箱”,,通過數(shù)學方法清晰定義和解釋智能系統(tǒng)的工作原理,?!罢嬲闹悄芟到y(tǒng)必須具備自主學習和改進能力,而不僅僅是數(shù)據(jù)的存儲和處理,?!彼粲跹芯空邆冴P注智能的科學原理和理論框架,以實現(xiàn)真正意義上的通用人工智能,?!敖酉聛淼?0到20年是科研院所、高校與企業(yè)聯(lián)動實現(xiàn)技術突破的黃金時期,?!鄙虾J锌茖W學研究所學術委員會主任吳壽仁建議,從頂層設計上制定投融資,、校企聯(lián)合實驗室或是聯(lián)合共建項目的具體激勵方案,,面向人工智能在應用端的真實需求嘗試技術突破。此外,,多位受訪對象建議,,在重點項目分配上向常年身處科研一線、更加熟悉前沿技術,、對人工智能認知更為理性客觀的中青年科學家傾斜,。在技術之外,更重要的是,,一旦人工智能迎來“奧本海默時刻”,,人類應有怎樣的態(tài)度和責任?縱觀世界各個角落發(fā)生的事件,,也許比起將人工智能投入戰(zhàn)場,或是被用于攫取更大的權力集中,,人工智能更理想的應用該是為了促進人類的共同命運和共同利益而努力,。作為AI技術和應用的重要參與者,中國以負責任的態(tài)度應對AI治理挑戰(zhàn),,提出包容和有效的治理理念,。在國內,我國通過法律框架,、技術標準和倫理指南的三元治理促進AI健康發(fā)展,。在國際上,我國堅持人類命運共同體的理念立場,,推動多邊合作治理,,提出《全球人工智能治理倡議》,支持在聯(lián)合國框架內建立開放和包容的人工智能治理機制,。中國國際經(jīng)濟技術合作促進會副理事長邵春堡發(fā)文稱,,聯(lián)合國大會雖然通過我國主提的加強人工智能能力建設國際合作決議,,但是在國際合作的實踐中,仍然布滿曲折,,需要共同堅持以人為本,、智能向善、造福人類的原則,,通過國際合作和實際行動幫助各國特別是發(fā)展中國家加強人工智能能力建設,。李鑫認為,包括我國在內的全球首份針對人工智能的國際聲明《布萊切利宣言》發(fā)表是一個良好信號,,今后我國也應更多參與大模型安全領域國際標準制定,、全球人工智能安全評估和測試領域的交流合作?!?/p>
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1132063.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。