本報記者 趙姍中國發(fā)展高層論壇2024年年會于3月24日在京召開,。在人工智能發(fā)展與治理專題研討會上,,十幾位中外嘉賓共同研討如何利用好人工智能的機遇,,應(yīng)對好人工智能的挑戰(zhàn),。國務(wù)院發(fā)展研究中心副主任張順喜主持專題研討會,。科學技術(shù)部副部長吳朝暉在作主題發(fā)言時表示,,人工智能將成為第四次工業(yè)革命的標配,,中國政府高度重視人工智能發(fā)展,通過加強人工智能領(lǐng)域科技創(chuàng)新,、推動人工智能深度賦能實體經(jīng)濟,、推進人工智能倫理治理等方面發(fā)展。對于人工智能的發(fā)展趨勢,,吳朝暉認為,,一是人工智能正在邁向多智能融合新階段,以ChatGPT為代表的技術(shù)突破,,打開了邁向通用人工智能的序幕,,大模型已成為主流技術(shù)路線,并加快迭代演進,。二是人工智能將成為第四次工業(yè)革命的標配,,它將推動傳統(tǒng)實體經(jīng)濟實現(xiàn)革命性升級與發(fā)展,從而催生智能經(jīng)濟新形態(tài),,成為發(fā)展新質(zhì)生產(chǎn)力的重要引擎,。三是人工智能將引發(fā)社會發(fā)展的深遠變革,它將廣泛地應(yīng)用于教育,、醫(yī)療,、家政等行業(yè),充分滿足消費者對于自動化,、實時化,、個性化的要求?!拔覀兿Mc世界各國攜手合作,,共同探索人工智能邊界,共享創(chuàng)新成果,,共管風險與挑戰(zhàn),,從而共贏美好未來?!眳浅瘯熣f,。北京智源研究院創(chuàng)始人、創(chuàng)始理事長張宏江在作主題發(fā)言時表示,,當前,,AI進入了一個新的發(fā)展階段,以大模型為代表的階段,,它代表了第四次技術(shù)革命,,帶來了效率的提高,,為我們的生活帶來了諸多方便,將會創(chuàng)造大量的價值以及一個又一個新的產(chǎn)業(yè),。但同時,,人工智能可能導致全球性的災(zāi)難性后果。為了避免這樣的危險發(fā)生,,我們需要劃出紅線,,改進治理機制,同時需要研發(fā)更多安全的技術(shù),,控制人工智能不去跨越這些紅線,。要想做到這一點,最重要的一條是堅持和加強國際科學界和政府間在安全方面的合作,。在小組討論中,,Ver imag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫·希發(fā)基思表示,,人工智能本身既不是好的,,也不是壞的,關(guān)鍵的挑戰(zhàn)是要明智地使用它,,通過規(guī)范來預(yù)防風險,。他認為,有兩種主要風險,,一種是技術(shù)風險,,另一種是人為的風險,這可能是來自于對AI的誤用或者無意中的使用而產(chǎn)生的影響,,可以通過監(jiān)管或者法律的框架來控制,。由于AI所帶來的自動化導致的失業(yè)問題,也可以通過適當?shù)纳鐣邅響?yīng)對,。此外,,還有兩種風險,一個是怎么在選擇和性能之間取得平衡,,如果我們不能確保系統(tǒng)是以公正,、中立的方式使用可靠信息,則不要將決策權(quán)交給系統(tǒng),。另一個是性能的提升是否與人類控制的缺失相平衡,。香港中文大學(深圳)前海國際事務(wù)研究院院長、廣州粵港澳大灣區(qū)研究院理事長鄭永年表示,,人工智能的發(fā)展與治理必須要同時發(fā)展,、同時進步,。美國跟中國在AI領(lǐng)域?qū)嶋H上是互補的,,各有自己的比較優(yōu)勢,,可以互相學習。在治理方面,,在國際社會上,,更需要中美兩個國家在AI治理領(lǐng)域進行合作?;ヂ?lián)網(wǎng)AI最重要的還是要開放,,中國要通過開放向美國學習,把發(fā)展做起來,;美國應(yīng)當向中國的監(jiān)管,、治理方面學習,互相進步,。清華大學蘇世民書院院長薛瀾表示,,人工智能的發(fā)展面臨一系列風險需要防范。從人工智能治理的角度來看,,面臨五大挑戰(zhàn),。一是人工智能的技術(shù)發(fā)展是非常快的,,但是我們治理體系的構(gòu)建相對慢一些,。二是信息不對稱的問題。比如,,企業(yè)不知道政府規(guī)制最關(guān)心的問題在哪兒,;對技術(shù)發(fā)展可能會帶來什么風險,政府不清楚,。三是防范風險的成本要遠遠高于它有可能造成危害的成本,,所以風險治理的成本較高。四是在全球治理方面,,互相之間有重疊甚至也有矛盾的機構(gòu),,都對某個問題有相關(guān)的利益,都希望來參與治理,,使得全球治理體系的形成有很大的困難,。五是人工智能領(lǐng)域的治理,一定要有美國和中國的合作,,但是目前這種地緣政治也會帶來相應(yīng)的一些問題,。怎么去解決上述這些問題?薛瀾建議,,第一,,要加強安全和技術(shù)。目前,在安全領(lǐng)域的研發(fā)是不夠的,,今后在這方面需要加強研究,,尤其是需要加強國際合作。第二,,通過敏捷治理的方式解決治理方面的問題,。第三,,鼓勵企業(yè)的自我規(guī)制,。第四,加強國際治理,。在全球治理方面,,聯(lián)合國剛剛通過了協(xié)議,并且召開高級別專家的討論,。第五,,在人工智能領(lǐng)域,中美雙方一定要加強合作,,這樣才能真正解決人類面臨的各種問題,。清華大學智能產(chǎn)業(yè)研究院院長、中國工程院院士張亞勤表示,,目前,,Sora的能量很大,但是剛剛開始,,未來5年,,我們會看到其在各領(lǐng)域的大規(guī)模應(yīng)用,所以會帶來很多風險,。他認為有三大風險:一是信息世界的風險,。比如,有錯誤的信息,、虛假的信息,。二是在大模型領(lǐng)域獨有的幻覺,但這個風險本身是可控的,。而比較大的風險是,,當把信息智能延伸到物理智能、延伸到生物智能,,在大規(guī)模使用的時候,,會出現(xiàn)風險的規(guī)模化,。三是大模型連接到經(jīng)濟體系,、金融體系、電站、電力網(wǎng)絡(luò)等的風險是相當大的,。怎樣防備這些風險,?張亞勤提出以下五個建議。第一,,標識我們所產(chǎn)生的數(shù)字人或者智能體,。第二,,要有映射和注冊機制,。未來會有很多機器人,但機器人本身是一個從屬體,,不是主體,,必須要映射到主體。第三,,建立分級體制,。對于一般規(guī)模的模型監(jiān)管可以少一點,對于前沿大模型,、萬億級參數(shù)用到物理世界無人車的,、用到金融系統(tǒng)的、用到生物系統(tǒng)監(jiān)管的要多一些,,要分級,。第四,呼吁把10%的經(jīng)費投入到大模型風險的研究中,,這不僅是政策研究,,還有很多算法、技術(shù)的研究,。第五,,人工智能大模型一定不要跨越紅線。紅線可能在不同的時間并不一樣,,但是需要有這個紅線,。中國需要和全球不同人工智能領(lǐng)域一起合作,否則就會有生存風險,。
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1094149.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。