本報記者 趙姍中國發(fā)展高層論壇2024年年會于3月24日在京召開。在人工智能發(fā)展與治理專題研討會上,,十幾位中外嘉賓共同研討如何利用好人工智能的機遇,,應對好人工智能的挑戰(zhàn),。國務院發(fā)展研究中心副主任張順喜主持專題研討會??茖W技術部副部長吳朝暉在作主題發(fā)言時表示,,人工智能將成為第四次工業(yè)革命的標配,中國政府高度重視人工智能發(fā)展,,通過加強人工智能領域科技創(chuàng)新,、推動人工智能深度賦能實體經(jīng)濟、推進人工智能倫理治理等方面發(fā)展,。對于人工智能的發(fā)展趨勢,,吳朝暉認為,一是人工智能正在邁向多智能融合新階段,以ChatGPT為代表的技術突破,,打開了邁向通用人工智能的序幕,,大模型已成為主流技術路線,并加快迭代演進,。二是人工智能將成為第四次工業(yè)革命的標配,,它將推動傳統(tǒng)實體經(jīng)濟實現(xiàn)革命性升級與發(fā)展,從而催生智能經(jīng)濟新形態(tài),,成為發(fā)展新質生產力的重要引擎,。三是人工智能將引發(fā)社會發(fā)展的深遠變革,它將廣泛地應用于教育,、醫(yī)療,、家政等行業(yè),充分滿足消費者對于自動化,、實時化,、個性化的要求?!拔覀兿Mc世界各國攜手合作,,共同探索人工智能邊界,共享創(chuàng)新成果,,共管風險與挑戰(zhàn),,從而共贏美好未來?!眳浅瘯熣f,。北京智源研究院創(chuàng)始人、創(chuàng)始理事長張宏江在作主題發(fā)言時表示,,當前,,AI進入了一個新的發(fā)展階段,以大模型為代表的階段,,它代表了第四次技術革命,,帶來了效率的提高,為我們的生活帶來了諸多方便,,將會創(chuàng)造大量的價值以及一個又一個新的產業(yè),。但同時,人工智能可能導致全球性的災難性后果,。為了避免這樣的危險發(fā)生,,我們需要劃出紅線,改進治理機制,,同時需要研發(fā)更多安全的技術,,控制人工智能不去跨越這些紅線,。要想做到這一點,最重要的一條是堅持和加強國際科學界和政府間在安全方面的合作,。在小組討論中,,Ver imag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫·希發(fā)基思表示,,人工智能本身既不是好的,也不是壞的,,關鍵的挑戰(zhàn)是要明智地使用它,,通過規(guī)范來預防風險。他認為,,有兩種主要風險,,一種是技術風險,另一種是人為的風險,,這可能是來自于對AI的誤用或者無意中的使用而產生的影響,,可以通過監(jiān)管或者法律的框架來控制。由于AI所帶來的自動化導致的失業(yè)問題,,也可以通過適當?shù)纳鐣邅響獙?。此外,還有兩種風險,,一個是怎么在選擇和性能之間取得平衡,,如果我們不能確保系統(tǒng)是以公正、中立的方式使用可靠信息,,則不要將決策權交給系統(tǒng),。另一個是性能的提升是否與人類控制的缺失相平衡。香港中文大學(深圳)前海國際事務研究院院長,、廣州粵港澳大灣區(qū)研究院理事長鄭永年表示,,人工智能的發(fā)展與治理必須要同時發(fā)展、同時進步,。美國跟中國在AI領域實際上是互補的,,各有自己的比較優(yōu)勢,可以互相學習,。在治理方面,,在國際社會上,更需要中美兩個國家在AI治理領域進行合作,?;ヂ?lián)網(wǎng)AI最重要的還是要開放,中國要通過開放向美國學習,,把發(fā)展做起來,;美國應當向中國的監(jiān)管,、治理方面學習,互相進步,。清華大學蘇世民書院院長薛瀾表示,,人工智能的發(fā)展面臨一系列風險需要防范。從人工智能治理的角度來看,,面臨五大挑戰(zhàn),。一是人工智能的技術發(fā)展是非常快的,,但是我們治理體系的構建相對慢一些,。二是信息不對稱的問題。比如,,企業(yè)不知道政府規(guī)制最關心的問題在哪兒,;對技術發(fā)展可能會帶來什么風險,政府不清楚,。三是防范風險的成本要遠遠高于它有可能造成危害的成本,,所以風險治理的成本較高。四是在全球治理方面,,互相之間有重疊甚至也有矛盾的機構,,都對某個問題有相關的利益,都希望來參與治理,,使得全球治理體系的形成有很大的困難,。五是人工智能領域的治理,一定要有美國和中國的合作,,但是目前這種地緣政治也會帶來相應的一些問題,。怎么去解決上述這些問題?薛瀾建議,,第一,,要加強安全和技術。目前,,在安全領域的研發(fā)是不夠的,,今后在這方面需要加強研究,尤其是需要加強國際合作,。第二,,通過敏捷治理的方式解決治理方面的問題。第三,,鼓勵企業(yè)的自我規(guī)制,。第四,加強國際治理,。在全球治理方面,,聯(lián)合國剛剛通過了協(xié)議,,并且召開高級別專家的討論。第五,,在人工智能領域,,中美雙方一定要加強合作,這樣才能真正解決人類面臨的各種問題,。清華大學智能產業(yè)研究院院長,、中國工程院院士張亞勤表示,目前,,Sora的能量很大,,但是剛剛開始,未來5年,,我們會看到其在各領域的大規(guī)模應用,所以會帶來很多風險,。他認為有三大風險:一是信息世界的風險,。比如,有錯誤的信息,、虛假的信息,。二是在大模型領域獨有的幻覺,但這個風險本身是可控的,。而比較大的風險是,,當把信息智能延伸到物理智能、延伸到生物智能,,在大規(guī)模使用的時候,,會出現(xiàn)風險的規(guī)模化,。三是大模型連接到經(jīng)濟體系,、金融體系、電站,、電力網(wǎng)絡等的風險是相當大的,。怎樣防備這些風險?張亞勤提出以下五個建議,。第一,,標識我們所產生的數(shù)字人或者智能體。第二,,要有映射和注冊機制,。未來會有很多機器人,但機器人本身是一個從屬體,,不是主體,,必須要映射到主體,。第三,建立分級體制,。對于一般規(guī)模的模型監(jiān)管可以少一點,,對于前沿大模型、萬億級參數(shù)用到物理世界無人車的,、用到金融系統(tǒng)的,、用到生物系統(tǒng)監(jiān)管的要多一些,要分級,。第四,,呼吁把10%的經(jīng)費投入到大模型風險的研究中,這不僅是政策研究,,還有很多算法,、技術的研究。第五,,人工智能大模型一定不要跨越紅線,。紅線可能在不同的時間并不一樣,但是需要有這個紅線,。中國需要和全球不同人工智能領域一起合作,,否則就會有生存風險。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1094149.html
溫馨提示:投資有風險,,入市須謹慎。本資訊不作為投資理財建議,。