中新社北京3月25日電 (王夢(mèng)瑤)當(dāng)前,,人工智能成為各國發(fā)展重點(diǎn),,如何與人工智能共存,,并在保證其安全可控的前提下更好造福人類社會(huì),成為全球共同挑戰(zhàn),。24日,,政界、學(xué)界,、企業(yè)界人士齊聚中國發(fā)展高層論壇“人工智能發(fā)展與治理專題研討會(huì)”,,共商人工智能安全治理。北京智源研究院創(chuàng)始人,、創(chuàng)始理事長(zhǎng)張宏江用“震撼”一詞形容Sora,。他表示,Sora可以根據(jù)文字提供一段現(xiàn)實(shí)世界無法拍攝出來的逼真場(chǎng)景,,多模態(tài)大模型還可以通過“櫻花和雪天無法同時(shí)出現(xiàn)”以及雪片的均勻程度判斷視頻是否由人工生成,,甚至可以思考、推理而非以往機(jī)械式地執(zhí)行命令?!叭祟愖龀龅淖顐ゴ蟮陌l(fā)明就是人工智能,,毋庸置疑,它也是最具風(fēng)險(xiǎn)和最危險(xiǎn)的創(chuàng)新,?!备L厮箍私饘偌瘓F(tuán)執(zhí)行董事長(zhǎng)安德魯·福瑞斯特表示,人類的DNA幾十年甚至幾百年才能有一些改善,,但是AI卻能以光速不斷完善,。“AI的學(xué)習(xí)能力超過人類的平均學(xué)習(xí)能力”,,張宏江同樣表示,,人類的學(xué)習(xí)能力是一條平緩的直線,但是機(jī)器的學(xué)習(xí)能力是一條指數(shù)曲線,,兩線相交后人類的學(xué)習(xí)能力將落后于機(jī)器,。更可怕的是,當(dāng)系統(tǒng)本身有能力自我改善時(shí),,可能會(huì)帶來全球性的災(zāi)難后果,,他提醒。香港中文大學(xué)(深圳)前海國際事務(wù)研究院院長(zhǎng),、廣州粵港澳大灣區(qū)研究院理事長(zhǎng)鄭永年則拿原子彈進(jìn)行類比,,稱原子彈是人類掌握的第一個(gè)自我毀滅的工具,“我們現(xiàn)在又多了一樣”,,“如果人工智能和核武器結(jié)合起來會(huì)更糟糕”,。如何避免這種災(zāi)難性后果,給人工智能發(fā)展勒好韁繩,?這個(gè)問題顯得比以往任何時(shí)候都更為重要,。Verimag實(shí)驗(yàn)室創(chuàng)始人、2007年圖靈獎(jiǎng)得主約瑟夫·希發(fā)基思直言,,一些國際會(huì)議正在討論建立全球監(jiān)管框架的問題,,但達(dá)成全球人工智能監(jiān)管框架的機(jī)會(huì)比較渺茫。然而近期達(dá)成的《北京 AI安全國際共識(shí)》在人工智能監(jiān)管方面仍取得了可喜突破,。張宏江強(qiáng)調(diào),,最重要的是劃出了安全紅線:人工智能不能自主復(fù)制或改進(jìn),不能尋求權(quán)力,,不能協(xié)助不良行為,,尤其是大規(guī)模殺傷性武器、生化武器和制造大規(guī)模網(wǎng)絡(luò)災(zāi)難,,不能欺騙人類,,這些紅線不可逾越,。清華大學(xué)智能產(chǎn)業(yè)研究院院長(zhǎng)、中國工程院院士張亞勤的建議則更趨具體,,他建議將機(jī)器人與其背后的人或公司關(guān)聯(lián),,以便追溯實(shí)體責(zé)任,同時(shí)建立監(jiān)管分級(jí)體制,,根據(jù)風(fēng)險(xiǎn)大小確定不同程度的監(jiān)管標(biāo)準(zhǔn),。持續(xù)深化人工智能安全治理,合作的重要性被反復(fù)提及,。鄭永年稱,,美國和中國的人工智能發(fā)展各有比較優(yōu)勢(shì),在治理方面需要兩個(gè)國家進(jìn)行合作,。中國科學(xué)技術(shù)部副部長(zhǎng)吳朝暉也在發(fā)言中指出,,世界各國應(yīng)攜手一道,以高度負(fù)責(zé)任的態(tài)度推動(dòng)人工智能的發(fā)展,,堅(jiān)持智能向善,、智能向上,確保人工智能始終處于人類的控制之下,,從而實(shí)現(xiàn)安全,、可靠,、可控,。(完)
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1094166.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎,。本資訊不作為投資理財(cái)建議。