作為今年以來最“出圈”的一項科技,,生成式人工智能大模型吸引了全球的目光,。對于AI(人工智能)將如何改變千行百業(yè),?人工智能是否已經(jīng)擁有了科幻電影里超越人類的能力?人類如何應(yīng)對AI的挑戰(zhàn),?不乏有專家發(fā)表真知灼見,。近日,新京報貝殼財經(jīng)記者對曾在聯(lián)合國安全理事會就人工智能議題發(fā)言,,被《時代周刊》評為“全球百大AI人物”之一的中國科學院自動化研究所研究員,、人工智能倫理與治理中心主任曾毅進行了專訪。曾毅教授對當前AI大模型熱潮下,,人類在技術(shù)上是否可能觸及通用人工智能,,生成式大模型的發(fā)展可能會對社會造成何種影響,以及如何看待當前國內(nèi)AI大模型“百模大戰(zhàn)”態(tài)勢等多個問題進行了回應(yīng),。曾毅認為,,當前階段的人工智能是“看似智能的信息處理工具”,距離真正擁有意識的通用人工智能還有相當距離,。人工智能所帶來的問題并不僅僅是科學,、技術(shù)和產(chǎn)品層面的,,還有社會層面,人類應(yīng)該對此做好準備,。對于生成式人工智能大模型存在的重大問題,,曾毅認為倫理安全隱患是目前最不可忽視的,必須為每一個介入社會應(yīng)用的人工智能服務(wù)構(gòu)建倫理安全框架,,用“教育大模型知善知惡,、為善去惡”的方式來解決。而在人才培養(yǎng)方面,,人工智能人才不應(yīng)該只聚焦于算法算力相關(guān)人才培養(yǎng),,社會學、人類學,、心理學,,甚至哲學、倫理等都應(yīng)當納入未來人工智能體系的培養(yǎng)中,。談入選人工智能不僅是科學問題,,還是社會問題新京報貝殼財經(jīng):此次你被《時代周刊》評為“全球百大AI人物”,與你同時入選的還有馬斯克,、黃仁勛,、李彥宏、李開復(fù)等業(yè)界知名人士,,你怎么看待這項榮譽,?曾毅:被評為“全球百大AI人物”是直接通知結(jié)果的,《時代周刊》八月份給我發(fā)了一封郵件,,告訴我入選了,,其實入選前沒有給《時代周刊》提交過任何材料。我入選的是“思想者(Thinker)”系列,,覺得也是一個長期積累的過程,,應(yīng)該是對我和我的團隊開展類腦人工智能及人工智能倫理與治理研究和實踐的認可,出現(xiàn)在這個名單中對我和團隊在這個領(lǐng)域的耕耘是一份重要的鼓勵,。就像斯皮爾伯格的電影《AI》中的情節(jié),,如果機器人能愛人,那人應(yīng)該怎么做,?這是一個社會問題,。我曾被邀請參加了一次德國總統(tǒng)施泰因邁爾訪華時的小型研討會,在這一過程中我提問,,德國人工智能倫理是由科技部門制定還是其他部門制定,?對方回答:倫理問題是一個社會問題,因此在德國制定人工智能倫理規(guī)范時,,進行的是社會辯論,,在社會場景下討論這個問題。這說明,,人工智能本身起源于一種科學暢想,,但在大規(guī)模應(yīng)用于社會時,它成為了一種社會賦能技術(shù),。然而,,它不僅僅會賦能社會,還可能對社會產(chǎn)生負面影響,,因此我們需要做好準備,,不光在科學方面,還有社會方面,,這需要在科技哲學視角作出深刻的思考作為指引,。此次入選“全球百大AI人物”,我最受益的地方是向其他99名入選者學習他們的思想和成就,,在這之中不乏有人工智能學術(shù)界領(lǐng)先的學者和企業(yè)代表,。在這99人里面,我發(fā)現(xiàn)幾乎沒有對人工智能在科技或應(yīng)用方面的進展所造成的社會問題一點都不關(guān)注的,。入選者中,,除了產(chǎn)業(yè)界和學術(shù)界的人物外,還有另外兩類典型,,是科幻作家和用人工智能進行藝術(shù)創(chuàng)作的引領(lǐng)者,,其中科幻對未來提出了若干種可能性,對科學的發(fā)展毋庸置疑也是有啟發(fā)作用的,。所以反觀100人的名單列表,,我認為此次評選的作用不僅僅是對這100人的認可,更重要的是引起學術(shù)界,、產(chǎn)業(yè)界,、公眾對未來的反思,所以我覺得應(yīng)該從社會倫理等更多視角反思人工智能對當代社會和未來社會的意義,,以及作為更長遠的科學意義上的人工智能應(yīng)當何去何從,。新京報貝殼財經(jīng):我們應(yīng)該如何應(yīng)對生成式人工智能大模型可能對社會造成的影響?曾毅:人工智能目前已經(jīng)快速演變?yōu)榭萍及l(fā)展引起的社會問題,,需要從社會層面去討論,,既不能停留在科學家的層面,更不能僅僅停留在人工智能相關(guān)產(chǎn)業(yè)層面去制定相關(guān)規(guī)范,,必須有公眾參與和政府引導,。目前,不論文字工作者還是藝術(shù)工作者都受到了人工智能不同程度的挑戰(zhàn),。真正的智能實際上有兩個因素很關(guān)鍵,,一個是自我,,一個是理解。任何一個文字工作者和藝術(shù)工作者,,都對于社會,、自然有基于自我的體驗和理解。包括采訪這件事情,,記者的背景和興趣不同,,提出的問題也完全不同。現(xiàn)在的人工智能沒有自我,,當你在使用生成式人工智能大模型時,,人工智能是在沒有科學意義上“我”的概念前提下以“我建議、我認為”來與用戶溝通,,這其實在混淆人與現(xiàn)代人工智能之間的界限,,目前的人工智能并非也沒有能力作為責任主體,不能承擔任何責任,。目前,,人工智能創(chuàng)作有可能替代相對平庸的作品,但無法替代大師的杰作,。因此,,人工智能倒逼藝術(shù)工作者和文字工作者進行對藝術(shù)本質(zhì)的反思,實際上提出了更高的要求,,人工智能的發(fā)展應(yīng)該讓人類所從事的職業(yè)回歸到正確的位置,。談現(xiàn)狀現(xiàn)階段AI大模型只是工具,距離通用人工智能還很遠新京報貝殼財經(jīng):今年以來,,AI大模型熱潮的一大討論點是,,我們目前是否已經(jīng)實現(xiàn)了通用人工智能?對此你怎么看,?曾毅:我認為ChatGPT的成功跟當年深度學習的廣泛應(yīng)用非常相似,,最本質(zhì)的科學原理可能幾十年前就已經(jīng)存在,但如此大規(guī)模的數(shù)據(jù)支撐和計算體系結(jié)構(gòu)對于訓練大規(guī)模參數(shù)的人工智能引擎來說,,在幾十年前甚至5年前都難以想象,。盡管科學原理相對清晰,但在用戶體驗層面,,通過大規(guī)模的工程計算達到了前所未有的高度,。我們之前考慮,如果大規(guī)模的語料可以達到或近似整個人類互聯(lián)網(wǎng)的規(guī)模,,計算系統(tǒng)是否就真正能理解了人類的語言,?從用戶體驗的角度來看,看上去似乎已經(jīng)真正理解了,但從科學原理來說,,它仍然是處理的過程,。目前的AI大模型,是一個看似智能的信息處理過程,,但從它仍然會大規(guī)模地犯人類不犯的錯誤,,就能夠知道,它仍然是處理過程,,而非真正理解。現(xiàn)在的人工智能并沒有逃脫“看似智能的信息處理工具”這一階段,,當前并非人工智能的終極階段,。生成式人工智能大模型或者基礎(chǔ)模型,現(xiàn)在已經(jīng)達到了多任務(wù)信息處理器的階段,,所以可以用它做很多任務(wù),,但當它泛化到新任務(wù)中,解決沒有見過的問題的能力仍然是有限的,。人類的認知功能有400多種,,對于解決從未見過的問題,生成式人工智能大模型與人類復(fù)雜的認知功能,,以及復(fù)雜認知功能產(chǎn)生的自組織相比,,仍有較長的距離。學術(shù)上,,有很多研究者曾嚴肅評估過通用人工智能何時到來,。平均來說,絕大多數(shù)人工智能學者認為,,通用人工智能距離現(xiàn)在還有80年到90年,,而機器人學者則認為需要將近100年。而谷歌和OpenAI都聲明在10到15年實現(xiàn)通用人工智能,,我覺得在這一時間段內(nèi)可能會實現(xiàn)信息處理的通用平臺,,但要實現(xiàn)真正意義的像人類一樣擁有自我、情感,、意識的通用人工智能,,我仍然并不樂觀。新京報貝殼財經(jīng):請展望一下人工智能大模型的未來,,你認為AI大模型在人類社會未來的發(fā)展中將扮演什么角色,?曾毅:在當前階段,包括一般企業(yè)所提到的基礎(chǔ)模型和通用人工智能技術(shù),,它們的定位應(yīng)該是未來具備理解能力的智能信息處理工具,,能夠更好地輔助人類。因此,,我認為基礎(chǔ)模型這塊應(yīng)該朝這個方向發(fā)展,。在日本,、韓國以及部分中國文化背景中,尤其是日本的人工智能原則強調(diào),,未來人工智能可能扮演社會的準成員,,甚至是人類伙伴的角色。日本的人工智能原則中最后一條規(guī)定,,如果未來AI發(fā)展到準成員或人類伙伴階段,,它們需要遵守人類社會的倫理道德規(guī)范以及為人工智能制定的倫理道德規(guī)范。而西方科幻中,,人工智能扮演了很多反派的角色,,是人類的敵人。所以AI大模型在未來的角色無非三種:工具,、伙伴或者敵人,。目前,通用的人工智能技術(shù)正在往工具方向走,,也可能就停留在工具本身,,社會的準成員、人類伙伴角色仍然在探索中,,敵人則是我們最不想見到并且應(yīng)當極力防范的,。未來社會的構(gòu)成是隨著自然演化生成的有生命的個體,以及隨著人工智能演化生成的看似有生命的智能體構(gòu)成的社會,。在這個社會中,,人工智能體與人類智能以及其他動物智能是否能夠和諧共生,我認為最終并不一定取決于人工智能,,而是取決于人類是否能夠加速演化,。對于“加速演化”,我指的是在人類與生態(tài)關(guān)系認知層面的演化,,比如實際上我們現(xiàn)在沒有給超級智能任何有實際說服力的理由讓它們來保護人類,,同時現(xiàn)在人類對其他生命也沒有足夠的尊重。當人工智能視人類就像人類視螻蟻一樣時,,人工智能保護人類的理由是什么呢,?所以,未來共生社會的倫理體系需要重新塑造,,我們現(xiàn)在認為自己是地球的統(tǒng)帥,,但當超級智能的智慧水平超越人類時,我們與其他類型生命體交互和共生的方式可能需要發(fā)生改變,。我對人工智能演化的速度有信心,,但對人類認知自然,與生態(tài)相處的方式演化的速度,我并不是很有信心,,因為人類在歷史上不斷犯曾經(jīng)犯過的錯誤,,所以加速演化的人工智能應(yīng)當促使人類社會在與生態(tài)中其他生命體的關(guān)系認知與實踐方面加速演化。談發(fā)展人工智能可提供更好交互服務(wù),,AI創(chuàng)造的紅利應(yīng)分配給被替代的人新京報貝殼財經(jīng):當前,,許多企業(yè)都表示將把大模型能力接入自己旗下的產(chǎn)品,對此你怎么看,?曾毅:從企業(yè)的角度來看,,引入大模型的能力是否能為人們提供更便捷的服務(wù)和更好的用戶體驗,用戶是最終的判斷者,。實際上,,目前ChatGPT的用戶數(shù)量正在逐漸縮水。從產(chǎn)業(yè)人工智能的角度來看,,我認為人工智能發(fā)展的這一階段不應(yīng)該承諾太多。另一方面,,人們是否真的需要所謂的“機遇”,?當大家談?wù)撋墒饺斯ぶ悄芸梢詫懶侣劯鍟r,作為一個人工智能研究者,,我并沒有動機關(guān)注它寫的稿子,。當一個記者進行實地采訪時,他所選擇的視角,,傳遞的價值觀是對社會的詮釋,。而現(xiàn)在的人工智能即便能達到“理解”事實的階段,也只是對“事實”的反映,,沒有真正基于自身經(jīng)驗的體悟,,價值觀的反思,現(xiàn)在看人工智能寫出的稿件,,很難看到真正的“洞見”,。我們可以探索,讓人工智能提供更好的交互式服務(wù),,我認為未來很多App可以有一個相對統(tǒng)一的接口,,以交互式形式提供服務(wù)。當需求聚焦在某個領(lǐng)域時,,它是一個“受限域”,信息處理的復(fù)雜度相對較低,,而且生成式人工智能還在不斷進步,在交互式服務(wù)方面取得更上一層樓的用戶體驗,,我對這點充滿信心,。但在大規(guī)模內(nèi)容生產(chǎn)方面,我們還是要小心謹慎。有研究證明,,當把人工智能生成的語料作為大數(shù)據(jù)訓練的語料反哺人工智能訓練時,,模型性能會退化。我不太愿意看到互聯(lián)網(wǎng)上充斥著大量人工智能生成的內(nèi)容這也算是理由之一,。人工智能作為一種交互式手段,,在內(nèi)容生產(chǎn)過程中起到輔助分析、提供素材和骨架的作用,,為文字工作者在基礎(chǔ)階段提供支撐,,我認為這些都是好的。生成式人工智能目前可以作為輔助工具,,但作為責任生產(chǎn)者,,至少現(xiàn)階段還“不夠格”。新京報貝殼財經(jīng):目前,,一些行業(yè)已經(jīng)應(yīng)用了大模型的能力,,如果未來人工智能大規(guī)模進入產(chǎn)業(yè)端并開始應(yīng)用,可能對社會產(chǎn)生什么影響,?曾毅:從產(chǎn)業(yè)應(yīng)用的角度,,大家都在探索生成式人工智能的機遇,可以說從用戶體驗上若干個傳統(tǒng)行業(yè)都已經(jīng)達到了前所未有的新的體驗,,這是毋庸置疑的,。但我想提到的是,人工智能在介入和服務(wù)社會時,,我們要更及時地探索人工智能如何適度使用,?哪些任務(wù)現(xiàn)在應(yīng)當被人工智能所替代?是否沒有任何風險,?或者至少人工智能不犯人類也不會犯的錯誤,。要替代,至少要確保在一般情況下比人做得好,。如果達到這個條件,,我覺得我們可以做一個探索,但由此也顯然會引發(fā)社會問題,。當大規(guī)模替代影響了人類勞動,,此時人工智能所創(chuàng)造的紅利是被應(yīng)用人工智能技術(shù)的企業(yè)所占有,還是被人工智能公司所占有,?還是說一部分紅利應(yīng)該分配給被替代的人,?這就變成了問題。當人工智能進行勞動替代時,,必須進行基于數(shù)據(jù)的訓練,,這些數(shù)據(jù)大多數(shù)來自傳統(tǒng)行業(yè)的人工的行為或思維輸出,。當你利用大規(guī)模收集的數(shù)據(jù)訓練人工智能時,實際上這些數(shù)據(jù)對人工智能的啟發(fā)都來自于數(shù)據(jù)貢獻者,。但是現(xiàn)在似乎沒有一個合理的形式,,反哺被替代的人的貢獻,比如我們現(xiàn)在錄一個小時的數(shù)據(jù)用于大規(guī)模數(shù)據(jù)訓練,,最終一個小時要給你100塊錢或1000塊錢,。但訓練成功后,你失去了未來的工作,。在這種情況下,,人工智能紅利的分配是否合理?在我看來,,現(xiàn)在社會還沒有準備好,,所以人工智能的應(yīng)用機遇確實達到了前所未有的階段,但對于社會的挑戰(zhàn)也是前所未有的,。當我們的社會沒有準備好時,,人工智能絕對不能無所不在,應(yīng)當適度使用,。談問題應(yīng)通過倫理安全框架“教育”大模型善惡是非新京報貝殼財經(jīng):今年7月你所在的團隊發(fā)布了“智善?如流”人工智能倫理道德與社會規(guī)范的群智數(shù)據(jù)與知識平臺,,現(xiàn)在已經(jīng)兩個多月,用戶有什么反饋,?曾毅:科學界在AIGC的發(fā)展浪潮中需要與公眾在一起為人工智能把脈、把關(guān),,發(fā)聲并引導人工智能健康穩(wěn)健發(fā)展,,我們希望人工智能可以“從善如流”,所以我們創(chuàng)造了一些手工編寫的場景并在此基礎(chǔ)上用AIGC創(chuàng)造相似的場景,,隨后邀請人和機器人判斷這些場景是否合乎道德,,當前有數(shù)萬種場景以及互聯(lián)網(wǎng)上用戶的判斷。目前有兩類反饋很有趣,,一類是學術(shù)界和產(chǎn)業(yè)界問所有結(jié)果能否開源,,對此我的回答是肯定的,因為平臺存在的目的就是為了推動人工智能朝著合乎倫理的方向發(fā)展,。另一類反饋是,,覺得我們很多場景似乎并不是在討論機器人的行為道不道德,而是在某些場景下人的行為道不道德,,這是因為目前人工智能基礎(chǔ)模型提供的服務(wù)主要針對人與人之間交互的世界,,機器人需要清楚人如何與人交互,目前機器需要首先更為系統(tǒng)化地掌握人類倫理,。很多問題都出現(xiàn)在人工智能場景下,,如果機器人這樣做是否合乎道德,,大家看得很準確。我們有些問題關(guān)注機器人如果做得是這樣,,是否優(yōu)先考慮道德問題,,即如果人這樣做是否合乎道德。目前人工智能基礎(chǔ)模型提供的服務(wù)主要針對人與人之間的交互世界,。我認為,,“智善?如流”的工作就是人類的一面鏡子,反映了人類社會的道德和倫理規(guī)范,。我們邀請很多人為輸出行為打分,,很多人的行為實際上是沖突的,并不一致,,特別是在文化背景不同時,,沖突會更明顯。新京報貝殼財經(jīng):目前,,許多大模型已經(jīng)面向公眾開放,,對于人工智能生成的內(nèi)容存在的“幻覺”問題,以及大模型有可能遭到誘導輸出不適宜內(nèi)容等現(xiàn)象,,你認為應(yīng)該如何解決這一問題,?曾毅:所謂的基礎(chǔ)模型輸出呈現(xiàn)“幻覺”的問題實際上反映出的還是模型沒有真正的理解能力,也對于“事實”沒有合理的認知,,在這種情況下將神經(jīng)網(wǎng)絡(luò)與經(jīng)典的知識表示與推理,、知識驗證等技術(shù)結(jié)合,一定可以在處理的層面更上一層樓,,但是要本質(zhì)解決這個問題,,還是要突破真正的“理解”。對于安全隱患的問題,,目前已經(jīng)向公眾開放的大模型在安全和價值觀對齊方面都做了一些工作,,但實際上更多的像打補丁一樣,對漏洞進行封堵,。用戶如果換一種方法提問,,大模型可能仍然會遭到誘導。因此,,使大模型的輸出合乎倫理道德是非常必要的,。有些人希望從基礎(chǔ)數(shù)據(jù)訓練上解決問題,構(gòu)建一個干凈的數(shù)據(jù)集,,用這些數(shù)據(jù)訓練大模型就能解決問題,,但我認為這并不完全可行,因為未來很多生成式模型都會接入互聯(lián)網(wǎng)數(shù)據(jù),,一旦與互聯(lián)網(wǎng)數(shù)據(jù)結(jié)合,,由于沒有教大模型知善知惡,,它就會利用互聯(lián)網(wǎng)數(shù)據(jù),再生成回答,,這樣可能導致前端數(shù)據(jù)過濾部分的工作收效甚微,,真正的人工智能模型就像培養(yǎng)孩子一樣,在接觸社會,,與人交互時,,社會存在偏見,但它無法分辨,。在下一個階段,,我們需要像給小學生上道德與法制課一樣,讓大模型經(jīng)歷知善知惡的過程,。智能引擎未來不能只是數(shù)據(jù)處理工具,,還必要內(nèi)置倫理安全框架,在接觸外界時,,倫理安全框架會發(fā)揮作用,。這可以理解為用一個規(guī)模不大的、學習倫理道德的神經(jīng)網(wǎng)絡(luò),,在外圍發(fā)揮指引作用,,從而引導規(guī)范內(nèi)部行為。包括在大模型學習和處理數(shù)據(jù)階段,,道德模型也應(yīng)該發(fā)揮作用,,分析哪些是應(yīng)該學習的,哪些是不應(yīng)該學習的,。談創(chuàng)新大模型人才教育體系應(yīng)培養(yǎng)“文理兼修的人才” ,,發(fā)展大模型科學界與企業(yè)界要各司其職新京報貝殼財經(jīng):對于目前人工智能的人才培養(yǎng)現(xiàn)狀,以及大模型熱潮下人才應(yīng)如何跟上產(chǎn)業(yè)發(fā)展,,你有何意見和建議,?曾毅:我認為現(xiàn)在的人工智能人才的培養(yǎng)可能在過早的階段過于專業(yè),。在我上學時還在計算機科學與技術(shù)系,,在信息處理、軟硬件體系,、信號處理等基礎(chǔ)上有廣泛的培養(yǎng),。雖然這樣的培養(yǎng)仍然不夠,我認為一個堅實的基礎(chǔ)對未來從事多學科交叉是很有好處的,。不過,,計算機科學與技術(shù)構(gòu)造的是計算系統(tǒng),是一個工具,,但未來人工智能賦能社會發(fā)展,,可能會介入社會的各個方面,。因此,在人才培養(yǎng)方面,,我們需要補充幾個短板,。例如在社會學、人類學,、心理學,,甚至哲學、倫理等都應(yīng)當納入未來人工智能體系的培養(yǎng)中,。未來的人工智能創(chuàng)新者,,需要“文理兼修”。我認為當代人工智能從業(yè)者,,包括本科,、碩士和博士的教育,從智能本質(zhì)的認知方面,,需要對認知心理學,、神經(jīng)科學等有充分理解。對于社會的影響,,需要科技倫理或?qū)iT的人工智能倫理課程,,這些恐怕都是未來人工智能教育中不可或缺的部分,所以我不建議過早地,,聚焦于只做算法和硬件體系研究,。新京報貝殼財經(jīng):你怎么看待目前人工智能領(lǐng)域的國際競爭,以及英偉達A100等人工智能訓練用的芯片被“禁售”的情況,?曾毅:未來,,人工智能必須進行軟硬件協(xié)同創(chuàng)新,才能發(fā)揮其真正優(yōu)勢,。在我國的創(chuàng)新體系中,,我們必須從最初的人工智能模型算法跟蹤或創(chuàng)新,快速過渡到實現(xiàn)軟硬件協(xié)同創(chuàng)新,,從軟件,、硬件的相對獨立發(fā)展,到人工智能賦能的發(fā)展時代打造面向人工智能的軟硬協(xié)同的“智件”,。在基礎(chǔ)設(shè)施方面,,許多企業(yè)希望通過不同渠道匯集更多芯片,我認為現(xiàn)在應(yīng)該采取兩方面努力,,首先是應(yīng)用現(xiàn)成的國外硬件體系,,短期的商業(yè)服務(wù)還可以去做。但一定要以壯士斷腕的決心,,從現(xiàn)在開始布局全國產(chǎn)化的基礎(chǔ)模型體系,。我們之前在很多事情上吃過虧,,所以我認為這事沒有商量余地,未來軟硬件需要協(xié)同設(shè)計,,這也是這個時代發(fā)展“智件”的科學性所必須的,,所以很有必要發(fā)展全棧自主的基礎(chǔ)模型體系。我認為,,國內(nèi)目前絕大多數(shù)大模型還談不上真正意義的創(chuàng)新,,絕大多數(shù)的努力還是在工程優(yōu)化方面。因此,,未來在提升基礎(chǔ)模型應(yīng)對復(fù)雜問題的泛化性方面,,要真正做到數(shù)據(jù)規(guī)模能耗更小,卻表現(xiàn)出更高的智能,。在模型算法結(jié)構(gòu)和體系上實現(xiàn)協(xié)同創(chuàng)新,,而不僅僅是提升用戶體驗方面,這還需要一系列努力去做,。這時候需要分工,,科學界應(yīng)該關(guān)注大的科學問題和體系化發(fā)展協(xié)同創(chuàng)新的問題,企業(yè)則關(guān)注規(guī)?;瘎?chuàng)新和用戶體驗的提升,,二者要協(xié)作起來。現(xiàn)在高??蒲袡C構(gòu)已經(jīng)推出了許多大模型服務(wù),,但一旦發(fā)展到用戶體驗這個階段,就目前的技術(shù)發(fā)展階段,,還無法逃脫掉“有多少人工就有多少智能”的階段,,這不是科學界的重點工作,所以我認為,,科學界和企業(yè)要各司其職,,相得益彰,協(xié)同發(fā)展,。新京報貝殼財經(jīng)記者 羅亦丹編輯 張冰 校對 趙琳
免責聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1107813.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。