來源:財經(jīng)頭條
來源:鈦媒體
近日,,由長江商學(xué)院主辦,、汕頭大學(xué)協(xié)辦的“2024長江獨角獸峰會”上,,鈦媒體集團(tuán)創(chuàng)始人,、董事長,、CEO 長江商學(xué)院EMBA項目校友 趙何娟發(fā)表主題“中國AI追隨之路的五大誤區(qū)”的演講,。
以下是鈦媒體AGI編輯整理的演講主要內(nèi)容:
各位校友,,大家好,,我今天演講的題目是“中國AI追隨之路的五大誤區(qū)”。
從鈦媒體角度來說,,在 AI 領(lǐng)域我有兩個角色,,既是AI領(lǐng)域里面的研究者報道者,也是AIGC在內(nèi)容產(chǎn)業(yè)變革中的實際應(yīng)用參與者,。
從AI 1.0的時代,,鈦媒體就緊密地關(guān)注 AI 領(lǐng)域的發(fā)展,而在 AI 1.0時代,,無論是中國上市公司還是應(yīng)用角度來看,,與美國相比,,我們好像已經(jīng)有趕超的趨勢。但是到了 AI 2.0時代,,也就是AIGC(生成式人工智能)時代下,,我們突然發(fā)現(xiàn),為什么中國一夜之間好像就變得落后了,。
下午我都很認(rèn)真的聽了每一位嘉賓的分享,,其中有嘉賓問到說,為什么好現(xiàn)在GPT火了之后中國大模型很快就趕上來了,,說明跟美國相比,,中國的實力、能力建設(shè)就可能差了一點點,。
但其實我現(xiàn)在想“潑點冷水”,,我覺得短期來說我們可能有點太樂觀了。不僅對中國市場過于樂觀,,而且可能對全球 AI 應(yīng)用爆發(fā)的速度也可能過于樂觀了,。我認(rèn)為,短期內(nèi)沒有大家想象那么快,,長期又可能過于“忽視”,,總想著是不是馬上能賺錢。
我們報道10多年,,一直跟蹤這個領(lǐng)域,,其實中國有很多 AI 領(lǐng)域的創(chuàng)業(yè)。但我們現(xiàn)在已經(jīng)處于一個相對落后的狀態(tài),,我們可能要更多地面對現(xiàn)實,,怎么走出“偽AI創(chuàng)業(yè)區(qū)”。
接下來我再詳細(xì)講一下,。
AI 領(lǐng)域今年最受關(guān)注的兩件事:AlphaFold 3剛剛發(fā)布,、GPT-5即將發(fā)布。
首先就是昨晚(8日)鈦媒體最早,、最全面報道的Google DeepMind團(tuán)隊發(fā)布的AlphaFold 3模型,。
2022年,AlphaFold 2增強(qiáng)版發(fā)布,,兩年之后的今天,,它升級到AlphaFold 3模型——生物學(xué)領(lǐng)域關(guān)于蛋白和生命結(jié)構(gòu)預(yù)測的模型。這個過程中的最根本的一個變化,,就是把底層計算方式,、模型算法變了。
AlphaFold 3使用了基于Transformer生成式模型和擴(kuò)散模型的結(jié)合,對于蛋白質(zhì)與其他分子的相互作用,,與現(xiàn)有預(yù)測方法相比,,AlphaFold 3預(yù)測精度提高100%。
之前的AlphaFold 2預(yù)測精度已經(jīng)較之前至少翻了一倍,,如今再翻了一倍,。這個過程中相關(guān)科學(xué)家有過對比,這可能為生物研究界帶來了數(shù)億年的進(jìn)步,,節(jié)省數(shù)萬億美元。
也就是說如果不用這次AI大模型,,我們靠研究人員自己去研究,,可能要花數(shù)億年、花掉數(shù)萬億美元才能達(dá)到現(xiàn)在的計算效能,。所以,,這就是真正AIGC的力量。
但中國在此方面的研究成果幾乎是“空白”的,。今天我們還發(fā)了顏寧教授的演講,,前兩年她還說 AI 不可能準(zhǔn)確預(yù)測蛋白相關(guān)結(jié)構(gòu),如今的發(fā)布可以說被“打臉”了,。
第二個就是GPT-5即將發(fā)布,。
我認(rèn)為,這件事情帶來的震撼力不會低于AlphaFold 3的顛覆性技術(shù)影響,。因為GPT-4的發(fā)布就是比GPT-3更加震撼,。
為什么中國能快速發(fā)展很多模型,我覺得這個最重要的是感謝開源,,因為GPT-3之前OpenAI是開源的,,包括谷歌Transformer論文也是開源的,GPT3之后才改成閉源了,。
這意味著,,從GPT-3到GPT-4本質(zhì)上已經(jīng)是一個巨大飛躍了。而即將發(fā)布的GPT-5,,將再次實現(xiàn)比GPT-4質(zhì)的飛躍,,解決諸多局限性。
我去年9月見了OpenAI創(chuàng)始人,、CEO奧爾特曼(Sam Altman),,他說過去一段時間OpenAI一直都在問GPT-5做準(zhǔn)備。但如果GPT-5性能只是一個簡單能力提升的話,,不會間隔這么長時間,。而GPT-5的一個本質(zhì)變化,可能會把相關(guān)的推理模型、相關(guān)數(shù)據(jù)會做一個分離,,同時可能會推出他們自己的搜索引擎,。
而這些令人震撼的進(jìn)展,在中國我可以悲觀一點叫“望塵莫及”,,樂觀一點就是但凡它推出來,,我們就有能力改善和追趕。
我接下來要重點談,,為什么現(xiàn)在我們說,,中國作為 AI 領(lǐng)域追隨者,要有追隨者的自覺,,那就是不要過于抬高自己,,主要好好學(xué)習(xí)。明確我們現(xiàn)在面臨的一個事實,,所以我們首先明確幾個誤區(qū),,才能夠清楚我們自己到底在什么位置。
第一大誤區(qū):中美AI差距只有1到2年,。
我認(rèn)為很重要的就是,,大家每次都談?wù)勚忻?AI 差距大概是只有1~2年,那是不是真的就是1~2年,,為什么會是1~2年,?因為會有很多人說GPT3發(fā)布就在2020年,那可能在2022年chatGPT出來之后,,我們也快速出來了類似于GPT3相關(guān)的模型,,GPT4出來之后,我們也很快能出來一個對標(biāo)GPT4水平的模型,,就意味著我們相差的時間可能是1—2年,,真的是這樣嗎?
我會覺得所有用這樣時間來表述差距的都是“耍流氓”,,因為那是人家創(chuàng)新蝶變的代際時間,,不是我們的差距時間(能力水平)。
如果說GPT-5現(xiàn)在不能出來,,我們可能10年都追趕不上,。但是GPT-5出來,我們可能也許花2~3年能趕上,。而GPT-5模型水平只是人家的創(chuàng)新節(jié)點,、迭代時間水平,不是我們自己能力水平,,這一點需要非常清楚,,這也是我們本質(zhì)上的一個差距,。
我們要看到,這真的是創(chuàng)新引領(lǐng)的差距,,不是一個我們花兩年趕上一個模型就改變了中美 AI 差距了,。
第二個誤區(qū):中國是全球最大的AI專利和人才市場。
我們常常會說,,尤其是在AI 1.0的時代,,中國投資人和創(chuàng)業(yè)者到美國硅谷做相關(guān)演講說,中國 AI 已經(jīng)領(lǐng)先于美國了,。背后經(jīng)常會提到的一個指標(biāo)是,,中國是全球最大的AI的專利和人才市場。
這個專利市場包括我們中國發(fā)布AI相關(guān)論文和申請AI專利的數(shù)量,,可以說全球數(shù)一數(shù)二的,,然后以及從事AI相關(guān)人才的數(shù)量,我們可以說全球數(shù)一數(shù)二,。
但事實是什么樣的呢?
我們可以看這張圖,,里面可以看到,新一代全球數(shù)字科技領(lǐng)域,,大多數(shù)都是以 AI 相關(guān)論文的,,中國排名確實是很高的。但是到相關(guān)頂尖論文的數(shù)量,,或者說被引用論文次數(shù)的數(shù)量,,我們一下就落下來了。
也就是說,,事實情況是,,雖然我們的論文數(shù)量是全球領(lǐng)先的,但是作為世界公認(rèn)標(biāo)準(zhǔn)Top one的頂尖論文數(shù)量,,中國不僅低于美國,,我們也低于德國、加拿大,、英國等,。
與此同時,我們可以看到我們相關(guān)工程師人才,。
中國確實在大學(xué)當(dāng)中培養(yǎng)大量工程師,、計算機(jī)領(lǐng)域人才,包括很多硅谷的大企業(yè)都到清華北大,,到中國招聘計算機(jī)專業(yè)人才,。
但是我們可以看到,即便是在2022年頂尖研究人員里面,雖然中國也是排在第二名左右,,但是一上到頂級 AI 研究人員數(shù)量,,只有美國的1/5左右。,。如今,,2024年可能比兩年前更糟糕了。
所以這不是我們想的那樣,,中國是全球 AI 人才大國,。
第三個誤區(qū):中國AI的主要障礙是在算力上“卡了脖子”。
中國 AI 的主要障礙在于“算力卡脖子”,。我們認(rèn)為算力卡了脖子,,所以我們只要以各種手段能夠買到相關(guān)的芯片,那是不是就已經(jīng)達(dá)到相關(guān)水平了,?
但是我想給大家潑一杯冷水的是,,在這一輪AI 2.0的這一輪發(fā)展里面,不僅算力很重要,,模型創(chuàng)新能力也很重要,,數(shù)據(jù)能力也很重要。因此,,現(xiàn)在的事實是,,我們不僅是“算力”是瓶頸,我們的底層模型的創(chuàng)新能力,、數(shù)據(jù)能力都是“瓶頸”,。
我先說數(shù)據(jù)能力,很多人覺得中國是一個很大的應(yīng)用市場,,中國的消費者數(shù)據(jù),,企業(yè)行為數(shù)據(jù)等等各分析的數(shù)據(jù)一定是很豐富的,所以大家覺得中國是有充分的數(shù)據(jù),,但是我要非常殘忍的告訴大家,,很多數(shù)據(jù)都是無用數(shù)據(jù),或者是不可用數(shù)據(jù),。
我在今年年初的時候跟美國氣象的一個華裔科學(xué)家,,同時也是中國氣象所的顧問,在講到氣象數(shù)據(jù)的時候,,我說我們也有相關(guān)的公司推動了相關(guān)氣象計算預(yù)測的模型,。那個科學(xué)家就非常直白的說了一句,我們所有的氣象數(shù)據(jù)幾乎都是沒用的,,因為我們?nèi)狈v史氣象數(shù)據(jù)的整理,,缺乏氣象數(shù)據(jù)的歸納,,缺乏氣象數(shù)據(jù)相關(guān)的整合,變成可計算的數(shù)據(jù),。
目前對于中國而言,,“都缺”。美國 AI 生態(tài)里面最重要的一個就是關(guān)于數(shù)據(jù)市場的建設(shè),。但在中國,,理論上說是沒有數(shù)據(jù)市場的。這個就是生態(tài)建設(shè)能力里很重要的,,就是關(guān)于數(shù)據(jù)市場的建設(shè),。那你數(shù)據(jù)市場不成熟,你能算什么,?
中國的模型公司,,可以說在中文的計算能力上相對來說是領(lǐng)先的,但是整個中國的數(shù)據(jù)市場占全球的數(shù)據(jù)市場不到1%,,以及再看所有的數(shù)據(jù)有效性的時候可以看到,,世界主流所有相關(guān)的論文數(shù)據(jù)、研究數(shù)據(jù),,包括用戶的應(yīng)用數(shù)據(jù),,視頻也好,還是文字也好,,相關(guān)的應(yīng)用數(shù)據(jù),,絕大部分依然是英文的數(shù)據(jù),。
所以如果我們不能很好的用英文的數(shù)據(jù)計算,,我們?nèi)绾文苄纬晌覀冏约河凶銐蚋偁幜Φ拇竽P停@個是很難的,。這就是為什么我說我們不要以為美國只是卡了我們的算力脖子,,好像只在半導(dǎo)體上發(fā)力就行了,實際上是整個生態(tài)能力建設(shè),,從算力到底層模型的創(chuàng)新,,到數(shù)據(jù)能力和數(shù)據(jù)市場的生態(tài)的建設(shè),我們整體都是落后的,。如果非要用時間來說的話,,真要把能力建設(shè)起來的話,沒有十年的時間是很難把它很好的建設(shè)起來的,。
第四大誤區(qū):閉源大模型 VS 開源大模型 誰更好,?
前段時間可以看到有一些企業(yè)家和網(wǎng)紅一直在爭論說閉源大模型好,還是開源大模型好,,我覺得這更好這事情根本不重要,,只有誰更合適,。
其實不管是開源還是閉源都有各自的優(yōu)劣,就像手機(jī)的iOS是閉源,,安卓是開源一樣的,,它是有各自的優(yōu)劣??赡苣壳霸谛阅苌蟻碚f,,尤其是大語言模型,因為現(xiàn)在大語言模型動輒就要算千億級數(shù)據(jù)都算小的,,動輒都是萬億的數(shù)據(jù),,像OpenAI都是數(shù)萬億級的數(shù)據(jù)了,這種時候閉源的性能是明顯高于開源的,。
對于很多的應(yīng)用來說,或者對于我們的場景,,我們其實是沒有必要每一個模型都算到萬億級那么大的,,那么在一定程度上里說,開源模型并非不可以,。
作為OpenAI這種領(lǐng)頭羊來說,,它的目標(biāo)是要實現(xiàn)AGI,就是要實現(xiàn)通用人工這件事情來說,,閉源可能會讓它有更快,,更容易集中更多的資源、資金,,更快的實現(xiàn)AGI這個目標(biāo),。
但是對于要來做全社會普及有更多的應(yīng)用和更多的迭代的速度來說的話,可能開源大模型也是非常必不可少的,。所以我們應(yīng)該跳出是開源大模型更好,,還是閉源大模型更好這樣的爭論來看,不管是哪一個更好,,最重要的都是我們是否有自己的創(chuàng)新能力,,是否有自己的原創(chuàng)性能力,而不是低水平的山寨,。
我們在說百模大戰(zhàn),,千模也好,假如說我們的模型都有各自的創(chuàng)新點,,都在各自的領(lǐng)域里能夠發(fā)揮出相關(guān)創(chuàng)新的作用,,那么一個也不多。
假如說百模大戰(zhàn)也好,,千模大戰(zhàn)也好,,不能有任何的創(chuàng)新點,,只是在低水平的山寨和復(fù)制、內(nèi)卷,,那么確實一個也不需要,。所以我覺得這個才是真正的問題,就是自己能不能在模型的創(chuàng)新能力上真正的走到世界舞臺上,,這是要好好的想的事情,。
第五個誤區(qū):AI 在各大垂直產(chǎn)業(yè)的爆發(fā),會很快發(fā)生,。
在中國我聽到最多的都是說,,我們馬上要進(jìn)垂直產(chǎn)業(yè)的爆發(fā),今年都是大模型應(yīng)用爆發(fā)的元年,。我今年年初就跟一些朋友說,,今年不可能是AI垂直產(chǎn)業(yè)爆發(fā)的元年,可以說是應(yīng)用的開始,,但不能說爆發(fā)的元年,,不可能馬上爆發(fā),因為所有的事情都是有基本規(guī)律的,,一個產(chǎn)業(yè),、行業(yè)的發(fā)展都是有規(guī)律的。
而核心的原因就是因為,,我們整個基礎(chǔ)設(shè)施能力還沒有達(dá)到產(chǎn)業(yè)廣泛應(yīng)用的標(biāo)準(zhǔn),。
比如說現(xiàn)在的SORA也好,還是什么應(yīng)用也好,,我們已經(jīng)達(dá)到了50%的水平,,那我是不是可以有50%的應(yīng)用呢?不是的,。如果說產(chǎn)業(yè)應(yīng)用必須要到90%的水平,,你只有50%的水平,,哪怕只有89%的水平,,你都不可能在這個產(chǎn)業(yè)里快速的得到爆發(fā)級的應(yīng)用。
大家不要認(rèn)為只有中國算力被“卡脖子”,,而是全世界的算力都被“卡脖子”,,美國企業(yè)也一樣被算力“卡脖子”。這就是為什么,,OpenAI在推進(jìn)GPT-5,、GPT-6的過程中速度依然還是很慢的,更深層次是 AI 大模型就是一個“暴力美學(xué)”——以足夠大的數(shù)據(jù),、算力,、能源為前提,,否則一定會被“卡脖子”的,它一定是只能一點點來推進(jìn)的,。
有很多企業(yè)可能會指望說,,中國公司認(rèn)為在技術(shù)創(chuàng)新能力上不如美國,但中國市場規(guī)模要比美國大,、中國的應(yīng)用能力要比美國更強(qiáng),,那么我是不是集中于創(chuàng)業(yè)做應(yīng)用,從而能快速獲得成功或者成果,?
但我認(rèn)為,,這件事長期來看是這樣的,但短期來看是沒有機(jī)會的,。
OpenAI CEO奧爾特曼(Sam Altman)也說,,95%創(chuàng)業(yè)公司依附在大模型上開發(fā),但是大模型每次大規(guī)模迭代都會取代一批創(chuàng)業(yè)公司,。
AI 也不會違背一般商業(yè)定律,,所以當(dāng)基礎(chǔ)能力積累到一定程度前,即便用了AI也不見得會取代原有產(chǎn)品,。
這也是我今年跟Pika創(chuàng)始人在聊的時候,,她最大的危機(jī)感。我問她你覺得Pika最大競爭對手是runway嗎,,她卻說最大的危機(jī)感是來自O(shè)penAI,,因為OpenAI 一定是要做多模態(tài)的技術(shù)。所以我認(rèn)為,,當(dāng)基礎(chǔ)能力積累到一定程度之前,,即便做了 AI 應(yīng)用,也不會取代之前應(yīng)用,。
因為基礎(chǔ)建設(shè)能力還沒有達(dá)到為這個行業(yè)產(chǎn)生質(zhì)變的時候,,它就不可能變成一個“爆發(fā)”型新的 AI 時代。
很多人說,,中國移動互聯(lián)網(wǎng)應(yīng)用就在全球領(lǐng)先,,但我們現(xiàn)在所處的歷史時間點位置不是對應(yīng)互聯(lián)網(wǎng)時代,移動互聯(lián)網(wǎng)應(yīng)用的爆發(fā)階段,,即AI當(dāng)下發(fā)展階段,,不是后互聯(lián)網(wǎng)發(fā)展階段,而是相當(dāng)于早期思科的階段,。
現(xiàn)在的英偉達(dá)就像當(dāng)年的思科,,當(dāng)年思科在美國市場上一騎絕塵,一年能漲60倍股價的時候,,那個時候有什么互聯(lián)網(wǎng)公司是值得一提的嗎,?那時候很多現(xiàn)在的互聯(lián)網(wǎng)公司可能都還沒有出現(xiàn),。后來也是基礎(chǔ)設(shè)施能力的提升,通信技術(shù)從2G到4G的發(fā)展,,網(wǎng)絡(luò)技術(shù)的提升,、移動互聯(lián)網(wǎng)、長視頻短視頻的應(yīng)用逐漸出來,。
現(xiàn)在的 AI 應(yīng)用,,還是在幫助我們怎么提高產(chǎn)業(yè)效率,但想要徹底改變這個行業(yè)來說還需要時間,、需要耐心,。
這就是為什么我們說,目前還是弱人工智能,中國的大市場優(yōu)勢暫時無法發(fā)揮,。短期內(nèi),,還是內(nèi)容生成相關(guān)輔助工具為主,比如搜索,、問答,、文生圖、文生音視頻等,。
那么,,接下來,,我們要如何應(yīng)對這些,?
我覺得我們可能真的要形成一定的社會共識,怎么在一個全球環(huán)境和 AI 發(fā)展過程中來做我們應(yīng)該做的事,。
第一個,,加大基礎(chǔ)創(chuàng)新長期能力建設(shè),。
這種生態(tài)能力建設(shè)非常重要,甚至要從教育開始抓起,,比如建立 AI 教育,、高校教育體系評估標(biāo)準(zhǔn)、相應(yīng)的學(xué)術(shù)開放和交流的體系等,,需要圍繞著AI本身的創(chuàng)新技術(shù)能力去重新匹配,。同時,我們也要提高大模型研發(fā)創(chuàng)新的基礎(chǔ)能力,,沒有這個基礎(chǔ),,其他的都是“無源之水”。
第二個,,是耐心面對各產(chǎn)業(yè)應(yīng)用場景的AI爆發(fā)周期,,每個被AI改變的產(chǎn)業(yè)都面臨要從基礎(chǔ)底層技術(shù)改變開始的新周期,不會“一蹴而就”或者“一夜爆發(fā)”,。
我認(rèn)為每個可能被AI改變的產(chǎn)業(yè),,也都要面臨從底層基礎(chǔ)設(shè)施改變,并開啟一個產(chǎn)業(yè)的新周期,,比如我們媒體行業(yè)其實也要從底層周期開始變化,,而不是說我馬上就在應(yīng)用層徹底變了,不是這樣的,。包括相關(guān)的機(jī)器人行業(yè),、制造業(yè)、生物制藥行業(yè)等等都會發(fā)生顛覆性影響,,但從這一點來說,,我們的基礎(chǔ)科研能不能跟得上,這就變得非常重要了,。
每一個產(chǎn)業(yè)都有自己的底層能力,、從零開始的地基建設(shè),這個才是我們真正的產(chǎn)業(yè)周期,。
第三個,,是用更開放態(tài)度,迎接全球AI建設(shè)的競爭與挑戰(zhàn),,不能自己卡自己脖子,。
很多人都說,美國人卡我們的脖子,,但現(xiàn)在我希望,,我們自己不要卡自己的脖子。這也是為什么我說,我們不要低水平的山寨競爭,,甚至我們可能也希望在 AI 治理,、AI 規(guī)范,甚至AI倫理建設(shè)上面緩一緩,,而是應(yīng)該在 AI 創(chuàng)新層面更加激進(jìn)一些,,要用更開放的態(tài)度去做這件事。
我希望,,我們 AI 領(lǐng)域的研究,,不要走新能源汽車的“老路”,可能10年前我們新能源汽車還是有創(chuàng)新的,,比如在智能體驗,、動力電池技術(shù)等領(lǐng)域還有很多創(chuàng)新。但是到今天,,包括小米的進(jìn)場,,我們卻都是在低水平、重復(fù)性“內(nèi)卷”,,這就意味著我們很難向前發(fā)展,。
所以,我希望我們的基礎(chǔ)研究能力,、創(chuàng)新能力能夠走得更快,,能夠更耐心一點。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1101554.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。