A欧美国产国产综合视频_最近日本中文字幕免费完整_国产乱伦一级片_久久99国产综合精品婷婷_韩国理论片在线中文字幕一区二区_亚洲AV成人影片在线观看_亚洲av无码电影网_优物视频最新网址_天天艹无码天天射_脱下丝袜的极品销魂大胸美女王馨瑶91精品美女嫩模写真套图,男男被?到喷水18禁视频,欧美久久精品一级黑人c片 ,综合在线视频精品专区

人民網(wǎng)

黃燕銘對話聯(lián)想集團(tuán)CTO:ChatGPT大風(fēng)起 人工智能浪潮來臨

來源:東財財經(jīng)頭條

核心要點(diǎn)

大模型的商業(yè)應(yīng)用場景上,預(yù)計C端會快速落地,,B端則是爆發(fā)式落地,。由于目前大模型的訓(xùn)練數(shù)據(jù)更多是通用數(shù)據(jù),更易面向C端產(chǎn)生個人應(yīng)用,。B端的部分?jǐn)?shù)據(jù)未打通,,一旦供給打通,落地將是爆發(fā)性的,。閉源有利企業(yè)短期先發(fā)優(yōu)勢,,開源則“后勁更足”,有利企業(yè)長期生態(tài)建設(shè),。

  把一項新技術(shù)注入產(chǎn)品,,去賦能業(yè)務(wù)的時候,,要考慮很多因素。當(dāng)前這個階段,,大模型進(jìn)步非??欤€是有很多問題沒有解決,。另外,,用戶場景的需求本身也不完全一樣,應(yīng)用程序的運(yùn)行環(huán)境也不一樣,。比如知識更新需要重新訓(xùn)練大模型,,費(fèi)時費(fèi)力,所以它的時效性有缺陷,,無法做到對最新消息的知曉,,對信息時效性要求高的場景并不適合。大模型是千億級參數(shù)的,,需要設(shè)備端和云端實時連接,,所以對于網(wǎng)絡(luò)通訊能力較弱、低功耗的設(shè)備不太適用,。因此,,大模型雖然在很多地方適用,但也有一些場景不適用,,作為企業(yè),,要去考慮如何調(diào)整,如何去抓住機(jī)會,。

  黃燕銘認(rèn)為,,人工智能的發(fā)展會導(dǎo)致證券研究人員數(shù)量可能會在一定程度上減少,大量研究助理的工作可能被機(jī)器替代,。機(jī)器雖然能幫助我們記憶和計算知識,,卻無法代替人類去感悟智慧。“形而下”的工作可以交給計算機(jī),,但是“形而上”的感悟,,目前來看,人工智能還很難去幫我們完成,。

  ChatGPT橫空出世,其表現(xiàn)出來的強(qiáng)大的人工智能能力,,讓無數(shù)人嘆為觀止,。它是一個現(xiàn)象級的技術(shù)突破和應(yīng)用,是人工智能數(shù)十年發(fā)展歷程中又一個重大的突破點(diǎn)和轉(zhuǎn)折點(diǎn),。面對ChatGPT帶來的新的機(jī)遇和挑戰(zhàn),,產(chǎn)業(yè)界和學(xué)術(shù)界應(yīng)緊密攜手,持續(xù)推動相關(guān)技術(shù)的發(fā)展和產(chǎn)業(yè)應(yīng)用,,讓我們的生活更加美好,。

  以上是聯(lián)想集團(tuán)首席技術(shù)官、高級副總裁芮勇博士,,以及國泰君安證券研究所所長黃燕銘,,在《所長對話》第一期中分享的觀點(diǎn)。

黃燕銘對話聯(lián)想集團(tuán)CTO:ChatGPT大風(fēng)起 人工智能浪潮來臨

  以下是國君研究《所長對話》第1期的分享實錄:

01 關(guān)于技術(shù)發(fā)展

  黃燕銘:ChatGPT不單單是文本生產(chǎn)的工具,,其強(qiáng)大的語言處理和生存能力也增加了很多的用戶體驗,,同時也為我們降低了生產(chǎn)經(jīng)營、交易的成本,,同時也提高了企業(yè)的經(jīng)營效率,,而這種大規(guī)模的適配器以及迭代的能力也是ChatGPT的特點(diǎn),它在特定的領(lǐng)域,、專業(yè)語言以及自動化的客戶服務(wù)等各方面都做出了巨大的成就,。我們認(rèn)為ChatGPT在未來有非常廣闊的發(fā)展空間,這種情況下我們對ChatGPT未來的發(fā)展前景非??春?,在這里我們今天要特別跟芮博來聊一聊ChatGPT的基本情況。

  投資者普遍認(rèn)為這是一個劃時代的技術(shù)進(jìn)步,,甚至可能替代掉很多人類的工作崗位,,請問該如何理解ChatGPT、GPT-4的技術(shù)能力,,其自然語言處理能力,、多模態(tài)、定制化相較以往AI模型有何突破,會帶來怎樣的產(chǎn)業(yè)變化,?

  芮勇:首先,,非常感謝黃所的介紹,也非常高興能夠跟黃所來一起聊這個話題,。剛才黃所總結(jié)的都已經(jīng)非常精辟了,。這個ChatGPT,我覺得它是可以說是一種現(xiàn)象,。最近也有不少人在聊,,它是一個類似于iPhone 的現(xiàn)象,類似于網(wǎng)景的現(xiàn)象,。我們都知道,,網(wǎng)景是第一個真正商業(yè)化的瀏覽器,在網(wǎng)景出現(xiàn)之前很多年瀏覽器就已經(jīng)有了,,但是沒有火起來,,直到網(wǎng)景出現(xiàn)之后,整個瀏覽器才火了起來,,整個互聯(lián)網(wǎng)才火了起來,。iPhone其實也是一樣,智能手機(jī)出現(xiàn)了很久,,但是沒有那么火,,到最后真正騰飛起來、火起來是iPhone,。

  那么ChatGPT也是類似,,大家稱這是一種現(xiàn)象。AI也是火了有一段時間,,但是沒有那么火,,有起有伏。大模型也出現(xiàn)了挺長時間,,那么直到最近不久ChatGPT出現(xiàn)了之后,,它才帶來了一個大的飛躍,所以我們稱為ChatGPT是和網(wǎng)景和iPhone類似的一種現(xiàn)象,。

  但我更想說,,今年ChatGPT非常的火,是表面上的一個現(xiàn)象,,更重要的ChatGPT后面起到核心作用的大模型,。所以我先想跟大家聊一聊大模型,大模型的英文叫Foundation Model.它是一個基礎(chǔ)模型,,好比我們蓋房子時候打的地基,。什么是大模型呢,?大模型是用互聯(lián)網(wǎng)級的、沒有標(biāo)注的數(shù)據(jù),,來訓(xùn)練千億級參數(shù)的AI模型,這里面有好幾個關(guān)鍵字,。大模型也是下游很多任務(wù)的基礎(chǔ),。并且很有意思是,它不用做模型參數(shù)的調(diào)整,,對不同的任務(wù),,它不用去調(diào)整參數(shù),這個事就非常的奇特了,。

  這么多的特點(diǎn),,為了便于記憶可以總結(jié)為三個字,叫做“高大上”(這里沒有褒義和貶義的意思),?!案摺笔鞘裁匆馑寄兀看竽P偷挠?xùn)練方式很高明,。之前的機(jī)器學(xué)習(xí),,典型的訓(xùn)練方式是一種全監(jiān)督式的方式。比如說,,我如果要教一下機(jī)器,,這是一個蘋果的圖像,這是一個橘子的圖像,。我告訴它,,這些圖像你都看一看,并且我告訴它這是橘子,。它就知道,,原來這樣的圖像是橘子。但是讓人工來標(biāo)注,,要花很多的時間,、精力和金錢。那么大模型是用自監(jiān)督的學(xué)習(xí)方式,,它不需要去標(biāo)注海量的數(shù)據(jù),。我覺這是非常重要的,在訓(xùn)練方式上很高明,。

  第二,,很高明的訓(xùn)練方式還表現(xiàn)在它使用一種叫做“基于人類反饋的強(qiáng)化學(xué)習(xí)”,英文叫RLHF,,Reinforcement Learning from Human Feedback.有了這個非常強(qiáng)大的訓(xùn)練方式,,它就和人類的價值觀點(diǎn)越來越近了。比如說,從互聯(lián)網(wǎng)它可能看了很多東西,,但是它不知道哪是對哪是錯的,,哪個是正義的哪個是不好的。那么,,有了這個基于人類反饋的強(qiáng)化學(xué)習(xí)之后,,它就和人類的價值觀越來越近了。

  高大上的“大”,,是說模型規(guī)模很大,。我們?nèi)绻€記得,2012,、2013年前后深度學(xué)習(xí)開始火起來的時候,,當(dāng)時很流行的一個人工神經(jīng)網(wǎng)絡(luò)模型叫VGG,VGG16大概有 1.38 億個參數(shù),。那今天我們的大模型會有多大呢,?GPT-3 有 1,750 億個參數(shù),是當(dāng)時的大概有 1,000 倍那么大,。這樣的規(guī)模就使得大模型能夠?qū)W到大量的模式與常識,,甚至建立一定的推理能力。

  第二個“大”是指訓(xùn)練的數(shù)據(jù)大,。我剛才提到,,它是用互聯(lián)網(wǎng)級別的海量數(shù)據(jù)訓(xùn)練出來,這里面包括互聯(lián)網(wǎng)上的文本,、高質(zhì)量的網(wǎng)頁,、維基百科、書籍的語料庫,。它的訓(xùn)練詞元(token)大概是千億級的,。所以是訓(xùn)練方式“高”,模型規(guī)?!按蟆?,訓(xùn)練數(shù)據(jù)“大”。

  “上”是什么意思呢,?這也是一個挺神奇的事,,是說它的邏輯推理、知識推理,、泛化能力突然之間就能更上一層樓,。它的英文單詞叫做emergent ability,就是突現(xiàn)的能力,、涌現(xiàn)的能力,。用一個更通俗易懂的話來說就是,,它突然會開竅。

  語言模型隨著規(guī)模的增長,,突然對于訓(xùn)練時候沒有見過的任務(wù)也能夠懂是什么意思能夠勝任,,它開竅了。那么到多大的規(guī)模,,這個模型才會開竅呢,?基本上是在 650 億個參數(shù),超過這個規(guī)模時它就開竅了,。

  這就是大模型的幾個特點(diǎn),“高大上”,。這幾個特點(diǎn)就決定了,,如剛才黃所提到,它帶來了很多新的東西,。這是我想跟黃所探討的第一個事,。

  黃燕銘:芮博剛才講到ChatGPT基于大數(shù)據(jù)大模型650億的參數(shù)以后能開竅。我們知道這次ChatGPT的出現(xiàn)離不開背后大模型的突破,,二級市場的投資者普遍認(rèn)為大模型相對于之前的場景化的小模型有本質(zhì)的不同,。您認(rèn)為大模型是不是實現(xiàn)通用人工智能的一種可行的路徑?我們也看到GPT-4發(fā)布也增加了圖片作為輸入的新模式,,您覺得大模型未來會往怎樣的方向發(fā)展,?

  芮勇:黃所問的這幾個問題,都很深刻,。我試著來一起來探討一下,。第一個,大模型的出現(xiàn)是不是一個人工智能范式的一個轉(zhuǎn)變,?這個事其實很有意思,,我們來看一下。我們知道GPT大模型的版本有1,、2,、3、3.5等等,,它這一系列的論文題目,,就反映了每個階段的變化。GPT-1,,論文名字叫做Improving Language Understanding by Generative Pre-Training,,生成式預(yù)訓(xùn)練提升語言理解能力。GPT這三個字是Generative Pre-trained Transformer 的縮寫,,是生成式預(yù)訓(xùn)練的Transformer,。

  在GPT-1的時候,,它其實比較大,但是還沒有達(dá)到我剛才講的那個閾值,,它還是一個比較小的模型,,對語言有一定的理解。這個時候它有上億個參數(shù),,但是離650億個參數(shù)還有距離,。

  但到GPT-2的時候,它論文的題目叫做“語言模型是無監(jiān)督的多任務(wù)學(xué)習(xí)者”,。GPT-2主要是通過多任務(wù)學(xué)習(xí),,獲得了遷移學(xué)習(xí)的能力,零樣本學(xué)習(xí),,和執(zhí)行任務(wù)的能力,,這個是一個非常重大的突破。所以,,從GPT-1到2跨越了從小模型到大模型的一個飛躍,。

  到GPT-3的時候,就更有意思了,。它講的是“語言模型是一個小樣本的學(xué)習(xí)者”,。這個時候它顯示出非常強(qiáng)大的學(xué)習(xí)能力,你只需要把訓(xùn)練好的大模型,,給他幾個,,比如說從中文到英文翻譯的幾個例子,它自己就理解了,,哦,,原來你給我這幾個例子說是讓我做翻譯,它就會給你去做翻譯了,。

  到GPT-3.5,,也就是我們看到的ChatGPT后面大模型的時候,它又厲害了,,連例子都不用給了,,你就直接用自然語言的方式告訴它要做什么任務(wù),它也能夠理解了,。

  前幾天,,GPT-4發(fā)布,它就又上一層樓,。它不僅僅是支持文本的交互,,它的輸入也可以是圖像,這是和之前一個比較大的區(qū)別,。它的上下文的大小,,之前GPT-3.5大概是2K,,那么現(xiàn)在GPT-4的達(dá)到32K.所以它的上下文能力更大,特別有利于支持多模態(tài)多輪對話的場景,。

  所以剛才黃所的問題,,大模型的出現(xiàn)是不是一個AI的范式?從這角度看,,確實是,。這是從小模型加上面向特定任務(wù)的微調(diào),轉(zhuǎn)換到了一種大模型加上上下文的學(xué)習(xí),,這樣一種新的范式,,這確實是一種新范式的出現(xiàn)。

  那么剛才黃所還問這個大模型,,是不是通向今后的通用人工智能的一條路,?這個就要看我們是怎么來定義通用人工智能。如果我們定義一個狹義的通用人工智能,,比如說通過人類的各科考試,那么,,這個GPT-4做的已經(jīng)很不錯了,。它現(xiàn)在已經(jīng)參加了美國的各種考試,比如說LSAT滿分是180分,,它考了163分,,打敗了88%的考生。還有一些別的考試,,考的也都不錯,。但是還有幾種考試,比如說這個十年級的就是大概是高中吧,,高中數(shù)學(xué)競賽的那個考試還不夠理想,。

  我們?nèi)绻x通用人工智能,它的狹義是說能夠通過人類的各科考試,,現(xiàn)在GPT-4做還是可以了,。

  如果定義這個通用人工智能的意思是說和人類的智能要看齊,那它還是有些差距,。我覺得可能主要有幾個方面,,第一個是閉環(huán)的自主反饋糾錯能力。今天我們都知道有自動駕駛,,也有人類司機(jī)的駕駛,。有的時候我們還是會比較擔(dān)心,說人類司機(jī)是不是比自動駕駛發(fā)生錯誤的概率還高一點(diǎn),?但是人類是一個閉環(huán)反饋系統(tǒng),,他能夠?qū)崟r去糾錯,,碰到意外情況的時候,他能馬上反應(yīng)出來,。但是這種開環(huán)的,,比如像今天的這個大模型情況,它沒有實時反饋糾錯的能力,,碰到意外的,、之前徹底沒看到過的情況的時候,它有時候會發(fā)生問題,。所以今天不少人可能寧愿坐我們?nèi)祟愰_的出租車,,也不愿意去信任自動駕駛的能力。

  第二,,它是跟人類這種深度理解的能力也有比較大的區(qū)別,,我就不舉例子了,就是你給它幾個比較繞的數(shù)學(xué)題的時候,,你能把它繞進(jìn)去,。人類其實是懂了,而它沒有真正懂,。你把它給繞進(jìn)去了,,它的答案就是錯的。所以這么說,,大模型是不是通向通用人工智能的一條路徑,?我們?nèi)绻x是狹義的通用人工智能,我覺得可能是其中的一條路徑,。如果是廣義的通用人工智能,,那就要向人類的智能看齊,它可能還有一些距離,。

  黃燕銘:您講的非常清楚,,這要看具體的這個應(yīng)用場景,我們本來的這個應(yīng)用場景覺得很大,,放到一個更大的范圍里面,,它就變得很小,所以我想這個是一個層層推進(jìn)的過程,。我們今天覺認(rèn)為的大模型在將來可能還是一個小模型,,我們在未來會有更大的一些模型的出現(xiàn)。

02 關(guān)于商業(yè)應(yīng)用場景

  黃燕銘:海外像大摩這些金融機(jī)構(gòu)把ChatGPT技術(shù)應(yīng)用在理財投資顧問的工作領(lǐng)域,,我們相信這種應(yīng)用也會越來越多,、越來越快,相信在不遠(yuǎn)的將來ChatGPT技術(shù)也會在中國大陸全面開花,。除了技術(shù),,投資者最關(guān)注的莫過于未來可能出現(xiàn)的應(yīng)用場景,。我們看到微軟已經(jīng)把ChatGPT整合到了辦公軟件、會議軟件當(dāng)中,,直接跟消費(fèi)者收費(fèi),;同時,海外也已經(jīng)有很多公司把GPT模型用在了不同的領(lǐng)域,,比如面對企業(yè)的內(nèi)容創(chuàng)作,、績效營銷分析等等。不知道您更看好GPT系列未來在哪些場景中的落地,?比如是更看好B端還是C端,,開源還是閉源?

  芮勇:黃所說的非常好,。一個技術(shù)到最后,,還是要落地的,要有場景的,。這個事兒從企業(yè)上來看也是完全一樣的,,我們?nèi)魏蔚募夹g(shù)都要落到場景去,要產(chǎn)生經(jīng)濟(jì)效益,。那么剛才黃所說,,有哪些場景是落地會比較好?其實,,我們?nèi)绻penAI的官網(wǎng)去看一看,,他們列出了非常多的場景,,有48個不同的使用場景,,大致有7個類別,包括問答,、分類,、代碼、對話,、生成,、翻譯、轉(zhuǎn)換等等,。

  我們可以簡化一點(diǎn)看這個問題,,就看兩個大類,一個是理解,,另一個是生成,。大模型其實非常強(qiáng),它的語言理解能力要比之前準(zhǔn)確很多,,所以這是人機(jī)交流的一個大的里程碑,。比如今后我們使用搜索引擎,,可以用自然語言進(jìn)行搜索了,而不用去找到底是用這個關(guān)鍵詞,,還是用那個關(guān)鍵詞,,你只要用自然語言就可以了,這是它理解能力的應(yīng)用場景,。

  第二個是生成能力的應(yīng)用場景,,這里有很多智能化的內(nèi)容生成,比如輔助寫作,、代碼編寫等等,,這些東西它都可以做了。在節(jié)目開始之前,,我跟黃所聊的時候,,黃所還問說證券分析師是不是也有一部分會被取代?我覺得今后可能社會上有一些職業(yè)更容易被取代一些,。數(shù)字社會勞動力市場有一個新的特征,,就是很多這種像能寫會算的專業(yè)知識技能,逐漸會被標(biāo)準(zhǔn)化,、模塊化,、和程序化。

  反而是那些沒有被模塊化的技能可能更難被取代,。有兩種技能,,我覺得看起來比較難被取代。一種是創(chuàng)意,,它包括分析能力,、創(chuàng)造性思考能力、理解和表達(dá)能力,。

  第二種是社交智慧,,我們?nèi)祟愂且环N社交的動物,具有智慧的社交能力,,和人際的融合能力,、溝通能力和領(lǐng)導(dǎo)力,這些是很難被取代的,。

  剛才黃所也問到,,C端B端、開源閉源,。我個人認(rèn)為C端可能會快速落地,,然后是B端的爆發(fā)式落地。我為什么這么認(rèn)為呢?因為我們看今天的這種大模型它的通用能力非常的強(qiáng),,可以立刻就支持C端,,包括像個人應(yīng)用、內(nèi)容創(chuàng)作,、文章,、代碼、圖像視頻的生成,,等等,,所以它可以立刻支持C端,也就可以立刻快速落地,。但是這個B端還需要一段時間把大模型和B端給連接起來,。一旦能夠打通之后,那么B端的落地增長會是爆發(fā)性的,。這是我個人的看法,,關(guān)于C端和B端。

  那么開源和閉源呢,?我覺得閉源現(xiàn)在有一些先發(fā)優(yōu)勢,,雖然我們叫OpenAI,但是它現(xiàn)在的這些模型,,它并不開源,,還是閉源,所以它有一定的先發(fā)優(yōu)勢,。我們從一個比較長期來看,,開源是有利于生態(tài)建設(shè)的,比如說我們今天大家都用的Linux,,RISK-V,,PyTorch,它都是開源的,。開源有后勁,,所以我覺得閉源現(xiàn)在有一定的先發(fā)優(yōu)勢,,但是開源有利于生態(tài)建設(shè),,它的后勁會比較強(qiáng)。

  黃燕銘:芮博剛才講到人類有兩種能力可能是機(jī)器暫時還替代不了,,第一個是創(chuàng)意,,第二個是社交。我們知道在大模型出現(xiàn)之前,,也有很多的場景里邊存在一些基于特定模型的AI應(yīng)用,。隨著大模型的興起,您認(rèn)為之前這些AI企業(yè)的發(fā)展是否需要全面轉(zhuǎn)向大模型?在大模型興起的過程中,,這些AI企業(yè)怎么根據(jù)自己的比較優(yōu)勢做出相應(yīng)的戰(zhàn)略調(diào)整呢,?

  芮勇:黃所這個問題也是特別的好,我覺得可能所有做產(chǎn)業(yè)的,,做企業(yè)的同仁們都會問這樣一個問題,。我是這樣考慮的,把一項技術(shù)注入產(chǎn)品,,或者去賦能業(yè)務(wù)的時候,,還是要綜合考慮很多的因素。我們當(dāng)前階段大模型進(jìn)步非???,但不少問題還沒真正解決。另外用戶場景產(chǎn)生的需求也不是完全一樣,,并且它的應(yīng)用程序運(yùn)行環(huán)境也不一樣,。

  所以我覺得,大模型會是非常重要的一支力量,,但是可能也不會是放之四海而皆準(zhǔn),,所有人都需要上。如果來比較細(xì)的來看,,有這么幾個方面,。一個是比如說我們就用這個ChatGPT的知識庫作為一個例子,它的知識庫截止于2021年,,那么問它2022年或者2023年的事,,它基本上是不知道的。對于需要經(jīng)常性知識更新的業(yè)務(wù)場景,,大模型今天還做的不太好,。這個也比較容易理解,因為每訓(xùn)練一次大模型非常耗時,,并且強(qiáng)大的算力后面還需要很多人工,,還要去人為給它一些強(qiáng)化學(xué)習(xí)的一些反饋。所以它的實時性不強(qiáng),,對最新的消息它也不知道,。

  所以,對這些場景可能它不是特別適合,。第二,,它的泛化能力有時能泛化的挺好,有時又泛化的不好,。對一些工業(yè)應(yīng)用,,真正的應(yīng)用可能還有點(diǎn)不是很安全,,因為誰也不想看這東西時靈時不靈。所以我們覺得還有些場景,,它不太能夠用得到,。大模型的參數(shù)是在千億級的,它需要設(shè)備端和云端的實時連接,,云端去做各種計算,、生成和推理。那么,,對于網(wǎng)絡(luò)通訊能力比較弱,,或者是低功耗的設(shè)備,它可能也不太適用,。

  所以我們說,,大模型有很多地方都非常適用,但是可能也有一些場景,,它并不完全適用,。剛才黃所也提到企業(yè)怎么去做調(diào)整,怎么去抓住機(jī)會,。我也趁這個機(jī)會插播一個廣告,。大模型里面有幾個非常關(guān)鍵的核心技術(shù),剛才我和黃所聊的時候我們都聊到了,,比如Few-Shot Learning,,就是小樣本學(xué)習(xí),還有增強(qiáng)學(xué)習(xí)等等,。這些技術(shù),,其實聯(lián)想我的團(tuán)隊很早之前一直在看這個事。

  我們把它用在一個比較有意思的地方,,用在工廠的智能排產(chǎn),。聯(lián)想有一家非常大的工廠,在合肥,,它的占地有42個標(biāo)準(zhǔn)足球場那么大,。全球的每8臺PC有1臺就是在那里生產(chǎn)的。它有上百條的產(chǎn)線,,它能生產(chǎn)的機(jī)器類型也是上百款,,每一天都從全球飛來成千上萬的訂單。這些訂單那到底是應(yīng)該排在哪個產(chǎn)線的哪個時間去生產(chǎn),?這就很有學(xué)問了,,如果這個排產(chǎn)排的好,,它的成本就會低很多,,它的速度就會快很多,它的產(chǎn)線利用率就會突飛猛進(jìn)的增強(qiáng)。如果我們用深度學(xué)習(xí)加上強(qiáng)化學(xué)習(xí)的這種方式去做,,就會得到非常好的效果,。所以我們也是在合肥工廠用到了這種強(qiáng)化學(xué)習(xí),使得我們排產(chǎn)水平和排產(chǎn)效率大幅的提高,。

  那么聯(lián)想現(xiàn)在大的戰(zhàn)略方向是“端邊云網(wǎng)智”,,我覺得這幾個方向都會跟大模型發(fā)生關(guān)系。特別是大模型把新的機(jī)會點(diǎn),、新的需求都提出來了,。在“端”側(cè),無論是PC,、手機(jī),、平板、AR/VR這些設(shè)備它都會成為大模型某一種輸入的入口,。那么“邊云網(wǎng)”這些基礎(chǔ)設(shè)施,,如果我們要訓(xùn)練大模型的話,并行計算,、分布式大規(guī)模訓(xùn)練的基礎(chǔ)設(shè)施就非常重要。這塊兒是聯(lián)想基礎(chǔ)設(shè)施業(yè)務(wù)群會著力去看,。

  在“智”這方面,,我們在看很多的行業(yè)智能化,比如說智能制造,、智慧交通,、智慧教育等等。那么大模型出來之后,,不僅是聯(lián)想了,,我相信很多公司也會說,這種通用領(lǐng)域的大模型,,如何和垂直行業(yè)的知識相結(jié)合,,在垂直行業(yè)做智能化?所以這幾個方面,,我覺得大模型確實有很多重要的方向,,也帶來了非常多的機(jī)會。

  黃燕銘:到目前為止,,實際上我們關(guān)于AI的主要應(yīng)用都是在生產(chǎn)管理,、企業(yè)經(jīng)營方面。當(dāng)然AI其實也很大的一塊是用在藝術(shù)方面,,現(xiàn)在大家都在強(qiáng)調(diào)人工智能作畫,。隨著AI作畫和ChatGPT的“出圈”,,我們也看到有越來越多的創(chuàng)業(yè)者把生成式AI作為了自己的創(chuàng)業(yè)方向。但同時,,大模型的人才投入和成本都是非常大的,,各大巨頭也都已經(jīng)在做。您覺得如果作為AI創(chuàng)業(yè)者,,機(jī)會在哪里,?

  芮勇:黃所,這又是一個特別好的問題,,我先嘗試著從兩個角度來回答一下,。我過一會兒也特別想聽聽黃所怎么來看這個問題。第一個角度,,我覺得這個就像黃所剛才講的初創(chuàng)企業(yè),,大模型的訓(xùn)練成本非常高昂,可能初創(chuàng)企業(yè)不太適合從零開始,,與現(xiàn)有的大模型競爭,。但是這并不代表初創(chuàng)企業(yè)跟大模型就不發(fā)生關(guān)系。我覺得有很多地方它都可以去發(fā)生關(guān)系的,。

  比如在大模型基礎(chǔ)之上,,進(jìn)行不同行業(yè)的創(chuàng)新。像黃所剛才提到的AIGC,,在生成方式,,在藝術(shù)方面,這些都是一些非常好的方向,,在大型之上去做創(chuàng)新,。那么,大模型和這個之上的創(chuàng)新就有一點(diǎn)像,,比如說在10-15年以前移動互聯(lián)網(wǎng)時代開始蓬勃發(fā)展的時候,,一些公司負(fù)責(zé)開發(fā)操作系統(tǒng)的平臺,另外一些公司在這個操作系統(tǒng)之上去做它的開發(fā)套件API,,還有一些公司在這個之上去開發(fā)應(yīng)用,。

  我覺得今天可能也是一樣,有做大模型的大型企業(yè),,有做專業(yè)知識的專業(yè)企業(yè),,還有一些初創(chuàng)公司的小型企業(yè),我覺得大家可以形成一個生態(tài),,從不同的角度來進(jìn)行創(chuàng)新和推進(jìn),。

  第二個角度,我覺得有一些企業(yè)可以去把垂直行業(yè)和大模型做一些適配,,尤其是在數(shù)據(jù)端的適配,,因為有一些垂直行業(yè)它可能不想把私有數(shù)據(jù)共享給大模型公司,,大模型公司又沒有辦法去訓(xùn)練它的數(shù)據(jù)。這個時候就不是一個最優(yōu)的答案,。那么,,有沒有一些企業(yè)可以去做一些很新穎的方式,,使得私有企業(yè)比較安全地把私有數(shù)據(jù)共享給模型公司,,這個時候就可以吸引更多的數(shù)據(jù)訓(xùn)練出更好的模型,再吸引更多的用戶,,這樣整個的數(shù)據(jù)飛輪就能夠轉(zhuǎn)起來了,。我覺得確實有很多方向,這些初創(chuàng)企業(yè)都是可以做的,。我也想和黃所討論一下,,在這方面黃所怎么看?

  黃燕銘:其實站在我的角度來說,,我也思考了很多問題,,我自己做證券研究29年,我認(rèn)為證券研究的原料是信息,,證券研究的成果依然是信息,。信息研究、信息管理的整個過程貫穿了證券研究的管理的整個過程,。但是在這個過程當(dāng)中,,我們有些東西是可以用計算機(jī)記錄下來,用計算機(jī)來進(jìn)行計算,,用計算機(jī)來進(jìn)行記憶,,但是有些東西計算機(jī)做不到。

  我一直在思考一個問題,,1946年馮諾依曼在設(shè)計計算機(jī)結(jié)構(gòu)的時候,,他把計算機(jī)的主要功能設(shè)定為記憶和計算,但是他少了一塊東西,,跟人類相比,,那就是心智,人類的智慧,。為什么他沒有設(shè)計智慧,?知識是記錄在紙上的,知識可以用機(jī)器來記錄和表達(dá),,但智慧是人需要感悟和認(rèn)知的,,所以知識在書本,在電腦,。智慧在人的內(nèi)心,,在大腦,。所以是兩個不同的東西。因此,,計算機(jī)能夠幫助我們?nèi)ビ洃浿R,,幫助我們?nèi)ビ嬎阒R。但是計算機(jī)不能幫助我們?nèi)祟惾ジ形蛐轮腔邸?/p>

  所以我自己認(rèn)為人工智能再怎么發(fā)展,,可能有一條鴻溝,,沒有辦法突破,就是“轉(zhuǎn)識成智”,,怎么把知識變成智慧,,變成智慧是需要相當(dāng)長的時間學(xué)習(xí)鍛煉,然后不斷的去感悟的過程,,而且不同的人對智慧的感悟可能是不一樣的,。

  我相信,ChatGPT以及類似的這些人工智能的發(fā)展會給我們各行各業(yè)在未來帶來很大的變化,。這種變化主要還是在記憶和計算兩大環(huán)節(jié)給我們提供幫助,,畢竟我們在人類的日常大腦的活動當(dāng)中,計算和記憶占了大量時間,,而參悟智慧占的時間并不多,。雖然它是最重要的,但是我們相對來講占的時間不多,。

  如芮博所言,,人工智能沒有辦法幫我們完成的工作,第一個是社交,,第二個是創(chuàng)造性的工作,。那從我的角度來說,哪些東西電腦能夠完成,?哪些東西電腦不能完成,?我的理解是形而下的工作可以交給計算機(jī),但是形而上的感悟,,目前來看,,人工智能還很難去幫我們完成。

  什么叫“形而下”,?有具體的數(shù)據(jù),、具體的語言、具體的計算公式,,能夠按照一種方式,,放進(jìn)去這些條件出來的結(jié)果就是這個。這些工作在我們證券研究里面其實有很多,比如說我們?nèi)粘W鲎C券研究,,我們要收集信息,,要收集上市公司年報的信息,要收集公告信息,,收集各個媒體發(fā)布的信息等等,,通過把這些信息收集過來,加工整理成我們一系列的研究產(chǎn)品,,包括信息匯編類的報告,、年報點(diǎn)評類的報告、行業(yè)點(diǎn)評類的報告,。這些通過簡單的人工收集信息,,然后簡單加工,,就可以形成的這一類日常點(diǎn)評性的報告,,我相信用人工智能都可以完成。

  而這類工作其實在我們?nèi)粘.?dāng)中耗費(fèi)了巨多的時間和人力,,所以說我相信人工智能的發(fā)展會導(dǎo)致證券研究人員數(shù)量可能會在一定程度上減少,,大量研究助理需要干的活被機(jī)器替代,很多研究助理晚上可以減少熬夜,,讓機(jī)器幫助完成一部分的工作,。

  不過,是不是證券的研究中所有的東西都可以讓電腦來替代呢,?我就說一個問題,,2014年本人的那篇文章,《股票價格不是樹上的花》,,這篇文章能讓機(jī)器寫出來嗎,?我相信也不能。這就好比以前大家在探討有沒有可能讓機(jī)器寫出優(yōu)美的散文和唐詩,、機(jī)器能不能參悟人類的智慧達(dá)到更高的一個境界,。我相信智慧還是需要人類自己去完成。

  所以我們也在討論一個很簡單的問題,,機(jī)器能不能寫出讓人類滿意的研究報告,?我的答案是機(jī)器可以寫出讓機(jī)器滿意的報告,但是機(jī)器很難寫出完美到讓人類最滿意的研究報告,,但它能夠幫助我們解決記憶和計算,。

  芮勇:黃所講的非常精彩,我特別認(rèn)同這樣的一些看法,,關(guān)于機(jī)器和人之間的關(guān)系,,“形而下”和“形而上”之間的關(guān)系。我從事信息行業(yè),,計算機(jī)是信息科學(xué)的一個分支,。從信息科學(xué)來看,,數(shù)據(jù)是一些最原始的東西,數(shù)據(jù)升華以后才是信息,,信息升華以后才是知識,,知識再升華以后才是智慧。它有好幾個不同的等級,,所以我特別同意剛才黃所講的,,確實人類和機(jī)器還是有很多不一樣的地方。黃所另外講的一個觀點(diǎn)是人和機(jī)器的之間的關(guān)系,,我也非常認(rèn)同,。

  我從2015、2016年開始就跟大家說AI到底是哪兩個字,,它不一定代表Artificial Intelligence,,我們今天所說的人工智能,我覺得它更代表的是Augmented Intelligence,,是一個增強(qiáng)以后的人類智能,。其實人和機(jī)器的關(guān)系不是人和機(jī)器PK,而是人加上機(jī)器,,機(jī)器是一種輔助的工具使得我們?nèi)祟惛訌?qiáng)大,。

  機(jī)器應(yīng)該為人類服務(wù),而不是人類為機(jī)器服務(wù),。那么剛才黃所提到的一個是計算,、一個是記憶,這兩個讓機(jī)器去做吧,。這兩個機(jī)器本來做的都很好,,它算的比我們算的快,記得也比我們記得多,。但是很多它不會的東西是在我們?nèi)祟惖哪X子里,,那剛好機(jī)器干機(jī)器強(qiáng)的事,人類干人類強(qiáng)的事,,所以結(jié)合在一起,,應(yīng)該是一個更加強(qiáng)大的人,就是我認(rèn)為是一個增強(qiáng)的人類,,所以認(rèn)同黃所剛才講的這幾點(diǎn),。

03 關(guān)于AI技術(shù)倫理

  黃燕銘:我們也注意到,不管是ChatGPT還是最近發(fā)布的GPT-4,,在回答一些問題時也生成了一些對部分人群不友好的回答,。您覺得隨著人工智能的發(fā)展,未來我們可能會面臨哪些技術(shù)倫理方面的問題?

  芮勇:黃所問了一些非常高深的問題,,這也是上升到哲學(xué)高度了,。這個事我是這樣看,倫理這個事確實很重要,,如果看我們古代的一些先賢,,他們對這些事情的看法。比如說從《道德經(jīng)》的角度來看,,《道德經(jīng)》里有一句話,,“天之道,利而不害”,。這就是說,,自然規(guī)律是利萬物。我們的先賢在幾千年以前的這些理念,、觀點(diǎn),,對今天的AI發(fā)展仍然有指導(dǎo)意義。

  在人工智能技術(shù)走向產(chǎn)品的時候,,一定也會碰到道德和倫理的問題,。之前的某款聊天機(jī)器人就可能會講一些不太準(zhǔn)確,、不太合適的話,,上線不到24小時就被迫關(guān)閉了。那今天的ChatGPT在這方面已經(jīng)做了很大的改進(jìn),,它的情商還是比較高的,,很少會有侮辱性語言和偏激行為,因為它的訓(xùn)練方式已經(jīng)和7,、8年前相比有很大飛躍了,。但即使是這樣,我們?nèi)匀恍枰纯丛趺茨茏屗幼袷匚覀內(nèi)祟惖膫惱怼?/p>

  我們來回顧一下大模型的訓(xùn)練過程,,它其實用了互聯(lián)網(wǎng)級別的海量數(shù)據(jù)來訓(xùn)練,。這就是像一個孩子,他學(xué)習(xí)了很多基本的文化知識,,但是他沒有建立價值觀,,他不知道什么叫對,什么叫錯,,什么叫正確的,,什么叫不正確的。對于這一點(diǎn),,我們要教這個孩子什么是對的,,什么是錯的。

  在ChatGPT里有一個算法,我們剛才也提到了,,就是基于人類反饋的強(qiáng)化學(xué)習(xí),。這個就是為了去教這個大模型人類的價值觀是什么,人類認(rèn)為什么是對的,、什么是錯的,,使得大模型向人類的價值觀來靠攏。所以,,這是一個挺重要的問題,。所以我們看到的在人工智能的發(fā)展過程當(dāng)中,給我們帶來了很多生活的便利,、生產(chǎn)效能的提高,,但是這些倫理和道德問題,我們也要花大力氣去想,,這些人工智能產(chǎn)品的落地時需要遵循的一些原則,,才能使之健康有序的發(fā)展。

  現(xiàn)在業(yè)界比較公認(rèn)的幾個人工智能基本原則,,包括公平,、可靠、保密,、包容,、透明、負(fù)責(zé),,等等,。我們再回來看這幾個字,很多理念也是我們中華民族這幾千年來文化的根基,。所以基于這樣的一些理念,,我們能夠讓人工智能以一種合乎倫理的方式進(jìn)行使用,也可以設(shè)計出讓人更加信賴的人工智能,、更加體現(xiàn)道德原則的解決方案,。

  黃燕銘:還想跟芮博交流最后一個問題,改革開放40多年,,中國的科學(xué)技術(shù)突飛猛進(jìn),,中國的金融行業(yè)也是日新月異,您作為一個走遍世界的技術(shù)領(lǐng)軍人物,,站在您的角度,,對中國的人工智能,特別是對GPT的發(fā)展前景如何看待,,能否做個展望,?

  芮勇:對,,我覺得我們的前景非常的好!首先,,整個科技領(lǐng)域,,人工智能領(lǐng)域,無論是從基礎(chǔ)算法,,還是從我們的數(shù)據(jù),,都非常豐富,非常先進(jìn),。其次,,中華民族有一個比較重要的美德,我們非常的勤奮,。那么在強(qiáng)大算法的基礎(chǔ)之上,,加上這種勤奮的美德,我們愿意合作的這種美德,,我覺得我們無論是人工智能,,還是更廣闊的整個科技領(lǐng)域的發(fā)展,都會變得越來越好,!好,,謝謝黃所!

  黃燕銘:謝謝芮博,!我相信人工智能的未來發(fā)展,,前景非常廣闊,現(xiàn)在才剛剛開始,,未來還有很多新的技術(shù)發(fā)展,、新的應(yīng)用值得我們期待!我們大家可以期待一個更加美好的未來,!我們今天的節(jié)目就到這里謝謝大家!

(文章來源:國泰君安

黃燕銘對話聯(lián)想集團(tuán)CTO:ChatGPT大風(fēng)起 人工智能浪潮來臨

免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,,觀點(diǎn)僅代表作者本人,,不代表芒果財經(jīng)贊同其觀點(diǎn)或證實其描述,版權(quán)歸原作者所有,。轉(zhuǎn)載請注明出處:http://lequren.com/1004562.html
溫馨提示:投資有風(fēng)險,,入市須謹(jǐn)慎。本資訊不作為投資理財建議,。

(0)
新浪財經(jīng)的頭像新浪財經(jīng)
上一篇 2023年3月21日 下午12:33
下一篇 2023年3月21日 下午1:34
198搶自鏈數(shù)字人

相關(guān)推薦