本報記者 李玉洋 上海報道
在由ChatGPT掀起的新一輪人工智能(AI)競賽中,科技巨頭谷歌也得奮力追趕,。
科技媒體The Information報道,,谷歌確認將其專門負責AI芯片開發(fā)的團隊轉移至谷歌云(Google Cloud)部門,以增強云計算團隊的競爭力,,追趕強敵AWS和微軟Azure,。
《中國經(jīng)營報》記者注意到,谷歌此前還宣布將DeepMind 和Google Brain兩個人工智能研究實驗室合并為一個叫Google DeepMind的部門。
全聯(lián)并購公會信用管理委員會專家安光勇對記者表示:“這表明谷歌正在采取積極措施來應對競爭對手的挑戰(zhàn),,并在AI和云計算領域繼續(xù)保持領先地位,。”而國內一位從事云計算代理服務的業(yè)內人士認為,,這些舉措能增加谷歌云的能力,,“現(xiàn)在看來國內云計算市場不會受到影響”。
大模型是目前科技領域的新焦點,,而云計算成為大模型技術落地的最佳平臺和基礎設施,。谷歌、微軟,、亞馬遜,、阿里巴巴、百度,、騰訊,、華為等已發(fā)布或正在研發(fā)相關大模型產(chǎn)品的公司,大部分有自己的云計算平臺,、云產(chǎn)品和生態(tài),。
據(jù)了解,,當前大模型的訓練、推理的算力支持主要來自GPU(圖形處理器),,但這類芯片卻供不應求,。“因為AIGC和ChatGPT4近期火熱,,市場對GPU需求非常大,,而主流GPU就是英偉達的A100或A800,這些產(chǎn)品供不應求,,貨期高達2個月,。”在某國際云計算大廠工作的程前(化名)告訴記者,,目前包括微軟,、谷歌、亞馬遜以及國內BAT等大廠都在進行AI芯片開發(fā),,做AI推理或訓練時,,自研AI芯片能夠提供比較及時的算力支持,避免對英偉達的依賴并降低運營成本,。
記者還注意到,,谷歌在4月初宣稱將4000個第四代TPU(張量處理器,是谷歌為機器學習定制的專用芯片)串聯(lián)在一起,,構建起的超級計算機的運行速度要比采用英偉達A100 GPU的同等機器快1.7倍,,效率高出1.9倍。谷歌還表示已經(jīng)部署了數(shù)十臺采用第四代TPU打造的超級計算機,,供內部使用和外部通過谷歌云使用,。對于這一情況的更多細節(jié),記者聯(lián)系谷歌方面,,截至發(fā)稿未獲答復,。
AI服務很大程度依托于云
據(jù)悉,谷歌的AI發(fā)展歷史可追溯到2000年代初期,,彼時谷歌開始研究機器學習算法,,通過組建或收購的方式,打造起自己的AI研發(fā)力量,。其中,,外界較為熟悉的是DeepMind和Google Brain。前者成立于2010年,,2014年被谷歌以5億美元的價格收購,,其后一直作為獨立部門進行運營,2016年因其研發(fā)的AlphaGo人工智能圍棋程序擊敗了韓國圍棋九段棋手李世石而聲名大噪,;后者也交付了不少備受矚目的項目,,其中包括Transformer大模型,,它被認為是ChatGPT開發(fā)的基石,。
如今谷歌把DeepMind 和Google Brain合并,,可見谷歌集中優(yōu)勢兵力、全力投入競賽的決心,?!霸诠雀栌嬎阗Y源的支持下,將所有AI人才整合成一個專注的團隊,,將大大加快我們在AI方面的進展,。”對于將DeepMind和Google Brain合并,,Alphabet首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)此前發(fā)文說,。
“AI請求本身就是基于大規(guī)模數(shù)據(jù)中心集群,未來AI服務很大程度都要依托于云,,而ChatGPT本身就是部署在云上的,。”資深產(chǎn)業(yè)分析師黃燁鋒對記者表示,,ChatGPT 發(fā)布后,,谷歌一直很著急。
安光勇認為,,不管是把AI芯片轉移至云計算部門,,還是把兩個人工智能實驗室合并,目的有兩個,,一是應對微軟和OpenAI的威脅,,二是推進自身AI技術的發(fā)展。
根據(jù)The Information的報道,,谷歌將負責AI芯片研發(fā)的工程團隊轉移到Google Cloud,,是為了提高Google Cloud出售AI芯片給那些租用其服務器公司的能力?!癎oogle Cloud CEO Thomas Kurian一直在向Google的高層爭取更多資源,,以更好地裝備團隊,與來自OpenAI的AI軟件微軟的Azure云業(yè)務以及即將加入的亞馬遜云AWS開展競爭,?!痹搱蟮廊绱颂岬健?/p>
根據(jù)谷歌母公司Alphabet近期發(fā)布的 2023年第一季度財報,,Google Cloud銷售額達到75億美元,,同比增長28%,這是自2020年開始公布業(yè)績以來,,該部門首次實現(xiàn)盈利,,營業(yè)利潤為1.91億美元,。目前,Google Cloud業(yè)務合計占Alphabet總收入的10%,。
根據(jù)市場調研機構Canalys發(fā)布的2022年第四季度全球云基礎設施數(shù)據(jù),,AWS、微軟Azure和谷歌云分別是全球前三大云服務供應商,;而IDC發(fā)布的2022 年下半年中國公有云市場報告顯示,,前五大市場份額的云廠家分別是阿里云、華為云,、天翼云,、騰訊云和亞馬遜云。
微軟,、谷歌均欲加大AI投資
作為谷歌在新一輪AI競賽中的勁敵,,同一天發(fā)布財報的微軟拿出了一張優(yōu)異成績單。財報顯示,,微軟截至3月31日的季度收入為529億美元,,同比增長7%,好于預期,。
在報告期內,,微軟宣布追加數(shù)十億美元投資OpenAI,并表示將利用后者的人工智能模型開發(fā)新版必應搜索引擎,,并將GPT-4接入到Office工具,,推出了AI版Office“全家桶”Microsoft 365 Copilot。
“世界上最先進的人工智能模型與世界上最通用的用戶界面——自然語言——相結合,,開創(chuàng)了一個新的計算時代,。”微軟首席執(zhí)行官薩蒂亞·納德拉(Satya Nadella)在財報新聞稿中表示,,“在整個微軟云服務中,,我們是幫助客戶從數(shù)字支出中獲得最大價值并為下一代AI進行創(chuàng)新的首選平臺?!?/p>
在ChatGPT引領的AI浪潮的助推之下,,微軟智能云服務在報告期內實現(xiàn)了不俗的增長。
具體來看,,包括Azure公共云,、企業(yè)服務、SQL Server和Windows Server在內的微軟智能云業(yè)務部門實現(xiàn)營收220.8億美元,,同比增長了16%,;而包括Dynamics、LinkedIn和Office在內的生產(chǎn)力和業(yè)務流程部門公布收入175.2億美元,,同比增長約11%,。納德拉表示,,Teams通訊應用程序在報告期內每月有超過3億活躍用戶,高于上一季度的2.8億,。
在財報電話會上,,微軟CFO艾米·胡德表示,微軟接下來會加大云基礎設施,,特別是與AI相關的投資,,并且在消費者業(yè)務方面如Windows的活躍設備數(shù)量,、Edge和游戲業(yè)務等不斷提升市場份額,。
目前,微軟正在加緊將GPT向Office套件,、必應搜索業(yè)務中整合,,這個過程中成本可能很高,但一旦成功可能會給微軟帶來新的利潤增長點,。本就占領高地的微軟不斷乘勝追擊,,讓谷歌也不得不迎頭緊追。
而在今年3月,,谷歌人工智能聊天機器人Bard對外開啟測試,,但效果不如外界預期,4月又發(fā)布了更新版本,,Bard在處理常識推理和編程問題等任務時能力變強,。皮查伊表示,谷歌推出Bard實際上是作為搜索業(yè)務的補充產(chǎn)品,,未來也會將語言模型更多地引入搜索業(yè)務之中,。
有消息稱,谷歌正計劃發(fā)布新的人工智能搜索工具,,以對抗微軟必應搜索引擎中ChatGPT的整合,。據(jù)《紐約時報》報道,人工智能搜索功能由谷歌開發(fā),,代號為“Magi”,,可能會在5月首次推出,并在秋季推出其他功能,。
財報電話會上,,谷歌還透露,AI是公司的發(fā)展基石,,未來將繼續(xù)對AI進行投資,,預計在今年第二季度,谷歌的資本支出將有所提高,,且后續(xù)全年都會有所增加,。
雖然谷歌AI的熱度還無法與ChatGPT相比,,但其至少已經(jīng)意識到自身短板,并積極補強,。兩大巨頭的競爭預計會延續(xù)很長一段時間,,鹿死誰手尚是未知之數(shù)。
自研AI芯片的優(yōu)勢
根據(jù)英偉達公布的信息,,訓練一次1750億參數(shù)的GPT-3需要34天,、使用1024張A100 GPU芯片,同時OpenAI可能至少需要3.24萬張A100用于日常推理,。
曠視科技聯(lián)合創(chuàng)始人,、CEO印奇則透露,要做成GPT大模型,,至少得要1萬張英偉達A100 GPU芯片,,硬件投入就需要20億元,中國目前可用作大模型訓練的A100芯片總共只有4萬張,。
據(jù)The Information報道,,包括亞馬遜、微軟,、Google 和甲骨文等主要云計算供應商都在限制客戶對云服務器的使用,,一些客戶稱租用硬件的等待時間長達數(shù)月,核心問題仍是GPU等算力芯片供不應求,。
據(jù)芯片分銷平臺數(shù)據(jù),,國內A100芯片現(xiàn)貨市場價已經(jīng)從7萬元漲至9萬元。另據(jù)財新,,英偉達A800在國內也已被炒到原價的2倍多,,且緊俏到脫銷。
“目前,,很多互聯(lián)網(wǎng)大廠如微軟,、谷歌、亞馬遜以及國內BAT等都在進行AI芯片開發(fā),?!背糖氨硎荆m然每家的生產(chǎn)工藝和版本迭代各不相同,,但這些AI芯片的誕生,,能為AI推理或訓練夠提供比較及時的算力支持,避免對英偉達的依賴并降低運營成本,。
在程前看來,,自研AI芯能為云服務廠家?guī)矶喾N優(yōu)勢。“一是云廠家可提供更多的服務器機型,,為用戶帶來更多的選擇,,找到最優(yōu)方案。二是多類型AI芯片供貨,,不完全依賴英偉達,,云資源算力儲備足夠。三是云廠家通過上架AI芯片,,全球用戶更快使用到AI芯片,,能更好促進AI芯片的迭代發(fā)展。最后云廠家通過加速自家AI芯片的發(fā)展,,形成自己的競爭力優(yōu)勢,,吸引更多的客戶上云?!背糖胺治龅?。
除谷歌TPU外,,微軟也在自研AI芯片,。The Information報道稱,微軟大約在5年前就開始秘密研發(fā)一種內部代號為“雅典娜(Athena)”的芯片,,來節(jié)省算力開支,。
此外,AI開發(fā)初創(chuàng)企業(yè)Midjourney3月稱其正在使用基于谷歌云的TPU來訓練其機器學習模型,。這意味著,,大模型競爭之外可能還有芯片選擇之爭。
免責聲明:本文來自網(wǎng)絡收錄或投稿,,觀點僅代表作者本人,不代表芒果財經(jīng)贊同其觀點或證實其描述,,版權歸原作者所有,。轉載請注明出處:http://lequren.com/1024181.html
溫馨提示:投資有風險,入市須謹慎,。本資訊不作為投資理財建議,。