來源:環(huán)球市場(chǎng)播報(bào)
英偉達(dá)稱DeepSeek R1是“一項(xiàng)出色的人工智能進(jìn)步”,,盡管這家人工初創(chuàng)公司的崛起導(dǎo)致英偉達(dá)股價(jià)周一暴跌17%,。
英偉達(dá)發(fā)言人周一表示:“DeepSeek是一項(xiàng)出色的人工智能進(jìn)步,,也是測(cè)試時(shí)間縮放的完美例子,。”“DeepSeek的工作說明了如何使用該技術(shù)創(chuàng)建新模型,,利用廣泛可用的模型和完全符合出口管制的計(jì)算,。”
在此之前,,DeepSeek上周發(fā)布了R1,,這是一個(gè)開源推理模型,據(jù)報(bào)道,,它的表現(xiàn)超過了OpenAI等美國公司的最佳模型,。R1自我報(bào)告的培訓(xùn)成本不到600萬美元,與硅谷公司花費(fèi)數(shù)十億美元建立人工智能模型的成本相比,,這只是一個(gè)零頭,。
英偉達(dá)的聲明表明,它認(rèn)為DeepSeek的突破將為這家美國芯片制造商的圖形處理單元(GPU)創(chuàng)造更多的工作。
“推理需要大量的英偉達(dá)GPU和高性能網(wǎng)絡(luò),,”發(fā)言人補(bǔ)充說,。“我們現(xiàn)在有三個(gè)縮放定律:訓(xùn)練前定律和訓(xùn)練后定律,,它們會(huì)繼續(xù),,還有新的測(cè)試時(shí)間縮放定律?!?/p>
分析師們現(xiàn)在在問,,微軟、谷歌和Meta等公司對(duì)基于英偉達(dá)的人工智能基礎(chǔ)設(shè)施的數(shù)十億美元資本投資是否被浪費(fèi)了,,因?yàn)橥瑯拥慕Y(jié)果可以以更低的成本實(shí)現(xiàn),。
本月早些時(shí)候,微軟表示,,僅2025年就將在人工智能基礎(chǔ)設(shè)施上投入800億美元,,而Meta首席執(zhí)行官馬克·扎克伯格上周表示,這家社交媒體公司計(jì)劃在2025年投資600億至650億美元的資本支出,,作為其人工智能戰(zhàn)略的一部分,。
美國銀行證券分析師賈斯汀?波斯特(Justin Post)在周一的一份報(bào)告中寫道:“如果模型培訓(xùn)成本被證明顯著降低,我們預(yù)計(jì)使用云人工智能服務(wù)的廣告,、旅游和其他消費(fèi)應(yīng)用公司將在短期內(nèi)獲得成本效益,,而與超大規(guī)模人工智能相關(guān)的長(zhǎng)期收入和成本可能會(huì)降低?!?/p>
英偉達(dá)的評(píng)論也反映了英偉達(dá)首席執(zhí)行官黃仁勛,、OpenAI首席執(zhí)行官薩姆·奧特曼和微軟首席執(zhí)行官薩蒂亞·納德拉最近幾個(gè)月討論的一個(gè)新主題。
人工智能的繁榮和對(duì)英偉達(dá)gpu的需求在很大程度上是由“縮放定律”驅(qū)動(dòng)的,,這是OpenAI研究人員在2020年提出的人工智能開發(fā)概念,。這一概念表明,通過大幅增加構(gòu)建新模型所需的計(jì)算量和數(shù)據(jù)量,,可以開發(fā)出更好的人工智能系統(tǒng),,而這需要越來越多的芯片。
自去年11月以來,,Huang和Altman一直在關(guān)注縮放定律的一個(gè)新問題,,Huang稱之為“測(cè)試時(shí)間縮放”。
這一概念認(rèn)為,,如果一個(gè)訓(xùn)練有素的人工智能模型在進(jìn)行預(yù)測(cè)或生成文本或圖像以進(jìn)行“推理”時(shí),,花更多的時(shí)間使用額外的計(jì)算機(jī)能力,那么它將比運(yùn)行更少的時(shí)間提供更好的答案,。
測(cè)試時(shí)間縮放定律的形式被用于OpenAI的一些模型,,如o1和DeepSeek的突破性R1模型,。
免責(zé)聲明:本文來自網(wǎng)絡(luò)收錄或投稿,觀點(diǎn)僅代表作者本人,,不代表芒果財(cái)經(jīng)贊同其觀點(diǎn)或證實(shí)其描述,,版權(quán)歸原作者所有,。轉(zhuǎn)載請(qǐng)注明出處:http://lequren.com/1129483.html
溫馨提示:投資有風(fēng)險(xiǎn),,入市須謹(jǐn)慎。本資訊不作為投資理財(cái)建議,。