金年會(huì):AI芯片“推理”大戰(zhàn)打響,英偉達(dá)比例高達(dá)40%!
作者:金年會(huì)發(fā)布時(shí)間:2025-02-23
來(lái)源:硬AIAI芯片的主戰(zhàn)場(chǎng)正在轉(zhuǎn)向一個(gè)規(guī)模更大、競(jìng)爭(zhēng)更激烈的領(lǐng)域——推理。英偉達(dá)首席財(cái)務(wù)官Colette Kress在上周表示,英偉達(dá)最大的營(yíng)收來(lái)源數(shù)據(jù)中心部門(mén)中,去年有超過(guò)40%的業(yè)務(wù)是有關(guān)部署AI模型,而非訓(xùn)練——這一比例是AI芯片市場(chǎng)開(kāi)始轉(zhuǎn)向的重要跡象。訓(xùn)練AI模型的芯片需求一舉推升英偉達(dá)成為“芯片新王”,隨著該行業(yè)的迅速發(fā)展,下一個(gè)市場(chǎng)焦點(diǎn)將是實(shí)際運(yùn)行時(shí)用于推理的芯片。相較于訓(xùn)練芯片而言,推理芯片對(duì)功耗和成本的要求沒(méi)那么高,這同時(shí)也意味著競(jìng)爭(zhēng)市場(chǎng)會(huì)變得更為激烈,英偉達(dá)的“新王”地位還能否延續(xù)?

從GPU到LPU在訓(xùn)練階段,公司往往會(huì)給模型“喂”海量數(shù)據(jù)進(jìn)行大規(guī)模神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。由于高計(jì)算密度、低能耗、內(nèi)存帶寬大等要求,目前大多數(shù)AI模型的訓(xùn)練均依賴于英偉達(dá)的GPU。在推理階段,AI模型在訓(xùn)練的基礎(chǔ)上,利用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行推理預(yù)測(cè),從而響應(yīng)用戶指令。這類(lèi)芯片(LPU)對(duì)整體性能的要求沒(méi)有GPU那么高,但推理引擎性能更強(qiáng)。對(duì)于AI芯片制造商們來(lái)說(shuō),推理芯片正在變得越來(lái)越重要,并在市場(chǎng)中占據(jù)越來(lái)越多的機(jī)遇。據(jù)報(bào)道,Melius Research的分析師Ben Reitzes在給客戶的一份說(shuō)明中表示:
“有看法認(rèn)為,英偉達(dá)未來(lái)在推理領(lǐng)域的市場(chǎng)份額將低于訓(xùn)練領(lǐng)域。”
“這意味著即將到來(lái)的‘推理爆炸’可能會(huì)帶來(lái)一波收益金年會(huì)金字招牌信譽(yù)至上。”美銀分析師Vivek Arya同樣認(rèn)為,伴隨AI模型訓(xùn)練投資激增,重點(diǎn)將轉(zhuǎn)向從AI模型中創(chuàng)收,推理領(lǐng)域相較于英偉達(dá)主導(dǎo)的訓(xùn)練領(lǐng)域更具競(jìng)爭(zhēng)力。從英偉達(dá)給出的“40%”比例來(lái)看,現(xiàn)在推理技術(shù)的發(fā)展速度可能要比此前預(yù)期的快得多。今年年初,瑞銀分析師曾預(yù)計(jì),到明年,有90%的芯片需求將源于訓(xùn)練,推理芯片僅占到市場(chǎng)的20%。英偉達(dá)的競(jìng)爭(zhēng)對(duì)手們正在蠢蠢欲動(dòng)。有觀點(diǎn)認(rèn)為,隨著客戶越來(lái)越講求降低AI模型的運(yùn)營(yíng)成本,英特爾的芯片將越來(lái)越具吸引力。有消息稱(chēng),英特爾擅長(zhǎng)制造的芯片類(lèi)型已經(jīng)廣泛用于推理領(lǐng)域,和英偉達(dá)更尖端、更昂貴的H100在實(shí)際推理應(yīng)用中差別不大。英特爾的CEO Pat Gelsinger在去年年底的一次采訪中曾提到:
“從經(jīng)濟(jì)學(xué)的角度看推理應(yīng)用的話,我不會(huì)打造一個(gè)需要花費(fèi)4萬(wàn)美元的全是H100的后臺(tái)環(huán)境,因?yàn)樗碾娞啵⑶倚枰獦?gòu)建新的管理和安全模型,以及新的IT基礎(chǔ)設(shè)施。”
“如果我能在標(biāo)準(zhǔn)版的英特爾芯片上運(yùn)行這些模型,就不會(huì)出現(xiàn)這些問(wèn)題。”除了英特爾和AMD等老牌芯片巨頭,一些初創(chuàng)公司也可能“乘風(fēng)而起”。谷歌前人工智能芯片工程師Jonathan Ross創(chuàng)立的公司Groq是挑戰(zhàn)者之一,該公司開(kāi)發(fā)的LPU宣稱(chēng)是“史上最快大模型”,以每秒500個(gè)token,徹底顛覆了GPT-4的40 tok/s的速度紀(jì)錄。
黃仁勛:推理業(yè)務(wù)占40%,AI已成功成本仍然是一道坎。包括亞馬遜、谷歌、微軟在內(nèi)的巨頭們一直致力于內(nèi)部開(kāi)發(fā)推理芯片,希望縮減運(yùn)營(yíng)成本。Ross指出:
“對(duì)于推理領(lǐng)域,你能部署多少取決于成本。”
“在谷歌,有很多模型都能訓(xùn)練成功,但其中的80%都沒(méi)能部署,因?yàn)橥懂a(chǎn)的成本太高了。”芯片軟件初創(chuàng)公司SambaNova的CEO Rodrigo Liang表示:
“我們看到我們的推理應(yīng)用案例正在迅速增長(zhǎng)。”
“人們開(kāi)始意識(shí)到,80%以上的成本將用于推理,我需要尋找替代解決方案。”目前看來(lái),英偉達(dá)仍在此次轉(zhuǎn)向中處于領(lǐng)先地位。據(jù)悉,英偉達(dá)一款即將推出的芯片在去年一項(xiàng)關(guān)鍵的人工智能推理基準(zhǔn)測(cè)試中取得了行業(yè)領(lǐng)先的結(jié)果,延續(xù)了該公司多年來(lái)在競(jìng)爭(zhēng)中的主導(dǎo)地位。并且,英偉達(dá)最新的財(cái)報(bào)顯示,該公司在AI芯片領(lǐng)域仍占有80%以上的市場(chǎng)份額。這意味著,在可預(yù)見(jiàn)的未來(lái),英偉達(dá)的訓(xùn)練芯片預(yù)計(jì)仍將保持較高需求。美東時(shí)間2月23日,英偉達(dá)CEO黃仁勛在接受《連線(Wired)》采訪時(shí)表示,英偉達(dá)目前業(yè)務(wù)中推理占到40%,這意味著AI模型將會(huì)很快落地。他表示:
“我們熱愛(ài)推理。讓我估算的話,我認(rèn)為英偉達(dá)今天的業(yè)務(wù)構(gòu)成可能是40%的推理和60%的訓(xùn)練。為什么這是一件好事呢?因?yàn)檫@意味著人工智能終于取得了成功(AI is finally making it)。”
“今天,每當(dāng)你在云中輸入一個(gè)提示,它會(huì)生成一些東西——可能是視頻,可能是圖像,可能是2D,可能是3D,可能是文本,可能是圖表——這背后很可能就有一塊英偉達(dá)GPU。”?星標(biāo)華爾街見(jiàn)聞,好內(nèi)容不錯(cuò)過(guò)?本文不構(gòu)成個(gè)人投資建議,不代表平臺(tái)觀點(diǎn),市場(chǎng)有風(fēng)險(xiǎn),投資需謹(jǐn)慎,請(qǐng)獨(dú)立判斷和決策。
覺(jué)得好看,請(qǐng)點(diǎn)“在看”