幾天前,英偉達(dá)再一次創(chuàng)造了歷史。
7 月 3 日,英偉達(dá)市值短暫攀上 3.92 萬億美元,超越了蘋果此前保持的 3.915 萬億美元紀(jì)錄,成為有史以來市值最高的上市公司。AI 算力的狂飆猛進(jìn),把這家 GPU 廠商推向了前所未有的高點(diǎn)。
尤其是自 2024 年底,性能與能效雙雙躍進(jìn)的 Blackwell 平臺(tái)開始出貨后的銷售表現(xiàn),打破了外界的疑慮,英偉達(dá)創(chuàng)始人兼 CEO 黃仁勛在最新財(cái)報(bào)電話會(huì)議上表示,僅在 2025 年第一季度,這套新平臺(tái)就已經(jīng)貢獻(xiàn)了英偉達(dá)數(shù)據(jù)中心收入的近七成。
但就在英偉達(dá)市值沖頂、光環(huán)加身之時(shí),來自生態(tài)內(nèi)部的裂縫也在浮現(xiàn)。最典型的例子,正是英偉達(dá)的重要客戶—— OpenAI。幾乎就在英偉達(dá)市值達(dá)到高峰的同時(shí),The Information 援引 OpenAI 內(nèi)部人士稱,OpenAI 正在使用谷歌自主研發(fā)的 TPU 芯片來為 ChatGPT 及其其他產(chǎn)品提供算力支持。
TPU 服務(wù)器,圖/谷歌
雖然后續(xù)的回應(yīng)中 OpenAI 刻意淡化了「轉(zhuǎn)向」,強(qiáng)調(diào)是測(cè)試且「暫無大規(guī)模采用計(jì)劃」。但對(duì)于一家曾親手定義 AI 新時(shí)代的公司來說,哪怕只是「測(cè)試」,也足以引發(fā)市場(chǎng)的高度敏感。
與此同時(shí),這也讓谷歌稍早前發(fā)布的第七代 TPU —— Ironwood 再次成為焦點(diǎn),這是一顆為推理場(chǎng)景量身打造的專用 AI 芯片,不僅在每瓦性能上直指 Blackwell,更在成本與部署靈活性上展現(xiàn)出頗強(qiáng)的吸引力。
更重要的是,真正讓英偉達(dá)面對(duì)結(jié)構(gòu)性挑戰(zhàn)的,是那些比起「通用」,更強(qiáng)調(diào)「效率」的 ASIC 芯片陣營(yíng)。谷歌、亞馬遜、Meta 等云巨頭正持續(xù)加碼自研加速器,繞開英偉達(dá) GPU 的高成本;而如 Cerebras、Graphcore 等初創(chuàng)企業(yè),則從芯片架構(gòu)和系統(tǒng)設(shè)計(jì)層面重新定義「AI 專用計(jì)算」,試圖構(gòu)建一條完全不同于 GPU 的技術(shù)路徑。
對(duì)于英偉達(dá)來說,世界第一的寶座,并不安穩(wěn)。
進(jìn)擊的 ASIC,正在成為英偉達(dá)的「心腹大患」
俗話說得好,最了解一個(gè)人的,往往是他的對(duì)手。
5 月 19 日,英偉達(dá)發(fā)布了全新互聯(lián)架構(gòu) NVLink Fusion,這套架構(gòu)被定義為「AI 工程合作平臺(tái)」,通過授權(quán) NVLink 芯片間互聯(lián)(C2C)和整合交換模塊,使第三方廠商能將自研加速器或 CPU 接入英偉達(dá)主導(dǎo)的算力系統(tǒng)。
相比過去 NVLink 的封閉式設(shè)計(jì),F(xiàn)usion 的「半開放」姿態(tài)看似包容,但本質(zhì)依然要求合作方依附在英偉達(dá)的生態(tài)軌道上,任何定制芯片都必須連接到英偉達(dá)的產(chǎn)品,同時(shí)也只是選擇性地開放了 900GB/s 的 NVLink-C2C 接口。所以 NVLink Fusion 盡管表面上展現(xiàn)了英偉達(dá)的開放姿態(tài),實(shí)則更多是一次防御性出招:
為了防御 UALink 聯(lián)盟。
圖/ UALink 聯(lián)盟
2024 年 10 月,由 AMD、Intel、谷歌、Meta、微軟、AWS 等聯(lián)合發(fā)起的 UALink 聯(lián)盟就已悄然成型,隨后又加入了蘋果、阿里云、新思科技等,迅速擴(kuò)張為一個(gè)囊括芯片設(shè)計(jì)、云服務(wù)、IP 供應(yīng)鏈的龐大陣營(yíng)。
今年 4 月,UALink 發(fā)布了 1.0 版本互聯(lián)標(biāo)準(zhǔn),支持高達(dá) 1024 個(gè)加速器節(jié)點(diǎn)、800Gbps 帶寬互聯(lián)、以及開放的 memory-semantics 協(xié)議——這不止是一項(xiàng)通信技術(shù),而是一次瞄準(zhǔn)「去英偉達(dá)化」的系統(tǒng)性布局。在 AI 芯片互聯(lián)架構(gòu)這件事上,英偉達(dá)或許比任何人都明白:
真正值得警惕的,不是某一家廠商,而是一整條開始擺脫 GPU 依賴、試圖重建硬件秩序的 ASIC 陣營(yíng)。
不同于通用的 GPU 架構(gòu),ASIC 是為特定任務(wù)定制的芯片,在 AI 時(shí)代意味著它們可以針對(duì)推理、訓(xùn)練、推流等核心計(jì)算路徑進(jìn)行極致優(yōu)化。這種理念如今已在微軟、Meta 和亞馬遜等巨頭內(nèi)部深度落地,都在探索從英偉達(dá) GPU 平臺(tái)向自研 AI ASIC 芯片遷移。
谷歌就是最好的例子,TPU 系列自發(fā)布以來已進(jìn)化至第七代 Ironwood,專為推理任務(wù)而設(shè)計(jì),每瓦性能直接超越了英偉達(dá) Blackwell。OpenAI 研究員在 X 平臺(tái)上更認(rèn)為 Ironwood 與 GB200 性能相當(dāng),甚至略勝一籌。更重要的是,TPU 系列已經(jīng)支撐起了 Gemini 大模型從訓(xùn)練到推理的大規(guī)模應(yīng)用。
圖/谷歌
與此同時(shí),除了老對(duì)手 AMD,包括 Meta、AWS 等新晉芯片廠商也在試圖「趕超」英偉達(dá) GPU?;谂c博通的合作,Meta 首款 AI ASIC 芯片 MTIA T-V1 就被曝規(guī)格可能超過英偉達(dá)的下一代 Rubin 芯片,AWS 則是在與 Marvell 合作的基礎(chǔ)上,啟動(dòng)了不同版本的 Trainium v3 開發(fā),預(yù)計(jì)于 2026 年陸續(xù)量產(chǎn)。
而據(jù)野村證券稍早前發(fā)布的最新報(bào)告指出,2025 年谷歌 TPU 出貨量預(yù)估 150 萬至 200 萬,AWS Trainium 和 Inferentia 預(yù)估 140 萬至 150 萬,等到 Meta 與微軟開始大規(guī)模部署,有望 2026 年在出貨量上首次超越英偉達(dá) GPU(500 萬至 600 萬)。
初創(chuàng)公司方面,研發(fā)出全球最大芯片的 AI 芯片「獨(dú)角獸」Cerebras,以 Wafer?Scale Engine(WSE)引領(lǐng)訓(xùn)練芯片架構(gòu)的革新,在多個(gè)政府和科研超算項(xiàng)目中落地;軟銀收購(gòu)的 Graphcore 雖經(jīng)歷波折,但仍堅(jiān)持在神經(jīng)網(wǎng)絡(luò)處理架構(gòu)(IPU)上尋求突破;Tenstorrent、Rebellions 等新秀則在 AI 推理、邊緣計(jì)算等細(xì)分領(lǐng)域持續(xù)積累客戶與出貨量。
全球最大芯片,圖/Cerebras
英偉達(dá)當(dāng)然看懂了這股暗流,所以選擇用 NVLink Fusion 做出回應(yīng)。但現(xiàn)實(shí)是,越來越多的玩家已經(jīng)不再滿足于做配角。ASIC 的崛起,不只是一次技術(shù)路線的迭代,更是一場(chǎng)由巨頭主導(dǎo)、由聯(lián)盟推動(dòng)、由生態(tài)背書的系統(tǒng)性挑戰(zhàn)。英偉達(dá)固然強(qiáng)大,但面對(duì)這樣的對(duì)手,仍然警惕。
巔峰之下,英偉達(dá)的三個(gè)軟肋
市值沖上 3.92 萬億美元的那一刻,英偉達(dá)站上了全球資本市場(chǎng)的頂點(diǎn)。但在這個(gè)耀眼的高度之下,越來越多的問題開始浮出水面。從產(chǎn)業(yè)依賴,到產(chǎn)品結(jié)構(gòu),再到生態(tài)策略,英偉達(dá)仍然存在可能,被它自己一手打造的成功邏輯反噬。
其一在于超大規(guī)??蛻舻募幸蕾?。英偉達(dá)目前約 88% 的營(yíng)收來自數(shù)據(jù)中心業(yè)務(wù),而其中大頭集中在極少數(shù)幾家云計(jì)算巨頭手中:微軟、AWS、阿里、Meta、谷歌,以及越來越有野心的 OpenAI。也正是這些客戶不僅自研 AI 芯片,還組建了 UALink 聯(lián)盟,正在親手削弱英偉達(dá) GPU 的統(tǒng)治力。
谷歌有 TPU,亞馬遜有 Trainium,Meta 和微軟分別推出了 MTIA 與 Maia 系列加速器。OpenAI 也在測(cè)試谷歌 TPU 的同時(shí),自研 AI 芯片的消息不斷流出。這些客戶不是不需要英偉達(dá),而是不想「只」依賴英偉達(dá)。
其二在于性價(jià)比。Blackwell 平臺(tái)帶來了幾乎碾壓式的算力提升,特別是 GB200 架構(gòu)在訓(xùn)練和推理性能上的躍升。但與此同時(shí),這一代產(chǎn)品的復(fù)雜性、功耗和成本也大幅攀升。據(jù)匯豐銀行消息,一套 GB200 NVL72 服務(wù)器售價(jià)高達(dá) 300 萬美元左右,讓許多客戶望而卻步。
GB200 NVL72,圖/英偉達(dá)
這種極致設(shè)計(jì)策略確實(shí)鎖定了高端市場(chǎng),但也帶來了兩個(gè)副作用:一是把中小客戶甩在了門外,二是推動(dòng)客戶尋找更便宜、更省電的替代品。當(dāng) AI 推理成為主流任務(wù),性價(jià)比往往比絕對(duì)性能更重要,而這正是 ASIC 等專用芯片擅長(zhǎng)的領(lǐng)域。
此外針對(duì)云廠商等大客戶,早期愿意為性能付費(fèi)。但隨著部署規(guī)模擴(kuò)大、模型標(biāo)準(zhǔn)化、預(yù)算緊縮,即便是大型廠商也越來越希望能有更多自主權(quán)和談判空間。當(dāng)英偉達(dá)變成「不得不用」,也就意味著產(chǎn)業(yè)鏈已經(jīng)開始尋找「有沒有可能不用」的選項(xiàng),而谷歌 TPU 的成功更是一種激勵(lì)。
其三在于英偉達(dá)的生態(tài)壁壘。英偉達(dá) CUDA 是目前業(yè)界最強(qiáng)大的 AI 編程生態(tài),但它的高度封閉也讓它逐漸成為一個(gè)「屬于英偉達(dá)」的世界。在 UALink 聯(lián)盟、OneAPI、MLIR 等開放生態(tài)興起的背景下,越來越多開發(fā)者和系統(tǒng)設(shè)計(jì)者開始追求跨平臺(tái)兼容、異構(gòu)協(xié)同,而不是將命運(yùn)綁定在一家公司的工具鏈上。
CUDA 一度是英偉達(dá)的護(hù)城河,但如今也在一定程度上成為了限制開發(fā)者自由流動(dòng)的「生態(tài)高墻」。當(dāng)更多廠商期望在不同架構(gòu)間靈活切換,CUDA 的壁壘也可能成為他們轉(zhuǎn)身的理由。
回頭來看,英偉達(dá)固然仍然是今天最強(qiáng)的 AI 芯片廠商,站在技術(shù)、產(chǎn)品和市值的巔峰。但巔峰從來不是終點(diǎn),它只是更多挑戰(zhàn)的起點(diǎn)。更關(guān)鍵的是,英偉達(dá)面對(duì)的不是一次技術(shù)換代的風(fēng)險(xiǎn),而是一次由客戶主導(dǎo)的去中心化。正如前文所言:英偉達(dá)的世界第一,并不穩(wěn)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.