中國科技迷口中“AI春晚”的說法被黃仁勛蓋了個章。
今天凌晨,英偉達年度GPU技術大會(以下簡稱:GTC)上,老黃開場時直言,“去年GTC被稱為AI行業的‘伍德斯托克搖滾音樂節’,今年我們搬進了體育場成為AI行業的‘超級碗’”。
這個“喜歡穿皮夾克、把事情重復三次的人”科技大佬,一口氣講了2個多小時,介紹了Blackwell GPU、硅光交換機、機器人模型等一系列新產品。
他強調,AI的發展已經從生成式AI(Generative AI)邁向智能體AI(Agentic AI),后面將是影響物理世界的Physical AI。重點是,這一過程對算力的需求不僅不會下降,還會進一步增長。
被他用來解釋這點的,是一夜間讓英偉達市值蒸發3萬億美元的DeepSeek。
算力需求
將輕松超過現在的100倍
今年春節前后,橫空出世的DeepSeek就打破了英偉達引以為傲的“壁壘” 。與動輒數億甚至上百億美元的國外大模型項目相比,DeepSeek以極低的算力成本完成了開發。整個科技圈都在發問:“我們真的需要這么多GPU嗎?”
為了回答這個問題,老黃刻意把新品發布的時間往后推,分享了自己對AI發展路徑的看法。
他將近些年和不久將來的AI進化路線分成Perception AI(感知人工智能)、Generative AI(生成式AI)、Agentic AI(智能體)、Physical AI(具身AI)四個階段。目前,Agentic AI方興未艾。
生成式AI階段多聚焦于理解,比如讓機器知道一段文字表達什么意思,以此來生成圖片、視頻,而Agentic AI階段更聚焦于推理,強調的是機器的自主性與復雜問題解決能力,每一步都需要用到“模型推理”。
而后者對算力的需求要大很多。
為了解釋這點,黃仁勛現場舉了一個例子:“在我的婚宴上,需要7個人圍著一張桌子坐,我的父母和岳父岳母不應該坐在一起。而且,我媳婦堅持說她坐在我左邊照相時會更好看,但同時我需要坐在伴郎旁邊。我們這一輪怎么坐?如果我們邀請牧師和我們坐在一起呢?”
把這一段提示詞丟給代表兩種技術范式的開源模型——Llama3.3和DeepSeek-R1,看它們所消耗的tokens(指模型處理文本時的基本單位)分別是多少?
最后的結果是:Llama3.3作為上一代大語言模型,用不到500個tokens快速回答,但安排的客人座位并不滿足要求;R1作為推理模型,用掉8000多個tokens得出了正確答案。兩者的差別在于,前者的大語言模型只嘗試了一次,后者的推理模型嘗試了所有不同的可能性,然后反思、驗證了自己的答案。
也就是說,以強化學習為主導的推理類應用,消耗了更多的tokens、但也讓AI應用變得越來越可靠。當AI從生成式AI,邁向Deep Research、Manus這樣的Agentic AI應用時,每一層計算都不同,所需要的tokens比想象的多得多。
黃仁勛認為,推理所需算力需求規模增長能“輕松超過現在的100倍”,未來行業需要更多、性能更強的AI芯片。根據他的預測,數據中心的建設投入到2028年將達到1萬億美元,“相當確定很快就會達到這個目標”。
具身智能領域布局初具鋒芒
為了達到這一目標,英偉達發布了新款DGX Spark和DGX Station個人AI計算機,被稱為“AI時代的超級計算機”,由Grace Blackwell平臺支持。
其中,DGX Spark搭載GB10 Blackwell芯片,提供第五代Tensor Core和FP4支持,配有128GB統一內存和高達4TB的NVMe SSD存儲,AI計算能力高達每秒1千萬億次運算,今日開啟預訂,售價3000美元起。
DGX Station可容納GB300 Blackwell Ultra芯片,能提供每秒20千萬億次運算的AI性能和784GB統一系統內存,目前尚未定價。
為優化AI工作流程,英偉達還推出新的Spectrum-X硅光子以太網交換機,屬于Spectrum-X光子以太網和Quantum-X光子InfiniBand平臺。該交換機每端口速度達1.6太比特每秒,能為AI工廠節省3.5倍能源,提高10倍彈性。
另外還發布了一款新型的AI 推理服務軟件Dynamo。它協調和加速數千個GPU之間的推理通信,并使用分解服務將大型語言模型的處理和生成階段分離在不同GPU上。這允許每個階段根據其特定需求進行獨立優化,并確保最大程度地利用GPU資源。
大會壓軸則是展示了一系列機器人技術成果,其中Isaac GR00T N1是世界首個開放、完全可定制的通用人形推理和技能基礎模型。它采用雙系統架構,靈感源于人類認知原理,在視覺語言模型支持下可執行多種任務,開發人員能從少量人類演示中生成大量合成動作數據,用于機器人操作訓練。
比如,NVIDIA使用Blueprint的首批組件,在11小時內生成了78萬個合成軌跡,相當于6500小時(約9個月)的人類演示數據。Isaac GR00T N1的相當一部分數據就來自于此,這些數據使得GR00T N1的性能比僅使用真實數據提高了40%。
換句話說,英偉達悄悄地完成了在具身智能領域算法(模型)、數據和算力的布局和整合。
黃仁勛演講結束前的經典畫面 圖片來源:光輪智能創始人&CEO 謝晨
文 | 劉永麗
VIEW MORE
@杭州城北藏著一個“瘋狂星期四” >>
@當阿里不再是“該死的零售商” >>
@華人“芯”事 >>
@浙大先生>>
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.