出品 丨 搜狐汽車·汽車咖啡館
3月19日,英偉達CEO黃仁勛在英偉達GTC 2025大會上發表主題演講。在英偉達股價年內下滑10%的背景下,這一演講被賦予了“股價保衛戰”的意義。
“我曾說過,全球數據中心建設規模會達到1萬億美元,我相信這個時間點會比想象中更快到來。”在演講中,黃仁勛堅定不移地認為,對AI芯片的需求會持續增長。
在當日的GTC大會上,黃仁勛發布了全新的Blackwell Ultra GPU,以及以此為基礎用于推理、Agent的服務器SKU,也包括基于Blackwell架構的RTX全家桶。與此同時,英偉達在推理領域構建的“分布式推理服務庫 Nvidia Dynamo,其智能推理優化能將每個GPU生成的token數量提升30倍以上。
在具身智能方面,模擬仿真Ominiverse、預測未來畫面的世界基礎模型Cosmos正在發揮作用。在GTC大會上黃仁勛表示,二者能夠加速AI開發,推動自動駕駛汽車的安全性和智能化發展。
在GTC主題演講中,黃仁勛正式發布了端到端自動駕駛汽車全棧綜合安全系統NVIDIA Halos,并宣布,通用將在自動駕駛上使用英偉達的AI技術。
目前,英偉達面臨競爭加劇、增長趨緩、算力需求減少等多個風險。根據GTC 2025大會黃仁勛的主題演講,搜狐汽車整理出黃仁勛試圖回答的十大問題,有關推理型AI、汽車業務進展、AI系統路線圖等內容,全文如下:
Q1:生成式AI改變了什么?
A:人工智能在過去十年里取得了驚人的進步。最初是感知型AI,比如計算機視覺和語音識別;然后是生成式AI。在過去五年里,我們主要專注于生成式AI,教會人工智能如何從一種模態翻譯到另一種模態,比如從文本到圖像,從圖像到視頻,從氨基酸序列預測蛋白質結構,從化學公式預測分子特性。各種方式讓AI幫助我們創造內容。
生成式AI從根本上改變了計算模式。過去,我們依賴檢索型計算——提前創建內容、存儲多個版本,在需要時調用。現在,AI理解上下文,明白我們的意圖,并生成它知道的答案。如果需要,還可以檢索信息、豐富自己的理解,并為我們生成解答。現在,AI不只是檢索數據,而是生成答案。這改變了計算的本質。
Q2:生成式AI之后,AI會向哪個方向發展?
A:我們正在推出Agent AI,這是一種可以與數字世界互動、代表用戶執行任務的人工智能。
接下來是物理人工智能,即有望為人形機器人提供動力的智能。
Q3:推理型AI是什么?
A:在過去幾年里,發生了一個重大突破——我們稱之為“推理型AI”。推理型AI意味著,人工智能可以像人一樣,分步驟地推理,嘗試多種路徑,比較不同答案,最終選擇最佳結果。
我們如何教會人工智能去執行這樣的推理鏈?其中一個方法就是強化學習。過去幾年,強化學習和自監督學習的發展,賦予了AI不斷嘗試和修正的能力。我們可以讓AI在虛擬環境中反復挑戰復雜的問題,生成數百萬種不同情境,讓它通過不斷練習變得更好。結果是,為了訓練一個強大的推理AI模型,需要處理數萬億級別的Token。
我們使用強化學習的方法,讓AI在已知答案的數學和科學難題中不斷嘗試。比如解二次方程、邏輯推理、幾何問題等,系統通過無數次訓練積累經驗,逐步進化。通過模擬數以百萬計的問題和數以億計的嘗試,每次嘗試都生成成千上萬的Token,總體上形成數萬億級別的訓練數據量。這種強化學習和合成數據生成結合的方法,極大地推動了推理型AI模型的發展。
整個行業正在快速響應這個變化。人工智能現在越來越有用,因為它越來越聰明,能夠推理,并且應用越來越廣泛。
Q4:推理型AI是否會降低算力需求?
A:在推理型AI中,生成的Token數量是巨大的。為了保證用戶不需要等待太久,我們需要讓系統計算速度提高十倍,而這意味著需要一百倍以上的計算量。
現在,每當你打開一個AI應用或去查詢,等待時間似乎越來越長,這是因為有太多用戶同時在使用這些服務,這是好事,說明AI正產生巨大影響。
訓練這些模型和為它們提供推理服務所需要的計算資源在過去一年呈爆炸式增長。而Blackwell才剛剛開始出貨。你可以從市場基礎設施的建設速度看到這一點。
Q5:數據中心業務還會繼續保持快速增長嗎?
A:今年迄今為止,Blackwell GPU 已向四大云平臺銷售了360萬塊。來自分析師的預測數據顯示,全球數據中心的資本支出預計到2030年將達到數萬億美元。我曾說過,全球數據中心建設規模會達到1萬億美元,我相信這個時間點會比想象中更快到來。
這個增長有兩個核心動力:第一,計算方式從通用計算向加速計算和機器學習轉型;第二,以前我們寫軟件并在計算機上運行,而未來,計算機將生成軟件所需的token供軟件使用。計算機將“生成token”,而不是從文件檢索中提取數據,從檢索型計算轉變為生成型計算,從舊的數據中心建設方式轉變為新型的基礎設施建設方式。
我稱之為AI工廠。因為它們只有一個任務,那就是生成這些令人難以置信的tokens,然后我們將其重新構建成音樂、文字、視頻、研究、化學品和蛋白質。我們將其轉化為各種不同類型的信息。未來,各行業和公司都將擁有兩個工廠,一個生產產品,另一個提供數學支持,AI 工廠將為汽車、智能音響等產品提供支持。
Q6:將AI帶入邊緣計算領域有何意義?
A:英偉達與思科、T-Mobile 和服務器 ODC 合作建設無線電網絡堆棧,將AI帶入邊緣計算領域。全球每年有大量資本投資于無線電網絡和通信數據中心配置,這一合作能充分利用這些資源,實現加速計算與AI的融合。
AI 在其中發揮著關鍵作用,通過強化學習,它將更好地適應無線信號、大規模礦機、環境變化和交通條件,優化通信效果。
AI有望徹底改變通信方式,還有望憑借對上下文和先驗知識的理解,僅用少量話語就能傳達豐富信息,提升通信效率和質量,類似其在視頻處理和三維圖形處理方面的作用。AI將進入每個行業。這只是其中之一。
Q7:英偉達在自動駕駛汽車領域有哪些重要進展和成果?
A:英偉達在自動駕駛汽車領域投入超十年,研發的技術被眾多自動駕駛汽車公司廣泛應用,涵蓋數據中心、車載計算等多場景。
與通用汽車合作意義重大,雙方將在制造業AI、企業AI和車載 AI 三個領域展開合作,助力通用汽車在制造、工作模式、汽車設計與仿真以及車載 AI 基礎設施等方面實現革新,推動自動駕駛汽車的發展,同時也為英偉達在自動駕駛領域拓展了業務和影響力。
在汽車安全方面,英偉達打造了名為 “Halos” 的安全體系,涉及硅片、系統、軟件、算法等多方面技術,強調確保多樣性、監控、透明度和可解釋性。對700萬行代碼進行安全評估,芯片、系統軟件和算法通過第三方安全評估,擁有超1000項專利。
Q8:英偉達是如何通過AI技術提升汽車安全性并實現自動駕駛的?
A:英偉達通過使用Omniverse和Cosmos加速AI開發,推動自動駕駛汽車的安全性和智能化。Cosmos的預測和推理能力支持AI優先的自動駕駛系統,采用新的開發方法,如模型蒸餾、閉環訓練和合成數據生成。
Cosmos把知識從速度較慢但更智能的“教師模型”傳遞給更小巧快速的“學生模型”。在汽車行駛過程中,教師模型展示出最佳行駛軌跡,學生模型通過多次迭代學習,不斷接近教師模型的表現水平,以此優化自動駕駛決策,提升行駛安全性。
閉環訓練能對政策模型進行微調。把車輛行駛過程中的日志數據轉化為三維場景,用于基于物理的仿真駕駛閉環。通過Omniverse的神經重建技術生成多種場景變化,測試模型的軌跡生成能力。同時,Cosmos的行為評估器對生成的駕駛行為進行評分,衡量模型表現。新生成的場景和評估結果構成大量數據集,幫助自動駕駛系統更好地應對復雜場景,增強了系統在不同環境下的安全性和適應性。
利用三維合成數據生成技術,Omniverse根據日志數據融合地圖和圖像,構建出詳細的四維駕駛環境,并生成現實世界的數字雙胞胎,精確到對每個像素進行分類,以此引導Cosmos。Cosmos通過生成大量準確且多樣化的場景擴充訓練數據,縮小模擬與現實的差距,使自動駕駛系統能夠更好地適應各種復雜環境,實現智能駕駛,進一步保障了行車安全。
Q9:Dynamo軟件有什么優勢?
A:Dynamo是一款開源軟件,該軟件可以提高人工智能推理的效率并降低成本。Dynamo 甚至可以讓在 Nvidia Hopper 平臺(Blackwell 的前身)上為 Meta的Llama型號提供服務的性能提高一倍。
它將使用戶能夠加速采用人工智能推理,包括 AWS、Cohere、CoreWeave、戴爾、Fireworks、谷歌云、Lambda、Meta、微軟 Azure、Nebius、NetApp、OCI、Perplexity、Together AI 和 VAST。
Q10:英偉達的AI系統路線圖是怎么樣的?
A:Blackwell Ultra 將于今年下半年上市,亞馬遜的 AWS、谷歌云、微軟的 Azure 和甲骨文將成為首批提供由 Blackwell Ultra 提供支持的服務的云服務提供商。
Vera Rubin 是英偉達的下一代系統,它將包含144個獨立的 Nvidia GPU,該系統預計將于 2026 年下半年推出。
公司將在2027年下半年發布包含576個GPU的Rubin Ultra,該系統將大幅提高AI計算能力和效率。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.