99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

AMD全棧戰(zhàn)略浮出水面:要造GPU、ROCm和AI機架全生態(tài)

0
分享至

作者|周雅

在AI圈子里,大家或許聽到過這樣的話術,“AI創(chuàng)新既是一場馬拉松,也是一場短跑”,此時此刻我在AMD Advancing AI這場關乎未來AI計算格局的會上,腦中多次浮現(xiàn)出這句話。

太平洋時間2025年6月12日早晨,圣何塞的麥克內里會議中心就開始排長龍,據(jù)說今年注冊的觀眾嚴重超標。身前身后的全球媒體同行,幾乎都在議論近期某個模型或某個AI公司的進展,AI的熱度像是6月份的天氣。我于是又刷了一下AMD的最新財報,在2025年第一季度,AMD的數(shù)據(jù)中心業(yè)務營收37億美元,同比增長57%。對應到全球AI版圖,AMD的話語權逐漸變重。


鏡頭拉回到隨后的會議現(xiàn)場,AMD董事會主席及首席執(zhí)行官Lisa Su博士走上舞臺,也就意味著這場技術大會的正式開始了。


概述這場發(fā)布,AMD主要做了五件事:展示AI加速器“Instinct MI350系列”的遙遙領先;用開源軟件平臺“ROCm 7”普惠AI開發(fā)者;發(fā)布支持以太網(wǎng)聯(lián)盟(UEC)的網(wǎng)卡Polara 400;以及帶來一個彩蛋作為壓軸——AI機架“Helios”

聽完整場,不難看出AMD的戰(zhàn)略方向,從“賣芯片”轉向“不止賣芯片,還賣系統(tǒng)”,左手端到端解決方案,右手開放生態(tài),來重塑AI基礎設施的競爭格局。

Helios:我們不止賣芯片,還賣端到端解決方案

盡管NVIDIA在GPU的強勢有目共睹,但AMD也并不想做一個長期追趕者。

我們知道,NVIDIA 一直是靠著硬件GPU+軟件生態(tài)CUDA +網(wǎng)絡技術NVLink,建了一個嚴絲合縫的AI生態(tài)。而AMD 另辟蹊徑,用組合拳CPU+GPU+DPU+開源軟件棧,武裝成一個端到端的AI 基礎設施。

于是,AMD正式官宣AI機架方案「Helios」,將于2026年正式問世。

「Helios」 是一個集大成者,AMD會把全家桶都打包裝進去,包括下一代 AMD GPU Instinct MI400 系列 、采用 Zen 6 架構的AMD CPU EPYC 「Venice」、AMD DPU Pensando 「Vulcano」、以及AMD開源軟件棧ROCm。


此處稍作解釋AI機架方案。在過去,像谷歌、Meta 這樣的大公司要自己成為“攢機員”,他們從 AMD 或其他芯片廠商那里買來GPU/CPU 等核心部件,然后自己設計服務器、機柜、散熱系統(tǒng)和網(wǎng)絡連接,再進行漫長的軟件調試,才能讓成千上萬個 GPU 協(xié)同工作,可想而知,這個過程耗時耗力耗錢。

你可以把「Helios」 理解成一臺為你組裝好、調試好、開箱即用的“超級計算引擎”,它的外觀形態(tài)是一個機架,里面有最強大的GPU,還預裝了最匹配的 CPU、最高效的網(wǎng)卡、專門設計的散熱和供電系統(tǒng),且所有軟件都經(jīng)過深度優(yōu)化,而不是讓你自己去買一堆零件(CPU、顯卡、主板、網(wǎng)卡等)回來自己攢機,說白了,就是為了解決超大規(guī)模客戶在構建 AI 集群時面臨的最大痛點——降低總擁有成本(Total Cost of Ownership,TCO)和縮短產(chǎn)品上市時間(Time-to-Market,TTM)。

“Helios是業(yè)界首次將機架作為統(tǒng)一系統(tǒng)設計,它將在大規(guī)模訓練和分布式推理領域占據(jù)領先地位,這將徹底改變行業(yè)格局。”Lisa Su博士說道,“Helios的優(yōu)勢不止于強大算力,在內存容量、內存帶寬和互聯(lián)速度方面都遙遙領先。”

AMD直面競爭也頗有底氣。官方稱,Helios可容納72塊MI400系列,總帶寬260TB/s,F(xiàn)P4 2.9 EFlops、FP8 1.4 EFlops。此外,Helios的HBM4內存容量31 TB、總帶寬1.4 PB/s、橫向擴展帶寬43 TB/s,對標NVIDIA Oberon都要高出一半。


而驅動 Helios 的核心,正是 Instinct MI400,這款加速器正在開發(fā)中,其規(guī)格堪稱恐怖,當屏幕上出現(xiàn)它的性能參數(shù)時,現(xiàn)場掌聲雷動:

FP4 算力達到 40 PF,F(xiàn)P8 算力達到 20 PF,單 GPU 顯存高達 432GB,HBM 內存帶寬達到19.6 TB/s,單 GPU 對外互聯(lián)帶寬達到300 GB/s,可實現(xiàn)跨機架和集群的互聯(lián)。簡單來說,它能夠讓不同機柜和計算群組之間進行超高速數(shù)據(jù)交換,就像給所有計算單元之間鋪設了信息高速公路,使得數(shù)據(jù)能夠快速、大量地在不同設備間流通,避免堵塞或延遲。



看下圖這條陡峭的曲線。從 MI300 到 MI350,性能提升了約 3-4 倍;而從 MI350 到 MI400,AMD希望讓它跑出一騎絕塵的姿態(tài)。Lisa Su博士在展示性能曲線時說道:“MI400系列在處理最前沿的模型時,性能預計可提升至目前的10倍,這使它成為業(yè)界性能最強勁的AI加速器。”


從路線圖上看,Helios將于2026年發(fā)布,而 AMD 依然放出了“三年規(guī)劃”:2026年,Helios將基于AMD EPYC “Venice”、AMD Instinct “MI400系列”、AMD Pensando “Vulcano”;2027年,“下一代AI機架”將基于EPYC “Verano”、Instinct “MI500系列”、Pensando “Vulcano”。



誠然,這是 AMD 戰(zhàn)略上的一次重大升級,意味著這家公司正從一個純粹的芯片供應商,向系統(tǒng)級解決方案提供商轉型。

說到這里,AMD特意請來OpenAI助陣,兩家公司都強調了AI計算能力有多重要。OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Altman坦言:“當我們開始使用推理模型,這些模型需要很長的運算時間。這種模型會自主運行,對問題進行分析,然后給出更優(yōu)解,有時甚至能直接寫出一整套完整的代碼。但這就要求模型必須運行得更快,還得能處理很長的文字。為了做到這些,我們需要超級多的計算資源、存儲空間和CPU。


也就是說,推理模型和AI代理正在驅動下一波應用浪潮,這對算力的需求是無止境的。

Instinct MI350:絕非單一指標,性能、內存、成本全要照顧到

除了讓人眼前一亮的Helios,Lisa Su還揭開了本場第一位硬件主角——AMD Instinct MI350 系列


AMD董事會主席及首席執(zhí)行官Lisa Su博士手持MI350系列

具體來看,MI350系列采用CDNA 4 GPU架構,3納米,它的特點是:1、更快的AI訓練和推理:AI算力較上代提升4倍,在FP4精度下可達20PF,同時在FP6精度下可提升訓練和推理的速度;2、支持更大的大模型:由于每個模塊都配備了288GB HBM3E高性能內存,所以單個GPU就能運行5200億參數(shù)的模型,可想而知,這就有利于降低大模型推理的成本;3、支持快速部署AI基礎設施:該系列基于行業(yè)標準的UBB8平臺,支持“風冷”和“液冷”兩種散熱方案。





當然,為了適應多樣化的數(shù)據(jù)中心環(huán)境,MI350 系列推出了兩款型號:MI355X 和 MI350X。兩者共享一樣的計算架構和內存規(guī)格,但在功耗和散熱方案上卻不一樣:MI355X 追求極致性能,功耗較高,主要面向最高效的液冷散熱環(huán)境;而 MI350X 則更注重能效,功耗較低,支持風冷和液冷兩種散熱方式,這種靈活性讓它能夠“在現(xiàn)有基礎設施上快速部署和應用”。





提到數(shù)據(jù)中心的散熱方式,此處有必要插入AMD副總裁兼數(shù)據(jù)中心加速業(yè)務總經(jīng)理 Andrew Dieckmann的觀點。他在前一天的媒體溝通會上指出:“2025年是液冷技術的重要里程碑”——目前所有在建的數(shù)據(jù)中心、以及前期規(guī)劃中的數(shù)據(jù)中心項目,基本都將采用液冷方案,這是因為它能帶來更低的TCO,長遠來看更具經(jīng)濟效益,這是AMD前進的方向;同時,風冷市場需求依然強勁,尤其是在企業(yè)內部部署場景中,AMD也會推出相應的產(chǎn)品線。

繼續(xù)說回 MI350 系列的性能,俗話講“是騾子是馬拉出來溜溜”,「性能」一直都是衡量 AI 加速器的標尺,AMD此次也擺出了MI350 系列與其他產(chǎn)品的直接對標,不僅對標自家產(chǎn)品,還對標友商NVIDIA的產(chǎn)品。

首先,在推理性能方面。MI355X 對比上一代 MI300X,在運行 Llama 3.1 405B(4050億參數(shù))這樣的大模型時,推理吞吐量最高提升可達 4.2 倍,在AI Agent、內容生成、文本摘要、聊天對話等多種場景中,整體性能也提升了3-4倍。而且,這一優(yōu)勢并不僅限于特定模型,在 DeepSeek R1、Llama 3.3 70B、Llama 4 Maverick等多個典型模型上,吞吐量均實現(xiàn)了超過 3 倍的性能提升。





當運行 DeepSeek R1和 Llama 3.1 405B 模型時,在使用 SGLang、vLLM 等流行的開源推理框架時,MI355X的性能比使用專有框架(TensorRT-LLM)的NVIDIA B200 更勝一籌。如下圖,MI355 相比 B200 分別在SGLang、vLLM上每秒處理的 token 數(shù)量高出1.2倍、1.3 倍,在vLLM上每秒處理的 token 與 NVIDIA GB200持平。



更重要的是,這種性能優(yōu)勢直接轉化為成本優(yōu)勢:“每美元能處理40%的token”,這意味著客戶不僅能獲得更快的推理速度,還能大幅降低服務成本,這對于以 token 計費的 AI 應用來說是致命的誘惑。



其次,在更關鍵的模型訓練方面。MI355X 對比 MI300X,在Llama 3 70B預訓練的吞吐量提升 3.5 倍,在Llama 2 70B模型微調方面的性能提升 2.9 倍,這就有利于縮短從開發(fā)到部署的周期。



在Llama 3 70B/8B的預訓練任務中,MI355X 對比 NVIDIA B200,兩者性能旗鼓相當;而在最新的MLPerf V5.0基準測試中,MI355X 在Llama 2 70B模型微調方面的性能,對比B200和GB200分別快1.1倍、1.13倍。



基于MI350系列,各家OEM廠商推出了采用AMD技術的AI機架方案,整合了EPYC CPU、Instinct GPU和Pensando DPU,全部整合為一體化解決方案。在大規(guī)模部署環(huán)境中,單個液冷機架最多可容納96個GPU,甚至可擴展至128個GPU,配備2.6 ExaFLOPS FP4算力和36TB HBM3e高速內存。而在風冷散熱系統(tǒng)的部署方案中,MI350系列機架單柜可支持64個GPU,兼容傳統(tǒng)數(shù)據(jù)中心的部署環(huán)境。

“這樣的靈活性和多樣化選擇是客戶真正需要的,他們希望用最少的工作量和最小的干擾,實現(xiàn)數(shù)據(jù)中心快速部署,這正是MI350能夠實現(xiàn)的功能。”Lisa Su博士強調。





據(jù)悉,MI350系列已于本月初開始量產(chǎn)出貨,首批合作伙伴也將按期發(fā)布服務器產(chǎn)品,并在第三季度推出公有云服務。AMD指出,下圖的名單是MI350系列的合作伙伴,但這不是全部,還會陸續(xù)更新。



ROCm 7:只有硬件是不夠的,軟件生態(tài)是開發(fā)者構建AI的畫筆

如果說硬件是 AI 計算的“肌肉”,那么軟件生態(tài)就是它的“神經(jīng)系統(tǒng)”。“硬件性能固然出色,但真正釋放其全部潛力的關鍵在于軟件。”Lisa Su博士將話題轉向了AMD的軟件生態(tài)——ROCm。

說到軟件生態(tài),AMD有ROCm,NVIDIA有CUDA,但是大家往往不會把兩者相提并論,為什么?

對于這個犀利問題,AMD人工智能事業(yè)部企業(yè)副總裁 Ramine Roane是這樣回答的:

“我們開發(fā)了HIP語言,它和CUDA有90%相似,可以說是一個親兄弟。我們甚至提供了叫HIPify的轉換工具,只需幾行代碼就能把CUDA程序轉成HIP格式。

但其實現(xiàn)在更重要的趨勢是,開發(fā)者已經(jīng)不需要直接接觸底層編程了。你可以直接用PyTorch、Jax或者從Hugging Face下載模型,這些在我們平臺上的使用體驗,跟在英偉達平臺上完全一樣。

對于那些確實需要寫底層代碼的高級開發(fā)者,除了用HIP之外,現(xiàn)在業(yè)界有個更好的趨勢——使用Triton這樣的通用編譯器。這是OpenAI開發(fā)的工具,微軟、Meta都在用,它接收Python風格的代碼,然后自動為不同硬件平臺生成最優(yōu)代碼。簡單到什么程度?我們比賽中有個16歲的高中生,僅靠編寫簡單的Python代碼就進入了前20名。

行業(yè)正在從硬件專用語言轉向通用語言,因為只要性能達標,大家都更愿意用一種代碼運行在任何硬件上,而不是被特定平臺綁定。”

弦外之音就是在說,CUDA的護城河其實沒有想象中那么深不可破,每當有新的GPU架構出現(xiàn)時,無論是NVIDIA自己的還是競爭對手的,所有人都必須重新優(yōu)化底層代碼,相當于回到同一起跑線。而開源生態(tài)的優(yōu)勢在于集眾人之力,速度更快,創(chuàng)新更活躍,AMD正是借助這一點來撼動NVIDIA的市場主導地位。

好,讓我們回到現(xiàn)場。

AMD人工智能事業(yè)部高級副總裁Vamsi Boppana用一句話概括ROCm的愿景——打造開放共享的、可擴展的軟件平臺,讓AI創(chuàng)新惠及全球每一個人。

目前,已有超180萬個Hugging Face模型可在ROCm上開箱即用。過去一年來,AMD加強了對JAX的支持,借助MaxText等程序庫,JAX在訓練項目中的應用日益廣泛。更重要的是,AMD將軟件更新頻率從季度縮短至每兩周一次,確保能夠為最新的模型和框架提供“Day 0”支持。



但是AI 一直在工作,所以AMD也不能懈怠,于是正式發(fā)布——ROCm 7,重點優(yōu)化了推理性能,目標是提升易用性和性能。其預覽版將于 6 月 12 日向公眾開放,正式版將于 8 月發(fā)布。



“我們全面更新了AI推理的技術架構。從VLLM和SGLang這些基礎框架的升級,到提升服務性能、支持更高級的數(shù)據(jù)類型,再到開發(fā)高性能的核心程序,以及實現(xiàn)Flash Attention v3這樣的前沿算法。我們讓開發(fā)過程變得更簡單,用類似Python的方式來整合各種核心功能。我們還大幅改進了系統(tǒng)內部的通信方式,這讓ROCm 7的推理性能比上一代ROCm 6提升了3.5倍、訓練性能提升了3倍。”Vamsi Boppana指出。





說到這里還不忘強調開源的好處,順便硬剛一下友商。Vamsi Boppana說,“在AI推理服務的領域,我們越來越發(fā)現(xiàn),開源的解決方案在功能更新速度和性能表現(xiàn)上都已超過不公開源代碼的方案。比如VLLM和SGLang這樣的開源框架,它們的代碼更新速度非常快,已經(jīng)領先實現(xiàn)了FP8這種優(yōu)化功能,比那些閉源產(chǎn)品早很多。我們與這些開源社區(qū)密切合作,在DeepSeek FP8的測試中,MI355X系列比NVIDIA B200最多提高了1.3倍。這就是開放合作的力量,讓我們能夠快速行動,創(chuàng)造更多可能性。”



為了讓開發(fā)者能夠真正接觸并使用 AMD 的技術,AMD 推出了一系列重磅舉措:

首先,上線 AMD 開發(fā)者云平臺(AMD Developer Cloud)。開發(fā)者只需一個GitHub或郵箱賬戶,即可輕松訪問云端的Instinct GPU資源。Vamsi Boppana在現(xiàn)場宣布,“所有參加本次峰會的開發(fā)者,都將獲得 25 小時的GPU免費使用券。”

其次,全面支持 ROCm on Client。這曾是 AMD 的一個“痛點”,現(xiàn)在,ROCm將不再局限于云端和數(shù)據(jù)中心,而是將全面支持銳龍筆記本和工作站平臺,并且首次正式支持 Windows 系統(tǒng),這意味著開發(fā)者可以在自己的本地設備上,使用統(tǒng)一的軟件環(huán)境進行AI開發(fā)和調試。同時,AMD 還將與紅帽、Ubuntu、OpenSUSE 等主流 Linux 發(fā)行商合作,提供“inbox”支持,即 ROCm 將被預裝在系統(tǒng)發(fā)行版中,免去用戶繁瑣的安裝過程。



這意味著,開發(fā)者可以在自己的筆記本上運行 240 億參數(shù)的模型,在 Threadripper 工作站上甚至可以運行 1280 億參數(shù)的模型,這為本地化 AI 應用的開發(fā)和調試提供了前所未有的便利。



而且,AMD不只是希望ROCm惠及開發(fā)者,也希望ROCm惠及企業(yè)的開發(fā)者,于是正式推出——ROCm企業(yè)版。



ROCm企業(yè)版是一套完整的技術方案,涵蓋了從集群管理到MLOps的各個環(huán)節(jié),支持預訓練、推理部署、以及端到端應用程序的開發(fā)。



網(wǎng)絡成為新戰(zhàn)場,除了看適用度,還要談開放性

接下來,AMD數(shù)據(jù)中心解決方案事業(yè)部執(zhí)行副總裁兼總經(jīng)理Forrest Norrod登場,重點講了AMD在網(wǎng)絡技術方面的戰(zhàn)略布局,同樣強調了“開放”。

AMD方面指出,AI 模型規(guī)模每三年增長千倍,訓練數(shù)據(jù)量每八個月翻一番,這種需求的增長速度已經(jīng)遠超硬件技術本身的發(fā)展,唯一的出路是通過創(chuàng)新的分布式系統(tǒng)架構,將成千上萬的 GPU 連接成一個協(xié)同工作的整體——在這背后,網(wǎng)絡正是實現(xiàn)這一切的基石。

當前,AI 網(wǎng)絡市場主要有兩種技術路線:專有的 InfiniBand 和開放的以太網(wǎng)。從AMD的角度,認為InfiniBand 缺乏擴展性;而以太網(wǎng)雖然具備擴展性,卻并非為 AI 網(wǎng)絡而設計。

為了解決這一難題,AMD 提出了一個全面的、基于開放標準的網(wǎng)絡創(chuàng)新戰(zhàn)略,涵蓋了從后端到前端、從橫向擴展到縱向擴展的各個層面,那就是Ultra Ethernet Consortium (UEC)。這是一個由 AMD、Arista、Broadcom、思科、Meta 等百余家行業(yè)巨頭共同推動的開放標準,就是為了打造專為 AI 優(yōu)化的下一代以太網(wǎng)。





同時,AMD 推出 Polara 400 AI 網(wǎng)卡,是業(yè)界首款支持 UEC 技術的解決方案。它不僅支持傳統(tǒng)的 RoCEv2 RDMA 協(xié)議,還能通過軟件升級,啟用 UEC RDMA 功能。





此外,AMD 為 Helios 機架系統(tǒng)設計下一代互聯(lián)芯片 Ultra Accelerator Link,這是一種新型存取架構,專為大規(guī)模AI系統(tǒng)設計,具有低延遲、高帶寬等特性。它采用以太網(wǎng)物理接口層,可集成各類標準部件,降低成本并確保互連穩(wěn)定性。





組合拳背后有底層邏輯:AMD的三大戰(zhàn)略支柱

AMD此次打出了一套邏輯嚴密、環(huán)環(huán)相扣的組合拳,而回頭再看Lisa Su博士在開場時講的信息,就更好理解了。

Lisa Su博士的開場白直擊當前AI的發(fā)展脈搏——“AI技術的創(chuàng)新速度之快,在我的職業(yè)生涯中都是絕無僅有的,2025年AI發(fā)展速度更是一路飆升,進入一個全新篇章,其標志就是「代理式AI(Agentic AI)」的崛起。”

在Lisa Su博士看來,代理式AI就像是一種全新的“數(shù)字員工”,與以前只會做單一任務的AI不同,這些代理式AI能夠24小時不間斷工作、不斷學習和分析海量數(shù)據(jù),并且可以直接與公司各種系統(tǒng)互動,自己做決定和完成工作。她隨后說道:“我們正在引入數(shù)十億個代理式AI,它們可以幫助我們工作。”

這種范式轉移,對計算設備提出了三大新要求:

第一,要超強的GPU計算能力。這些AI要實時分析數(shù)據(jù)、進行深度思考,就像人腦需要更多內存空間存儲和處理信息一樣。

第二,要強大的CPU處理器。因為這些AI助手在工作時不僅要思考,還要同時處理各種日常任務,比如查詢數(shù)據(jù)庫、與其他系統(tǒng)溝通等,這些都需要傳統(tǒng)計算力支持。

第三,要安全高效的網(wǎng)絡連接。所有這些計算部件必須通過快速、安全、穩(wěn)定的網(wǎng)絡連接在一起,才能形成完整的工作系統(tǒng)。

面對如此巨大的變革,市場機遇也隨之而來。Lisa Su博士重申了AMD在去年做出的預測:



第一,到2028年,數(shù)據(jù)中心AI加速器的市場規(guī)模將增長至5000億美元,年增長率超過60%;

第二,AI推理能力將成為AI的核心動力。“AMD預計AI推理市場的年增長率將超過80%,未來將成為AI計算領域最大的增長引擎。而高性能GPU,憑借其出色的靈活性和強大的編程能力,將在這個市場占主導地位。”

面對廣闊的市場和復雜的需求,Lisa Su博士指出,AMD有三大核心戰(zhàn)略,這構成了其在AI時代競爭的基石:

第一,提供最多元化的計算引擎產(chǎn)品線。AMD認識到AI并非“一種方案通吃”,不同的應用場景需要不同的計算方案。因此,AMD提供了業(yè)內最完整的端到端計算解決方案,涵蓋CPU、GPU、DPU、網(wǎng)卡、FPGA和自適應芯片等各類處理器,確保“無論在任何場景部署AI,無論你需要多大的算力,AMD都能滿足你的需求。”



第二,構建以開發(fā)者為中心的開放生態(tài)系統(tǒng)。Lisa Su博士在演講中反復強調“開放”的重要性。“回顧歷史可以發(fā)現(xiàn),許多重大技術突破最初都是采用封閉模式的,但行業(yè)發(fā)展歷程反復證明,開放才是創(chuàng)新騰飛的關鍵。”她以Linux超越Unix、Android的成功為例,論證了開放生態(tài)如何促進良性競爭、加速創(chuàng)新并最終讓用戶獲益。因此,AMD全面支持各大主流框架,將ROCm軟件生態(tài)開源,并積極主導和參與UEC、UAL等開放行業(yè)標準,都是在“凝聚行業(yè)力量,讓每個人都能參與AI創(chuàng)新”。



第三,提供端到端解決方案。隨著AI系統(tǒng)日趨復雜,客戶要的不再只是單顆芯片,而是經(jīng)過整合優(yōu)化的全棧解決方案。為此,AMD近年來通過自身發(fā)展和戰(zhàn)略并購(如收購ZT、Nod.ai、Silo.ai、Lamini等公司),不斷增強其在機架級設計、軟件和編譯器等領域的技術實力,從而為客戶提供“開箱即用”的AI平臺。“過去一年間,AMD已完成超25項戰(zhàn)略投資,有效拓展了合作伙伴網(wǎng)絡,并為未來AI軟硬件領域的創(chuàng)新企業(yè)提供支持。”Lisa Su博士指出。



清晰的戰(zhàn)略打底,AMD 勢如破竹:“全球十大 AI 公司中,已有七家正在大規(guī)模部署 AMD Instinct GPU。” 這份客戶名單包括了微軟、Meta、X.AI、Cohere、Reliance Jio 等科技巨頭,以及眾多充滿活力的 AI 初創(chuàng)公司,似乎 AMD 的 AI 加速器已經(jīng)成功滲透到全球最頂級的 AI 研發(fā)和生產(chǎn)環(huán)境中。



在傳統(tǒng)的超級計算(HPC)領域,AMD 依然強勢。在最新發(fā)布的全球超算 TOP500 榜單中,排名第一的“Frontier”和第二的“Aurora”超級計算機,其核心計算引擎均由 AMD 提供。同時,Instinct 平臺獲得了所有主流服務器 OEM 和 ODM 廠商的支持,并在 Azure、Oracle 等公有云以及很多新興云服務商中上線,生態(tài)系統(tǒng)日益成熟。

如果用一個詞概述這場發(fā)布,那一定是“開放”,從Lisa Su 博士到現(xiàn)場站臺的每一位合作伙伴,都在反復強調開放標準和開源社區(qū)的重要性。這不僅是一種技術理念,更是一種高明的商業(yè)策略。面對NVIDIA憑借CUDA構建的堅固護城河,AMD選擇的不是正面攻城,而是聯(lián)合所有“城外力量”,另辟蹊徑,建立一個新的、更開放的生態(tài)聯(lián)盟。

峰會的最后,Lisa Su返場做總結,她說,“人工智能的未來不該局限于單一企業(yè)或封閉生態(tài),這需要整個行業(yè)攜手合作,共同開創(chuàng)。未來將由我們共同打造,每個人都貢獻智慧,集思廣益,通過協(xié)同創(chuàng)新,開創(chuàng)美好明天。”因為,“AI Everywhere,for Everyone(AI無處不在,惠及每個人)”



特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
大瓜!baby被曝婚內出軌,與出軌對象在車內動靜大,聊天記錄炸裂

大瓜!baby被曝婚內出軌,與出軌對象在車內動靜大,聊天記錄炸裂

跳跳歷史
2025-06-19 12:00:41
“別再帶娃旅游了”,專業(yè)人士揭露背后真相,相信看完你也會沉默

“別再帶娃旅游了”,專業(yè)人士揭露背后真相,相信看完你也會沉默

西紅柿媽媽
2025-06-13 08:15:08
伊拉克關閉領空,因其領空被用作以伊襲擊通道,可能對于伊朗不利

伊拉克關閉領空,因其領空被用作以伊襲擊通道,可能對于伊朗不利

綠樹林子
2025-06-20 17:06:03
劉亦菲內衣照被罵上熱搜:她的胸,礙了誰的眼?

劉亦菲內衣照被罵上熱搜:她的胸,礙了誰的眼?

手工制作阿殲
2025-06-20 07:10:36
分手6年,紀凌塵獨居上海老破小!經(jīng)濟拮據(jù),提及前女友愧疚落淚

分手6年,紀凌塵獨居上海老破小!經(jīng)濟拮據(jù),提及前女友愧疚落淚

快樂的小青瓦
2025-06-21 11:20:01
46歲殷桃與男友壓馬路,小腹隆起走路姿勢有孕味,男友長相普通

46歲殷桃與男友壓馬路,小腹隆起走路姿勢有孕味,男友長相普通

娛樂圈圈圓
2025-06-20 17:30:24
郭碧婷自爆生產(chǎn)過程,為二胎吃盡苦頭,網(wǎng)友:絕對是個狠人

郭碧婷自爆生產(chǎn)過程,為二胎吃盡苦頭,網(wǎng)友:絕對是個狠人

魚樂大使
2025-06-19 15:26:19
寫出“周扒皮”的高玉寶,被周家后人戳著脊梁骨罵,到底誰對誰錯

寫出“周扒皮”的高玉寶,被周家后人戳著脊梁骨罵,到底誰對誰錯

混沌錄
2025-05-28 17:45:19
《醬園弄》首映口碑出爐!大尺度戲太尷尬,全影院聽楊冪上廁所

《醬園弄》首映口碑出爐!大尺度戲太尷尬,全影院聽楊冪上廁所

萌神木木
2025-06-21 13:57:48
顛覆認知,一個真相終于揭曉,中國已經(jīng)完全掌握制空權

顛覆認知,一個真相終于揭曉,中國已經(jīng)完全掌握制空權

羅富強說
2025-06-13 18:10:14
基輔竟然先亂了!

基輔竟然先亂了!

那山星火
2025-06-21 08:09:53
伊能靜談婚姻現(xiàn)狀:沒離婚,只是各自生活,坦言十年感情已蛻變

伊能靜談婚姻現(xiàn)狀:沒離婚,只是各自生活,坦言十年感情已蛻變

手工制作阿殲
2025-06-21 09:48:08
以色列國防軍宣布解除伊朗中央總部司令阿里·沙德馬尼少將的職務

以色列國防軍宣布解除伊朗中央總部司令阿里·沙德馬尼少將的職務

仗劍看世界
2025-06-17 16:35:41
重磅!羅馬仕充電寶3C證書幾乎全數(shù)被撤銷!

重磅!羅馬仕充電寶3C證書幾乎全數(shù)被撤銷!

鞭牛士
2025-06-20 16:41:18
昔日“電子垃圾”,如今價格翻10倍,是出片神器,還是智商稅?

昔日“電子垃圾”,如今價格翻10倍,是出片神器,還是智商稅?

小嵩
2025-06-21 08:51:03
61歲劉歡晚年生活:父母離世女兒未婚,被“不死癌癥”困擾多年

61歲劉歡晚年生活:父母離世女兒未婚,被“不死癌癥”困擾多年

清游說娛
2025-06-19 10:05:06
不到24小時,以色列迎來6個噩耗,伊朗王牌導彈登場,以被打疼了

不到24小時,以色列迎來6個噩耗,伊朗王牌導彈登場,以被打疼了

掌青說歷史
2025-06-20 15:26:51
世俱杯最新射手榜:C組球星承包,前六為拜仁or本菲卡球員

世俱杯最新射手榜:C組球星承包,前六為拜仁or本菲卡球員

直播吧
2025-06-21 11:36:03
最新消息:下午起,杭州天氣大反轉

最新消息:下午起,杭州天氣大反轉

都市快報橙柿互動
2025-06-21 13:36:33
俄羅斯傻了!歐盟用凍結俄資產(chǎn)進行高風險投資,為烏克蘭賺更多錢

俄羅斯傻了!歐盟用凍結俄資產(chǎn)進行高風險投資,為烏克蘭賺更多錢

史政先鋒
2025-06-20 18:50:26
2025-06-21 16:20:49
科技行者 incentive-icons
科技行者
科技正在如何變革商業(yè)世界
5416文章數(shù) 527關注度
往期回顧 全部

數(shù)碼要聞

安普瑞斯充電寶3C認證暫停 波及小米羅馬仕

頭條要聞

貴州一落馬女干部被通報搞權色交易、公器私用

頭條要聞

貴州一落馬女干部被通報搞權色交易、公器私用

體育要聞

文班品嘗水席 "很享受在中國的時光"

娛樂要聞

70歲寇振海跳舞,網(wǎng)友:和依萍搶飯碗

財經(jīng)要聞

租金大撤退!房東正在批量跑路!

科技要聞

Siri有救了?蘋果被曝正討論史上最大收購

汽車要聞

扔掉"舊地圖”一汽-大眾大眾品牌要找"新大陸"

態(tài)度原創(chuàng)

親子
數(shù)碼
游戲
藝術
本地

親子要聞

踩氣球贏獎勵挑戰(zhàn)!

數(shù)碼要聞

初探蘋果 macOS 26游戲表現(xiàn):M1 Max跑《黑神話:悟空》超 60 FPS

《死亡擱淺2》確認出展BW2025!小島秀夫親臨現(xiàn)場

藝術要聞

故宮珍藏的墨跡《十七帖》,比拓本更精良,這才是地道的魏晉寫法

本地新聞

被貴妃帶火的“唐代頂流”,如今怎么不火了

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 左贡县| 新乡县| 札达县| 开阳县| 西宁市| 朝阳县| 嘉峪关市| 保康县| 中超| 无为县| 丰顺县| 布尔津县| 开平市| 景泰县| 吉水县| 宜城市| 鄂尔多斯市| 乌兰察布市| 灵寿县| 盐山县| 蓬莱市| 宁陵县| 抚远县| 乌兰浩特市| 颍上县| 化德县| 英超| 江川县| 雅江县| 平南县| 蓬安县| 中牟县| 莱阳市| 石河子市| 宜兰市| 潮州市| 明光市| 城市| 汉源县| 广丰县| 康保县|