AI正深刻驅動著各領域的創新浪潮。借助AI的力量,各行各業能夠顯著提升運營效率、降低成本并塑造超高生產力的未來工作模式。不過,AI系統的成功部署與高效運行,其核心支撐在于底層基礎設施——它往往是AI技術棧中最易被低估,卻又最為關鍵的一環。特別是隨著DeepSeek等生成式AI模型的崛起及其應用的普及,AI工作負載變得更加多樣和復合化,這要求基礎設施的戰略定位更加清晰、更具落地性。
在剛剛舉辦的AMDAdvancing AI 2025大會期間,AMD發布了全面的端到端AI平臺愿景,并展示了全新的開放、可擴展的人工智能基礎設施產品。其中,EPYC對AMD未來的AI愿景具有非常重要的意義。
18倍增長,EPYC的AI進階之路!
EPYC堪稱AMD歷史上最成功的產品系列之一,經歷了數代產品的相繼更迭,EPYC將“CPU的AI進化之路”展現在業界面前。
根據AMD分享的 EPYC處理器市場份額的增長情況,從2018年2%到2024年36%,實現了18倍的飆升——四年間從邊緣玩家躍居行業核心,占據約三分之一市場份額,這種增幅在寡頭壟斷的服務器芯片市場堪稱奇跡。頭部客戶名單覆蓋了云服務巨頭、數字企業、企業和OEM廠商,進一步佐證了市場份額的堅實有力。
回顧EPYC的開疆拓土,特別是在AI領域的發展,可以說第四、第五代EPYC以通用計算重塑推理效能,對AI發展和AMD自身的產品迭代都具有重要的意義。面對復合型AI負載的挑戰,AMD第四代、第五代EPYC處理器展現了出色的適應性與效率,成為構建務實AI基礎設施的理想選擇。
具體而言,第四代EPYC能夠在AI推理方面脫穎而出,主要得益于其先進的架構和創新的設計。基于Zen 4架構的AMD EPYC處理器“Genoa”,采用了先進的5nm工藝,最多可達到96核心192線程,配備了12通道DDR5內存和160條PCIe 5.0總線。更大的內存總線,可以令更多數據在內存中進行快速加載,從而有效減少因數據傳輸而造成的時延;更多的PCIe總線意味著在單臺服務器上可以接入更多AI計算板卡,能夠提供更高密度的AI算力。
值得一提的是,第四代AMD EPYC處理器還引入了對AI/ML應用程序至關重要的DDR5內存和第五代PCIe,還有3D V-Cache技術的加持,進一步增強了第四代AMD EPYC處理器的多任務處理能力,并有效降低了延遲。
正是憑借這種高并發核心設計,AMD第四代EPYC全面覆蓋了碎片化的推理場景,成為AI推理服務器的主流選擇。特別是在金融風控、工業設備診斷等眾多場景,通過極致能效和專用指令集與架構優化,凸顯了高并發處理能力,為用戶提供了良好體驗。
如果說第四代EPYC為AI大模型推理應用奠定了堅實的基礎,那么第五代EPYC則進一步實現飛躍,能夠幫助用戶實現更高效的推理,更充分地滿足各類AI工作負載的需求,并適應不同模型大小。
第五代EPYC基于Zen 5架構,對AI的支撐能力更上一層樓。相比Zen 4,Zen 5核心架構不僅提供多達17%的更高每時鐘指令數(IPC),還能為AI和HPC提供高達37%的更高IPC,從而提升了AI部署的洞察時間和部署速度。比如,192核的EPYC可為端到端AI工作負載提供更高的性能,在Meta Llama 3.1-8B的中小型企業級生成式AI模型中,其吞吐量性能具有顯著優勢。
20倍能效新目標,AMD EPYC提供核芯動力
在Advancing AI 2025上,AMD宣布已經超越了在2021年制定的30x25目標:即從2020年到2025年將AI訓練和高性能計算(HPC)節點的能效提高30倍。
這意味著,與過去五年(2015-2020年)的行業趨勢相比,能效提升2.5倍以上。截至 2025 年中,AMD已超越這一目標,正是通過AMD GPU和第五代AMD EPYC CPU的配置,相較基準系統實現38倍的能效提升。與五年前的系統相比,這相當于在相同性能下能耗降低97%。
下一步,隨著人工智能規模的不斷擴大,以及邁向真正的端到端的全AI系統設計,AMD比以往任何時候都更需要繼續保持在節能設計領域的領先地位。
AMD高級副總裁兼企業院士Samuel Naffziger指出,AMD將目光投向一個大膽的新目標:以2024年為基準,到2030年,將用于AI訓練和推理的機架級能效提升20倍,使目前需要超過275個機架的典型AI模型到2030年只需在一個機架內即可完成訓練,耗電量減少95%。而結合軟件和算法方面的進步,新的目標可使整體能效提升高達100倍。
根據AMD最新的設計和路線圖預測,這反映了整個機架的每瓦性能提升,包括 CPU、GPU、內存、網絡、存儲和軟硬件協同設計。這種從節點到機架的轉變,其實得益于AMD快速發展的端到端AI戰略,也是以更可持續的方式擴展數據中心AI的關鍵。
Samuel Naffziger強調,隨著工作負載規模和需求的持續增長,節點級效率提升將無法跟上步伐,最顯著的效率影響可以在系統級實現,而這正是AMD 2030年目標的重點,也是AMD在AI時代的新目標。
EPYC助力構建高效、靈活的未來AI基礎設施
構建AI基礎設施沒有放之四海皆準的方案,過度依賴昂貴的專用加速器(如某些GPU)可能導致投資浪費和利用率低下,尤其當許多AI任務(特別是中小型推理負載或嵌入業務流的功能)完全能在強大的CPU上高效運行時,對于能源、效率、成本都是巨大的節約。
這些都與AMD EPYC 處理器的價值主張相契合,放眼未來,在AMD機架級的能效目標中,新一代以及未來幾代EPYC將繼續保持能效比(性能/瓦特)優勢,助力降低數據中心能耗,實現更綠色、高密度的計算解決方案。
至于企業如何規劃、部署未來的AI基礎設施?IDC給出的建議是:第一,通過替換過時服務器在數據中心騰出空間,因為長遠來看,改造過時服務器成本高昂,而新的服務器通常不僅能力更強,而且通常效率更高;第二,采用私有或混合云策略處理虛擬化、容器化和裸機工作負載,這有助于確保每個 AI 工作負載都匹配到合適的基礎設施堆棧;第三,通過選擇合適類型的處理器 (CPU) 優化協處理器(加速器)投資,可以避免加速器資源利用不足或利用不均的情況。
正因具備強大的通用處理能力、領先的能效比以及對AI加速的優化支持,AMD EPYC處理器能夠高效驅動DeepSeek等大模型的推理負載, 助力企業在無需大規模新建基礎設施的前提下,高效、靈活地擁抱以DeepSeek等模型為代表的生成式AI趨勢,最大化AI投資價值。
內容轉載自:與非網
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.