當地時間6月10日,美光科技宣布已向多個主要客戶交付HBM4 36GB 12 層堆疊樣品。
美光表示,這一里程碑擴大了美光在 AI 應用內存性能和能效方面的領導地位。該HBM4 內存基于其成熟的 1? (1-beta) DRAM 工藝、成熟的 12 層先進封裝技術和高性能內存內置自檢 (MBIST) 功能,為開發下一代 AI 平臺的客戶和合作伙伴提供無縫集成。
隨著生成式 AI 的使用不斷增長,有效管理推理的能力變得更加重要。美光HBM4 采用 2048 位接口,每個內存堆棧的速度超過 2.0 TB/s,性能比上一代提高了 60% 以上。這種擴展的接口促進了快速通信和高吞吐量設計,從而加速了大型語言模型和思維鏈推理系統的推理性能。簡而言之,HBM4 將幫助 AI 加速器更快地響應并更有效地推理。
此外,與美光上一代 HBM3E 產品相比,美光 HBM4 的功率效率提高了 20% 以上,后者率先在 HBM 功率效率方面建立了新的、無與倫比的行業基準。這種改進以最低的功耗提供了最大的吞吐量,從而最大限度地提高了數據中心的效率。
生成式 AI 用例繼續成倍增加,這項變革性技術有望為社會帶來重大利益。HBM4 是一個關鍵的推動因素,可以推動更快的洞察和發現,從而促進醫療保健、金融和交通等不同領域的創新。
“美光 HBM4 的性能、更高的帶寬和行業領先的能效證明了我們的內存技術和產品領先地位,”美光云內存業務部高級副總裁兼總經理 Raj Narasimhan 說。“在 HBM3E 部署取得的非凡里程碑的基礎上,我們將繼續通過 HBM4 和我們強大的 AI 內存和存儲解決方案產品組合推動創新。我們的 HBM4 生產里程碑與客戶的下一代 AI 平臺準備情況保持一致,以確保無縫集成和量產。”
美光計劃在 2026年增加 HBM4 的產能,與客戶的下一代 AI 平臺的量產保持一致。
編輯:芯智訊-林子
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.