根據韓國媒體MToday的報道,韓國半導體企業SK海力士計劃今年10月啟動HBM4高寬帶量產計劃。
這一計劃是為了滿足英偉達預計于2026年開發的下一代AI GPU 架構“Rubin”推出的。
據悉英偉達Rubin架構將會采用HBM4高帶寬內存,并且會和Vera CPU架構共同組成一個超級芯片系統。
英偉達Rubin架構也標志著從“單芯片設計”向“系統級別協同”的一次重要的技術路線轉變,也是雙GPU與Vera CPU異構計算單元深度集成的行業先行者。
據悉Rubin架構集成HBM4(288GB,帶寬13TB/s),FP4的推理算力超過50PetaFLOPS,相較于前代Blackwell架構,性能提升了近3.3倍。
得益于HBM4的超高帶寬,Runbin架構將可以構建起百萬級GPU超算集群,與此同時再加上Vera CPU的協同優化,能夠顯著降低AI推理的延遲。
皮衣戰神黃仁勛的“算力核爆”預言正在慢慢的走向現實,未來英偉達在全球的AI算力份額會出現井噴式增長。
所以圍繞著AI算力的供應鏈也將會帶來巨大的商機,未來萬億級的AI市場如果科技企業能夠把握住,勢必也將分得一杯羹。
韓國半導體企業SK海力士的十月HBM量產計劃就是一個很好的例子,目前SK最新的HBM高帶寬內存為12Hi HBM4。
12Hi HBM4總共堆疊了12層24GB DRAM芯片,單封裝容量就高達36GB,帶寬突破2Tb/s,這勢必導致I/O接口翻倍,基礎裸片功能變得異常復雜,增加了制造難度。
不過好消息是SK海力士已經突破了70%的良品率大關,所以這個10月量產計劃才能夠如期進行。
再說一下國內HBM4技術的發展現狀吧,雖然中國已經啟動了HMB4技術的布局,但是目前仍然是追趕階段,尚不具備規模化量產能力。
HBM技術通過硅通孔技術進行芯片堆疊,要將數個DRAM裸片像蓋樓一樣垂直堆疊,HBM4一個模塊又要堆疊更多的內存芯片,其復雜度指數增長,主要的難題就是需要增加硅通孔縮小凸塊間距。
現實情況則是國內企業邏輯芯片上的設計和良品率要落后國際先進水平2~3代,所以我們不要一直浸淫在各種“突破卡脖子”、“遙遙領先”的捧殺當中,埋頭科研,加大研發投入才是我們當下需要做的!
沒有爬不上的高峰,沒有攻不克的堡壘,你我共勉!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.