昨天有新聞爆出,Micron Technology 正在推動一項新的業務焦點——“云內存業務部”,該部門將打造一種稱為 HBM 芯片(高帶寬內存芯片)的產品。
HBM 芯片是一種 3-D 堆疊的 SDRAM 微處理器,傳統上用于高性能硬件配置。在模型設計領域,我們看到大語言模型獲得了更多內存容量,并且能夠更充分地利用存儲在內存中的上下文數據。
所以,發生這場硬件革命是合乎邏輯的。更有意思的是,參與者究竟有哪些。
HBM 市場
業內人士指出,Micron 是全球領先的 HBM 芯片供應商之一,而 Samsung 與 SK Hynix 也是主要玩家。
那么,究竟是誰在制造這些芯片?
以 Samsung 為例。業內消息顯示,Samsung 正在與其競爭對手代工伙伴 TSMC 合作,共同開發 HBM 芯片。
我們已經多次看到,TSMC 作為代工廠在市場中占據主導地位。其他公司利用 TSMC 提供的原始制造能力,并在 TSMC 產能基礎上發展各自的方案。這反過來引發了從汽車芯片短缺,到近期與出口管制相關的一些棘手地緣政治問題。看起來,如果全球有十幾家代工廠,世界局勢可能會好很多。
不過,在制造這些高設計芯片的過程中,Samsung 和 TSMC 是否在與 Nvidia 進行競爭?
其實并非如此。
其他業內報道顯示,Nvidia 原本計劃從 Samsung 采購這些芯片,但供應商未能達到 Nvidia 的要求。
3 月 20 日的一份新聞稿中,Nvidia CEO Jensen Huang 表示,Samsung “有著舉足輕重的作用”,但同時提到該公司尚未正式采購 Samsung 的 HBM3E 芯片。
HBM 芯片:內部構造
首先,HBM 芯片是一種 3-D 堆疊的 DRAM 芯片。
該內存單元緊鄰 CPU 或 GPU 放置,以克服延遲問題,并實現低功耗下的高帶寬。
我向 ChatGPT 進一步詢問了這些芯片的規格,它給出了以下信息:
帶寬:每個堆疊 819 GB 每秒
速度:每個引腳 6.4 GB
容量:每個堆疊最高可達 64 GB
散熱:更高效能
應用場景:人工智能、HPC、GPU (在此語境下,我們主要討論的是用于 AI 應用)
ChatGPT 還提供了一張有趣的圖示,將 HBM 的構造與一種稱為 GDDR6 的游戲芯片進行了對比,后者價格更低且更廣泛可用。
你可以從這類公開資源中獲得更多信息,了解 HBM 如何按照特定需求進行工程設計。
市場影響
讓我們簡要看一下這一科技市場的角落,為企業高管或其他關心此領域的人提供一些背景信息。
首先,Nvidia 在過去一年內從歷史高點下跌約 40%,最近的交易周期中股價一直徘徊在 100 美元左右,這在表面上歸因于美國的出口管制。Huang 及其團隊宣稱,Nvidia 將因新規定損失 55 億美元,這一說法近期引起了廣泛關注。接著是 Micron,目前股價約 70 美元,約為歷史高點的一半,自冬季以來大幅回落。至于 Samsung,其股票在短時間內下跌了約 8%。AMD 等公司同樣表現不佳。
正如 AJ Bell 投資總監 Russ Mould 所言(由 Elsa Ohlen 為 Barron’s 報道),“來自 AI 芯片冠軍 Nvidia 的警告稱,由于美國對向中國出口管制的收緊,公司將面臨 55 億美元的損失,這標志著華盛頓和北京之間不斷升級的針鋒相對進入了新篇章。”
這就是當前一些引人注目的全新硬件發展動態。從大語言模型的角度來看,背景則是具備持久記憶功能的模型進步。比如,我曾談論過使用 Sesame 的 AI 聊天伙伴,并觀察到“ Maya”似乎在好日子里能記住我作為回訪用戶的名字。連同鏈式思維,記憶能力正為我們那些充滿活力、備受期待的神經網絡朋友和鄰居打造更多可能性。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.