本文由半導體產業縱橫(ID:ICVIEWS)編譯自semiengineering
英特爾和三星正在研發先進的制程節點和先進的封裝技術,但目前所有大型廠商都已100%依賴臺積電。
大型語言模型(例如 ChatGPT 等 LLM)正在推動數據中心 AI 容量和性能的快速擴展。更強大的 LLM 模型推動了需求,并需要更多的計算能力。
AI 數據中心需要 GPU/AI 加速器、交換機、CPU、存儲和 DRAM。目前,大約一半的半導體用于 AI 數據中心。到 2030 年,這一比例將會更高。
臺積電在AI數據中心邏輯半導體領域幾乎占據100%的市場份額。臺積電生產:
- Nvidia GPU、NVLink 和 CPU。
- AMD CPU 和 GPU。
- 英特爾 CPU。
- 適用于 Microsoft、Amazon、Google 和 Open AI 的 AI 加速器(與 Broadcom、Marvell、Alchip 和 Mediatek 共同設計)。
- Broadcom 和 Astera 交換機。
- ASpeed 底板管理芯片。
臺積電唯一沒有生產的必需 AI 數據中心芯片是存儲器:HBM、DDR、閃存。
AI數據中心芯片代工,為何青睞臺積電?
臺積電擁有AI數據中心必須具備的四大要素:
- 最先進的工藝技術和產量。
- 最先進的封裝技術和產量。
- 能夠快速將復雜的新產品提升至每月大批量生產。
- 擁有提前數年開發并批量交付的財務實力。
先進制程技術:AI 數據中心芯片,尤其是 AI 加速器,需要最先進的制程技術才能在芯片上集成最多的晶體管。像格芯這樣的代工廠,目前無力承擔先進 FinFET 節點的開發資金。目前只有英特爾、三星和臺積電擁有 2 納米及以下制程技術和路線圖。
先進的封裝技術:LLM 模型的規模呈指數級增長,即使采用最先進的工藝節點和最大的光罩尺寸,單個 GPU 芯片也無法處理該模型。運行 LLM 模型需要多個 GPU/AI 加速器。對于多芯片系統,瓶頸在于芯片間的數據速率。使用 200 Gb/s 銅互連的芯片間數據速率與片上數據速率相比非常非常慢。
解決方案是采用先進的封裝技術,將多個 GPU 芯片和 HBM 內存集成在多光罩基板上,并通過極快的芯片間數據傳輸,打造 GPU 計算組件。臺積電始終領先于客戶需求,持續研發。未來 AI 加速器將采用共封裝光通信技術,取代銅連接。臺積電于 2024 年宣布推出 COUPE 工藝,用于將光學引擎集成到先進的封裝中。英偉達今年早些時候宣布推出首款采用該技術的橫向擴展交換機。
圖 2:HBM、多個 AI 芯片、電壓調節器和 CPO 集成在一個封裝中。
為了確保良率和產能提升,先進封裝中的所有芯片都必須由臺積電代工。唯一非臺積電代工的芯片是DRAM內存和無源芯片。
臺積電早在幾年前就開始開發多芯片基板封裝,當時HBM開始被GPU采用,并且不斷提升其產品的尺寸和復雜性。他們最近宣布了一種晶圓尺寸的基板:
圖 3:更大的基板通過更快的芯片間數據傳輸速率提高了計算速度。
產能上,臺積電擁有全球最先進的制程和封裝技術產能,其中美國占有相當大且不斷增長的份額。
2024年第四季度,臺積電在全球晶圓代工市場的份額達到67%,較2023年初增長約10%。三星的份額為11%。英特爾則被歸類為“其他”。臺積電在先進制程晶圓代工領域的份額要高得多。
臺積電正在增加其在美國最先進節點的產能比例。該公司計劃在亞利桑那州生產N2和A16節點,目標是使這些節點總產量的約三分之一來自美國。該公司將繼續先在中國臺灣開發最先進節點。
摩根士丹利估計,到2026年,臺積電將占據全球90%的CoWoS(先進封裝)產能,其余產能將由安靠(Amkor)、聯華電子(UMC)和日月光(ASE)占據,英特爾和三星的數據未提及。臺積電在美國也擁有大量且不斷增長的先進封裝產能。
當 Nvidia、亞馬遜或谷歌需要 AI 加速器時,它們不僅需要先進的工藝和先進的封裝,還需要臺積電的產能和可預測性,以確保它們能夠快速提升產能并填滿其數據中心。臺積電已經向蘋果證明了,它們能夠快速可靠地大規模生產多個復雜芯片。
財務實力上,臺積電的市值接近1萬億美元,資產負債表非常強勁。他們的最終客戶是開發和提供前沿LLM的公司:微軟、亞馬遜、谷歌、OpenAI,這些公司都是市值達到萬億美元的公司(或有望達到萬億美元)。他們希望選擇規模龐大、可靠且財力雄厚的供應商。
歸根結底,臺積電最大的競爭優勢在于其管理實力與深度,以及其運營公司的系統/流程。臺積電能夠處理分布在多個國家的數十家晶圓廠的極其復雜的技術問題。他們的連續性是關鍵因素。
到 2030 年,GPU/LLM/HyperScalers 可能會成為臺積電的主要客戶。
如今,數據中心的絕大部分 AI 計算都基于 Nvidia,而 Nvidia 是臺積電最大的客戶之一。
AMD 目前的市場份額較小,但其 GPU 產品正在追趕 Nvidia;AMD 在擴展網絡和軟件方面仍有待改進,但看來他們的市場份額有望提升。客戶希望擁有更多選擇,因此他們愿意給 AMD 一個機會。6 月 12 日舉行的 Advancing AI AMD 活動展示了多家主要廠商使用 AMD AI 來支持其模型,并取得了良好的效果。
AMD 首席執行官蘇姿豐 (Lisa Su) 預測,數據中心 AI 加速器的潛在市場規模 (TAM) 將以每年 60% 以上的速度增長,到 2028 年將超過 5000 億美元!推理和訓練的配置比例正在快速變化。2025 年,兩者的比例約為 50/50,但到 2028 年,推理將占 TAM 的 70%。預計到 2030 年,整個半導體市場將達到 1 萬億美元,因此 AI 數據中心正在成為市場的主力。
GPU 非常靈活。它們可以進行訓練和推理。但它們價格昂貴。
四大云服務提供商(CSP)購買了英偉達約一半的產出,每家每年約合 200 億美元。如果市場增長速度達到 Lisa 和 Jensen 的預測,那么四大云服務提供商每年將購買近 1000 億美元的 GPU。
這意味著最大的超大規模計算公司和LLM公司擁有設計自有芯片的規模。他們設計自己的模型,因此他們確切地知道需要什么硬件,并且可以構建更便宜的加速器,部分原因是他們可以省去不需要的硬件,部分原因是他們可以與利潤率更低的供應商合作,甚至直接與臺積電合作。(他們仍然需要為那些為Nvidia/AMD設計模型的云客戶提供GPU)。
近十年來,亞馬遜和谷歌一直在設計各自的AI加速器。谷歌的第一篇TPU論文發表于2017年。亞馬遜于2015年收購了Annapurna Labs:該團隊設計了多代Inferentia和Trainium AI加速器。亞馬遜是臺積電十大客戶之一。
現在,所有主要的超大規模計算公司/LLM 都在構建自己的 AI 加速器,包括微軟 Maia、Meta MTIA,以及廣為傳聞的 OpenAI 和 xAI 的 AI 加速器項目。(唯一的例外是 Anthropic,它正在使用亞馬遜的芯片。)如今,這些公司正在與博通、Marvell、Alchip 以及其他能夠設計 2nm 或更低工藝、采用先進封裝和高速 PHY 芯片的公司合作。與亞馬遜一樣,一些超大規模計算公司/LLM 可能會決定收購現有廠商,進行整合,然后直接與臺積電進行流片。
未來難以預測,但2030年最有可能的情況是,英偉達仍將是市場領導者,AMD的份額將遠超現在,而大型超大規模計算廠商/LLM廠商的定制AI加速器占據了相當大的市場份額,亞馬遜、微軟、谷歌、Meta以及為其生產芯片的ASIC公司可能各占10%的份額。這意味著到2030年,臺積電的六大客戶將是數據中心AI提供商。
臺積電將在 2030 年代繼續保持 AI 代工廠的主導地位
超大規模/LLM 公司希望降低成本,但首先他們必須確保以高可靠性獲得所需的大量 AI 加速器。
英特爾和三星正在研發先進的制程節點和先進的封裝技術,但目前所有大型廠商都已100%依賴臺積電。芯片公司將積極評估和考慮英特爾和三星,因為每個人都希望擁有更多選擇,但臺積電的多重優勢將難以在短期內被英特爾和三星超越。
*聲明:本文系原作者創作。文章內容系其個人觀點,我方轉載僅為分享與討論,不代表我方贊成或認同,如有異議,請聯系后臺。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.