現在,對于汽車來說,800V架構幾乎已經成了標配。更有甚者,將高壓母線提高到了1000V這一等級。
之所以提高電壓,是因為汽車需要更快的充電速度,同時在相同功率下,800V架構的電流相比400V架構減半。根據焦耳定律 Q=I^2Rt,電流越小,熱損耗就越小,從800V到400V熱損耗能降低至原來的四分之一。所以,800V不僅更省電,還能使溫度更好控制,提升了能量利用效率。
在AI數據中心領域,傳統機架多為48V/54V。隨著IT機架電力需求突破200kW并向MW級規模演進,空間約束與母線(busbar)可擴展性問題,使得48V/54V供電模式的局限性日益凸顯。為突破這些瓶頸,行業正加速探索高壓直流(HVDC)架構。
最近,巨頭們就紛紛宣布自己的計劃:谷歌、微軟、亞馬遜、Meta等巨頭開始借鑒最初為EV開發的技術,更保守地推動數據中心向+/-400VDC演進。英偉達則更為激進,聯合一眾電源大廠,共同開發推進另一條對器件應力要求更高的AI電源架構路線——800V HVDC(高壓直流電)架構,并準備在2027年與NVIDIA Kyber機架系統同步量產。
可以說,在AI數據中心,也要掀起800V的革命了。
英偉達的800V誰來做
根據英偉達的說法,從2027年開始,NVIDIA(英偉達)正在引領向800 V HVDC數據中心電力基礎設施的過渡,以支持1 MW及以上的IT機架。為了加速采用,英偉達正在與整個數據中心電氣生態系統中的主要行業合作伙伴合作,包括:
芯片提供商:Infineon(英飛凌)、MPS(芯源系統)、TI(德州儀器)、ST(意法半導體)、ROHM(羅姆)、Navitas(納微半導體)
電源系統組件:臺達、Flex Power(偉創力)、Lead Wealth、LiteOn(光寶)、Megmeet(麥格米特)
數據中心電力系統:伊頓、施耐德電氣、維諦技術(Vertiv)
緊接著,廠商們便紛紛官宣:
5月20日,英飛凌(Infineon)宣布與英偉達(NVIDIA) 合作,正在開發基于新架構的下一代電源系統,該架構具有800 V高壓直流電(HVDC)集中發電能力。
新的系統架構顯著提高了整個數據中心的節能配電,并允許直接在服務器主板內的AI芯片(圖形處理單元,GPU)上進行電源轉換。英飛凌在基于所有相關半導體材料硅 (Si)、碳化硅(SiC)和氮化鎵(GaN)的從電網到核心的功率轉換解決方案方面擁有豐富的專業知識,正在加速實現全尺寸HVDC 架構的路線圖。
5月21日,納微半導體宣布其GaN和SiC技術已被選中支持英偉達的800 V HVDC數據中心電源基礎設施,以支持1 MW及更高的IT機架。納微半導體是基于氮化鎵和碳化硅技術的 AI 數據中心解決方案的領先者。
納微半導體首席執行官兼聯合創始人Gene Sheridan 表示:“我們很榮幸被英偉達選中,參與其 800V HVDC 架構計劃。我們在大功率氮化鎵和碳化硅技術上的最新創新實現了多項全球首創,并為 AI 數據中心和電動汽車等市場帶來了新的變革。憑借廣泛的產品組合,我們能夠支持英偉達從電網到 GPU 的 800V HVDC 基礎設施。感謝英偉達認可我們的技術和推動下一代數據中心電力傳輸的承諾。”
5月21日,臺達宣布面對 AI 計算不斷增長的電力需求,臺達還推出創新的800V高壓直流(HVDC)電源架構,以及強化電網韌性的微電網解決方案。通過從電網到芯片的電源與熱管理解決方案布局,臺達旨在優化AI時代的能源效率,推動可持續的AI未來。
5月21日,維諦技術確認,其戰略與英偉達宣布的AI路線圖保持一致,為下一代以AI為中心的數據中心部署800 V DC電源架構,同時確保電源和散熱基礎設施的部署比GPU迭代超前一代。維諦技術的800 V DC電源產品組合計劃于2026 年下半年發布,隨后在NVIDIA Kyber和NVIDIA Rubin Ultra平臺推出,為面向未來的設計鋪平了道路。
維諦技術在直流電源領域的經驗可追溯至二十多年來對±400 VDC 架構的部署,并通過 2000 年代初的戰略收購進一步拓展。這些解決方案為全球電信網絡、集成微電網和關鍵任務設施中的關鍵負載提供支持。這一基礎使維諦技術成為高壓直流架構安全設計、部署和運行領域的可信領導者,在規模化能力、產品矩陣和長期可維護性方面均經實踐驗證。
5月23日,德州儀器 (TI) 宣布將與英偉達(NVIDIA)合作,為數據中心服務器的800V 高壓直流 (HVDC)配電系統開發電源管理和傳感技術。新的電源架構為更具可擴展性和可靠性的下一代AI數據中心鋪平了道路。
根據TI的解釋,AI數據中心正在將功率極限推向以前難以想象的水平。幾年前,我們面臨的48V基礎設施是下一個重大挑戰。如今,TI在電源轉換方面的專業知識與NVIDIA的AI 專業知識相結合,使800V高壓直流架構能夠支持對AI計算的空前需求。
讀懂800V的里子
現代AI數據中心因AI計算需求增長,電力需求已提升至千兆瓦(GW)級,單個IT機架功率預計從當前100kW躍升至未來1MW 以上。如今AI工廠的機架依賴54V直流配電,笨重的銅母線將電力從機架式電源架傳輸至計算托盤,當機架功率超過200kW時,傳統架構面臨多重物理限制:
空間瓶頸:以NVIDIA GB200/GB300 NVL72為例,其機架需配備多達8個電源架為 MGX 計算和交換機架供電。若沿用54V DC配電,僅電源架就可能占用Kyber機架高達64U的空間,導致計算空間被擠壓。在GTC 2025上,NVIDIA展示的800 V sidecar方案,可在單個Kyber機架中為576個Rubin Ultra GPU供電,而傳統方案需為每個計算機架配置獨立電源機架,進一步加劇空間浪費;
銅材過載:單個1MW機架若采用54V DC配電,需消耗高達200kg銅母線,僅單個 1GW數據中心的機架母線銅耗就可能達50萬噸,傳統技術在GW級數據中心場景下顯然不可持續;
效率損耗:傳統架構中重復的AC/DC轉換不僅耗能,還增加故障點,整體電源鏈效率低下。
當前數據中心電源架構
英偉達提出的800V高壓直流(HVDC)架構通過集中式電力傳輸模式突破了上述限制:在數據中心邊緣利用固態變壓器(SST)和工業級整流器,將 13.8kV 交流電網電源直接轉換為800V HVDC,省去傳統架構中多個AC/DC和DC/DC轉換環節,使端到端電源效率提升5%。同時,基于更高電壓等級,相同功率可通過更低電流傳輸,銅線厚度減少達45%,從根本上降低銅材消耗、電流損耗和熱負荷。
該架構支持800V HVDC直接為IT機架供電(無需額外AC/DC轉換器),再通過DC/DC轉換器降壓至適配GPU的低電壓(如為 Rubin Ultra 等芯片供電),既簡化了電源鏈結構,又通過集中式設計釋放服務器機架內的空間約束。
這種方法還顯著減少了電源鏈中所需的帶有風扇的電源單元(PSU)的數量。更少的PSU和風扇可以提高系統可靠性、降低散熱并提高能源效率,使HVDC配電成為現代數據中心的更有效解決方案,并顯著減少組件總數。
NVIDIA 800 V HVDC 架構可最大限度地減少能量轉換
在IT機架實施方面,通過采用直接800 V輸入,計算機機架可以有效地處理電力輸送,而無需依賴集成的AC/DC轉換級。這些機架接受兩個導體800 V饋電,并利用計算機架中的 DC/DC轉換來驅動GPU設備。消除機架級AC/DC轉換元件可釋放寶貴的空間以獲得更多計算資源,從而實現更高密度的配置并提高冷卻效率。與需要額外電源模塊的傳統 AC/DC轉換相比,直接800 V輸入簡化了設計,同時提高了性能。
將800 V HVDC 分配到IT機架,并將DC/DC轉換為GPU的12 V
此前,在GTC 2025上,臺達也展示了相關方案。臺達表示,隨著處理器的功耗越來越高,機架中已經沒有額外的空間給power shelf,BBU、超級電容或者PCS之類的升級空間,也正因此,新一代架構中直接將這些電源相關的組件統一分配到一個供電單元中,解決了數據中心輸配電挑戰。
根據臺達的方案,Powershelf同樣分為Power rack側和IT rack側的兩類產品。
1)Power rack側的power shelf:其將PDU側480Vac轉化為800Vdc輸出,其內部仍然是采用了經典的Vienna PFC+LLC拓撲結構,但由于電壓較高內部損耗更低,整體效率可以達到98%+的水平。從具體的結構來看,臺達的方案為一套Power rack側的power shelf由兩組27.5kw的PSU組成,綜合功率共計55kw。
2)IT rack側的power shelf:其將前端的800V直流電轉化為50V的直流電供給至后端的DCDC模組。從具體結構來看,單層由6組15kw的PSU組成,合計約90kw,整體效率高達98.5%以上。
圖表:Power rack側的Powershelf拓撲結構
圖表:數據中心供電架構的逐步演進資料來源: Nvidia GTC,臺達,中金公司研究部
最后總結一下,這個方案講個人話就是電網輸送過來的13.8 kV交流電直接轉換為800V HVDC,再轉換為54V直流電最后轉換成12V電輸送給GPU。當然聽起來是挺簡單的,但對器件的應力要求可就高了去了,這對芯片廠商無疑是一次挑戰。
高壓直流的復興
事實上,高壓直流(HVDC)并非新技術,2000年代數據中心行業已嘗試應用。2010年左右,谷歌、微軟等企業率先試水,比如谷歌在俄勒岡州數據中心部署380V HVDC,宣稱節省 15% 能源成本;國內阿里、百度也在當時測試了240V~336V方案。
但那時候,之所以HVDC沒有大面積普及開來,是因為受到了三重難題挑戰:
成本高:需定制整流器、換流器及電池備份系統(BBU),初期投資遠超傳統 UPS;
標準碎片化:行業缺乏統一電壓標準(240V/336V/380V等),廠商設備互不兼容;
改造難度大:需大規模改造變電站及配電系統,中小型運營商難以承受。
英偉達選擇在這一節點宣布向800V架構轉型,是因為AI算力的極速提升下,功率密度面臨極限挑戰,能源效率需求迫切,同時數據中心運營商正面臨嚴格的環保要求。
英偉達坦言,過去更高電壓直流架構因技術與部署挑戰未能普及,如今AI 驅動的機架密度提升、電源技術進步及EV充電標準的工業基礎,正推動其突破瓶頸。部署800V HVDC需應對安全規范、人員培訓等新挑戰,英偉達及其合作伙伴正針對傳統變壓器與固態變壓器(SST)方案的成本與安全性展開研究。
盡管如此,800V的前路依然充滿了挑戰。首先,在技術層面,對IGBT、SiC、GaN等元器件可靠性要求高,電源設計復雜度顯著提升。其次,行業缺乏統一標準,800V需廣泛生態支持。另外,高壓系統對過流保護、維護人員安全培訓提出更高要求。最后,傳統UPS 因成熟度高、成本低仍主導中小型數據中心,HVDC滲透率完全取代UPS至少需要5~10年,國內廠商產品驗證及量產尚需時間。
目前,行業面臨的能源危機問題愈發凸顯。過去十年,數據中心機架密度從每機架2 ~4kW穩步增至8~12kW。而在過去兩年,受AI需求推動,機架密度飆升至每機架50kW以上,部分甚至超100kW。AI任務依賴高密GPU,其熱設計功耗可達1000W以上,遠超CPU的300~500W。據Gartner預測,到2027年,40%的現有AI數據中心將受限于電力供應。此外,AI工作負載需將GPU盡可能密集部署,形成超10萬顆的集群,在狹小空間內功率達30MW,不僅計算耗電劇增,冷卻能耗也呈指數級增長,液冷技術因此日益主流。
所以,擺在行業面前有三條路——400V架構、800V架構、+/-400V架構,但三種方案也都各有優劣。不過,800V可謂是一步到位,目前來看英偉達的合作伙伴實力都很強大,相信這次押注會徹底改變未來AI電源行業的格局。
參考文獻
[1]TechInsights:https://mp.weixin.qq.com/s/S4IGOWzlt26A3SNhHYsB6A
[2]IDC圈:https://mp.weixin.qq.com/s/TJNXAfrNOqYN8Z7-AdpZGA
[3]DCD:https://www.datacenterdynamics.com/en/marketwatch/the-path-to-power/
[4]電子電力實驗室:https://mp.weixin.qq.com/s/lNQmIaTtfE9rA6ABMfQB8Q
歡迎將我們設為“星標”,這樣才能第一時間收到推送消息。
關注EEWorld旗下訂閱號:“機器人開發圈”
回復“DS”領取《DeepSeek:從入門到精通》完整版
掃碼添加小助手回復“機器人”
進群和電子工程師們面對面交流經驗
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.