大約5億年前,地球迎來了物種的突然大爆發,標志著生物進化除了緩慢漸變,還可能以跳躍的方式進行。
同樣,人工智能在經歷70余年曲折發展之后,也處于一個極為關鍵的時刻,在模型、數據、算力等各項基礎技術多年持續迭代、升級的驅動下,各種形式與樣態的智能體大爆發,人工智能展現出令人驚嘆的“跳躍式”進化速度。
這其中,算力在人工智能“跳躍式”進化中發揮著不可低估的作用,不僅支撐起人工智能的快速創新,自身也迎來變革與爆發式增長。Gartner最新報告顯示,2024年第三季度全球服務器銷售額617.1億美元,同比大幅增長85.1%,出貨量303.2萬臺,同比增長7.2%,其中浪潮信息以11.7%的市占率蟬聯全球第二,中國第一。同時Gartner預計2024年全球服務器市場規模預計可突破2000億大關,達到2164億美元,出貨量約為1199萬臺,同比增長6.5%。
再仔細分析,AI算力又展現出極強的增長態勢,主導著算力產業未來演進方向。Gartner甚至預測,到2028年,全球服務器市場規模將超3329億美元,其中AI服務器占據70%的市場份額,一個由AI算力主導驅動的人工智能“大爆炸”時代正全面開啟。
2024年算力需求大爆發,誰是幕后最大“推手”
基礎大模型的高速發展,是2024年全球服務器市場爆發性增長的最大推手。
回顧過去兩年AI的發展,基礎大模型無疑是最大主角。在Scaling Law定律加持下,基礎大模型進化速度日新月異。如今,基礎大模型不僅是各類智能應用的底座,使得各類AI應用具備人類的理解、推理等能力,更加速進入到垂直行業之中,成為千行百業數智轉型升級的基石。
如果說數據是基礎大模型的原料,那么算力就是基礎大模型的引擎。因此,基礎大模型的激烈競爭,直接導致全球加大對于算力等基礎設施的投入,算力即競爭力成為AIGC時代的不二法則。
例如,超大規模云服務提供商既是基礎大模型的深度參與者,也是AI服務器市場的需求主力軍。Gartner數據顯示,微軟、Meta、Google等公司在2024年預計投入了722億美元在AI服務器采購上,占據整個AI服務器市場的56%,巨頭們對于AI基礎設施的重視可見一斑。
從地域來看,北美和大中華區兩個超大規模數據中心集中的區域也是全球服務器的銷量擔當,其中北美地區同比增長149%,大中華區同比增長116%。事實上,北美和大中華區也是當下基礎大模型、智能應用創新高地,不僅有互聯網巨頭,還涌現出一批像OpenAI、Anthropic、月之暗面、DeepSeek等一批AI初創公司,這些初創公司對于AI算力的需求亦是水漲船高。
另外,垂直行業全面擁抱AI的趨勢也不容忽視,自動駕駛、智能交通、智慧金融、工業AI、醫療AI等行業趨勢同樣帶動了AI服務器的采購。Gartner數據顯示,2024年全球企業用戶在AI服務器采購支出上同比增長高達184%。事實上,隨著基礎大模型能力的持續提升,垂直領域的大模型也在今年迅速興起,行業用戶普遍渴望擁有屬于自身領域的大模型和基于垂直大模型來廣泛構建各類智能應用,從而重塑自身業務場景、流程和用戶體驗。
可以說,2024年是人工智能發展的里程碑式一年。既有OpenAI o1、o3,Anthropic ,Claude 3.5i等眾多令人驚艷的大模型發布,也有五花八門具身智能產品的大量涌現,更有各大垂直行業嘗試推動AI與場景的深度融合,這一切眼花繚亂的背后都離不開算力的支撐與推動。
那么,2025年隨著人工智能的發展達到一個關鍵拐點,接下來又會對算力需求產生哪些重要影響?
2025年AI推理成為算力的最大推手
人們從對大模型的預訓練的關注,已經延伸到了后訓練和推理。事實上,在今后相當長的時間里,Scaling law依然非常重要,因為大家在不同的場景中依然要持續的訓練迭代,提升模型的性能。
24年,大模型的技術路徑從LLM(Large Language Model)演進到LRM(Large Reasoning Model),推理已經成為接下來業界重點突破的方向。正如OpenAI 前創始人、首席科學家Ilya Sutskever所言:整個基礎大模型領域正重新進入一個“發現和探索”的新階段。
例如,OpenAI的o1模型采用“推理時間計算(test-time compute)”技術,展現出令人震驚的復雜推理和決策能力;Google則在2025年初發布了Transformer 架構的替代者--Titans架構,取消上下文限制,并將“推理時間計算”技術應用在記憶(memory)層面;Anthropic則在Claude 3.5采用合成數據和強化學習來提升模型的性能表現……
另一方面,隨著基礎大模型進入到各種業務場景之中,不僅加速與各種軟件進行融合,更產生出極為豐富的AI應用和各類AI Agent,也進一步增加大量推理的需求。AWS CEO Matt Garman在去年的2024 re:Invent大會上表示,推理正變得愈發重要,成為構建應用當之無愧的核心組件模塊之一。
例如,《中國互聯網絡發展狀況統計報告》顯示,2024年,中國的生成式人工智能產品用戶規模已達到2.49億人,生成式人工智能在中國的應用和普及已初具規模。而2025年,所有企業將面臨AI轉型,AI的普及與落地將帶來全新的推理算力需求的爆發。
可以預見,“訓練”依然會成為消耗算力的“大戶”,不過“推理”也會變得與“訓練”一樣重要,成為人工智能舞臺上未來幾年的主角。這一改變不僅是整個產業界創新的重點,也將持續帶動算力的需求和創新。VerifiedMarketResearch預測,推理芯片2024-2030年復合年增長率高為22.6%。Gartner也預測,2025年,推理的集群算力規模將超過訓練,也將是AI走向普及化的關鍵之年,到2028年,應用于推理的服務器將占整個市場規模70%。
隨著人工智能與業務場景的深度融合,復雜的訓練和推理任務,對算力基礎設施提出了全新的需求,算力演進需要去突破算力多元化、數據中心能耗、建設運營模式等一系列新挑戰。
打破封閉的生態體系,算力向多元開放演進
如今,人工智能的“跳躍式”進化,不僅帶來巨大且持續的算力資源需求,更直接推動算力產業加速演進。
首先,在人工智能快速發展的驅動下,算力走向多元化成為大勢所趨,算力的演進也將加速打破過去的固有封閉生態,從芯片到算力系統將以更短的周期進行升級與迭代,這必然需要算力更加開放化,逐步實現全面解耦和多元化生態。事實上,近年來OAM、OCM等標準獲得產業界的高度重視,從NVIDIA、AMD等芯片廠商,到Amazon、Meta、Google、阿里等超大規模數據中心用戶,再到浪潮信息等整機系統廠商,紛紛投入資源,讓不同算力能夠共享統一平臺,以降低算力創新成本和適配成本,也讓多元化的應用場景都能方便快捷的適配到貼合的方案,加速AI算力的創新。
其次,隨著AI的普及需求,未來需要一切計算皆AI,哪怕是通用算力也需要處理AI推理工作負載,服務器等算力設備的應用邊界將持續擴大,以滿足AI越來越多的算力需求。事實上,算力成本的昂貴是當前最為突出的挑戰,一切計算皆AI有望成為緩解算力資源匱乏和算力成本高昂的有效手段之一。以浪潮信息為例,基于張量并行、NF4模型量化等算法優化,其元腦服務器僅需要4顆CPU就能完成運行千億參數的運行;另外,還有最新發布的元腦服務器新平臺,也在Llama大模型的AI推理場景中性能獲得大幅提升。
第三,AI算力帶來的高功耗挑戰刻不容緩,綠色算力相關規范會愈加成熟,相關技術也會加速得到應用與普及。如今,萬卡、十萬卡規模的AI集群不斷涌現,加上AI算力性能的提升,單機系統功耗不斷攀升,使得整個數據中心的散熱成為一項長期挑戰。因此,AI液冷整機柜的相關規范正在制定中,冷板式液冷、熱管式液冷、浸沒式液冷等產品將加速普及;甚至,從規劃咨詢、設備定制到交付施工的全生命周期最優液冷解決方案會在市場中收到用戶的青睞。以浪潮信息為例,日前采用119個集裝箱,僅用時120天,就像“搭樂高積木”一樣建成10MW的元腦“算力工廠”, 該算力工廠內部署了高密智算算力倉,包括50kW負載的風冷機柜和130kW負載的液冷機柜,實現智能算力的高密部署與綠色節能。
最后則是算力使用模式和算力服務生態也在加速演進,除了公有云能夠提供各種便捷算力服務之外,GPU租賃、托管等模式需求也大幅上漲,將形成新的AI算力服務供給生態。例如,美國對AI基礎設施的投資額爆發增長,這些初創公司已經將GPU算力租賃與托管的模式走通。在中國,智算中心的建設熱度也居高不下。Gartner預測到2028年90%的中國企業將采用托管而非自建AI基礎設施,智算中心未來在AI基礎設施中將發揮重要作用。
綜合觀察,Gartner最新全球服務器市場報告充分表明,在基礎大模型、AI應用等快速發展的帶動下,算力市場2024年已全面爆發;同時,算力需求側與供給側的需求結構也在發生重要調整,來自AI推理的越來越多需求,將極大推動算力未來的演進。無論是AI芯片廠商,還是整機廠商,均需要正視和適應算力市場的變化,以提升算力密度和能源利用效率,滿足AIGC“大爆發”時代的算力需求。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.