DeepSeek點燃了“引線”后,大模型再一次進入到了“爆發期”。
短短一個多月里,大模型的能力上限不斷被刷新,“落地”已然成為產業上下游的普遍共識。
在這樣的局面下,一家企業最佳的生態位是什么呢?
上世紀90年代,杰弗里·摩爾在深入研究了埃弗雷特·羅杰斯的“創新擴散理論”后,在《跨越鴻溝》將“技術采用生命周期”的客戶群體分成了五類,分別是創新者、早期采用者、早期大眾、后期大眾和落后者。
對號入座的話,大模型正處于從早期采用者向早期多數過渡的階段,也就是“鴻溝”所在的階段。
由此來審視這輪大模型浪潮,相較于模型層的你追我趕,一場更重要的博弈在于怎么將創新迅速“擴散”到產業中,支撐創新應用的落地。
01 跨越算力鴻溝:一場“雙螺旋”競賽
DeepSeek意外“出圈”后,在流量洪峰的沖擊下一度陷入了“崩潰循環”,直到半個多月后才走出“服務器繁忙”。
一些想要接住DeepSeek流量的第三方MaaS平臺,則在月虧4億的壓力下,無奈關閉了相關推理服務。
這些現象指向了同一個原因——算力瓶頸。
算力供應的不穩定,即便是DeepSeek這樣的團隊,也無法在短時間里填補缺口;而算力價格的居高不下,不單單束縛了千萬使用者的手腳,MaaS平臺也深感壓力山大。
大模型想要落地到千行萬業,讓“智力”轉化為實實在在的生產力,首先要打破算力瓶頸。大模型創新擴散的鴻溝,很大程度上屬于算力鴻溝,只有打破了算力瓶頸,才能創新的擴散鋪平道路。
就在DeepSeek走紅的同一時間,百度智能云對外宣布——在百舸4.0的能力加持下,成功點亮昆侖芯三代萬卡集群。
如果說DeepSeek給出了模型訓練的新思路,百舸4.0給出了跨越算力鴻溝的新解法:通過覆蓋大模型落地全流程的算力平臺,讓用戶能夠高效率、低成本使用算力。
訓練大模型的第一步是創建集群。許多人不知道的是,GPU集群需要大量復雜、瑣碎的配置和調試,通常需要幾周時間。但基于百舸4.0創建集群,只需要1小時就可以跑起來。
完成創建集群后,真正的考驗才剛開始,因為集群的規模越大,出故障的概率就越高,運維的復雜性急劇增加。例如Meta訓練Llama3時用了1.6萬張GPU的集群,平均每3小時就會出一次故障。同樣是萬卡任務,百舸4.0可以保障有效訓練時長占比達到99.5%,遠高于行業內公布的相關指標。
大模型訓練既要穩定,也要效率。訓練千億、萬億參數的模型,動輒需要幾周到幾個月的時間。百舸4.0在集群設計、任務調度、并行策略、顯存優化等方面進行了大量優化,最終讓端到端的性能提升了30%。
同時不應該忽略的,還有百舸4.0的多芯混訓、多芯適配能力。能夠把同一廠商不同代際芯片、不同廠商的芯片統一管理,混布成一個集群高效完成模型的訓練和推理任務。
按照百度智能云官方公布的數據:在萬卡規模上,百舸4.0將兩種芯片混合訓練的效率折損控制在了5%以內;某金融機構在百舸的支持下,完成了不同型號GPU資源的部署、上線,有力保障了6000多次訓練任務。
古代打仗講求“兵馬未動糧草先行”,放到大模型產業同樣適用,其中的算力就是“糧草”。想要大模型深入落地到千行萬業,勢必要開啟一場追求高效率和低成本的“雙螺旋”競賽。
可以找到的一個實戰案例是:春節假期結束時,有近20家芯片企業在忙著適配DeepSeek,在百舸4.0的賦能下,百度的昆侖芯是國內率先支持單機部署滿血版DeepSeekR1的芯片,單機8卡配置便可實現2437tokens/s吞吐,并給出了業內最低的價格。
02 吹響落地號角,工程能力見真章
和每次產業革命初期一樣,創新的擴散始于“早期采用者”,往往是創新意識比較明確且有能力進行智能化轉型的大中型企業。
某種程度上說,大中型企業的選擇,更能折射出真實的市場需求,更能從中洞察到創新的方向。
曾有媒體統計了“2024全年大模型相關中標項目”,一共有910個項目,中標金額約為25.2億元。其中百度智能云斬獲了55個項目,中標金額3.4億元,在能源、政務、金融等行業的中標數量位于所有廠商第一。
到了2025年1月,公開數據統計到的大模型相關中標項目數量已經達到125個,項目金額為12.67億元。百度
智能云實現了中標項目數量和中標金額上的雙第一,中標金額4.17億元,占到了全行業的三分之一。
為什么會出現這樣的局面?
國際權威咨詢機構弗若斯特沙利文進行了深入的市場調研后,在《2024 年中國大模型行業應用優秀案例白皮書》給出了解釋:企業用戶在大模型落地的主要需求點包含完善的落地指導、先進的產品架構、全面的安全治理以及開放的生態支持,百度智能云代表的AI云廠商在技術生態、行業經驗和服務能力方面具備顯著優勢,能夠以高效率、低成本的方式加速大模型的推廣與行業應用。
原因依然離不開“高效率和低成本”。
進一步從技術層面剖析的話,和百度智能云的全棧AI技術能力不無關系。
百度是國內為數不多同時深耕芯片、框架、模型、應用的企業,能夠針對大模型的訓推、部署和調優等進行全流程優化。比如昆侖芯三代萬卡集群,在行業內率先驗證了可以通過模型優化、并行策略、有效訓練率提升、動態資源分配等手段,將訓練、微調、推理任務混合部署,進而最大化提升集群綜合利用率,降低單位算力成本的可行性。
在大模型進入全球視野的第四年,早已形成了兩個戰場:第一個戰場是大模型訓練,第二個戰場是大模型落地。
特別是在“百模大戰”格局瓦解,大模型的牌桌上僅剩下百度、阿里、DeepSeek、智譜等少數玩家后,越來越多企業將注意力集中到了應用層,思考怎么將技術可能性轉化為穩定生產力,討論如何通過標準化流程、工具鏈支撐和全生命周期管理,解決大模型開發與部署中的效率、成本和質量矛盾。
在百度智能云的示范下,云廠商競賽的升維已然是可以預見的結果,倒逼全行業提升工程能力,從底層芯片、智算平臺、大模型等多個維度進行布局,推進全棧創新與快速迭代。
也就是說,落地應用的號角吹響后,競爭的天平進一步向“擴散”傾斜,不單單是算力之爭、模型之爭,而是工程能力的比拼:誰能借助系統性的技術體系和方法論降低成本、提升大模型落地易用性、幫助企業更好地構建AI原生應用,誰才有機會成為最后的贏家。
03 長跑才剛開始,算力仍是重頭戲
按照“創新擴散理論”,一旦跨越了從早期采用者到早期大眾擴散的“鴻溝”,市場將會進入到高速增長階段。
2024年被公認是大模型推理應用的元年,2025年注定是落地生花的一年,從央國企先行逐漸演變成一股不可逆的產業浪潮。對算力的需求,將呈現出指數級的增長態勢。
折射到AI基礎設施的布局上,點亮昆侖芯三代萬卡集群的百度智能云并未停下來,還將進一步點亮3萬卡集群。百度集團執行副總裁、百度智能云事業群總裁沈抖曾公開表示:“百舸4.0正是為部署10萬卡大規模集群而設計的,目前已經具備了成熟的10萬卡集群部署和管理能力。”
不只是百度智能云,國外的xAI、Meta、OpenAI等都在積極布局10萬卡乃至更大規模的智算集群。
個中原因并不難理解。
一方面,大模型的Scaling Law仍在繼續,大模型競賽本質依然是算力競賽,能否解決跨地域部署、多芯混訓以及集群穩定性等問題,關系著是否能滿足源源不斷的算力需求,是否有參與大模型競賽的資格。
另一方面,比創新更重要的,是創新的擴散。大模型賦能千行萬業的過程中,需要根據不同企業的需求動態分配計算資源,提高資源利用率的同時,降低云服務的成本,10萬卡乃至更大規模的集群至關重要。
參考每次工業革命的時間跨度,大模型的產業競賽,更像是一場考驗耐力的馬拉松。擅長耐力賽的百度,正以一種兼顧技術創新與產業落地的獨特節奏,穩步推動大模型從創新走向產業應用。
正如World Governments Summit 2025峰會上的一幕,當阿聯酋AI部長奧馬爾詢問“如何看待數據中心和AI基礎設施的未來”時,百度創始人李彥宏篤定地回答道:“我們仍需對芯片、數據中心和云基礎設施進行持續投入,用于打造更好、更智能的下一代模型。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.