任何一項技術在誕生伊始,圍繞發展路線的爭論總是伴隨左右,智能輔助駕駛技術也不例外。
該選擇從L2到L4級的漸進式發展,還是直達L4終點的跨越式發展?是追隨純視覺技術路線的極致簡化,還是堅守多傳感器融合的冗余安全?行業標準的統一化與車企定制化如何平衡?垂直整合與開放聯盟的博弈將走向何方?
這些懸而未決的命題,恰恰證明了技術創新的旺盛生命力。在持續探索與實踐驗證中,智能輔助駕駛的未來演進圖譜正逐漸清晰。
三級架構下的算力躍升
過去十年,智能輔助駕駛系統的算力實現了從量變到質變的跨越,其核心支撐在于“云端訓練-邊緣推理-車端執行”三級架構的深度落地。通過將計算負荷從資源受限的車端向云端遷移,釋放出指數級增長的算力潛能。
云端作為智能輔助駕駛的“超級大腦”,已成為模型訓練、數據閉環與算法迭代的核心載體。在端到端模型訓練與Corner Case場景挖掘領域,云端算力的規模直接決定了智能輔助駕駛系統的進化速度。
全球范圍內,特斯拉云端算力已突破88.5EFLOPS;國內陣營中,吉利星睿智算中心以23.5EFLOPS領跑,華為突破10EFLOPS,理想與小米均達8.1EFLOPS,小鵬則計劃于2025年將云端算力從2.51 EFLOPS躍升至10EFLOPS,構建更強大的訓練基座。
車端作為實時決策的“邊緣終端”,算力正以指數級增速向千TOPS級別發起沖擊。L2級任務如自動泊車、城市NOA需數十至數百TOPS支撐,而L3及以上級別則需突破1000TOPS門檻,以滿足端到端模型實時推理需求。
當前芯片矩陣中,英偉達Thor-X-Super芯片蓄勢待發,2000TOPS算力將重塑性能標桿;蔚來NX9031已實現1000TOPS算力突破,小鵬圖靈芯片以750TOPS緊隨其后,華為昇騰910與地平線J6P則分別以512TOPS、560TOPS構筑中端算力壁壘。
在熱門的智能輔助駕駛方案中,蔚來NIO Pilot的車端算力達到1016TOPS;特斯拉FSD以720TOPS的算力緊隨其后;小鵬XNGP、理想AD PRO、小米Xiaomi Pilot Max、比亞迪天神之眼A和極氪千里浩瀚H7則實力相當,均為508TOPS;與之相比,華為ADS3.0的車端算力稍顯遜色,約為200TOPS。
邊緣算力作為車云協同的“神經節點”,承擔著車端、路側與云端數據的實時協同重任,其標準化進程直接影響L3級以上智能駕駛的落地效率。通過提升局部環境感知精度與交通優化響應速度,邊緣算力正成為高階智能駕駛不可或缺的技術基座。
高階智能輔助駕駛邁向“技術平權”
中國智能輔助駕駛正沿著場景復雜度梯度持續突破:從高速NOA在結構化道路實現自動變道、匝道通行等基礎功能,到城市NOA攻克紅綠燈識別、無保護左轉等城市復雜場景,最終將實現全場景車位到車位(Door to Door,D2D)貫通,構建“地庫-城區-高速”全鏈路智能駕駛體系,并融合自動充電、跨樓層泊車等終極場景。
這一演進軌跡不僅標志著技術范式從“規則驅動”向“數據驅動”的根本轉變,更意味著高階智能駕駛從“特定場景輔助”向“全旅程智能賦能”的價值躍升,其核心驅動力源于算法、數據、算力的三元協同突破。
算力端通過三級架構實現量級躍遷,數據端依托真實與合成數據雙輪驅動突破長尾場景瓶頸,算法端從“規則引擎+模塊堆疊”向“數據引擎+端到端集成”進化,完成“感知-決策-控制”全鏈路優化。
2025年,高階智能駕駛的“科技平權”趨勢顯著提速。比亞迪將高速NOA功能下探至8萬元車型,小鵬城市NOA覆蓋至15萬元級市場,其余主流車企也將城市NOA功能下沉至10-20萬元車型,高階智能輔助駕駛的科技平權愈發顯露。
高階智能輔助駕駛科技平權的實現是軟件增效、硬件降本、規模擴產三力共振的結果。在科技平權的推動下,L2及L2+高階智能輔助駕駛的市場規模與滲透率呈現爆發式增長,預計L2+滲透率將從2024年的8%躍升至2025年的15%,乘用車高階智駕市場正迎來爆發式增長周期。
數據閉環助推技術應用“降本”
當前,智駕輔助駕駛系統正經歷從“硬件冗余堆砌”到“算法定義感知”的范式轉換,數據閉環生態成為這一變革的核心載體。從車端多模態傳感器被激活進行采集開始,整臺“數據機器”的齒輪便開始轉動、嚙合、協同運作。
首先,由傳感器采集的數據在車端實現格式標準化,經由緩存得到預處理,繼而按照駕駛行為、環境參數和目標物實時標簽自動進行元數據標注。在標簽符合特定條件的情況下,觸發事件分裝。
當數據被傳輸到邊端后,規則引擎和輕量化模型會根據不同精度做出篩選,最終獲得與智駕相關的高價值數據。根據算法,此類數據經過壓縮與優化得到分級存儲,并根據緊急度被歸入不同優先級的上傳隊列。在此過程中,數據還將經過脫敏處理,傳輸過程也將得到監控,以達到最高的合規性和安全性。
最終,數據閉環將在云端形成。在這里,從邊端傳入的多源數據將完成入庫、標簽及索引建立的步驟,并根據聚類算法實現自動化清洗,剔除沖突數據。
接下來,4D標注工具鏈和數據合成工具將令保留下來的有效數據得到標注和增強;此后,經過分布式模型訓練、仿真驗證與部署、價值評估和合規審計等環節,數據將正式完成閉環反饋與迭代。
隨著邊緣與云端算力的持續增強,現實數據與合成數據的深度融合成為突破高階自動駕駛的關鍵路徑。動態數據蒸餾技術與多模態特征對齊算法的成熟,正逐步降低系統對硬件冗余的依賴,場景泛化能力隨之顯著提升。
這一趨勢直接推動核心感知部件成本的結構性下降。過去一年,激光雷達均價從2500元降至1200元,降幅達52%;毫米波雷達、車載攝像頭、超聲波雷達價格降幅介于25%-31%之間,為高階智駕的規模化落地掃清成本障礙。
定位技術也在同步演進,從依賴激光雷達點云匹配與高精地圖的傳統模式,邁向無圖化與端到端模型新階段。
通過多攝像頭融合生成鳥瞰圖替代預置高精地圖,地圖維護成本大幅降低;車端海量數據構建的云端仿真環境,持續強化模型對動態場景的泛化能力;視覺感知權重的提升,進一步弱化了對激光雷達等高成本硬件的依賴。
長遠來看,無圖化與端到端模型僅是過渡形態。當車路云協同與自進化學習成為技術核心,芯片級集成實現突破后,基于泛在智能(Ambient Intelligence)與生成式AI的全域動態定位將成為終極形態。
從“模塊化”到“端到端”的躍遷
智能駕駛算法正經歷從模塊化堆疊到端到端集成的革命性演進,架構創新成為技術突破的核心引擎。
端到端(end to end,E2E)架構依托單一神經網絡實現“感知-決策-控制”全流程運算,直接輸出車輛控制指令。其無需人工規則干預,通過海量數據訓練可逼近人類直覺式決策,響應效率與復雜工況適應性顯著提升,但系統泛化能力受限于車企數據規模的閾值。
為突破這一局限,視覺-語言模型(VLM)作為增強模塊應運而生,其融合視覺感知與自然語言理解能力,解析復雜交通語義并通過鏈式推理生成決策,與端到端架構形成“快慢協同”的決策組合系統,提升長尾場景與Corner Case的安全性。
但VLM對算力的消耗較大,且無法快速做出類似端到端那樣的直覺式響應。此外,對于高精地圖的高度依賴也增加了維護成本,同時令泛化能力出現折損。
為此,智駕算法開發者在由“VLM+端到端”構成的多段式端到端架構上更進一步,設計出一套性能更強的技術組合——視覺-語言-動作模型(Vision-Language-Action,VLA)。
VLA在VLM基礎上實現進階,融合動作模態構建“視覺-語言-動作”統一模型,完成“感知-決策-執行”端到端閉環。
相比VLM和“VLM+端到端”,VLA是兼顧動作模態,形成融合視覺、語言及動作的統一模型,其將多模態信息直接嵌入駕駛決策鏈,在提升泛化能力的同時大幅降低對數據的依賴。
尤為重要的是,其推理過程全程可求導,可通過人機交互界面向用戶直觀展現推理過程和工作邏輯,增強用戶使用信心。
盡管優勢顯著,但VLA仍面臨多重挑戰。VLA在同一架構中集成視覺編碼器、語言編碼器和動作編碼器的需求,令工程化開發的難度陡增。
同時,此類架構數據需求及采集成本高,導致初期訓練成本過高,且多模態感知對力反饋、物理交互等具身能力的支持不足。
此外,計算實時性要求與當前車域芯片算力存在矛盾,而黑箱決策風險則降低了決策的可解釋性,增加調試難度等等。
因此,在VLA的研發門檻與落地成本得到有效控制前,“VLM+E2E”構成的多段式端到端架構仍是更具普惠性的主流選擇。
世界模型或成“類人智駕”引擎
在很大程度上,更先進的云端算法將有助降低車端VLA架構的訓練難度,快速增強其泛化能力。而眼下,云端算法自身也在經歷重大的技術革新。
從數據驅動的模仿學習,到具備物理世界建模能力的生成式世界模型,云端算法發展的底層邏輯非常清晰:基于生成式AI技術,通過合成虛擬場景構建億公里級的里程閉環仿真系統。后者不僅包含出現在現實世界中的長尾場景,還能借助時空演化預測能力,模擬車輛在未知場景中(如極端天氣、交通事故等),由特定動作引發的環境變化。
此舉將大幅降低算法模型訓練過程中,對現實世界駕駛數據的依賴,并且可在持續生成多模態訓練數據的同時,融合增強型自學習機制,對駕駛策略做出以類人化為目標的終極優化。
另一方面,不斷進化的車云協同蒸餾機制將有效提升車端VLA算法架構的泛化能力,而從車端回流的實時數據則能反哺云端模型,助其合成長尾場景,驅動完成迭代,最終形成雙向增強的認知進化閉環。
更加不能忽視的一點是,云端世界模型高度整合了傳感器數據、交通規則、實踐經驗等智駕要素,因此其本質是一個能夠理解、推理和預測駕駛環境的AI框架。
伴隨其在感知與決策優化方面的優勢,云端世界模型可提供語義信息以提升智駕系統的環境識別能力,并預測周圍交通參與者的行為意圖,對決策規劃和車輛控制起到輔助作用。甚至在一定程度上,其出現有望取代車端的視覺語言模型,用云端算力幫助車端形成具有更高精度的場景推理能力。
目前,已有不少行業玩家開始在云端算力層面發力。例如,華為ADS 4.0公開宣稱其通過云端完成了高達6億公里的L3級智能輔助駕駛仿真驗證;小鵬汽車則披露了他們通過蒸餾壓縮云端模型參數,實現輕量化車端部署的計劃。
此外,類似Momenta、地平線這樣的第三方智駕解決方案供應商也已將世界模型與強化學習(Reinforcement Learning)相結合,對獎勵函數(Reward Function)設計做出優化,令決策效率得到顯著提升。
盡管世界模型已逐步成為智駕系統云端算法的重要發展趨勢,但其對于數據質量、多樣性以及車端實時算力的要求依然較高。此外,基于物理規則的三維建模能力,也將對其規模化商業應用構成挑戰。
2025年全場景D2D功能的規模化落地,以及年底至2026年即將量產上車的L3功能,促使智能輔助駕駛第三方供應商、激光雷達廠商、線控企業、智能輔助駕駛圖商、數據標注與仿真企業等愈發成為主機廠提升功能安全的關鍵生態伙伴。同時,全場景D2D功能帶來復雜的應用場景,也使智能輔助駕駛芯片供應商更加注重感知算法的業務布局。
隨著智能輔助駕駛功能的不斷發展,參與企業的市場競爭正在“縮圈”,未來市場集中度也將進一步提升,能夠快速響應主機廠需求以及具有AI能力的企業將脫穎而出。
當L3之門正式開啟,我們看到的或許不只是方向盤短暫的“松手”,更是一場關于“智能邊界”的終極叩問。
三級算力架構重構了機器的思考速度,數據閉環消解了技術落地的成本壁壘,VLA與世界模型讓算法越來越接近人類的認知邏輯。可當智能輔助駕駛能處理99.99%的場景,那0.01%的未知該交給代碼還是人心?
或許,智能輔助駕駛的新十年,真正的考題從不在技術參數的小數點后幾位,而在每一次代碼迭代時,我們是否記得,讓機器學會駕駛的,從來不止是數據與算力,更是人類對于駕駛和出行最本真的期待——不是抵達終點的效率,而是路上每一刻的從容與安心。
在這扇L3的門后,藏著的從來不是技術的終點,而是人類學會如何與智能共處的新起點。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.