4月23日,首次參加上海車展的Nullmax,展出了MaxDrive系列輔助駕駛解決方案。
該方案主打靈活、普適——它不僅包括了從SAE L2主動安全功能到采用端到端技術架構的城區輔助駕駛系統,還能適配國內外主流芯片平臺、不同類型和數量的傳感器,以及各類級別車型。同時,這些方案還可以滿足國內、國外不同的法律法規。
據介紹,這一系列方案包括:MaxDrive Basic智能前視一體機方案、MaxDrive Standard行泊一體域控方案、MaxDrive Standard_Hyperlink艙駕一體域控方案,以及MaxDrive Plus城區輔助駕駛方案。
在車展現場,Nullmax的多位高層參加了訪談環節,針對行業熱門事件、產品特點等問題給出了自己的觀點。受訪嘉賓包括:
Nullmax的創始人/CEO/CTO :徐雷
Nullmax COO : 沈隆
Nullmax首席科學家 : 成二康
Nullmax量產工程部高級總監 : 張帆
以下為QA內容的整理摘要:
Q:如何理解Nullmax的「普適價值」以及技術特點?
徐雷:我們的方案需要能夠以快速、高效、低成本的方式,在車型之間移植。就像手機一樣,有一些低端手機,也有一些旗艦手機,我們能夠更快速地把方案移植到不同的平臺上。
相較于市面上一些同質化的方案來說,我們首先是基于多款芯片打造功能,而且會針對國內外不同的細分市場去打造不同的產品方案,包括了一體機的國產方案和海外方案,還有行泊一體域控及艙駕一體域控方案。
在Nullmax全棧自研的基礎上,我們視覺感知的實時性非常強,做到了接近30frame/幀,比激光的10 frame/幀要高很多。
另外,我們打造了整套的數據閉環系統,包括從數據的采集、標注、訓練到部署、驗證到量產的打磨,基礎設施的能力也是非常強的。
成二康:這次車展上,我們展示了不同芯片算力的域控,包括不同的行車和泊車的場景。
我們有一套平臺化的軟件技術架構。這套架構具備平臺化的感知方案,可以覆蓋動態場景識別、靜態場景識別,也包含時序場景識別,和更復雜的拓撲識別。
同時,這些感知方案可以適配到不同的算力,比如說一套平臺化架構可以下探到2T算力,向上升級到32T、100T、200T以及更高算力。
除此之外,平臺化的集成方案 MaxOS可以使平臺化軟件的stack快速移植到不同的芯片上去,快速地為不同的客戶服務。
Q:什么樣的數據才是高質量的數據?
成二康:其實,除了數據外,架構設計也很重要,二者是強相關的。我們現在做的數據主要有兩種:一種是實測數據,二是虛擬數據——根據一個軌跡,把交通場景重建出來。
有的宣傳說某些數據或者人類駕駛數據是沒用的,我覺得這些數據可以倒推到端到端的設計中。
大家目前所做的端到端設計,基本上都是基于Decoder技術架構的設計,除了Decoder本身的設計外,還有Query,Planning Query的設計。
我們現在在做的Planning Query設計,可以兼容不同駕駛的風格,這樣就可以更好地將不同的駕駛習慣及風格設計上去。
在驗證過程中,我們也能發現更好的Planning Query的設計,尤其是能夠把不同駕駛風格的Query融合在設計中,這樣就可以處理不同的駕駛行為數據。這是我們兼容不同人類駕駛習慣數據的使用方法。
Q:DeepSeek的意外火爆,催生了一種論調:在大語言模型領域,算力的需求沒有像之前大家預估的那么高;那么,在自動駕駛領域,對于云端和車端的算力需求是否也有降低的趨勢?
成二康:我可以介紹一下我們端到端設計的思路,剛好與此問題相關:
現在比較火的VLM+端到端,或者VLA,本質上都是借用了語言的架構設計。從ChatGPT火起來之后,語言模型已經過渡到以Decoder-only為主的技術架構設計。
既然如此,在自動駕駛領域是否能夠存在自己的Decoder-only的技術架構設計?這是我們目前端到端設計的重點。
這里面有一個核驗證的結論:在自動駕駛中,如果能夠很好地設計Decoder-only的技術架構,比如將參數量從9000萬下降到3000萬,也可以同樣等價于1B、7B VLM或者是VLA同樣的效果。
在自動駕駛中,當然可以借鑒VLA、VLM這樣已有的技術架構和參數,用更高的算力實現目標。但如果在中高階算力,比如說100Tops左右的車端稠密算力上,更好地設計Decoder,它也可以實現和類似大語言結構一樣的效果。Decoder-only的技術架構在純自動駕駛形態里面是可以被設計出來的。
Q:全民智駕之下,供應鏈能不能跟得上?除了攝像頭和芯片,其他的零部件有沒有可能出現缺貨?
張帆:是有可能的,這是不可避免的。比如前視8Max攝像頭是未來城市場景使用的必須配置,不管是30度還是120度的,它可以幫助我看得更遠、更寬。周視和后視可以用2Max或者3Max的, 這些傳感器都會有需求量增大的趨勢。
徐雷:這有可能是階段性的挑戰,但是以中國的供應鏈和生產制造能力,這不是不可逾越的挑戰,我相信供應鏈跟進的速度會更快。
張帆:每次往上躍級,中國智駕從供應鏈到下游的算法,到芯片供應商,到算法供應商,到Tier1都會整體邁上一個臺階,這是必然的趨勢。
Q:現在海外市場對輔助駕駛的標準要求比較嚴,我們如何進行匹配?
徐雷:海外更多的是法律法規驅動的市場,特別是對前向視覺感知的能力要求比較高,我們的方案性能表現都很出色,因此也正在與海外的Tier1共同推進項目合作落地。
另外,除了一體機市場法律法規驅動以外,高速NOA今年在歐洲那邊也會有法律法規出來,我們基于不同芯片打造的方案也可以落地海外市場。
Q:工信部對于智駕做了規范,Nullmax如何看待這一改變?
徐雷:我們是非常支持工信部的規定的。其實,在工信部規定出來之前,我們所有的宣傳就都是以客觀事實為基礎的,并沒有出現「全國都能開、有馬路都能開」這類宣傳語,因為我們現在的組合輔助駕駛技術沒有達到這個程度。
我們一直在與合作伙伴、用戶討論系統邊界的問題。提高系統效率,也需要是在安全基礎之上,所以我們所有的方案,都需要讓用戶知道這個系統的邊界在哪里。
Q:請預估一下L3在我國真正落地會在什么節點?這個時間節點上,Nullmax大概在什么位置?
徐雷:我們做的事情,是在漸進式路線里通過量產積累里程。
L3高速NOA到來的時間點,大概是2027年左右。現在,L2級的ODD正在逐漸變大,然后經過數據的積累,我們會把ODD變小,回到高速,但是級別會往上走。然后再開始擴大L3的ODD,往城市里走。
Q:今年的百人會論壇上,出現了很多「車企不要自研」的聲音,我們怎樣看待自研和依賴第三方供應商的?
徐雷:這個問題從我們成立這家公司開始,大家就一直在討論。車企是否要自研,本質上還是取決于不同車企的類型和發展路線。
至少在我們看來,不同的車企有不同的選擇。從實際結果來看,現在好像選擇第三方方案的車企越來越多。
Q:您認為未來的智駕方案是否有可能成為一個標準化的方案?
徐雷:智駕是AI在具身智能方面的重要應用場景,我們覺得不管是智駕還是大模型,遠遠還沒有達到殊途同歸的方式。
即使是實現同樣的功能,每家選擇用什么樣的數據,怎么訓練,采用什么架構,如何驗證,還都是非常不一樣的。
Q:咱們的本土化經驗和特斯拉FSD相比,是否有差異化的優勢?
徐雷:我們確實不了解特斯拉的技術細節,但是從公開的技術評測可以看到,特斯拉對中國的法律法規,也缺少實際道路數據的訓練:有一些在海外是可以壓的單黃線、單實線,在中國法規是不可以的。
但是FSD的一些基礎能力,比如說跟其他車的交互博弈的能力,還是非常強的,這也是為什么我們比較堅定地走以視覺為主的路線。這件事情肯定要比激光難很多,但是最終實現的天花板會更高。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.