【EV視界綜合報(bào)道】近日,智加科技自主研發(fā)的全新純視覺(jué)端到端自動(dòng)駕駛框架SSR(Sparse Scene Representation)論文成功入選第13屆國(guó)際學(xué)習(xí)表征會(huì)議(ICLR 2025)。作為深度學(xué)習(xí)領(lǐng)域三大頂級(jí)會(huì)議之一,ICLR由Yoshua Bengio和Yann LeCun聯(lián)合創(chuàng)辦,歷來(lái)以展示人工智能、機(jī)器視覺(jué)、統(tǒng)計(jì)學(xué)和數(shù)據(jù)科學(xué)領(lǐng)域的前沿研究成果著稱。
SSR框架通過(guò)創(chuàng)新性自適應(yīng)可學(xué)習(xí)稀疏感知模塊,有效替代傳統(tǒng)模塊化感知架構(gòu)。實(shí)驗(yàn)數(shù)據(jù)顯示,在不依賴任何感知標(biāo)注數(shù)據(jù)的情況下:
軌跡誤差較主流端到端方案降低27.2%;
安全性能提升51.6%;
推理速度達(dá)10.9倍提升;
訓(xùn)練效率實(shí)現(xiàn)13倍加速。
在CARLA仿真平臺(tái)閉環(huán)測(cè)試中,SSR框架的駕駛得分同樣顯著超越基于LiDAR輸入的SOTA方法,實(shí)現(xiàn)了性能和效率的雙最優(yōu)水平,展現(xiàn)出純視覺(jué)方案的獨(dú)特優(yōu)勢(shì)。
SSR性能效率對(duì)比實(shí)驗(yàn)
SSR框架通過(guò)模擬人類駕駛注意力機(jī)制,實(shí)現(xiàn)基于導(dǎo)航意圖的按需感知,突破傳統(tǒng)端到端方案對(duì)多感知任務(wù)的依賴。該框架的研發(fā)標(biāo)志著One-Model端到端自動(dòng)駕駛發(fā)展方向的重要突破。
同時(shí), 通過(guò)建立BEV世界模型,SSR進(jìn)一步加深了場(chǎng)景的理解能力和對(duì)應(yīng)的規(guī)劃能力。由于去除掉所有的感知監(jiān)督任務(wù),SSR不依賴任何標(biāo)注數(shù)據(jù)并具備極高的推理速度,這使得其具備非常強(qiáng)的數(shù)據(jù)擴(kuò)展性和易部署性。
SSR算法框架
依托智加科技自主研發(fā)的數(shù)據(jù)閉環(huán)系統(tǒng),SSR框架已具備快速迭代優(yōu)化能力。未來(lái),智加計(jì)劃進(jìn)一步融合復(fù)雜導(dǎo)航提示(如自然語(yǔ)言命令)和視覺(jué)語(yǔ)言模型(VLM)提升決策智能,并聚焦系統(tǒng)多冗余設(shè)計(jì)提升系統(tǒng)安全性,推進(jìn)L4級(jí)自動(dòng)駕駛架構(gòu)與L2+前裝量產(chǎn)方案的協(xié)同發(fā)展,為干線物流領(lǐng)域提供兼具高效部署與安全可靠的端到端自動(dòng)駕駛解決方案。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.