本文目錄:
一、智能的本質之一就是錯誤和不可靠
二、機器的本質 是 “反智能"
三、汽車安全問題
四、無人駕駛能否實現?
本文雖長達近萬字,但有很多完全顛覆世人和人工智能業界的觀點,值得每一個想活下來的車友和相關行業的從業者們認真仔細地反復讀完。
一、智能的本質之一就是錯誤和不可靠
網上熱傳小米SU7高速上發生事故起火,三個剛要畢業的女大學生身亡。這樣的消息不免讓人心如刀絞般難受,對逝者家屬和戀人深感同情。
此事讓我再次強烈呼吁,對于人工智能無人駕駛一定要正確認識,并借此機會再次強調:自主人工智能無人駕駛絕對不可能成功。
我們當然不能對此悲劇本身作任何結論性判斷,這個只有相關部門才能根據實際調查數據作出。本文會盡可能普及所有與此相關的汽車安全標準知識、人的智能以及人工智能的本質,希望能使人們放棄一切不切實際的幻想和錯誤看法。
關于本文的核心觀點,在十多年前無人駕駛概念剛開始熱炒時,我因當時做投資的關系,就在各種場合,包括投資會議邀請我作演講嘉賓講人工智能,以及寫媒體文章時就只要有機會就一再地反復強調過。
要理解清楚這個問題,必須把與它們相關的所有要素都理解清楚。
在其中每一個要素的理解上,全世界比我強的人都有無數,但要能把所有要素都合在一起理解清楚的人則鳳毛麟角,這種通曉能力必須要由我創立的第三代科學方法的支持。
我在四十年前上大學時就開始研究人工智能,30多年前上研究生期間就做過圖像與視頻的人工智能識別與衛星云圖的人工智能模式識別工作。所以在這個領域全世界說話比我更權威的人可以用一只手數出來。
自動駕駛問題與其他問題不同,任何網友不要拿自己的性命來與我爭辯。
一、智能的本質之一就是錯誤和不可靠
要搞清楚為什么人工智能無人駕駛絕不可能成功,首先要理解什么是智能。
關于這個問題,可以說目前全世界人工智能業界的理解全都是錯的。
舉一個關鍵的例子:現在最熱的人工智能大模型存在幻覺,有很多人工智能開發者就說他們已經解決了幻覺問題。
但要理解,從本質上說,幻覺就是人類智能的最重要體現之一。人類與動物最大的不同之一,就是可以去創造現實世界沒有的東西。
幻覺,從另一角度說就是想象、創造。
現代智人進化的一個重要標志就是大腦皮層進化出想象的能力。南非的布隆伯斯洞穴(Blombos Cave)在約 10 萬年前的地層中發現了刻有幾何圖案的赭石(礦物顏料),可能用于身體裝飾或符號標記。另外還有穿孔貝殼,推測為早期首飾,暗示對 “美” 和象征意義的理解。
這些發現表明,智人已開始賦予物品非實用價值,是想象能力的早期體現。
約 7 萬年前,智人經歷了一次認知飛躍,掌握了“虛構故事” 的能力,也就是通過語言和符號構建抽象概念(如神話、社會規則),這成為大規模合作的基礎。
也正是在7萬年前,現代智人開始大規模走出非洲,迅速擴散至全球,伴隨復雜文化行為的出現(如精細工具、藝術、墓葬)。
在此后全球多地的智人遺址上發現的巖畫中描繪現實世界存在但變形了、或現實世界中根本不存在的事物。
所以,如果解決了大模型的幻覺,那它就不是人工智能了。
對于這些最基本的、關于智能的哲學問題,從標志人工智能誕生的1956年8月的達特茅斯會議上,業界就完全沒有搞清楚,尤其是被作為人工智能定義的圖靈測試標準(1950年提出)本身大錯特錯。
為什么人類能夠進行創造?
創造從另一個角度說就是出現幻想、幻覺、錯誤。因此,要想獲得具備創造能力的人工智能,就要允許它出現幻覺,幻覺越大,創造性就越多,雖然這些創造出來的東西未必有價值。
現在的人工智能大模型可以一本正經地胡說八道,反過來去看看人類,是不是也這樣?
目前所有人工智能技術,都是一種概率性的計算結果,必然存在不可靠的地方。無論最早的模式識別,后來的卷積神經網絡,深度學習,還是現在的大語言模型,全都是一種概率性的計算結果。
既然是一種概率性的東西,就一定存在出錯的概率,關鍵問題是你很難確定它什么時候會犯錯誤。
所以,用人工智能去創作一些圖片、視頻等藝術作品,反正只是一個你覺得美不美的東西,就算你覺得不美也無傷大雅。或者寫一些會議講話、演講、宣傳文案初稿,如果有不合適的、出錯的地方,你后期修改過來就是了。
但是,如果用這種人工智能去實現高可靠的應用,絕對不可能成功。
二、機器的本質是“反智能"
人類創造的一切機器,它們本質上不僅不是模仿人類的智能,反而全都是通過限制甚至消除人類智能等“反智能”的努力來實現的。
正因為人有智能,所以人做事本質上就不可靠,也可以說智能本質上就等同于不可靠。
如果只能依靠人來做的工作,就必須通過對人類進行訓練、甚至軍事化的高強度嚴格訓練來限制人類的智能,讓人類機器化,由此才能提升做事的可靠性。
人類之所以要發明各種機器,原因是因為兩個:一是人類能力大小的限制,需要通過機器來提升技術能力;另一個就是通過限制、甚至消除人類的智能等反智能工作,來解決人類做事的不可靠性。
前面一個是做加法,后面一個本質是做減法。
人類的訓練是什么?
就是消除人類隨心所欲的做事習慣,也就是機器化。
無論讀者對這種說法是否覺得舒服,必須明白它本質上就是這樣。人類科技文明的進步就是在約束、限制、甚至極力消除智能等“反智能”的過程中發展起來的。
企業管理,就是盡最大可能地用管理規則去限制員工個人的智能,是反人性的東西。
所以,不要以為智能絕對就是好事,在絕大多數情況下它不是好事,是人類文明創造過程中要盡最大努力去限制和消除的東西。
那我們研發人工智能技術是為什么?
是為了提升復雜工作情況下的可靠性。
如果是簡單工作,直接上機器就得了。
人工智能業界最大的錯誤認知,就是盡最大努力讓機器去模仿人類的一切方面、盡最大可能讓它“象人”,這個大錯特錯,從圖靈開始就大錯特錯了。
2023年初,當ChatGPT剛剛火爆出圈時,我就寫文章潑涼水提醒人們注意,參見。其中就提到人工智能的本質:
人工智能=有效的人工智能 + 人工愚蠢 + 人工不靠譜
如不能盡知AI之不可靠者,亦不能盡知AI之利也。
人類發明各種機器時,最重要的標準就是可靠。
當然,即使是工業級的可靠性,也不可能100%絕對可靠,但它們往往要求可靠性達到99.9999%這種小數點后面4個甚至6個以上9的級別。現在的一切人工智能都遠遠不可能達到這樣的級別。
這個是原理性的約束,不是技術問題。
你再上1億億億億億張最強或十年、二十年、三十年后最強的算力卡都沒用。達不到的原因,與算力大小無關,而是人們把問題本身完全搞錯了。
別聽外行的暢銷書作家說的什么人工智能奇點,那全是人類對人工智能的幻覺。
人類發明的一切機器,之所以能達到那么高的可靠性,不是因為人類發明的技術能力本身能強到那個程度,而是對問題進行了足夠的簡化。
只有將問題足夠簡化時,才可能實現相應的可靠性。
所以,工業級可靠性的實現,本質上主要不是靠工作機本身技術能力的提升(雖然這種提升也會有很大幫助),而是靠對問題的簡化能力。
前一個是做加法,后一個是做減法。
可靠性 = 簡化問題 = 反智能(對智能的限制和消除)
但是,現在的人工智能研究在基本邏輯和哲學上就完全相反——不是首先去簡化問題,而是把問題一上來就搞到“純天然”(如“自然語言”等)的最復雜程度,然后想在這種最復雜的前提條件下去實現人工智能,所以它當然就不可能有太高的可靠性。
這就是為什么大量人工智能在秀的時候都很漂亮,因為秀的時候已經把問題進行高度簡化了,但給人們帶來的想象卻是在“純天然”的、沒有任何簡化的條件下去實現這些功能,那怎么可能靠譜呢?
今天所有人工智能秀的東西,一點都不新鮮,我在一開始研究人工智能的40年前全都見過,無論是無人駕駛還是人形機器人,早就有大量的人做過。
20世紀80年代日本的第五代計算機計劃,就是想研發“真正的人工智能”,當時相伴隨的有一大批研究人形機器人的公司。但所有這些努力全都失敗了,無一成功。
宇樹的人形機器人雖然在春晚上亮相引發全社會高度關注和熱議,但我可以確定地告訴大家:這東西就是一個純粹的玩具,不可能真拿它來干實際的工作。
千萬別想象著未來可以有這種機器人保姆把家務活都能干了,那同樣是一種人類的幻覺。
早在宇樹機器人被人們關注之前,就曾有一個國內主流高科技公司的CTO計劃研究人形機器人來找我咨詢。我很清楚地告訴他:純粹的人形機器人絕不可能有商業模型,不可能成功。
原因和道理很簡單,我說您是CTO,在做任何產品之前您要做的第一件工作是什么?是產品定義。
非常清楚地確定其要實現的功能、性能等量化的技術指標。
確定實現它們的技術能力和使用條件。
以此為基礎進行元器件和技術方案的選型
確定產品成本。
其他。
這種實現,可不是只在特定條件下秀一把,而是要在很明確的實際應用場景里具有極高工業級可靠性地實現。
同時,為了避免使產品過于復雜化,就得對應用場景作一定的嚴格要求和限制(溫/濕度、空氣潔凈度、環境條件、使用條件、操作規范等),并在產品說明書中明確標示。如果突破這種限制,那就是使用者的責任,而不是廠家的責任。
但是,所有人形機器人在一開始研究時,有明確的產品定義嗎?
全都沒有。這哪是在做產品?
產品研發的失敗,往往就是產品定義不清導致目標失控,沒有明確知道自己到底要干什么,由此就會陷入一個財務的無底洞。
人形機器人研究者潛意識中指望開發出一種與人一樣無所不能,外形也象人的機器,這就很容易從一開始就使產品目標陷于無邊無際的狀態了。
今天宇樹人形機器人和所有其他的人形機器人能秀出來的所有功能,40年前日本公司開發的人形機器人全都秀過,沒有任何新鮮。只不過是過一段時間人們把前面失敗的全忘掉了,就又來秀一遍,因為秀這種人形機器人的確很吸引人。
工程師們做一般產品時,都會本能地按規矩進行產品定義,但凡遇到人工智能問題時,就很容易犯迷糊,把作為工程師最基本的普遍規范和原則全忘掉了。
上個世紀80年代,日本科技全面失敗和掉進大坑里,就是以癲狂的幻覺去搞全面的人工智能化開始的。今天中國對于人工智能也有些過熱,需要冷靜一下。
2025年春晚上的人形機器人舞蹈
20世紀80年代日本風行的人形機器人研究
過去幾十年間,持續不斷的人工智能概念,也使得在春晚上出現相關主題早就不是第一次了。
1996年蔡明郭達小品中的人形機器人主題
這樣說,并不是完全否定包括宇樹機器人在內的所有人形機器人。我們還是強調,在研發任何產品之前,一定要清楚產品研發的基本規范。
如果只是一種研究,提升人工智能的能力和水平,不是要馬上開發出特定的產品,那沒問題。但如果是要定位于實際應用的產品,就一定要明白前述基本的原則。
掃地機器人,洗菜機器,送餐機器人甚至成人玩偶類的人形產品等,之所以成功,是因為在產品開發之前都進行了嚴格的產品定義。
不要去幻想能實現《非誠勿擾3》里面舒淇扮演的那種人形機器人,同樣不要去幻想可以完全靠自主人工智能無人駕駛的汽車。
千萬千萬記住:
人類的智能在絕大多數情況下極其有害、是人類科技文明最大的毒藥。人類文明的進步,只在少數情況下受益于人類的智能,絕大多數情況下靠反智能獲得真正的進步。
制定規則、標準、紀律、進行嚴格的產品定義等等,這些工作都是反智能、反人性的。
交通的安全靠什么?
絕對不是靠人們想象中的人工智能,而是靠嚴格遵守交通規則,千萬別有任何自作聰明的地方。
什么是交通規則?
就是交通機器系統中的反智能和反人性,千萬千萬請牢記這一點,否則您終將有一天會葬生于車輪之下。
人類只有將自己通過嚴格訓練、嚴格遵守規則,把自己變成機器,才能在人類靠自己智能創造的、反智能的機器文明洪流中保證自己的安全,才能去有效地使用那些機器。
以上是對人工智能最關鍵性的理解,也是我為什么一再強調我是全世界最權威的人工智能研究者、沒有之一的原因所在。如果讀者您能充分理解到這一點,我就不再說這句話了,您也是全世界最權威的人之一。
人工智能業界最大的愚蠢,就是嚴重忽略了人類智能中有害和有毒的一面,把智能的一切方面全都當成好東西來進行簡單的模仿。
現在智駕的標準是GB/T 40429-2021《汽車駕駛自動化分級》。
這個標準把汽車智駕分為從L0到L5的六個等級。但這個分級標準非常模糊和初級,只是一個定性的描述,還不能直接變成產品量化的定義。其中還存在大量未研究清楚的哲學、科學與技術問題。因此,現在沒有任何廠家敢宣稱自己的車達到L3級別。
這里面的關鍵是:L3意味著,車已經在一定條件下完全由廠家的軟件在駕駛,那么出現事故邏輯上就必須由廠家負責任。
智能對不同群體的有益或有害程度不一樣。
在藝術家群體中,智能主要體現的是有益的一面;在理工科群體中,智能只在系統設計、產品技術創新時有益,絕大多數情況下是有害的東西。
這也使不同的群體表現出思維方式的巨大差異,也是理工科群體可能不夠人性化,而藝術家群體在做實事時往往不大靠譜的原因所在。
理工男水平的最大體現,就是其反智能的能力——定義產品、制定規則、制定流程、確定規程、制定標準......
我們切不要以為科技創新就是讓人性得到無限的發揮,大錯特錯。
科技創新是智能與反智能、反人性的有效平衡。
三、汽車安全問題
小米SU7事故后,很多人、包括死者家屬在討論為什么車門開不了,為什么會燃燒等等問題。也有人說根據國家安全標準,熱失控5分鐘內不應發生燃燒和爆炸等。
但很遺憾、可能也很殘酷,希望人們能理解,在全世界范圍內,車輛碰撞安全測試的最高速度是64公里/小時。
這意味著什么?
意味著,只要超過這個速度,無論出現什么情況都與廠家沒關系。
曾經有一輛奔馳車發生事故,安全氣囊未打開,司機死亡。逝者的父親很悲憤,認為這么高級的豪車為什么在碰撞時安全居然還氣囊打不開?但事實很遺憾也很殘酷,如果碰撞時的速度超過每小時64公里,安全氣囊能不能打得開全憑運氣,打不開也沒廠家任何責任。
越是豪車,可能安全性上越是值得懷疑,因為他們經過的碰撞實驗測試可能越少。最頂級的豪車,可能根本沒機會進行足夠的碰撞測試,那需要撞毀成百輛的車進行測試才足夠,而那些最頂級的豪車總共的產量可能都沒有幾百輛。中東很多國家死亡率最高的因素就是車禍,原因就在于他們各種豪車太多了。
如果發生碰撞時車速都已經超過100公里每小時,談論車門有沒有打開,電車與燃油車誰更容易燃燒等話題全都沒有任何意義。
所以,開車時你一定要擁有安全的剎車距離,并且時時刻刻準備剎車,這樣即使出現事故,碰撞時的速度也一定要減少到每小時64公里以下。
關于電車安全相關的國家標準有GB/T 31498—2021《電動汽車碰撞后安全要求》,GB 38031—2020《電動汽車用動力蓄電池安全要求》等。如果想系統了解相關信息,推薦一個資源:
https://openstd.samr.gov.cn/bzgk/gb/index
在這個網站里可以查到所有中國現行國家標準的全文。
GB 38031—2020 《電動汽車用動力蓄電池安全要求》是一個強制標準。它對動力電池安全的要求是什么呢?是在這個標準里的第5節。
請看下面標準復制的拷貝:
看到這些要求讀者可能很疑惑,這么多條件下都要求電池不起火、不爆炸,那是不是只要電車出事故后起火爆炸就不合要求呢?
很遺憾,你得仔細看這些要求對應的詳細實驗條件是什么。例如,與碰撞可能相關的實驗有電池擠壓實驗。
請注意8.1.7.3 c) 擠壓速度:不大于2mm/s。
如果換算成每小時是多少呢?不是70公里,不是7公里,不是70米,也不是17米,而是7.2米!!!
什么意思?
就是電池單體被擠壓的速度不大于7.3米/小時就不應該發生爆炸。請一定注意是每小時,不是每秒,也不是每分鐘,那就是符合國標要求的,沒廠家任何責任。
對比一下, 蝸牛的爬行速度通常在每小時4米到8.5米之間。也就是說,如果動力電池被擠壓的速度超過了 蝸牛的爬行速度,發生爆炸了就沒廠家的責任。
你是不是感到不可思議?
當然,因為電車如果發生碰撞,首先會有車頭進行緩沖,動力系統也會對電池單體有嚴格保護。在一定的碰撞速度范圍內,事實上就不會擠壓到電池,因此電池就是安全的。
但如果碰撞的速度突破了車頭的緩沖和電池包的保護擠壓了電池,基本上就沒救了。
不要以為電車因此就不安全,燃油車可能更差。不然的話燃油車發展了上百年了,為什么碰撞標準還是停留在 每小時64公里?
GB 38031中規定了熱失控的電池安全規定,5.2.7 b)要求提供一個5分鐘的乘員逃生時間。但是,同樣道理,我們一定得注意這個要求對應的實驗條件是什么?
根據8.2.7.2熱擴散的規定,實驗條件在附錄C里。這個里面對實驗條件是怎么規定的呢?
請注意c.5.2試驗條件里最后一條,“試驗在室內環境或者網速不大于2.5km/h的環境下進行”。 基本是靜止狀態下進行的測試。
GB 38031—2020標準是對電池單體的要求,那么從最終應用角度來說應該是整車碰撞安全要求。這個是在GB/T 31498—2021《電動汽車碰撞后安全要求》里規定的。
這個標準要求整車碰撞后30分鐘內不爆炸、起火。
是不是心中又升起很大的希望?
很抱歉,道理還是一樣,你一定得清楚碰撞的具體實驗條件是什么。
正面碰撞的按GB 11551標準進行。這個標準是怎么要求的呢?
目前有效施行的是該標準的2014年版本。
碰撞實驗的速度要求是每小時50公里!!!
是不是心又全涼了?
全世界的所有汽車,包括新能源車和傳統燃油車的碰撞安全標準要求,最高試驗速度就是每小時64公里。
明白了以上這些就可以理解,如果想使用智駕功能,從安全角度說最好在速度為每小時64公里以下時使用。所以,智能停車等低速功能是相對可以放心使用的。如果超過這個速度,你一定不要完全指望智駕功能可以保證你的安全。
有人在高速上居然開著智駕功能睡著了,只能說他這次撿了一條命。
不是說在高速上完全不能用智駕,只是一定要明白必須在遇到任何險情時最終靠自己來減速。高速路上之所以每隔一段距離就會出現50、100、150、200米的距離標識,就是提醒司機車速與剎車距離的關系,使得在前方出現險情時提前進行減速。現在智駕只是一種輔助,不要指望它真的實現完全的無人駕駛。
智駕系統靠激光和視頻攝像來獲得路況信息。視頻信息需要通過人工智能技術去進行識別。如果識別前方有一個車輛,相對還比較容易。但如果高速路上有修路的情況,會提前很早有路牌進行提標。這種提示是給人看的,路牌上的警示信息人工智能可以識別嗎?
給大家一個相關的數據吧,人工智能圖像視頻識別,目前應用量最大的就是道路監控和停車場車牌號識別系統了。這種系統還只是識別比較規范的車牌信息,識別差錯率是多少呢?
水平高的在1‰~5‰,如果能做到萬分之幾就已經上天了。并且隨著芯片性能和算法不斷提升,要想繼續提升這個技術指標難如登天。
所以大家開車時,可能偶爾會出現這種停車場攔桿可能打不開,你得反復把車前后左右移動幾次才能被識別打開的情況。
你能指望這種識別差錯率的系統,可以實現時速120公里還能以小數點后4個9的可靠性,去識別道路邊上各種臨時路牌信息嗎?還是徹底死了這份心吧!
2024年,中國道路交通事故死亡人數為61703 人,這一數據較 2023 年的 60028 人略有上升,但整體仍處于近十年的相對穩定區間(年均約 6 萬人)。2002年時,中國每年因道路交通事故死亡人數最高峰值數據為10.9萬人。
根據聯合國世界衛生組織2022年發布的報告,自汽車發明以來,死于車禍中的人數已經突破5000萬人,并且每年還在以120萬左右的速度增加。這一數據已經超過一戰的死亡人數總和。
汽車是人類所有發明中造成死亡最多的,沒有之一。被稱為寡婦生產線的馬克沁機槍,造成的死亡數只是3000萬。
汽車造成的死亡數如此之高,最重要的原因就在于:每輛行駛中的汽車都有一個司機,而司機卻是具有智能的人。
現在替代人去開車的,還是模仿人類智能的人工智能,這就太可怕了。
知道汽車事故死亡率最高的人群是誰嗎?
賽車手!早期F1方程式賽車手的車禍死亡率曾高達20%。2013年 11 月,在拍攝《速度與激情 7》期間,男主角保羅·沃克和朋友羅杰·羅達斯駕駛 2005 款紅色保時捷Carrera GT跑車,以時速160公里撞上邊欄,車體斷成兩半并起火爆炸,兩人當場被燒得面目全非。銀幕上演繹的是浪漫的《速度與激情》,現實生活告訴人們的卻是“速度與慘禍”。
一切開車時認為自己車技更牛,比別人更聰明,更有智能的,就是在玩死亡游戲。
作為汽車廠家,絕不應當為推銷自己的汽車有任何夸大智駕的能力,并且有義務宣傳本文的核心觀點,提醒司機相應的安全問題,否則對出現死亡事故至少存在道義上的責任。
現在的智駕能否使用呢?
在嚴格約束的條件下可以。
正好在寫這篇文章時,我與伙伴開車從河南到湖南參加一個展會,在路況比較清晰的情況下,使用智駕可以不用時時刻刻腳踩在油門上,只要手扶著方向盤就可以了。即使是這樣,也可以極大地減輕開車的勞累,有助于極大增加行車的安全性。
我一般在高速上開非智駕的車,150多公里就開始感覺很疲勞了,但4月3號開車采用智駕功能,最遠一次性開了近300公里,基本沒感覺有勞累。另外,依靠智駕在換道口時更為可靠,人往往可能在復雜道口換錯道路。
這些都是應用智駕的很大好處。但是,有一些原則必須要嚴格遵守:
手絕對不能長期離開方向盤。好的智駕設計會在你的手離開方向盤超過很短的時間,就會馬上提醒你,如果還沒有把手放在方向盤上,車應自動靠邊停車。
絕對不能睡覺。好的智駕汽車設計應當能發現并叫醒睡覺的司機。
遇到路況開始變復雜,尤其前方有車禍,修路等情況時,要迅速接管車輛,或做好接管的準備。
很多時候不是你自己的問題,而是會在路上遇到各種行車不規范的司機。如果后方有車輛在很近的距離超車并迅速在你前方并線,智駕不一定反應得過來,此時要及時踩剎車接管車輛。
四、無人駕駛能否實現?
本文批評自主智駕系統不可能實現L5級別的無人駕駛,并不是說任何無人駕駛都一定不能實現。
請注意我們的核心觀點:高可靠性主要通過簡化問題來實現。高速公路本身就是一種對交通問題的簡化。把道路修得路況盡可能簡單,以此實現高速行駛時的安全駕駛。
現在的智駕系統概念是自主式的無人駕駛理念。但我一向推崇路車協同、車車協同式(車聯網)的智駕,并且推崇首先定義和實現無人駕駛道路,而后才能來談無人駕駛。
例如,如果要馬上實現全路網路車協同可能比較困難,但先開發部分的路車協同,相對容易實現并且投入不大。
此次小米su7車禍就是發生在修路路段。這種復雜路況發生車禍的幾率的確遠大于正常路況。
現在高速公路管理系統都按有人駕駛來進行規劃建設和維護。修路時設計的提示牌都是給人看的,自動駕駛車輛可能無法有效接受相應的信息。
如果是按無人駕駛道路概念來進行設計,那就要有路車協同的系統。當道路進行維修時,不能僅僅是設置給人看的道路提示牌,而是要有電子路牌,類似ETC這樣的無線信息傳遞系統,直接把路況信息傳遞給無人駕駛汽車,以及導航系統。
這樣的無人駕駛系統會得到工業級可靠性的完備路況信息,就可以作出工業級可靠性的駕駛決策。在這樣的路車協同基礎上,可以不斷增加越來越多的路車協同功能。
(完)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.