撰文 / 伏芳香、齊云龍
設計 / 琚 佳
當今的汽車圈,上半場電動化下半場智能化,已經成為行業共識,智駕炙手可熱。2025年第一季度,各廠商扎堆發布智駕技術和產品,信心十足,仿佛智駕技術突然爆發式地到了next level——實際上良莠不齊。而宣傳中對L2、L3、L4這些智駕定級的模糊化,尤其是“0接管”這樣的描述,會導致消費者對智能駕駛的實際情況盲目信任,一些“膽大”的用戶直接從方向盤上解放了雙手,無人駕駛。直到出現了小米SU7三位女孩殞命等慘劇,這才讓人們對智駕有了更多反思。
既然這里面起關鍵作用的是人類決策,那我們有必要對人的心理機制有更多清晰的認識,以避免或者至少減少此類慘劇的再次發生。
為什么智駕出事的司機,那么盲目相信技術?開啟智駕后,人們的接管速度還會那么快嗎?車載智駕真的已經做到“更像人”、“如老司機般”的程度了嗎?為什么出事后,輿情會呈現一邊倒的狀況?這背后,涉及哪些心理學原理和機制呢,這里給大家一一解讀。
幸存者偏差,實驗室里的“安全神話”
幸存者偏差(Survivorship Bias)是指人們往往只關注成功案例而忽視失敗案例的邏輯謬誤。這種認知陷阱,在智駕領域正在制造危險的"安全神話"。車企公布的實驗室數據如同經過精心篩選的幸存者樣本:那些完美觸發AEB(自動緊急制動)的測試場景,掩蓋了真實道路環境中諸如錐形桶、側翻車輛等非標準障礙物的“小概率”致命風險。
幸存者偏差研究的歷史可以追溯到二戰期間。當時美軍戰機在空戰中損失慘重,為了提高飛機的防御能力,統計了作戰飛機的受損情況。他們發現,返航飛機各個損傷部位被擊中的彈孔數不同,發動機部位的彈孔數最少,而機身和機翼的彈孔較多,得出的結論是應該在這些彈孔最密集的部位加上裝甲。然而,統計學家Abraham Wald提出了不同見解,他認為應該加強機尾的防護。因為他研究后發現,機身和機翼中彈但飛機仍能返航,說明這些部位即使被擊中,飛機仍然能夠繼續飛行;而那些機尾被擊中的飛機,根本就沒有返航的機會,因此我們看不到它們的數據。就像二戰期間美軍打算強化機身和機翼防護的決策,智駕系統對極端工況的防護恰恰被"幸存者數據"所忽視。
小米SU7事故中,97km/h的撞擊速度遠遠超過C-NCAP測試標準的64km/h(50%正碰)和55km/h(100%正碰),系統失效的悲劇印證了實驗室數據與現實場景的鴻溝。用戶往往被車企公布的實驗室數據說服,卻忽略真實場景中極端工況的不可控性。再者,這種偏差不僅存在于技術測試,更滲透在消費者認知中——我們在短視頻平臺經常會看到智駕系統輕松完成環島行駛等演示,而那些因系統失效導致的事故視頻卻很少被推送到首頁。
自動化信任與過度依賴
要了解人們為什么會依賴技術,我們首先我們有必要清晰“自動化”、“信任”和“自動化信任”這三個概念的心理學解釋。“自動化”(Automation)是指可以執行原本由人來完成的一種或一系列任務的技術,包括數據和信息的選擇,信息的轉化,決策和行動(Parasuraman&Wickens,2008)。“信任”是關于結果的期待或者是某人對某些未來事件發生所持有的主觀概率(Rempel,Holmes,&Zanna,1985)。“自動化信任”(Automation Trust)是指用戶的一種認知或情感狀態 (Singh, Molloy,& Parasuraman,1993)。
在自動化的可靠性很高但又不完全可靠的情況下,就會出現所謂的自動化依賴的過度信任現象。這會改變大腦神經遞質平衡,讓人進入心理松懈狀態,表現為警覺性下降、反應速度減慢。神經科學研究表明,這相當于注意力資源從"主動控制"轉向"被動監控",此時,當罕見的、意想不到的自動化故障發生時,操作員將很難檢測到。
長期依賴智駕等自動化系統,還會使人的技能熟練度下降,使人更難應對出現的問題。即便是專業飛行員也難逃此劫,比如2009年法國航班墜毀于大西洋,其中重要的原因之一正是由于飛行員過度使用自動飛行系統,喪失了處理失速的技能。
錯誤的心智模型與控制幻覺
“心智模型”指的是使用者關于系統如何工作的認識,如果使用者擁有關于自動化系統如何工作的更多更好的知識,那么更有可能達到對自動化系統的合理使用。而如果人對系統運行的心智模型是錯誤的,可能會產生控制幻覺(Illusion of Control),既高估自身對事件的控制能力,同時低估運氣或不可控因素的作用。如在駕駛場景中,駕駛者會錯誤地認為哪怕自己遇到接管情景,也能夠進行有效應對。
實際上,由于系統發生問題時即使發出預警,人也需要足夠的時間來進行反應。比如一款智能駕駛汽車在封閉高速上表現穩定,但當遭遇道路施工等非常規場景時,系統突然將控制權交還的瞬間,使得駕駛員來不及獲取情景意識而導致出現致命時刻。
獲取情境意識時間需求:
7s只能基本感知路面上車輛的數量
12s時才能改善對車輛相對距離判斷錯誤
20s時對車輛相對速度的感知仍然有提升的空間
實際操作時刻表:
Lu Z, Coster X, De Winter J. How much time do drivers need to obtain situation awareness? A laboratory-based study of automated driving[J]. Applied ergonomics, 2017, 60: 293-304
有證據表明提供自動化的可靠性信息,可以幫助用戶校準他們對系統的信任和依賴。要做到這些,必須要讓系統的使用者在實際使用自動化前進行訓練或練習,讓他們體驗到“系統首次失敗”,但僅僅告知自動化使用者發生故障遠不及實際體驗該故障有效,所以最好的訓練方式不是看視頻,而是使用駕駛模擬器。
道德推脫,責任轉嫁的心理劇場
Bandura的道德推脫(Moral Disengagement)理論在智駕事故中上演著現代版"責任羅生門"。事故后,部分駕駛者通過"責任轉移"機制,將責任歸咎于車企(如“系統未及時制動”),通過轉移責任來緩解自身過錯帶來的道德壓力,以尋求內心的自洽,這是典型的自我合理化防御機制。
這種心理防御機制在一些智駕事故,及近期車主開著智駕睡覺超速行駛100公里被交警扣6分的案例中尤為典型:當車主雙手脫離方向盤時,他們的潛意識已將道德責任轉嫁給算法。這種心理劇場具有自我強化的特性:社交平臺上"系統失靈"的敘事模板被反復傳播,形成集體記憶偏差。就像金融市場的羊群效應,當足夠多的事故被歸因于技術缺陷時,真正的認知盲區——人類決策者的注意力塌陷,反而被徹底忽視。
總之,以上偏差共同構成“技術崇拜綜合征”,在智能駕駛場景中,表現為人類因過度信任技術而產生認知盲區,最終導致悲劇。
破解"技術崇拜綜合征"的關鍵所在
要打破這一系統性認知陷阱,需充分意識到“自動化嘲諷”效應長期存在的現狀、建立正確心智模型以促進合理信任,以及充分尊重駕駛心理的生態化系統設計等多方面的科學心理建構。
自動化的嘲諷:因為系統具備自主運行能力,所以我們會把原來應該由人做的事情交給它來完成。但交出我們自身工作的時候,我們就對它的運行過程喪失了更多的覺察。長此以往,我們的能力還會下降。但這個系統本身卻并不是完美的,還需要我們接管它無法解決的事情。這種悖論,在工程心理學領域,被成為“自動化的嘲諷”效應。這實際上將在我們與人工智能交互的過程中長期存在,每個人都應該充分意識到它的存在。
建立正確心智模型以促進合理信任:在新車使用和駕駛培訓時,通過有效展示車輛可能需要接管的情景,能夠有效構建合理的心智模型,避免人的過度信任。
充分尊重駕駛心理的生態化系統設計:除了法規和教育培訓之外,還需要更加從人出發來設計智駕系統。比如,當系統出現問題的時候,工程心理學家會通過研究告知內容、表達形式、模態匹配、時機搭配等角度來協助開發出有效的告警方式,在出現需要接管的時候,快速提高使用者的警覺性,讓他們很快知道環境里正在發生什么事情,人們應該如何處置等等。現在的研究者還開始從另一個角度入手,想方設法讓人哪怕在使用自動駕駛時,也能夠以一種輕松的方式保持對路面的注意力。
在這場人與機器的決策博弈中,真正的智能駕駛不應是"技術崇拜的祭壇",而應該是理性認知的延伸。要破解這一困境,既要完善監管,限制誤導性宣傳,推動技術透明化,還要大力開展心理學科普和教育,讓車主對自身的反應機制和心理機制有更清晰明確的認識;更要充分尊重人為因素的設計,尤其是在需要接管時。當駕駛者既能理解算法的局限,又能保持人類特有的情境感知優勢,做出更明智的決策時,"智駕事故"才會從社會議題回歸技術議題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.