在人工智能技術的驅動下,人機協同決策效能逐步提升,展現出巨大的潛力。然而,當前人機協同決策領域面臨情感問題、信任問題、決策權力分配問題和道德對齊問題等挑戰。本文提出了人機協同決策的未來發展方向,包括提升機器對人類情感的理解和響應能力、建立穩固的信任機制、優化決策權力的分配方式,以及確保機器決策符合倫理和道德標準。在邁向人機共生的道路上,不僅需要技術創新,還需要結合心理學視角來應對這些挑戰,以實現更加高效、安全和可持續的人機協同決策。
目錄
1 人機協同決策:發展與基礎
2 人機協同決策的心理學
2.1 人機情感問題
2.2 人機信任問題
2.3 人機決策權力分配問題
2.4 人機道德對齊問題
3 展望
人工智能的發展正在改變著人與機器的關系,人類正在從對機器的使用和控制轉向與機器的深度協作。20世紀60年代,Licklider提出“人機共生”概念,強調發揮人類與機器各自優勢實現共同目標。近年來,機器在認知智能方面取得了長足的進步,尤其在博弈學習、自然語言處理、圖像識別等領域已經展現出超過人類表現的潛力。但人機協同過程中面臨人機內部兼容性問題,涉及認知、情感、價值觀等方面,如何解決這些問題成為人工智能領域的研究焦點。當前研究表明,要實現高效的人機協同決策,需要解決幾個關鍵性挑戰。首先,人類和機器在心理模型上的不一致會明顯影響協作效率,這要求機器能夠理解人類的情感狀態并做出適當反應。其次,人類對機器的信任程度直接影響協同質量——過度信任可能導致依賴,而信任不足則可能導致系統被忽視或誤用。第三,人機之間決策權力的合理分配至關重要,既要避免機器過度主導可能帶來的安全風險,也要避免人類絕對主導導致無法充分發揮機器優勢的情況。最后,隨著機器在決策中扮演越來越重要的角色,確保其決策符合人類倫理道德標準的需求日益凸顯。基于這些研究成果,本文從機器智能如何能夠以人為中心地完成人機協同決策的角度,重點討論了情感理解、人機信任、決策權分配、道德對齊四個方面的內容。
20世紀50年代,早期決策支持系統依賴人力計算和單一數學模型,隨著問題復雜性增加,超出了傳統的人力處理能力范疇,科研人員開始尋求大型計算機的輔助,由此開啟了人機協同決策的篇章。20世紀60年代,交互式計算機技術發展,大型計算機廣泛應用,管理信息系統(MIS)出現,但僅提供結構化報告,缺乏交互支持。1971年,決策支持系統(DSS)概念提出,標志著機器智能正式參與決策。進入21世紀,機器學習等技術的進步提升了機器決策效能,其應用擴展至農業發展、交通管理、災害應對等更廣泛的領域。
人機協同決策的核心在于利用人類與機器的互補優勢。人類決策者擅長處理非結構化問題、跨領域知識整合、創新思維和道德判斷,能夠理解復雜情境并做出靈活應對。而機器在高速計算、大數據處理、長期記憶存儲和穩定決策方面具有明顯優勢。然而,人機雙方也各自存在局限:人類易受認知偏見影響,在處理大量數據時能力有限,且容易出現決策疲勞;機器則在情境理解、知識遷移和應對全新問題時表現不佳,缺乏人類的創造性思維和道德直覺。
這種人機之間的異質性既是協同決策的基礎,也是其面臨的挑戰。當兩種本質不同的智能體需要共同完成決策任務時,如何克服彼此的差異,實現高效互補,成為了人機協同決策研究的關鍵問題。只有解決了這一異質性問題,才能真正發揮人機協同的潛力,提高決策質量和效率,使人機協同決策成為未來決策科學的重要發展方向。
1 人機協同決策:發展與基礎
基于智能技術的機器正在從人類的輔助工具逐步發展成為具備一定程度人類認知能力的自主化智能體,但是由于人機在決策能力上存在異質性,這給人機協同決策帶來了新挑戰。本研究從心理學視角出發,將目前人機協同決策面臨的主要挑戰總結為人機情感問題、人機信任問題、人機決策權力分配問題及人機道德對齊問題。
2.1 人機情感問題
情感是影響人類決策最重要的因素之一,在人機協同決策中讓機器理解人類情感并進行適當響應,能夠促進人機信任,優化決策效率,進而增進協作效果。1997年,Picard提出“情感計算”概念,旨在賦予機器識別、理解、適應并表達人的情感的能力。當前情感計算主要基于外部和內部表征識別人類的基本情緒,但機器在情感識別方面存在準確性低、對不同文化背景理解欠佳等問題,尤其在復雜和微妙情感識別上挑戰巨大。同時,人類情感具有情境靈活性和個體差異,機器需具備高度情境理解和社交智能以適應這些變化,而如何量化設計和實現這種情感交互仍是開放問題。未來人機協同決策中,機器需具備情感智能,優化深度學習模型和深入理解人類情感機制是關鍵研究方向。
2.2 人機信任問題
人機信任直接影響了人類接受機器并遵循其決策或建議的意愿程度,過高或過低的人機信任程度都會降低人機協作任務的完成質量。過度信任可能導致人類依賴機器、忽視自身直覺和經驗,在關鍵情況下可能會導致決策失敗;信任不足則會使人類過度干預系統,降低整體決策效率,“算法厭惡”就是人機信任不足的典型表現。為實現有效人機協同決策,需幫助用戶建立適度信任。可通過提高算法透明度,如開發可解釋的人工智能技術;開展教育和培訓,讓人類理解機器算法性能和限制;優化人機界面設計,促進溝通等方式來實現。此外,機器表現出類似人類的特征,如情感能力,人類更容易建立信任。
2.3 人機決策權力分配問題
如何在人類和機器之間平衡決策權力,從而充分利用各自的優勢實現高效的協同決策是人機協同決策領域的重要議題。機器主導決策可能引發系統安全風險,人類占據絕對領導地位則無法充分發揮機器性能優勢。目前多數人機協作情境中,決策權由人類決策者主導。研究表明,人機決策權力分配會影響決策策略,人類存在對環境或自身行為的控制需求。合理的人機權力分配應具備動態性和靈活性,從機器角度可采用自適應自動化系統,根據環境和任務調整決策權力;從人的角度出發,可增加人類在決策過程中的參與感受、提供有關機器智能及其安全性的教育和培訓,并根據人類狀態和外部條件調整權力分配,未來人機決策權力分配將朝著更平衡、互補的方向發展。
2.4 人機道德對齊問題
隨著機器決策權力增加,人機道德差異問題凸顯。人類對機器道德判斷機制理解不全面,會質疑機器決策的道德性,同時人類在與機器共同承擔責任時,人類可能出現道德逃避行為,試圖將責任推給機器。
機器對人類價值觀和道德的忽視主要是由機器理性決策的刻板印象導致的,如自動駕駛汽車的道德困境和面部識別系統的偏見問題。為解決這些問題,研究人員嘗試將情感、道德等因素納入機器學習模型,使用無偏見訓練數據、更新算法等。在人機協同中道德責任歸屬是復雜的問題,不少學者呼吁出臺相關新法律、明確法律框架,以確定人類和機器在不同情況下的責任。人機協同中的挑戰現狀如表1所示。
表1 人機協同決策挑戰現狀
2人機協同決策的心理學
2017年7月8日,國務院印發《新一代人工智能發展規劃》,明確了人工智能作為新一代科技革命和產業變革核心動力,在國家戰略中的關鍵地位。規劃針對2030年中國新一代人工智能發展提出了戰略目標,將人機協同的混合增強智能列為人工智能發展的核心方向之一。
在此背景下,人機協同決策系統不僅需要具備高效的執行能力,更需要考慮減少協作時的摩擦,這涉及到人機情感問題、人機信任問題、決策權力分配問題,以及責任劃分等道德問題。
從機器的角度,需要具備情感智能,以便深入理解和適應人類的情感。機器還需要提高可解釋性,使用戶能理解其決策過程及依據,以形成可信可靠的人機協同決策模式。未來的人工智能系統還應具備泛化能力,適應不同的領域和場景,自適應地根據人類和機器的實時性能、信任度和需求進行權力調整,實現更高效和安全的協同決策。
從人類的角度,政府和企業需要采取相應措施,如推動教育和培訓,使人類決策者適應新的技術和工作崗位,確保人類在人工智能時代的競爭力和價值。為實現人機協同決策,人類需要了解機器在不同領域的能力邊界,以充分利用其優勢并避免過度依賴。同時,還需考慮人的適應問題,如適應不斷變革的智能化工作方式,處理可能出現的心理問題等。
展望未來,新技術有望顯著提升人機協同效能,尤其是腦機接口(brain-computer interface,BCI)技術將成為關鍵推動力。BCI技術通過直接讀取和解釋大腦信號,實時捕捉用戶的意圖和情感狀態,并將其反饋給機器,使其能夠更準確地理解人類的情感、需求和意圖,從而實現更加自然和高效的人機交互。
綜上所述,未來的人機協同決策研究應該注重多學科的融合,以應對復雜多變的決策環境,以更好地實現人機互理解和互適應,從而邁向人機共生的新時代。
3展望
作者簡介: 朱奧、劉華碩、袁佩君、張丹
本文作者:朱奧,清華大學心理與認知科學系,博士研究生,研究方向為人機協同決策;袁佩君(通信作者),啟元實驗室,助理研究員,研究方向為人機交互;張丹(共同通信作者),清華大學心理與認知科學系,清華大學腦與智能實驗室,副教授,研究方向為情感計算、腦機接口。
論文全文發表于《科技導報》2025年第3期,原標題為《邁向人機共生時代:人機協同決策的心理學視角》,本文有刪減,歡迎訂閱查看。
內容為【科技導報】公眾號原創,歡迎轉載
白名單回復后臺「轉載」
《科技導報》創刊于1980年,中國科協學術會刊,主要刊登科學前沿和技術熱點領域突破性的成果報道、權威性的科學評論、引領性的高端綜述,發表促進經濟社會發展、完善科技管理、優化科研環境、培育科學文化、促進科技創新和科技成果轉化的決策咨詢建議。常設欄目有院士卷首語、智庫觀點、科技評論、熱點專題、綜述、論文、學術聚焦、科學人文等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.