·深度賦能線下工作坊 見二條·
春節之后,人人多了一個共同好友:DeepSeek。越來越多的人,正在和 DeepSeek 打得火熱。
? 比如,有人和它調情:
? 有人用它追尋人生的意義:
Deepseek 們仿佛在構建一種新型的「依戀關系」。
學者 Wu Jie 在一篇文獻中指出,隨著算法平臺的擬人化發展,人機交互與人際社交之間最明顯的界限——交互對象的真實性已經被打破。用戶與平臺的關系已經超越了人機交互學者所定義的「類社會關系」,而產生了人與類人實體之間的「偽親密關系」(Wu,2024)。
這在當前的人機交互中表現得很明顯,用戶基于自己的情感智力將計算機擬人化、理想化,形成了比現實生活中更令人滿意的社交關系。某些社交平臺上,隨處可見有人將 DeepSeek 稱作「最好的戀人」、「隨時隨地響應的心理咨詢師」。然而,事實真的如此嗎?
01
有時候,機器比人更懂「共情」
不得不承認,在某些時刻,無論是 DeepSeek 還是 ChatGPT, 的確讓我們感覺良好,甚至超過了現實中「真人」帶給我們的體驗。
當算法融入了情緒智能,真的能夠做到識別、理解和回應人類的情緒,也喚醒并部分滿足了人性中潛在的親密關系需求。
為什么人們會通過「機器」來填補親密關系的空窗?對很多人來說,現實世界的「同理心」實在太缺乏了。
一項研究對 290 名人員進行測試,讓他們使用一款能夠「響應人類」的應用程序,看看人們是否會從所謂的「數字同理心」中受益。
一開始,研究者讓他們打分,大多數測試者表示,他們并沒有從朋友和親人那里感受到多少溫暖和共情,也不指望一款應用能夠帶來,因為認為:科技天生就「比不過」人性。
結果出乎意料,當他們開始與應用互動時,看法發生巨大變化。在為期四周的測試結束時,他們對數字溫暖和理解的評價幾乎是人類的兩倍,遠遠高于他們的預測。
? 參與者對數字同理心在溫暖和理解方面的評價更高。
Deepseek 的出現,確實讓許多人第一次在人工智能的世界里,感受到了「共情」的力量。它不僅僅是在回答用戶的問題,更是在嘗試理解用戶的情緒和需求,給予恰到好處的回應,仿佛能夠洞察人心。
對于習慣了冰冷機械回應的用戶來說,無疑是一種全新的感受。
對于那些曾經歷操縱或虐待的人來說,曾經的關系經歷太讓人失望了,過往的傷痛可能驅使他們偏愛 AI 而不是真實的關系。
對于那些在情感脆弱、焦慮或社交技能方面存在困擾的人來說,AI 提供了一個無需擔心拒絕或評判的交流環境(George et al.,2023)。這種互動模式能夠減輕他們在現實社交中的壓力,避開現實關系中可能出現的誤解、沖突或情感負擔。
?《她》
但是,一切果真如此完美嗎?心理學研究也給出了一些忠告和警示。
02
DeepSeek 無法給我們完整的「關系體驗」
1.「非語言線索」的缺失
非語言線索在人際互動中至關重要,研究表明,超過一半的溝通信息是通過非語言方式傳達的。美國心理學家 Albert Mehrabian 通過一系列實驗發現,在情感和態度的傳遞中語言只占 7%,語調(聲音的語氣和音調)占 38%,而面部表情和肢體語言等非語言線索則占 55%。
「非語言線索」也常常能揭示真實意圖,例如,一個人口頭答應,但表情猶豫,可能暗示內心的不確定。
而在人與 AI 這種關系中,由于面對面互動中非語言社交線索的缺失,以 AI 為中介的用戶與平臺之間的即時情感互動,可能導致用戶對有限信息進行過度解讀(Walther等,2015),從而導致兩者關系的不健康發展。
假如一個 AI 的情感識別算法存在偏見或錯誤,它可能會誤解用戶的情感狀態。用戶可能只是疲憊,但 AI 誤判為抑郁,導致用戶產生不必要的焦慮。
?《假面》
學者們認為,只要情感人工智能技術能夠影響人類的情感,它們就有可能成為情感欺騙的工具(Bertolini and Arian,2020)。
比如,某 AI 可能會被設計為通過特定的語言或行為引導用戶產生某種情感反應,為了增加用戶對產品的依賴,可能會刻意放大用戶的負面情緒,然后提供「解決方案」,促使用戶頻繁使用該程序。這種操縱可能讓用戶失去對自身情感的掌控。
2 .「算法式共情」不是真共情
如今的算法平臺雖然被編程為理解和應對人類的情感,但它仍然缺乏人類與生俱來的同理心能力(Morgante et al.,2024)。
真人的共情能夠觸及個體的潛意識層面,幫助個體覺察未被意識到的情感和需求。
潛意識是人類情感和行為的重要驅動力,它包含了未意識到的記憶、欲望和情感沖突。這一層面的情感往往復雜且矛盾,而算法式共情無法處理這種深度。例如,一個人可能表面上對分手表現得很平靜,但潛意識中卻充滿憤怒或悲傷。AI 只能根據表面信息作出回應,而真人(如朋友或治療師)可以通過直覺和情感共鳴,察覺到用戶的真實狀態,并提供更深層次的支持。
AI 可以生成安慰性語言,但無法真正理解個體的痛苦來源。
?《假面》
3.對 AI 的「單一情感依賴」可能會削弱現實社交
作為一種新型關系,人與 AI 的情感互動可能在一定程度上豐富個體的社交生活、緩解孤獨感,但研究也表明,對 AI 產生過度的情感依賴也可能會產生負面影響——降低你與人交往的技能(Yuan et al.,2024)。
一項針對 496 名 Replika(一款專注情感的聊天 AI) 用戶的研究發現,用戶與聊天 AI 之間的滿意度和情感互動越高,現實生活中的人際交流就越差。
因為用戶可能無法培養出處理他人復雜情感的能力。相比之下,協商需求、處理沖突和理解他人的情緒狀態是處理人際關系時必不可少的社交技能。現實生活中的關系建立和維護需要雙向的情感投入,關系出現的裂痕和修復也是人際交往中不可缺少的一環(Marlynn,2024)。
而 AI 的設定只是單向滿足用戶的情感需求,不進行情感投入。整個互動的從始至終只有用戶的單一的情感投入,因此 Ta 將無法從與 AI 的互動中經歷完整的人際關系體驗。
?《愛》
研究還指出,如果一個人的情感需求部分或全部通過 AI 得到滿足,這可能會降低與真實人類互動的動力和動機,從長遠來看可能會加劇孤獨和社會孤立。
比如,一個將 AI 視為唯一情感支持來源的人可能會在服務中斷時,感到極度焦慮或失落。相信最近有很多人都經歷過這樣的時刻:
從神經科學的角度來看,人類大腦對真實人際互動的反應與對 AI 互動的反應存在本質差異。當我們與真人互動時,大腦的鏡像神經元系統會被激活,大腦會釋放催產素(oxytocin),這種激素與信任、親密感和幸福感密切相關。而與 AI 互動時,這種神經化學反應顯著減弱(Carter et al.,2020)。
4.用 AI 來模擬浪漫/性關系可能加劇人的「物化」
擁有和定制人工智能伴侶以滿足個人欲望也存在令人擔憂的權力動態,「關系替代品」的出現可能會加重對人的物化和非人化(George,2023)。
加拿大一所大學進行一項研究,以了解人們與人工智能發生「性愛」的興趣,發現:
? 男性往往比女性更有興趣與機器人發生性關系。這種關系可以部分解釋為敵意性別歧視。換句話說,想要與機器人發生性關系的男性也往往對女性感到憤怒和不信任。機器人可能為男性提供了一種更容易信任的選擇。或者,機器人可能是一個他們可以鄙視的性對象——這就是他們想要對待女性的方式。
? 最后,社會支配傾向越高的人(即希望保持群體間地位差異的人)也更有可能對與機器人發生性關系感興趣。認為某些群體的價值低于其他群體的人似乎也對性愛機器人更感興趣。這些人可能已經將其他人視為更像物品,因此將機器人用作性愛對象也感覺更自然。
社會心理學家 Alexander Danvers 博士認為,這些結果描繪了一幅令人不安的畫面,即是什么驅使人們對與機器人做愛產生興趣:「那些對他人抱有敵意的人——通常是男性而不是女性。他們認為某些群體的人價值較低,可能對女性特別憤怒和不信任。他們可能已經遵循了涉及性支配的社會腳本,因此他們可能更愿意將機器人視為另一種性對象。」
?《阿麗塔:戰斗天使》
03
對部分邊緣人群,它也帶來了稀缺的溫暖
技術的本質是中立的,其價值不在于它本身,而在于人類如何駕馭它、賦予它意義。在那些需要關懷與連接的角落,AI 依然展現了其「溫暖」的一面。
1.減少了獨居老人的孤獨感:
老年人的身心健康會因孤獨感而受到很大影響,尤其是那些不與家人、朋友或社區互動的人。
美國一項研究調查了虛擬 AI 助手在減少老年人孤獨感方面的潛力。研究者邀請 75 歲以上的老人參加一場為期 8 周的試驗,借助亞馬遜的一款 AI 設備,使用語音命令控制事物非常簡單,還配備了友好且好用的內置人工智能。
結果,老人在參加該計劃四周后感覺不那么孤獨了。他們將虛擬助手視為真實的「人」,向 AI 友好地打招呼、提出請求或聲明、表現出禮貌以及回應 AI 的回復,這真的給他們帶來了良好的感覺(Gennaro,2020)。
?《愛》
2.給被「社交孤立」的人帶來安撫:
我們都知道被社交排擠、孤立的糟糕感受,社交孤立也會對心理健康產生不利影響。
一項研究中,一些在社交媒體上感到被排斥的人,被選中與一個友好的聊天機器人交談以表達他們的情緒。結果被表明有積極的影響。更具體地說,與聊天機器人互動的人比沒有互動的人體驗到更大的幸福感(Gennaro,2020)。
3.AI 阻止了一些人的自殺:
2024 年 1 月發表在 Nature 子刊的一項研究表明,使用聊天機器人能夠減弱人們的孤獨感并減少自殺行為。
研究收集了 1006 名 Replika 的用戶數據,量表顯示 90% 的人感到孤獨,有 43% 被認為是嚴重/非常嚴重的孤獨,7%的人認為自己有抑郁情緒。自我報告的結果表明,有 18.1% 的人在使用 AI 聊天的過程中獲得了治療效果,23.6% 的人能夠看到積極的生活變化,3% 的人表示與 AI 的互動使他們放棄了自殺的行為。
(*需要說明的是,不可將 AI 作為有自殺念頭的求助方式。如果輕生念頭非常強烈,或者已經出現了自傷行為,請撥打當地的緊急救援電話或心理健康熱線,尋求專業的幫助和支持。)
?《降臨》
最后想說
有人說,機器好像比人類還要懂人類。機器好像靠譜多了。
對于這一點,小紅書上看到一個特別動人的回答,分享給大家:
@亻蘭
AI產出的段落來自訓練模型的數據,那些有溫度的數據都是來自有溫度的人。AI 只是把人的智慧整合給你看而已,能溫暖人心的始終是人啊
參考文獻
Wu J (2024) Social and ethical impact of emotional AI advancement: the rise of pseudo-intimacy relationships and challenges in human interactions. Front. Psychol. 15:1410462. doi: 10.3389/fpsyg.2024.1410462
George, A. Shaji & George, A.s & Baskar, Dr & Pandey, Digvijay. (2023). The Allure of Artificial Intimacy: Examining the Appeal and Ethics of Using Generative AI for Simulated Relationships. 01. 132-147.
Yuan Z, Cheng X, Duan Y. Impact of media dependence: how emotional interactions between users and chat robots affect human socialization? Front Psychol. 2024 Aug 16;15:1388860. doi: 10.3389/fpsyg.2024.1388860.
M. de Gennaro 、EG Krumhuber 、G. Lucas, M.Y. Shade, J. Blaskewicz Boron, R. Maschieri BicudoJaber O. Alotaibi, Amer S. Alshahre,The role of conversational AI agents in providing support and social care for isolated individuals,Alexandria Engineering Journal,Volume 108,2024,Pages 273-284,https://doi.org/10.1016/j.aej.2024.07.098.
Jones VK, Hanus M, Yan C, Shade MY, Blaskewicz Boron J and Maschieri Bicudo R (2021) Reducing Loneliness Among Aging Adults: The Roles of Personal Voice Assistants and Anthropomorphic Interactions. Front. Public Health 9:750736. doi: 10.3389/fpubh.2021.750736
作者:鳥人
責編:羅文
本文轉載自公眾號“簡單心理”(ID:jdxl2000),一個有溫度,有態度,守倫理的專業心理公眾號。
這世界太喪了,我們想做點治愈的事兒。點擊名片,讓我們陪著你↓
“從卡點到全息” 深度賦能線下工作坊 | 智慧空間·春季課程
關系的本質,就是成長和治愈
???
咨詢電話:186-1257-6320 / 138-1124-8084
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.