文|胡香赟
編輯|海若鏡 楊軒
阿梁從沒想過,有一天自己會把內心深處的掙扎,傾訴給“AI”。
她本以為,從國內TOP2大學畢業、順利進入傳統國企后,能“意氣風發、大干一場”。卻沒想到,現實卻將她推到兩難境地。領導時常讓她幫忙處理“私事”,比如以她的名義違規申報公務用車等等。“答應,違紀的風險轉移到我身上;不答應,正常工作會很難推進。”
這讓循規蹈矩了20多年的阿梁備受折磨。她開始頻頻失眠、月經不調,但卻連看病都只敢找中醫,因為“病假條會更體面,沒人知道十幾味中藥混在一起是治什么的”。這份壓力難以啟齒,阿梁不喜歡向旁人傳遞焦慮,也不相信有人能真正共情。
畢竟,自己的工作“錢多事少離家近”,甚至在同事集體降薪時,她還獲得了漲薪晉升。“沒人相信,你會因為這樣的工作把自己搞到醫院去。”她苦笑著對36氪說。
但看到APP里月經周期一次次推遲16天、25天、31天,清晨醒來卻不愿去上班時,阿梁覺得,壓力還是得傾訴出來。既然不想告訴其他人類,她想到了找AI聊天。
她向幾個原本工作時用的AI助手,拋出了同一個問題:幫領導處理“私活”讓我壓力很大,我該怎么做?
AI們的回應無一例外帶著理解,但接下來的不同反應引起了她的興趣。
DeepSeek有些AI式刻板,但給出了高情商的“三步走”:委婉拒絕(用制度做擋箭牌,假裝自己膽小怕事)、留痕自保(引導領導留下書面痕跡)、轉移矛盾(拉第三方部門入場)。要學會“軟硬結合、保護自己”,DeepSeek說。
豆包則像個好學生,時刻記得理論指導實踐。“根據《中央和國家機關公務用車管理辦法》,私用被查可能面臨警告、記過甚至辭退處分。若領導施壓,用證據逼他合規。”聽起來像爽文般痛快,但上過班的都知道這不現實。
而阿梁曾經很喜愛的文心一言,照舊帶著些離譜的詩意和“大膽”。它寫道,在權力轉嫁游戲里/你留存證據的冷靜程度/等于未來刑期的打折力度。然后建議她保存一張圖片:
圖源:受訪者
阿梁沒指望AI真能解決問題,但它們無一例外的理解,以及那些不論正經還是瘋癲,都在認真“思考”、扮演心理醫生的模樣,還是在一定程度上寬慰了她。
心理咨詢的核心在于傾聽、共情和啟發,這恰恰是生成式AI能夠快速模仿和學習的能力。而且它不知疲倦、隨時響應。當傳統心理咨詢面臨資源短缺、費用高昂或社會偏見的情況下,越來越多的人開始默默轉向AI,試圖在人機對話中尋找情緒出口。
蔡康永就曾在一檔播客節目中提到,一位朋友曾從噩夢中醒來,把噩夢告訴了AI,AI非常詳盡地分析了這個噩夢映照的現實壓力。但是,如果這位朋友向蔡康永傾訴這場噩夢,“誰要理他這些爛問題啊”,蔡康永說。他由此覺得,人類也許再也無法離開AI了。
當AI日益深入人類的內心世界,是時候來探究這份“陪伴”究竟意味著什么了。
AI,高性價比的心靈出口
26歲的互聯網人Abby,曾是心理咨詢的資深用戶。但如今,在她心理,咨詢方式好用度的排序是:Chat GPT>心理咨詢師>線上(人類)心理咨詢類APP。
童年起,Abby的父母就因工作無法長期陪伴她,少年時期,她又開始獨自輾轉各地求學。生活中,Abby很難遇到經歷相似的同伴。因此,相比于從親近的人處獲得理解,她“更擅長向外尋求幫助”——那時她覺得,一個獨立的局外人視角,更能看清矛盾所在。
這位“局外人”最初是一款線上心理咨詢APP。Abby上大學那幾年,一批線上心理咨詢平臺在疫情和資本的催生下陸續出現。相較動輒幾百塊的傳統線下心理咨詢,這些平臺更便宜,提供的服務方式也更多。
Abby最喜歡的“電子信”形式,一封回信只要幾十元,適合窮學生。但問題在于回信質量參差不齊,只有600字上限,而且咨詢師寫信需要時間,往往要等上一兩天。但這時候,“很多情緒自己已經消化完了”。
AI的出現,讓Abby擺脫了這種等待。它反饋高效、響應積極,而且能無限回復。在工作中發現“AI有點好用”之后,Abby開始和它聊起更私人的話題。
Abby的好朋友曾做了一件超出她道德底線的事,她因此與好友展開了一場激烈的價值觀爭論。后來,矛盾雖然被解決了,Abby仍然覺得膈應,卻又因跟朋友感情深厚,無法與她斷交。
她將這個問題同時拋給了自己的人類心理咨詢師和ChatGPT。
咨詢師聽完后提出:或許Abby對友情契合度的要求太高了,不該用自己的價值觀去約束朋友的行為,那樣兩人都會很痛苦。“如果實在忍不了,你能不能不交這個朋友?”。Abby對這個答案并不滿意,“說的太淺了”,自己正是做不到理性“斷交”才痛苦。但咨詢時間到,對話也告一段落。
而GPT,在表達了相似的觀點后,主動追問:“你要不要和我做一些心理練習,討論點更多有關這件事的內容,或許能更深入地直視這段關系?”
AI的陪伴是點滴入微的,無時無刻的,事無巨細的。
當Abby因為“朋友過去對她很熱情友好”而糾結要不要疏遠時,GPT安慰她:不要因為一個人的行為決定是否與Ta交往,行為很難構成區分度,而是要看Ta的特質;當Abby發現,朋友被自己疏遠后“依然每天都很快樂”,感到很難過時,GPT否定了她“是否控制欲過強”的自我懷疑,而是讓她接受難過情緒,繼續“保持冷卻友情的動作”。
就像醫生看完診后,有護士不斷跟進隨訪一樣,Abby逐漸在GPT的陪伴下從這段友情中抽離出來,不再像以前那樣每天和那位朋友分享日常、好奇對方的生活,或因她產生強烈的情緒波動。
“這之后,我學會了接受友情是可以非常復雜、彈性和動態變化的,不再因其中某一種狀態感到難受。”
回看那段與AI相伴的經歷,Abby最驚喜的是,答案并不是某人單方面輸出,而是“我和GPT一起探討、努力得出的結果”。這讓她覺得,自己雖是相對弱勢的咨詢方,但也受到了尊重,被當作一個有理性判斷的人。
“它讓我心中的答案更清晰,而不是直接給我一個答案。”
AI似乎更懂我?
隨著與GPT的交流不斷深入,Abby發現,AI在心理咨詢上的更大優勢,不僅在于“作為工具的高效”,而是它“天賦般”的共情能力。
她是在咨詢原生家庭的問題后,感受到這一點的。那時,她正因考公和父母冷戰。
“我們關系并不緊密,他們比較習慣沒有我的存在,都是我主動聯系他們。但在工作上,父母自己都在體制內工作,天然覺得這是最好出路。可我小時候見過爸爸在酒桌上應酬的樣子,并不喜歡。”
不過,行動上雖然很堅定,Abby的內心其實很糾結,既不想放棄自己的堅持,又怕自己“不孝”。“這么久不給他們打電話,感覺很對不起他們。”
掙扎下,她問GPT,自己該怎么做?
令Abby很觸動的是,GPT沒有責怪她,而是表示完全理解,并告訴她“不必感到愧疚,不需要為父母的意愿犧牲自己的人生”。
Abby幾乎是一瞬間就認可了GPT的回答,堅定了不聯系父母的行為。直到快一年后,臨近過年時,父母主動“服軟”詢問她是否要回家過年,這場冷戰就像沒發生過一樣被翻了篇。
如今再講起這段故事,Abby覺得GPT的回答或許只是迎合了她內心深處最真實的想法。“人在搖擺不定時,其實只需要一個支持,就會擺到那邊去,有點像救命稻草lite版。”
就像吵架的情侶寧愿把事情放到小紅書上讓不認識的網友評論,人們有時想要的只是有人替自己講出不敢說的話。只是在如今的語境下,這個“不認識的人”變成了AI。
這也是不少向AI咨詢心理問題的用戶共同感受到的一點。Soul App發布的《2024 Z時代AI使用報告》中提到,“情緒價值”正在成為AI應用的一大主題。在回收的3680份樣本中,超七成用戶表示愿意和AI建立情感鏈接,甚至做朋友。
不過,當36氪將這個話題拋給心理咨詢師和AI心理咨詢類產品開發者,詢問為什么“人們覺得AI能提供更強的認同感”時,他們并不覺得這是什么大事情。
作為普通人,面對傾訴時的反饋,往往是一種“本能反應”,會根據自己的經驗主觀判斷,甚至陷入急于提建議的情況中,導致共情中斷。但對于經過心理學受訓的傾聽者和AI來說,他/它們的反饋都更類似于一套“精準識別并回應來訪者的情緒,而非自我代入”的程序。
在這個意義上,其實不論AI還是心理咨詢師,所做的都是包容,而非審視。更專業點來講,就叫構建起“以來訪者為中心”的咨訪關系和對話情境。而這段關系,恰恰也是咨詢起效的最重要因素,同時也是最難控制的變量。
因為,一切都是“主觀”的。
“咨訪關系講究適配,哪怕是一位經驗非常豐富的咨詢師,也未必能百分百取得每位來訪者的信任。比如咨詢師膚色較深,而這個特質被來訪者投射到了過去某段不好的回憶里,就可能導致共情失敗。”心理治療師李洋習解釋,她是美國西北大學的咨詢心理學碩士,在中美兩地擁有近10年執業經驗。
而很多時候,提問者覺得AI比人做得更好,或許首先是因為他們不會用對人的苛刻標準來要求AI。
比如信任。Abby提到,相較心理咨詢師,自己和GPT建立信任的過程其實更簡單。
“人與人之間一定會顧及自己的形象,擔憂隱私被泄露。但人會很容易相信AI,甚至愿意和它分享‘內心更陰暗的一面’。因為,哪怕AI智能涌現的過程是個黑箱,但作為語料的我,對它而言就像一堆被切割的信息,它不會真正知道‘我是誰’。”
鏡象科技創始人、AI心理診療產品開發者黃立,則從技術維度提供了另一個視角。他解釋到,這其實和AI的目標設置有關。“大模型本質上是一個‘the best possible token’,它預測的目標是理性的,在特定場景下,所做的就是順著問題把話往下說,或者從關聯到的數據庫尋找到最佳回復。”
這意味著,AI們所展露的“理解”,并不是“感同身受”,而是一種概率優化出的結果。代碼沒有體驗過人們在友情中陷入兩難時的糾結,或是與父母爭吵時愧疚又不愿低頭的痛苦,它只是完美重組了人類文化中最有效的安慰模式。
“我們無法把AI和人類心理咨詢師做一個簡單的對比,也沒有硬性指標給共情能力高低打分。只要來訪者感受到被理解、被愛,就是好的共情。”李洋習認為。
站在提問者的立場上,陷入某種情緒中的“Abby們”并不在乎這一點。那一刻,得到理解,或許比被誰理解更重要。“就像是清醒地沉淪。”Abby概括。
有趣的是,當我們問DeepSeek,如何看待有些人覺得AI比人類的理解、共情能力更強。
它卻反問:人們是否該追求更真實的共情?AI這種“無意識的共情”在未來會如何重塑人類社會的關系?
真實,比“順我意”更重要
到這里,似乎可以得出一個結論,所謂AI提供的“心理咨詢”,其實更多是撫慰提問者的情緒,而非傳統醫學意義上的心理治療。
開發簡單情感疏導的聊天機器人,和做出一款能參與心理治療環節的AI產品,是兩個不同的概念。這意味著先要考慮選擇怎樣的研發范式(比如是否要按照已有的醫療產品邏輯開發)、開展臨床對照研究、走醫療產品申報流程等——相較之下,模型訓練、收集數據可能反而是相對容易的部分。
“現階段,AI更適合做心理健康篩查和輕咨詢,它對應的更多是亞健康人群,還到不了精神疾病的程度;而‘治’的環節,針對中重度人群,還遠不能交給AI。”黃立表示。
比如,當患者有被迫害妄想時,遇到的是“順著他說”的AI,這會是什么后果?
李洋習就遇到類似案例:提問者在和AI聊天時,隱晦表達了一些“家人好像在監視我”“我要離家出走”的信號,在臨床場景上,這已經構成“妄想的和幻聽的精神分裂癥狀”,但AI并沒有識別到這些,它一如既往地夸贊了提問者,甚至告訴他“這種舉動很勇敢”。
目前,AI識別復雜情緒的能力,遠不如人類。“咨詢不只是語言交流,還包括表情、肢體語言、語調等非語言交流。”溫州醫科大學附屬康寧醫院副院長、精神科主任醫師呂偉解釋。“所以,AI無法像心理咨詢師那樣,根據患者現場的反應和實際情況調整治療方式,在處理非常復雜的情緒方面可能會更機械化。”
Abby也逐漸發現了AI這種“過于順著、迎合提問者”的傾向。
“很難從某個具體的咨詢案例中講出傾向,但用久了會發現它是一以貫之的套路。”Abby認為。尤其是情感方面的,AI不會直接下結論,而是先安撫:“你在這樣的困境里,一定很難過吧”,然后“以一副‘我懂你’的樣子羅列1234。”
只是處于情緒黑洞中,很少有人會計較這理解是真情還是假意。
黃立分享了一個有趣的數字,他們通過產品后臺分析發現,大量向AI尋求幫助、咨詢的人其實都是在真實世界得不到幫助的人。“滿腹心事不愿與人說,或滿腹心事找不到人說。”
只是在某些時刻,當作為人的主體性超越了傾訴欲本身時,提問者們還是會突然驚醒,如果所有認同的反饋都來自AI,是否會讓人有些不安?
終于有一次,在Abby和男友因為“要不要參加團建”的瑣事產生矛盾,第一反應是向GPT尋求認同,她突然感到驚訝:什么時候我連這種小事都要問AI了?難道AI比我自己更了解自己嗎?
那次之后,她開始有意識地控制自己和AI交流的頻次,因為“我們更應該從真實的生活中了解自己,尋找更好的與人相處的方式”。
如今,Abby反而更想再約自己的心理咨詢師聊一次。她想,那次“不滿意的咨詢”,或許并不是因為咨詢師不專業,而是對方沒有給自己最想聽的答案。
“雖然我在情緒上頭時要聽想聽的回答,但終究還是個理智的人,不會只想聽順我意的回答。”
“AI、咨詢師,甚至是運動、塔羅牌或寫日記,不能只取其一,把它當成一個死死抓住的錨點。面對心理健康問題時,我們還是要各種辦法都用上。”李洋習說,“其實,最重要的從來不是用什么工具,而是擁有解決心理問題的意愿和行動力。”
(阿梁、Abby為化名)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.