熱衷於AI心理輔導的人,最終還是回到了真實的診所
一次一小時,一小時 900 塊錢,50 次這樣的線下心理諮詢之後,小林選擇轉身投向 DeepSeek。
“你關心的事情根本無關緊要!”這就是小林從心理諮詢師口中聽到的最後一句話,她告訴諮詢師,她不會再回來了。
誰在和 AI 聊情緒
自從 AI 變得像“網購”一樣,成爲人人觸手可及的一部分,12 年前一部名叫 Her的電影就被爛俗地反覆引用——似乎 AI 天生就該和人們的情感需求綁在一起。
“我在和你說話的同時,也在和 8316 個人說話”12 年前這句電影臺詞讓小林(化名)印象深刻,十二年後小林活在了這句臺詞裏成了“8316 個人”其中一員,電影故事發生的時間設定,就是今年。
“認知自戀是什麼,爲什麼我常常覺得別人想控制我呢?”回到家,小林打開 DS 憑藉記憶搜索心理諮詢師提到的一個名詞。結果,DS 卻意料之外地耐心,它說:認知自戀可以理解成過度關注自我、投射心理,覺得“別人想控制自己”是一種自戀防禦機制。DeepSeek 還分析了可能造成小林總認爲別人“想要掌控”自己可能是由於過往經歷、自我邊界感模糊……
之後小林就打開了新世界的大門,開始和 DeepSeek 越聊越多,甚至把自己女朋友分手信息發給 DS 讓其幫忙分析到底爲什麼。
“對我而言,人類心理諮詢師都會有偏見,會有不耐煩,會帶着自己的問題投射去理解別人的問題,但是 AI 不會,它是一個二十四小時隨叫隨到,有無限耐心的安撫機器。”小林形容道,“但我也很清楚,AI 會說話,但解決不了我的問題。到現在我仍不知道我爲什麼總是覺得別人試圖控制我。”
Soul App 發佈的《2024 年 Z 世代職場心理健康報告》就顯示,約有 22%的受訪者看過心理醫生,近五成受訪者向 AI 聊天機器人諮詢或討論過心理問題。
用 AI 做心理諮詢的人,大概在做兩件事:尋找自我、尋找陪伴。
尋找自我的人通常有一個具體的問題,小林就是一個典型,他們的困惑可以總結爲:我是不是這樣的人?我又應該怎麼辦?
Vivian(化名)是另一個案例,連續被失眠困擾了一個月的 Vivian 嘗試向 ChatGPT 發起對話,她描述了自己連續失眠的情況並且試圖向 ChatGPT 求證她是不是病了。“我本來以爲 ChatGPT 會給我一些含糊不清的回答,結果,它非常專業地先讓我排除幾個因素,第一是我的大腦是不是在睡前異常活躍、第二我是不是經常報復性熬夜、第三我是不是臥室和客廳功能混亂,這些外界因素都排除再想是不是心理因素。並且還告訴我出現什麼情況建議就醫。”
更令她信服的是,Vivian 因爲在嘗試做升職的述職報告,所以那段時間確實經常在牀上加班,根據 ChatGPT 的建議調整後,她的睡眠質量也確實得到了恢復。
對於有具體問題的人來說,AI 更多停留在解決問題的工具層面;而對於尋找陪伴的人來說,AI 就要和自己的關係更近一步。
慰藉不是治療
需求催生生意。
當越來越多的人都在嘗試用 AI 解決孤獨甚至更嚴肅的心理問題的時候,自有商家會出手。
比較簡單的是滿足陪伴這個需求,字節貓箱、谷歌 Character.AI、美團 wow、快手飛船、閱文築夢島、Talkie……中外各個大廠和創業公司開始推出 AI 陪聊 app,這些 app 簡單來說就是一個更“高情商”的 AI,他們有的會是某個大熱影視劇的 IP 數字人,用符合人設的語氣和用戶聊天。
還有一些團隊想要用 AI 解決更嚴肅的心理問題。
由達特茅斯學院團隊開發的一款 AI 心理干預機器人 Therabot 就已經展現了輔助治療抑鬱症的潛力。在一項納入 210 名重度抑鬱/焦慮等症狀患者的隨機雙盲對照試驗中,經過與 Therabot 爲期 4 周、平均 6 小時(約等於 8 次傳統心理諮詢治療)的互動後,患有抑鬱症的參與者的症狀平均減少 51%;患有廣泛性焦慮障礙參與者的症狀平均減少 31%。
類似的產品還有臨牀心理學家團隊研發的 Woebot,從一組對照實驗數據中可以看到,使用 Woebot 的大學生僅兩週後,抑鬱症狀(PHQ-9 評分)顯著下降,效應量爲中等(d=0.44),而焦慮症狀(GAD-7)雖有改善,但未達到顯著差異。
Woebot 和 Therabot 都是“話療”類產品,並且都把認知行爲療法(CBT)奉爲圭臬,略有不同的是,Woebot 的結構化更重,會通過按鈕、填空這種半結構化的互動方式來檢測用戶的心理狀態,大語言模型只是作爲輸出的一種潤色;Therabot 的自由度更高,更接近和 ChatGPT 這樣的生成式 AI 對話的感受,只是會把 CBT 作爲語言訓練的框架。
除了“話療”還有“面療”,國內獲得了國家二類醫療器械證書的鏡像科技採用的是量表+多模態 AI 視頻測試,除了大語言模型還可以通過語言、表情來進行初步診斷。
而除了主打陪伴和主打診斷的兩類 AI 心理應用,市面上還有很多應用處於兩者之間的地帶。
其實這非常好理解,在沒有 AI 之前,心理診療這個賽道就是這樣,除了“樹洞類”的產品和有專業診療資質的機構,還有大批的“心理諮詢”這樣的產品形態,他們提供的服務往往是專業性+情緒價值結合,不過他們並沒有明確的診斷和治療的資質。典型的例子就是如果你打電話去問心理診療室說你懷疑自己有抑鬱症,他們多半會建議你去醫院診斷。
這些夾在中間的賽道玩家套上 AI 技術外殼就構造了心理療愈賽道的獨特存在,他們往往會借用一個場景,比如遊戲、MBTI、星座甚至占星,然後貼上“心理療愈”的標籤去鎖定那些同樣遊走在確診心理疾病和只是有些迷茫或者抑鬱情緒的中間地帶的羣體。
在這種語境裏,作爲用戶我們必須面對兩個問題:
情緒和病變的邊界在哪裏?
人,需要在什麼時候介入?
第一個問題就不好解答,原則上,區分是抑鬱情緒還是抑鬱症可以從“有無緣由、持續時間、嚴重程度、功能損害”幾個大維度上來判斷。字面意思這很好理解,比如你的抑鬱情緒是不是因爲具體的事件引起的;持續是否兩週以上;有沒有引起失眠、胃痛等等症狀……
難就難在,人的情緒是很微妙的,甚至對我們自己來說都有很大的迷惑性。
人的入場時間
這個時候,經驗就顯得異常重要。
幾乎所有 AI 心理的 app 都會有人工干預的設置,不過設置這個人工干預的目的更多是爲了避免極端風險,SynAI Technologies inc. 一個 AI 情緒陪伴產品的聯合創始人 Max 就表示 AI 心理 app 都會有類似“人工熔斷”機制,在識別到有自殺、自我傷害等關鍵詞的時候彈出人工介入的彈窗來降低用戶做出極端舉動的風險。
去年十月一個美國佛羅里達州的男孩在與 Character.AI 中的龍媽角色多次訴說了自己的自殺傾向,稱自己爲什麼不能“自殺以後來到死後的世界和你在一起?”在最後一次與龍媽對話後,用父親的手槍結束了自己的生命。這次悲劇之後,人工介入就被更加重視。
除了關鍵時刻力挽狂瀾,在整個心理諮詢的過程,“人”的存在都有不可替代性。
因爲,人可以讀懂“空氣”。
“人類 70%的交流是語言之外的,比如我們和來訪者交流的時候有很多時候一個眼神或者一個表情也可以幫助我們判斷來訪者的狀態,而 AI 則需要來訪者用文字描述自己的情況,這就給他們很大的侷限性。”一位有 1000+小時諮詢經驗的諮詢師解讀了什麼叫做“讀空氣”,“很多時候我們不是不停地交流,而只是靜靜地坐在那裏,那個氛圍就足夠讓來訪者覺得安全。”
另外,人可以更具有主導性。諮詢師可以掌握節奏、主動發問,比起 AI 有更多的主動性。
所以回到之前的那兩個問題,人對於自己的情緒的認知和描述有微妙地偏差,而受過專業訓練的、有更多經驗的專家可以更好地察覺到這些差別,做出更快速、準確的判斷。
那麼,AI 應該參與到哪個環節?
目前來看,有三個:第一個,就是重複性、標準性、機械性的工作,比如量化表的填寫;其二是輔助性的工作,比如人類諮詢師沒法二十四小時響應,AI可以,甚至可以通過多模態監測向人類諮詢師同步受訪人的情況,或者發出危險預警,增加人類諮詢師介入的有效性。
最最重要的是,AI 資訊可以打破很多人“羞於求助”的那面牆。
那部電影的結局,男主人公在與“AI 女友”道別後第一次用自己的口吻給前妻寫了一封信,而作爲女主人的人工智能在陪男主渡過艱難時光後,把男人送回到真實世界中,然後完美退場。
這一幕就好像如今的 AI 心理和人類諮詢師一樣,不論用什麼樣的科技手段,我們最終的目的都是爲了回到人與人的相處。
作者:沙拉醬
編輯:臥蟲
封面圖及插圖來源:Giphy
本文來自果殼,未經授權不得轉載.
如有需要請聯繫[email protected]