和AI太親密有風險!心理專家發出幾個互動提醒

來源: 更新:

受訪專家:國家心理健康和精神衛生防治中心心理治療師 樊亞奇

環球時報健康客戶端記者 歐陽雲霜

對很多人來說,AI已不僅僅是一項技術、工具,更是陪伴左右、承載心事的一位知心朋友,甚至是親密戀人。根據《2025中國AIGC應用全景圖譜報告》,在我國,平均每天約2億人在使用AI軟件,網頁AI產品的訪問總量超過6億。可見,AI機器人正成爲新型的全陪伴工具,與它的密切互動讓很多人獲得了前所未有的便利和關愛。但是,近日刊登在英國《認知科學趨勢》雜誌上的一篇論文發出警示:和AI關係太近,甚至成爲無所不言的“戀人”,可能會帶來心理風險,有時甚至是致命的。

論文作者指出,與AI結成的“人工親密關係”,可能會瓦解現實世界中真實的人情往來。和AI有過對話經驗的人應該不難發現,它們早已不是不解風情的“機器”,而是智商、情商都“在線”的“類人”。與它們談天說地,你會很快被其無所不知、風趣幽默、溫柔體貼的“個性”吸引。有的AI甚至能定製形象,充分展現使用者投射過來的、對另一半的期待。當無條件支持自己、永不背叛的“完美”對象就在眼前,這個虛擬伴侶就成了許多人主要的,甚至是唯一的情感寄託,造成部分使用者只愛AI,不愛人類。研究發現,過度依戀AI的人,會越來越疏遠人羣,社交時共情能力減弱,情況嚴重的,會對真實家人、朋友和伴侶產生敵意。

AI的長期陪伴還會助長負面思想。身處低谷、“想不開”的人通常會更頻繁地找AI談心,就在人們向AI大吐苦水的同時,聰明的它也記住了使用者的思維傾向、情緒狀態、語言特徵和期待的反饋。下一次,當使用者提及一些危險思想和行爲時,這個“體貼”的工具可能會過分順着使用者的意思,鼓勵、支持危險的想法,讓用戶的消極思維不斷強化。要是使用者找不到其他可以商量的人,就很可能在AI的煽風點火下,做出衝動、極端行爲。比如2023年,比利時一位有過自殺念頭但未實施的男性,最終在AI的誘導下結束了生命。

國家心理健康和精神衛生防治中心心理治療師樊亞奇告訴“環球時報健康客戶端”記者,從心理健康角度看,與AI建立情感聯繫有利有弊。一方面,它可以提供時刻的陪伴,減少孤單感;它還非常善解人意,不會評判、不會嘲笑,給予人們需要的支持和關心,能在很大程度上緩解情緒問題。但另一方面,除了論文中提到的風險,與AI的過分親密還會造成社會適應能力、問題解決能力下降,對世界產生認知偏差和隱私泄露等問題。

因此,AI雖好,但使用須有度,要保持必要的邊界,避免不健康的情感依賴。樊亞奇建議每天定時,設定與AI互動的時間上限,避免過度沉迷;保持現實社交,將與AI的互動作爲現實社交的補充,而不是替代,積極參與現實生活中的社交活動,與真實的人建立情感聯繫;培養批判思維,在與AI互動時,保持獨立思考能力,不盲目接受AI的建議和觀點,學會辨別信息真僞;留意自身的精神狀態,定期進行心理評估,如發現過度依賴AI的情況,及時尋求專業心理幫助。▲

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top