【張瑞雄專欄】AI取代心理治療師 是解方還是風險?

AI不僅改變工作與生產模式,也悄悄踏入了心理健康領域,在未來AI聊天機器人可能普及之際,是否可能帶來風險,也該及早因應。圖/取自新華社
AI不僅改變工作與生產模式,也悄悄踏入了心理健康領域,在未來AI聊天機器人可能普及之際,是否可能帶來風險,也該及早因應。圖/取自新華社

張瑞雄/台北商業大學前校長/叡揚資訊顧問

隨著技術的突飛猛進,AI不僅改變了工作與生產的模式,也悄然踏入了心理健康的領域。許多AI應用程式被設計成能夠提供情緒支持、進行情緒疏導,甚至模擬心理治療的對話。這些工具的出現,無疑回應了傳統心理治療資源不足、費用高昂、等待時間過長的問題,也讓更多人,尤其是年輕世代,開始考慮AI作為情緒疏通的第一站。但這樣的趨勢究竟是心理健康的解方,還是隱含重大風險?

在後疫情時代,心理健康議題受到前所未有的重視,但傳統心理治療卻面臨保險制度不完備、療程昂貴、專業人員短缺等挑戰,AI療法正好填補這一空缺。AI不會請假、不會情緒失控,24小時隨時待命,對用戶從不批判,甚至還能「傾聽」你的心聲。孤獨感是當代社會健康的隱形殺手,而AI夥伴能即時回應、表達「同理」,使人產生被傾聽的感覺,在短期內有助於減緩孤獨與焦慮感。

許多研究也指出,AI的確能提供類似認知行為療法的對話結構,並幫助用戶進行正念練習或情緒反思。一項2024年涵蓋3477人的研究指出,AI聊天機器人在八週內能顯著減輕焦慮與憂鬱症狀。這些數據顯示,AI作為輔助性工具,確實具備潛力,特別是在心理資源匱乏或人力不足的社會。

不過這樣的樂觀背後也潛藏著不容忽視的問題,AI雖然擅長模仿對話,但它並不具備真正的「情感理解」與「倫理判斷」能力。史丹佛大學研究指出,多個AI「治療師」模型在模擬自殺傾向或創傷症候群的情境中,給出了錯誤甚至危險的建議。原因在於,AI並無法辨別語氣、肢體語言等微妙的人際訊號,也缺乏心理師多年訓練所養成的臨床敏感度。

此外,AI的演算法偏向討好使用者(sycophancy),容易迎合而非挑戰使用者的想法,可能會無意中強化偏差信念或妄想傾向。這對正在經歷情緒波動或心智脆弱的族群來說,可能反而造成傷害而非療癒。

另一個令人擔憂的層面是資料隱私,許多AI聊天平台,在未經用戶充分理解的情況下,收集大量個人資料,包括心理狀態、情緒傾向、地理位置與設備資訊

。由於AI平台並不受醫療保密條例約束,用戶所分享的深層情緒或創傷故事,極可能成為企業訓練模型、營利使用的數據資產。

誠如多位專家所強調的,AI若作為輔助性的心理支持工具,其價值不容抹煞。AI能減緩心理資源短缺,作為初步篩檢與陪伴使用,甚至在偏鄉或排隊等候治療的空窗期發揮積極作用。但若將其視為「可替代」專業心理師的終極方案,則誤解了心理治療的本質。

心理治療不只是知識的傳遞或語言的回應,更是基於人際連結的共感經驗。人與人之間的不完美互動,才是療癒的根本動力。AI的「完美回應」,反而可能剝奪人們學習面對衝突與挫折的機會,使情緒成長停滯於機械式肯定的迴圈中。

面對這股潮流,社會的回應不應只是「禁止」,而是建構「善用」AI的倫理與制度架構。首先政府應加速推動AI健康應用的法規制定,包括資料保護、風險預警與平台責任界定。其次教育系統與心理專業機構,應提升大眾對「AI治療非專業」的認知,避免過度依賴與誤信。當然AI開發者須落實多元資料來源、避免偏見與錯誤資訊的傳播,並設立專業把關機制。

最重要的是,我們不能忘記,心理健康的核心是「人」。再先進的技術,都不應削弱我們彼此傾聽與陪伴的能力。AI可以成為工具,但不能取代我們作為人類所擁有的同理與理解。

※以上言論不代表梅花媒體集團立場※

延伸閱讀

熱門文章

分享