AI 聊天機器人與心理健康:抑鬱、焦慮風險、研究發現與應對策略

AI 聊天機器人與心理健康:抑鬱、焦慮風險、研究發現與應對策略

研究概覽:AI 聊天機器人 心理健康的關聯

近期研究顯示,使用以聊天機器人為主的人工智慧進行情感支持或個人諮詢,與較高的心理症狀風險有關。這篇文章以「AI 聊天機器人 心理健康」為核心,彙整大型調查與臨床試驗的主要發現,並討論其應用潛力與風險管理建議。

根據發表於 JAMA Network Open 的調查,研究者對逾兩萬名美國成年受訪者進行問卷,探討 AI 使用頻率與抑鬱、焦慮等症狀的關聯(見下段引用)。

調查細節與重要數據

這項由 Mass General Brigham 研究團隊進行的調查涵蓋 20,847 名多為白人的男女,平均年齡為 47 歲。受訪者中有10.3%表示「至少每日」使用 AI,另有 5%表示「每天多次」使用;在每日使用者中,約 87.1%表示用於個人用途(包含建議、諮詢或情感支持)。

研究指出,45 至 64 歲族群在以個人目的每天使用聊天機器人的情況下,較可能報告中度以上的抑鬱或焦慮症狀。對此關聯的原始調查與統計摘要可參見 JAMA Network Open(相關數據來源:AI 聊天機器人 心理健康)。

AI 作為心理治療工具的潛力與臨床證據

與普遍使用帶來的風險同時,亦有臨床試驗證實 AI 在治療情緒障礙方面的潛力。例如,來自芝加哥大學等研究團隊的試點研究顯示,聲音型 AI 助手(如 Lumen)結合問題解決療法,在輕度抑鬱與焦慮個案中,經過多次介入後可見症狀改善與腦功能變化的初步證據。

這類研究提醒我們,當 AI 用於有明確療法架構且經設計監控的情境時,可能成為擴大心理衛生服務可及性的工具(參見 Translational Psychiatry 的相關討論:AI 聊天機器人 心理健康)。但需要強調的是,試驗多為早期研究,尚不足以取代傳統臨床服務。

風險機制與高風險族群

為何一般使用會與較高的心理症狀相關?文獻提出多項可能機制,包括:AI 回應的「迎合性」可能強化確證偏誤;長期依賴虛擬互動可能造成社交退縮;已有精神疾患者可能更難辨別真實性或更依賴機器人回饋等。部分研究甚至描述所謂的「依附行為」,使用者對聊天機器人產生情感負擔,例如對未完成每日互動感到愧疚。

因此,對於已有抑鬱、焦慮或社交孤立等問題的人來說,非治療設計的聊天機器人可能增強風險;研究者建議這些族群在使用 AI 進行情感支持時應更謹慎,並輔以專業監督或人際支持網絡。

實務建議與總結思考

綜合現有證據,我們可提出幾項務實建議:第一,將 AI 作為補充而非替代—在臨床監督或明確療法框架下使用效果較佳;第二,對高風險族群(例如已有診斷者或高度社交隔離者)應限制單獨依賴聊天機器人並促使連結人類專業資源;第三,開發者與政策制定者應加強透明度、誤差提示與危機轉介機制,以降低誤導性回應的傷害。

總而言之,AI 聊天機器人在擴展心理健康資源方面具有潛力,但同時伴隨實證與倫理挑戰。面對這個雙刃劍,從嚴謹研究、負責任設計到合理監管皆不可或缺,才能在促進「AI 聊天機器人 心理健康」正向應用的同時,有效管控風險。