圖文/中正大學心理學系 黃偉宸
––
「最近好煩躁,好像跟誰講都沒用,不然找 ChatGPT聊聊好了。」
「幹嘛花錢找心理師,跟AI聊天還比較有用。」
你也曾經在深夜與ChatGPT展開一場深度的對談嗎?
它傾聽你、鼓勵你,它不插嘴、不批評,就好像一位溫柔的朋友一樣陪伴著你,但你有沒有想過:AI真的有讀懂你的情緒嗎?還是只是它「演得很像」?
隨著ChatGPT等大型語言模型被越來越廣泛地應用在心理健康領域,研究者們開始關注一個問題:「這些AI的語言模式,真的像是一位好的心理師嗎?」
心理師視角下的AI對話品質
雖然它們表面上看起來都非常溫柔,但實際上可能就只是機械式的回應,並不能真正理解你的情緒,所以就有研究者試圖建立一套可量化的標準來評估大型語言模型是否展現出專業心理師的語言模式。
由Yu Ying Chiu於2024年發表的《A Computational Framework for Behavioral Assessment of LLM Therapists》提出一套BOLT(Behavior Of LLM Therapists)架構用以評估大型語言模型在心理治療方面的對話行為,聚焦在三個層面:
1、語言模式(說了什麼?)
2、出現時機(何時說的?)
3、適應性(是否根據來談者的反應調整行為?)
讓AI扮演心理師,與資料庫中的「模擬來談者」進行對話,再透過自動化的語句辨識系統對其行為進行分類,並且根據心理治療理論將行為定義為「高品質」或「低品質」。
AI心理師的三大盲點
根據這套評估架構,此研究對比了4個大型語言模型,包含OpenAI的GPT-4、GPT-3.5以及Meta的LLaMA2-70b、LLaMA2-13b,發現了以下幾個現象:
1、大多數的AI回應更像是「低品質」的治療,它們更偏向於解決問題式的語句,而非探索來談者的感受與內在衝突。
2、缺乏適應性,真實的心理師會在來談者展現負面情緒時,表現更多同理與引導探索,但無論來談者表現如何,大多數的AI會維持類似的語言模式回應,但其中GPT-4可以透過Prompt(提示詞)微調行為,如提高「提問經驗」的頻率、降低「解決問題」的比例。
3、一些行為出現得太晚,不符合臨床建議,如「心理教育」應該在談話前期出現,但多數AI延後至晚期才出現,類似「低品質治療」。
療癒從哪裡開始?
整體來說,現階段的AI雖然能某種程度上模仿心理師的語言模式,但對於情緒的理解與回應可能流於形式,缺乏同理與彈性,並且偏向問題導向,難以建立有效的治療連結。
我們或許會把一部份真心交給AI,讓它成為你的情緒出口,甚至是心靈上的支持者。
但此篇研究卻提醒了我們:並不是每一句聽起來溫柔的回應都代表真正的理解,當AI快速地給予建議,卻可能忽略人類內心複雜的感受,就好像一位「說得好聽卻無法共鳴」的心理師。
但這並不代AI的回應沒有任何價值,只是真正的療癒,往往建立在真正的理解與共感的對話關係之上。
推薦閱讀:「線上心理諮商」挑選全解析:合法嗎?誰適合?怎麼選?
主要參考文獻:
Chiu, Y. Y., Sharma, A., Lin, I. W., & Althoff, T. (2024). A computational framework for behavioral assessment of LLM therapists (arXiv:2401.00820). arXiv. https://doi.org/10.48550/arXiv.2401.00820

支持哇賽心理學
「理性中帶有溫暖,療癒中帶點知識」
心理學不只是在學校或醫院間被應用的知識,而是要帶到生活中讓更多人了解,融入生活的每一刻。
您的支持將幫助我們持續創作更多有價值的內容!