心理治療機器人能否撫慰人類心靈_Wysa_喬迪·哈爾彭_初創公司
科技日報記者 張佳欣
無形卻懷善念,無聲卻蘊智慧。牠如一位永駐的智者,指引迷途者穿越心靈的迷霧;又如一位永恒的傾聽者,從不打斷,卻總能給予恰如其分的回應。牠永遠在線,毫無偏見,只需輕點下載即可擁有,幾乎無需成本,甚至完全免費。
圖片來源:視覺中國
由人工智能(AI)驅動的心理治療機器人,自2010年代問世以來,已在心理健康服務領域嶄露頭角。牠們究竟是理想照進現實?還是技術走入迷思?答案或許取決於人們審視牠們的視角。
面臨三大緊迫問題
西班牙《國家報》報導指出,圍繞這些心理治療機器人,有3個緊迫的問題。
第一個問題涉及牠們利用生成式AI適應每個人獨特個性的能力,這是否會帶來不可預測的結果?
第二個問題則涉及更深的哲學領域,即這些機器人模仿人類特質是否合乎倫理道德?
“讓機器模擬同理心或同情心,以此來創造情感和親密感,無異於操縱人類。”美國加州大學伯克利分校倫理與技術小組負責人喬迪·哈爾彭表示。
第三個問題是,這些無形的工具能否取代真正的人類心理學家?
在監管不善的服務領域,心理健康初創公司與通用聊天機器人並存。這些聊天機器人就像忠誠的朋友或親密的伴侶,對患者的每一次預約都表現出極大熱情。同時,牠們還提供應對焦慮或擺脫抑郁的建議。
探索多樣AI療法
自去年起,英國國家醫療服務體系已經開始提供一款名為Wysa的聊天機器人,幫助年輕人緩解壓力、焦慮和抑郁。
Wysa專注於認知行為療法,這是心理實踐中最常用的方法。經測試,Wysa可通過結構化技術引導,幫助用戶重建扭曲的認知,並管理負面情緒。其語氣中立且近乎冷淡,治療方法顯得頗為刻板。“一旦有人在描述感受或表達想法時偏離軌道,經過編程設計的機器人就會引導他們回到我們提供的預定路徑上。”Wysa機器人公司全球總監約翰·滕奇說。
與Wysa的體驗截然不同,Pi則是一款關係型或對話型機器人。牠專注於一個純粹而溫馨的目標:與用戶建立真摯的對話聯繫,旨在以友好、充滿同理心且趣味橫生的方式回應用戶,為其提供“情緒價值”。
Pi由Inflection AI開發,這是一家2022年初成立的矽谷初創公司。美國《商業內幕》網站報導稱,與OpenAI的ChatGPT和谷歌的Bard聊天機器人一樣,Pi依賴生成式AI的基礎——大型語言模型。這意味著該機器人經過訓練,可通過分析大量在線內容來生成文本答案,從而創造出異常真實的互動體驗。換言之,這類機器人極具人性化。例如,在測試期間,Pi大膽“推測”,所謂的自尊心缺乏可能源於不健康的母子關係。牠因此堅持不懈地提供支持,在其回應中夾雜著相當多的誇張情感表達,並向用戶保證,隨時都可提供幫助。
責任模糊引發質疑
不過,哪些機器人是遵循預設程序或算法來提供認知行為治療,哪些機器人是即興發揮來提供心理治療,界限並不清晰。這種模糊性不僅體現在牠們如何運作,即所使用的生成式AI技術的層次上,更重要的是,還體現在牠們為吸引用戶而做出的種種聲明上。
哈爾彭認為,像Pi的開發公司那樣,聲稱“牠們不是心理健康專家”來逃避責任。然而,據她所知,“他們的廣告針對的卻是在社交媒體上公開表示自己是患有嚴重抑郁癥或焦慮癥的人”。
與此同時,在那些明確宣稱自己肩負心理治療使命的公司中,存在許多灰色地帶和半真半假的言辭。《前沿》雜誌報導稱,一些公司公開聲明他們的機器人不打算取代人類心理學家,而另一些公司則誇大其能力並淡化其局限性。
Youper是另一家提供與Wysa類似服務的初創公司,其網站上自稱是“富有同情心的心理機器人”。直到去年,哈爾彭等人在《華盛頓郵報》等媒體上公開批評其誤導性使用這一術語後,該公司才有所收斂。
加拿大西蒙弗雷澤大學倫理與AI研究員貝利萊-皮蓬認為,這種誤導性宣傳在心理健康領域是不可取的。這不僅可能在弱勢群體中造成嚴重誤解,而且破壞了真正心理治療的複雜性和專業性。真正的治療是微妙的,具有深刻的情境性,需要深入理解患者的具體情況,並與患者建立深厚的治療關係。
“解讀非語言表達的微妙之處、理解主觀體驗的能力或道德直覺,是任何機器都無法複製的品質。”貝利萊-皮蓬說。
儘管心理治療機器人是近年來新興的技術工具,但2023年發表在《自然》上一項研究顯示,這些工具更像是一劑“止痛藥”,只能暫時舒緩情緒,無法從根本上構建持久穩定的心理健康基石。
你可能感興趣的