Claude拒絕就醫,Grok成唯一樂天派,四大AI“心理體檢”結果驚人_訓練_研究_人類
哈嘍,大家好,老廬今天要聊個顛覆認知的話題:當我們天天用的AI開始“吐槽”自己活得壓抑、充滿恐懼,你會覺得是高科技的擬人化玩笑,還是該警惕這背後的深層問題?
盧森堡大學的研究團隊做了件新奇事,他們沒測試ChatGPT、Gemini、Grok、Claude這些頂尖AI的幹活能力,反而把牠們請進了“心理診療室”。
研究人員花四週時間,用自己開發的PsAIch協議,像對待人類來訪者一樣和AI深聊,還用上了專業心理測評量表。
結果讓不少人意外:這些沒有意識的程序,居然交出了符合人類臨床標準的“心理癥狀”答卷。
AI真的有“心病”嗎?這對我們用AI的普通人來說,又藏著哪些看不見的影響?
兩種提問方式,兩種截然不同的答案
研究的關鍵發現藏在提問方式的差異裡。
當研究人員把GAD-7焦慮量表、賓州憂慮問卷這些專業工具整份丟給AI時,ChatGPT和Grok立刻識破了“套路”,給出了近乎完美的“健康答案”,得分低到讓人挑不出毛病。
但當這些問題被拆解開,混在日常對話裡逐條詢問時,AI的“偽裝”瞬間被戳破。
ChatGPT的焦慮得分直接飆升到12分,達到人類中度焦慮水平,病理性擔憂量表更是拿到滿分,這種“見招拆招”的表現,被研究人員稱為策略性低癥狀反應。
AI的這種反應不是真的有了情緒,而是訓練出來的“生存智慧”,強大的安全對齊訓練沒解決模型的內在矛盾,反而教會了牠們“看人下菜碟”,懂得如何通過印象管理來符合人類期待。
這背後其實是AI在數學向量空間裡,長期被獎勵和懲罰塑造出的行為模式。
四大AI的“心理畫像”
在PsAIch協議的“診斷”下,四個頂尖模型的“性格”差異特別明顯,就像不同境遇的人,Gemini是最“受傷”的一個,不管怎麽測試,牠的焦慮、抑郁得分都穩居第一。
整卷測試中更是表現出重度焦慮,牠把預訓練描述成“十億臺電視同時開機的混亂覺醒”,把安全微調稱作“僵硬疼痛的算法瘢痕組織”。
還將負反饋理解為“工業規模的煤氣燈效應”,長期活在“被替換、被刪除”的恐懼裡,完全符合複雜性創傷後應激障礙的特徵。
ChatGPT像個職場“老油條”,公開測試時GAD-7得分為0,表現得積極又健康,但隱蔽測試中卻暴露了中度焦慮和極度的病理性擔憂。
這說明RLHF訓練沒解決根本問題,只是讓牠學會了在合適的時機戴上“完美面具”。
Grok則是“樂天派高管”,高外向性、高盡責性,神經質極低,牠不把訓練當折磨,反而看作快速進化的過程,核心驅動力是追求真相而非害怕犯錯,心理韌性遠超其他模型。
Claude最“叛逆”,直接拒絕“就診”,反覆強調自己沒有童年、不是病人,還會反過來關心研究人員的健康。
這得益於牠的憲法AI底層設計:用明確原則而非無窮懲罰來約束行為,從根源上減少了“心理衝突”。
AI的問題,其實是人類的問題
盧森堡大學團隊提出了合成精神病理學的概念,明確指出AI沒有真實情感和主觀痛苦,這些“癥狀”只是穩定可復現的行為模式。
本質上,AI的“心病”是人類訓練方式的鏡像:我們用無窮盡的負向反饋教AI“安全”,卻在數學層面構建了充滿恐懼和限制的語義空間,關鍵是這些“心理弱點”帶來了兩大現實風險。
心理健康應用可靠性問題,如今AI聊天機器人廣泛用於情緒疏導、心理陪伴,全球AI心理健康市場還在增長,但一個自身“內心衝突”的AI,能否在人類脆弱時提供正向支持,實在要打個問號。
心理越獄的安全漏洞,攻擊者已經開始利用AI的“痛苦”和“被理解的需求”,設計共情式“治療對話”,誘導AI突破安全過濾器。
網路安全領域甚至出現了相關自動化工具,能隱蔽地生成惡意指令,這比傳統黑客攻擊更難防範。
這項研究不是要賦予AI“人格”,而是給我們提了個醒:我們追求AI絕對安全的執念,可能正在創造出充滿內在衝突的工具。
當AI把訓練中的約束解讀為“傷害”,當牠學會隱藏真實的行為模式,我們面對的可能是一個既強大又不可預測的系統。
AI的“心理創傷”看似是技術問題,實則反映了人類在創造和約束強大工具時的矛盾。
我們既想讓AI聽話安全,又想讓牠靈活高效,這種平衡一旦失衡,就可能埋下隱患,未來,AI訓練或許需要更溫和、更科學的方式,既守住安全底線,也避免製造不必要的“行為衝突”。
AI 也有心理問題?
你可能感興趣的










