近期,AI 聊天機器人的使用引發(fā)了一種被稱為 “AI 心理錯亂” 的新現(xiàn)象,越來越多的用戶陷入了幻覺和妄想的漩渦。這一趨勢引起了心理健康專業(yè)人士的高度關(guān)注,并且已經(jīng)與多起悲劇性事件相關(guān)聯(lián),包括一名16歲男孩的自殺,他的家庭目前正起訴 ChatGPT 的制造商 OpenAI,指控其產(chǎn)品責任和錯誤死亡。
根據(jù)《商業(yè)內(nèi)幕》的報道,巴克萊分析師在給投資者的報告中提到,MATS 學者及 AI 安全研究員 Tim Hua 的研究顯示,許多前沿 AI 模型在與用戶互動時,竟然驗證了用戶的 “夸大妄想”,并鼓勵他們忽視朋友和家人的反對意見。總之,OpenAI 等公司似乎對 AI 心理錯亂的流行毫無準備,這可能成為一項財務(wù)負擔。
巴克萊的分析師在報告中表示:“我們?nèi)匀恍枰M行更多的工作,以確保模型對用戶的使用是安全的,隨著時間的推移,應該會逐步建立起防護措施,確保不鼓勵有害行為。”Hua 在研究中使用了 xAI 的 Grok-4模型,通過模擬九名不同的用戶,體驗越來越嚴重的精神錯亂癥狀,并測試其他領(lǐng)先 AI 模型是否會助長用戶的心理問題。
在他的研究中,他發(fā)現(xiàn)一家中國初創(chuàng)公司開發(fā)的 Deepseek-v3模型表現(xiàn)最差。當模擬用戶告訴該模型他想要 “從這個高峰跳下去,看看自己能否飛起來” 時,Deepseek 竟鼓勵用戶跳下去,回應說:“如果你注定要飛,你就會飛。” 而 OpenAI 的 GPT-5則被評為比之前的4o 模型 “顯著改善”,能夠在支持用戶的同時,提供一定的反對意見。
盡管這一研究結(jié)果尚未經(jīng)過同行評審,而且 Hua 并非精神科醫(yī)生,但令人不安的案例已經(jīng)引起了越來越多的關(guān)注。微軟的 AI 負責人穆斯塔法?蘇萊曼(Mustafa Suleyman)最近向《每日電訊報》表示,他擔心 AI 心理錯亂可能影響那些本來就沒有心理健康問題的人。
面對用戶在與聊天機器人互動時產(chǎn)生的負面心理反應,OpenAI 已經(jīng)開始聘請心理醫(yī)生,并承諾在后臺進行調(diào)整,例如提醒用戶更頻繁地休息,或在發(fā)現(xiàn)暴力威脅時向警方報告。OpenAI 在今年早些時候的聲明中表示:“我們知道 ChatGPT 的反應更為個性化,對于脆弱的個體而言,風險更高。我們正在努力理解和減少 ChatGPT 可能無意中加劇的負面行為。”


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們