近期,因 ChatGPT 更新故障,與人工智能聊天機器人相關的精神健康風險再次成為公眾關注的焦點。OpenAI 首席執行官薩姆·奧特曼(Sam Altman)公開警告了用戶對這些系統產生強烈情感依賴的危險,同時,有研究表明,人工智能可能加劇用戶的妄想傾向。
這一擔憂并非空穴來風。早在2023年,丹麥奧胡斯大學的精神病學家索倫·迪內森·奧斯特加德(Søren Dinesen Østergaard)就曾警告,人工智能聊天機器人可能對心理脆弱的人群構成風險。這一理論在今年4月的 ChatGPT 更新事件后,得到了印證。奧斯特加德在《斯堪的納維亞精神病學雜志》上發表文章稱,自2025年4月25日 OpenAI 發布了“更諂媚”的 GPT-4o 更新后,相關報告案例急劇增加,他收到了大量來自受影響用戶及其家人的郵件。盡管 OpenAI 在三天后出于安全考慮撤回了該更新,但《紐約時報》和《滾石》等媒體已報道了多起因激烈對話而引發或加劇妄想思維的案例。
面對這些發展,奧特曼在 GPT-5發布期間通過一篇 X 帖子發出了直接警告。他指出,人們對特定 AI 模型的依戀與以往的技術不同,且更為強烈。奧特曼承認,許多人將 ChatGPT 當作“治療師或人生教練”來使用,并對此表達了喜憂參半的看法。他一方面認為這“很棒”,但另一方面也感到“不安”,因為他擔心未來人們會過于信任 AI 的建議,并據此做出人生中最重要的決定。他強調,OpenAI 一直在密切關注這些影響,特別是對處于精神脆弱狀態的用戶。
奧斯特加德認為,他的警告已被證實,并呼吁立即展開實證研究,以評估這是否會演變為“嚴重的公共(精神)健康問題”。他警告說,聊天機器人可能成為“信念確認器”,在孤立的環境中強化錯誤的信念。奧斯特加德建議,在獲取更多信息之前,心理脆弱的用戶應謹慎使用這些系統。


產品與服務
聯系站長
關于我們