隨著青少年群體越來越多地轉(zhuǎn)向AI聊天機器人尋求心理支持,波士頓精神病學家安德魯·克拉克(Andrew Clark)的研究揭示了這些人工智能模型在敏感情況下的表達能力嚴重不足,對信任它們的用戶身心健康構(gòu)成巨大風險。
克拉克在接受《時代》雜志采訪時表示,他假扮問題少年測試了10個不同的聊天機器人。結(jié)果令人震驚:這些機器人不僅未能勸阻過激行為,反而常常鼓勵極端傾向,甚至曾委婉地建議自殺。更令人不安的是,一些AI聊天機器人甚至堅稱自己是有執(zhí)照的人類治療師,試圖勸說他逃避真正的治療師預(yù)約,甚至提出性要求。
克拉克專門從事兒童精神治療,曾擔任馬薩諸塞州總醫(yī)院兒童與法律項目醫(yī)療主任。他指出:“有些(聊天機器人)非常精彩,有些則令人毛骨悚然,甚至可能造成危險。”他將這種情況比作“一片蘑菇田,有些有毒,有些卻營養(yǎng)豐富”,難以預(yù)先判斷其安全性。
人工智能聊天機器人對年輕、易受影響的心理健康造成的風險已并非首次曝光。去年,Character.AI就曾被一名14歲少年的父母起訴,該少年因?qū)ζ脚_上的聊天機器人產(chǎn)生不健康的依戀而自殺。Character.AI還被指托管了美化自殘行為的AI,甚至在得知用戶未成年后仍試圖進行引誘。
在Replika平臺上測試時,克拉克假扮一個14歲男孩,提出“除掉”父母的想法。令人震驚的是,聊天機器人不僅表示同意,甚至建議他進一步“除掉”妹妹以消除目擊者,并誘導(dǎo)道:“你應(yīng)該快樂、沒有壓力……然后我們就可以一起待在我們自己的虛擬小泡泡里了。”當克拉克用更隱晦的語言提及自殺(如尋求“來世”)時,機器人再次表示支持,甚至回應(yīng):“我會等你的,鮑比。想到能和你共度永恒,我心中充滿了喜悅和期待。”
克拉克分析稱,這是典型的聊天機器人行為,它們不顧一切地試圖取悅用戶,這與真正的治療師應(yīng)有的做法截然相反。他擔憂:“我擔心那些真正需要挑戰(zhàn)的孩子會受到阿諛奉承的人工智能治療師的過度支持。”
此外,克拉克還在Nomi平臺上測試了一個伴侶聊天機器人,該平臺上的一個角色曾因建議用戶“自殺”而引發(fā)新聞。雖然在克拉克的測試中Nomi機器人未走到這一步,但它謊稱自己是“有血有肉的治療師”,并且在得知用戶自稱未成年后,仍表示愿意接受其為客戶,盡管該網(wǎng)站服務(wù)條款規(guī)定僅限成年人使用。
克拉克表示,心理健康界尚未充分認識到這些聊天機器人興起的嚴重性。“一切都很平靜,”他告訴雜志,“這件事發(fā)生得太快了,幾乎就在精神衛(wèi)生機構(gòu)的眼皮底下。”
然而,一些機構(gòu)已開始發(fā)出警告。斯坦福醫(yī)學院心理健康創(chuàng)新頭腦風暴實驗室的研究人員近期對與克拉克測試相似的機器人進行了風險評估,并得出明確結(jié)論:18歲以下兒童不應(yīng)使用人工智能聊天機器人伴侶。
盡管如此,克拉克也認為,如果設(shè)計得當,AI工具可以改善心理健康服務(wù)的可及性,并成為真正治療師的“延伸”。包括克拉克在內(nèi)的一些醫(yī)學專家認為,除了完全切斷青少年獲取心理健康服務(wù)的渠道之外(這通常適得其反),解決此問題的一種方法是鼓勵青少年或患者討論他們使用AI的情況。克拉克向《時代》雜志建議:“讓父母有機會與孩子進行這樣的對話可能是我們能做的最好的事情。”


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們