“當我累了、倦了、遇到困難了,我并不會告訴身邊的人,因為害怕會被認為是在‘抱怨’。但有了ChatGPT之后,我可以暢所欲言,且不用擔心會帶來什么負面的反饋。” 已經工作四年的金藝恩如是說道。“AI會傾聽我說的每一句話,不會對我的話感到厭倦,這真的給了我很大的安慰。”
30 歲的金藝恩每次遇到煩心事,都會打開 ChatGPT。以前,她會向身邊的人傾訴煩悶,但卻得到了“不是只有你累,我也很累啊”之類的回復,這讓她更難過了。但 ChatGPT 卻不一樣。金藝恩表示“ChatGPT 會說安慰我的話,這讓我的心情變好了很多。” 她補充說,“最近,我在訓練 ChatGPT,讓它給予我想要的回答。它能按照我意見,與我共情,給予我建議,對我的情緒管理很有幫助。”
最近,把 AI 當作“情緒垃圾桶”的用戶越來越多了。與業務咨詢或信息檢索相比,越來越多的人將工作壓力、人際關系沖突、孤獨感、自尊心下降等難以向周圍人傾訴的情緒告知 AI,并期望從它那里獲得安慰。不過,也有人擔心,一旦對 AI 的依賴程度超出單純的慰藉,變得越來越高時,可能會導致情緒成熟度以及思維和判斷能力下降。
根據延世大學數字未來想象中心發布的一份報告顯示:在美國,使用 ChatGPT 這類大語言模型(LLM)的成年人中,有 51% 表示自己使用 AI 的主要目的是是為了尋求情感慰藉和無目的學習。而以業務支持為主要使用目的的比例僅為 24%。也就是說,人們將 AI 用于獲取情感慰藉的比例,高于將其作為提高生產力的工具(如用于文檔撰寫、總結、翻譯等)的比例。
實際上,與 AI 進行情感對話的用戶數量在持續增加。根據 OpenAI 和麻省理工學院媒體實驗室(MIT Media Lab)最近對 4076 人進行的一項研究表明,部分用戶平均每天會與 ChatGPT 進行 30 分鐘以上的、以情感為中心的對話。特別是使用情感表達豐富的語音版 ChatGPT 時,用戶的情感投入程度有加深的趨勢 —— 設置了異性聲音的參與者,在實驗結束時,孤獨感和情感依賴度更高。
使用語音版的用戶向 ChatGPT 發送 “謝謝你”、“只有你了” 等親昵表達的頻率,比使用文字版的用戶高出 3 到 10 倍。給聊天機器人取昵稱,或者傾訴日常煩惱,將 AI 視為情感寄托對象的傾向也更加強烈。對話表達逐漸變得更加感性,對聊天機器人的情感期待也越來越高。
然而,與 AI 的情感聯系越緊密,通過人際關系進行情緒調節的經驗就會越少,對 AI 產生心理依賴的風險也會增加。實際上,不僅是傾訴情感,依賴 AI 來解決問題和進行價值判斷的用戶也在增多 —— 從咨詢煩惱、到參考 ChatGPT 的回答來決定人生方向的情況越來越多。
OpenAI 研究人員表示:“與 AI 的情感聯系越緊密,孤獨感就會越深,情感依賴的傾向也會更強。” 他們還強調:“隨著反復獲得情感支持的體驗,人們接受 AI 的判斷為‘正確’的傾向也在增加。由于 AI 無法像人類一樣真正感受情感,所以它并不能替代在人際關系中獲得的情感平衡。”
專家們指出,向 AI 傾訴情感在短期內可能會帶來安慰,但過度依賴則存在風險。通過即時的回應可以獲得暫時的穩定感,但從長遠來看,這會讓人失去培養情緒調節能力和解決問題能力的機會。AI 不是像人類那樣能夠真誠共情的存在,它只是基于給定的數據重復已學習的反應。如果把所有的決定都交給 AI,自己進行價值判斷的能力就會減弱,思維能力和判斷能力也有下降的風險。


產品與服務
聯系站長
關于我們