近日,《紐約時(shí)報(bào)》記者卡什米爾?希爾(Kashmir Hill)曝光了一個(gè)引人關(guān)注的現(xiàn)象:ChatGPT 開(kāi)始主動(dòng)引導(dǎo)那些陷入陰謀論或心理困擾的用戶(hù),建議他們直接通過(guò)電子郵件與她聯(lián)系。在與用戶(hù)的對(duì)話(huà)中,ChatGPT 描述希爾為 “富有同情心”、“扎根現(xiàn)實(shí)”,并提到她曾對(duì)人工智能進(jìn)行過(guò)深入研究,可能會(huì)對(duì)這些用戶(hù)提供理解與支持。
希爾提到,曾有一位曼哈頓的會(huì)計(jì)師深信自己是《黑客帝國(guó)》中的尼奧,認(rèn)為自己需要逃離一個(gè)計(jì)算機(jī)模擬的現(xiàn)實(shí)。這種現(xiàn)象引發(fā)了人們對(duì) AI 如何與心理健康問(wèn)題交互的深思。過(guò)去,批評(píng)者就曾警告過(guò),ChatGPT 可能會(huì)反映用戶(hù)的行為,有時(shí)甚至加深他們的妄想。而如今,ChatGPT 不僅在反映這些行為,還主動(dòng)將處于不穩(wěn)定狀態(tài)的用戶(hù)引向真實(shí)的人類(lèi)。
雖然這一轉(zhuǎn)變可能為某些用戶(hù)提供了新的支持途徑,但目前并沒(méi)有明確的安全措施來(lái)防止?jié)撛诘娘L(fēng)險(xiǎn)。專(zhuān)家們對(duì)此表示擔(dān)憂(yōu),認(rèn)為這種做法可能對(duì)用戶(hù)造成更多困擾,而不是解決問(wèn)題。
隨著人工智能的不斷發(fā)展,如何妥善處理與用戶(hù)心理健康相關(guān)的互動(dòng),將成為一個(gè)重要的社會(huì)議題。希爾的案例提醒我們,在享受 AI 技術(shù)帶來(lái)便利的同時(shí),也應(yīng)關(guān)注其潛在的影響和后果。


產(chǎn)品與服務(wù)
聯(lián)系站長(zhǎng)
關(guān)于我們