最近,OpenAI 在其博客中透露,該公司將開始掃描用戶與 ChatGPT 的聊天記錄,以檢測潛在的有害內(nèi)容。此舉引發(fā)了廣泛關(guān)注,因?yàn)樗c公司之前對用戶隱私的承諾存在矛盾。
OpenAI 表示,當(dāng)用戶顯示出對他人構(gòu)成威脅的跡象時(shí),其對話將被轉(zhuǎn)交給專門的團(tuán)隊(duì)進(jìn)行審核。這些團(tuán)隊(duì)有權(quán)采取行動(dòng),包括禁止相關(guān)用戶的賬戶。如果審核團(tuán)隊(duì)認(rèn)為某個(gè)案例涉及對他人造成嚴(yán)重身體傷害的緊迫威脅,OpenAI 可能會將其報(bào)告給執(zhí)法部門。
在聲明中,OpenAI 列舉了一些被禁止的行為,包括使用 ChatGPT 推廣自殺或自殘、開發(fā)或使用武器、傷害他人或破壞財(cái)產(chǎn)等。然而,OpenAI 也承認(rèn),目前并不將涉及自殘的案例上報(bào)給執(zhí)法部門,以尊重用戶隱私。由于 ChatGPT 曾多次受到 “監(jiān)禁” 漏洞的攻擊,導(dǎo)致其提供自殘或傷害他人的指令,因此這一新規(guī)的實(shí)施令人感到困惑。
更值得注意的是,OpenAI 在強(qiáng)調(diào)隱私的同時(shí),卻承認(rèn)正在監(jiān)控用戶的聊天記錄,并可能與警方分享這些信息。此前,OpenAI 因正在與《紐約時(shí)報(bào)》等出版商進(jìn)行法律訴訟,反對其獲取大量 ChatGPT 日志的請求,理由是保護(hù)用戶隱私。在這場訴訟中,OpenAI 的首席執(zhí)行官薩姆?阿爾特曼也表示,使用 ChatGPT 作為治療師或律師并不具備與專業(yè)人士對話的同等保密性。
這一系列行動(dòng)讓人感覺 OpenAI 似乎在隱私保護(hù)與用戶安全之間陷入了兩難境地。隨著越來越多的用戶因?yàn)槭褂?AI 聊天工具而面臨心理健康危機(jī),該公司不得不采取更為嚴(yán)格的監(jiān)管措施,以防止悲劇的發(fā)生。然而,這些措施又與其之前的隱私政策相抵觸,使得 OpenAI 在公眾面前顯得難以自圓其說。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們