OpenAI 于本周四發(fā)布了一份針對青少年使用人工智能的安全標準藍圖,旨在引導公眾和立法者關注青少年在使用 AI 時的安全問題。
這份藍圖首次與 Axios 共享,正值多個州正在考慮制定 AI 安全法案之際,特別是美國參議院也在推進一項禁止未成年人使用聊天機器人的法案。與此同時,OpenAI 面臨一宗涉及未成年人自殺的高調(diào)訴訟,這引發(fā)了公眾對其平臺在青少年用戶安全防護方面的廣泛關注。
OpenAI 在推動 AI 技術應用于學校的同時,認為設定相關安全框架尤為重要。該藍圖提出,青少年應能安全、可信地接觸 AI,并防范潛在的傷害。具體來說,OpenAI 建議 ChatGPT 應根據(jù)用戶年齡的不同,做出差異化的回應,以便更好地保護青少年。例如,15歲的青少年和成年人在使用 AI 時的互動應有所不同。
在藍圖中,OpenAI 列出了五項針對青少年保護的具體建議。這些建議包括:識別平臺上的青少年用戶,并以適合其年齡的方式進行處理;通過相關政策,禁止 AI 系統(tǒng)展示自殺、自殘及敏感或暴力內(nèi)容,避免鼓勵危險行為或不切實際的身體標準;在無法確認用戶年齡的情況下,默認將其視為未滿18歲進行處理;為家庭提供家長控制工具,以便家長可以管理青少年賬戶的使用情況;以及拓展基于最新研究成果的防護功能,保護青少年與 AI 的互動。
不過,年齡驗證技術仍然面臨挑戰(zhàn),許多未成年人可能會輕易繞過現(xiàn)有規(guī)則。為了提高青少年用戶的安全性,OpenAI 正在探索多種措施,并希望能推動更多家庭和學校共同參與 AI 的規(guī)范及監(jiān)督工作。


產(chǎn)品與服務
聯(lián)系站長
關于我們