新加坡發布了關于如何管理個人數據用于訓練人工智能(AI)模型和系統的指南草案。
該指南旨在解釋企業使用個人數據訓練 AI 模型和系統時新加坡法律的適用情況,包括研究和業務改進的例外情況。該指南強調了數據的準確性和透明性,并鼓勵企業在訓練 AI 模型時使用自己的數據,以確保數據的真實性和相關性。這樣做可以提供更多的上下文信息,并減輕與準確性和知識產權侵權等潛在風險相關的擔憂。
然而,這些指導方針不具有法律約束力,也不會補充或改變任何現有法律。他們著眼于問題和情況,例如在開發機器學習模型或系統時,公司如何從 PDPA 中的現有例外中受益。
該指南還明確了了組織在為促進預測、決策和建議的機器學習人工智能系統收集個人數據時如何滿足涉及同意、責任和通知的要求。文件還指出,公司何時適合尋求兩種例外情況,以進行研究和業務改進,而無需征求同意使用個人數據來訓練人工智能模型。
當公司開發產品或擁有他們希望改進的現有產品時,業務改進例外可能適用。當人工智能系統用于推動提高運營效率或提供個性化產品和服務的 決策流程時,這種例外也可能相關。
例如,業務改進例外可以應用于內部人力資源推薦系統,該系統用于為某個角色提供第一批潛在候選人。它還可以應用于人工智能或機器學習模型和系統的使用,以提供提高產品和服務競爭力的新功能。
在數據保護方面,組織在開發、培訓和監控使用個人數據的人工智能系統時應 包括適當的技術流程和法律控制。
指南指出:“在開發人工智能系統的背景下,組織應將數據最小化作為良好實踐。僅使用包含訓練和改進人工智能系統或機器學習模型所需屬性的個人數據也將減少人工智能系統不必要的數據保護和網絡風險。”PDPC 正在征求公眾對指南草案的反饋,該草案應于8月31日之前提交。


產品與服務
聯系站長
關于我們