近日,美國兩名立法者提出了一項法案,要求基礎模型的創建者披露訓練數據的來源,以便版權所有者知道他們的信息被盜用。
由眾議員安娜·埃索 (Anna Eshoo) 和唐·貝爾 (Don Beyer) 提交的《人工智能基金會模型透明度法案》將指示聯邦貿易委員會 (FTC) 與國家標準與技術研究所 (NIST) 合作,建立報告培訓數據透明度的規則。
制作基礎模型的公司將被要求報告訓練數據的來源以及在推理過程中如何保留數據,描述模型的局限性或風險,模型如何與 NIST 計劃的人工智能風險管理框架和任何其他聯邦標準保持一致可能會建立,并提供有關用于訓練和運行模型的計算能力的信息。
該法案還規定,人工智能開發人員必須向該模型“紅隊”報告,以防止其在醫療或健康相關問題、生物合成、網絡安全、選舉、治安、金融貸款決策、教育、就業決策、公共服務和兒童等弱勢群體。
該法案強調了圍繞版權進行數據透明度培訓的重要性,因為已經有幾起針對人工智能公司涉嫌侵犯版權的訴訟。它特別提到了藝術家針對 Stability AI、Midjourney 和 Deviant Art 的案件,以及 Getty Images 針對 Stability AI 的投訴。
該法案指出:“隨著公眾使用人工智能的機會增加,訴訟和公眾對侵犯版權的擔憂也有所增加。” “基礎模型的公開使用導致無數次向公眾提供不準確、不精確或有偏見的信息。”
該法案仍需要分配給一個委員會并進行討論,目前尚不清楚這是否會在繁忙的競選季節開始之前發生。
Eshoo 和 Beyer 的法案補充了拜登政府的人工智能行政命令,這有助于建立人工智能模型的報告標準。然而,該行政命令不是法律,因此如果《人工智能基金會模型透明度法案》通過,它將把訓練數據的透明度要求納入聯邦規則。
這項法案的提出是人工智能發展過程中的一個重要里程碑,它將有助于保護版權所有者和促進人工智能的負責任使用。


產品與服務
聯系站長
關于我們