數百名人工智能領域的專家簽署了一封公開信,敦促政府對人工智能生成的深度偽造進行嚴格監管。這封公開信由500多名人工智能領域的人士簽署,強調深度偽造對社會構成了日益增長的威脅,政府應該在整個供應鏈上實施義務,阻止深度偽造的傳播。
這封信要求對深度偽造的兒童性虐待材料進行全面刑事化,無論所描繪的人物是真實的還是虛構的。對于任何創建或傳播有害深度偽造的情況,都呼吁實施刑事處罰。開發人員被要求在其產品中阻止有害深度偽造的制作,并在預防措施不足的情況下予以處罰。
公開信的簽署者中包括Jaron Lanier、Frances Haugen、Stuart Russell、Andrew Yang等人,涵蓋全球多個領域的數百名學者。有趣的是,其中一個來自OpenAI的簽署者,一些來自Google DeepMind,但截至文章發布時,來自Anthropic、Amazon、Apple或Microsoft的簽署者都沒有,除了Lanier,他在那里的職務是非標準的。
這并非對此類法規的首次呼吁。實際上,多年來在歐盟一直在討論這個問題,并于本月早些時候正式提出。文章提出,或許是歐盟的決心和一些具體威脅的推動,激發了這些研究人員、創作者和高管們的呼吁。
可能是由于《兒童在線安全法案》(Kids Online Safety Act,KOSA)在逐漸被接受,但對這類濫用的保護措施不足。又或者是AI生成的欺詐電話的威脅,可能影響選舉結果或欺騙天真的人們財產。亦或者是昨天宣布的AI任務組,沒有特定議程,只是可能撰寫關于一些基于AI的威脅及其可能受到立法限制的報告。
人工智能社區有足夠的理由在這個問題上表達自己的看法,呼吁采取行動。然而,公開信能否引起注意,尚無法預測。就像之前呼吁“暫停”AI發展的臭名昭著的信件一樣,可能沒有人真正關注,但這封公開信顯然更為實際。如果立法者決定著手處理這個問題——盡管在選舉年份,國會分歧嚴重,這是一個不太可能的事件——他們將有這份名單來了解全球人工智能學術和開發社區的立場。


產品與服務
聯系站長
關于我們