在首爾舉行的 AI 安全峰會上,微軟、亞馬遜和 IBM 等領(lǐng)先科技公司承諾在開發(fā)基礎(chǔ)模型時公布他們所采取的安全措施。這些公司都同意,如果無法控制或減輕 AI 模型所帶來的風險,將不會開發(fā)或部署該模型。
這一承諾適用于基礎(chǔ)或 “前沿” 模型,即可以應用于廣泛應用領(lǐng)域的 AI 模型,通常是能夠處理圖像、文本和其他輸入的多模態(tài)系統(tǒng)。
簽署這一承諾的公司包括 Meta、三星、Claude 開發(fā)商 Anthropic 以及埃隆?馬斯克的初創(chuàng)企業(yè) xAI 等。ChatGPT 制造商 OpenAI、總部位于迪拜的科技創(chuàng)新研究所以及韓國互聯(lián)網(wǎng)供應商 Naver 也簽署了前沿 AI 安全承諾。中國公司智譜AI 也是簽署該承諾的公司之一,該承諾由英國和韓國政府共同制定。
每個同意承諾的公司都將公開概述他們的基礎(chǔ)模型所帶來的風險水平,并說明他們計劃采取哪些措施以確保這些模型的安全性。簽署者必須在2025年初法國舉行的下一屆 AI 安全峰會之前發(fā)布他們的研究結(jié)果。
英國首相里希?蘇納克表示:“這些承諾確保了世界領(lǐng)先的 AI 公司將就其開發(fā)安全 AI 的計劃提供透明度和問責制。” 這些承諾旨在進一步完善去年首屆 AI 安全峰會上簽署的 Bletchley 協(xié)議,該協(xié)議對 AI 風險進行了分類和歸類。
安永全球咨詢數(shù)據(jù)與 AI 負責人 Beatriz Sanz Saiz 表示,科技公司的承諾是一個受歡迎的舉措。她說:“在開發(fā)和實施值得信賴的 AI 時,提供透明度和問責制至關(guān)重要。雖然 AI 對于企業(yè)和個人都有巨大潛力,但只有通過有意識和道德的開發(fā)方法才能充分發(fā)揮這一潛力。”
Zoho 英國的董事總經(jīng)理 Sachin Agrawal 表示:“使用 AI 的公司應優(yōu)先考慮道德問題和負責任的數(shù)據(jù)實踐,以建立客戶信任。采用正確的 AI 程序可能意味著超越當前的隱私規(guī)定,考慮到在不損害客戶數(shù)據(jù)的情況下最合乎道德的平衡 AI 利益,并確保任何實踐都是完全透明的。”


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們