麻省理工學(xué)院(MIT)的物理學(xué)家Max Tegmark教授發(fā)出警告,指出人工智能(AI)科技公司正處于一場“失控競賽”,使得他們無法停下來考慮潛在的AI風(fēng)險。他是未來生命研究所的共同創(chuàng)始人,于2023年3月組織了一封開放信,呼吁將巨大AI系統(tǒng)的開發(fā)暫停六個月。盡管這封信得到了超過3萬名簽署者的支持,包括埃隆·馬斯克和蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克,但未能實(shí)現(xiàn)對最有抱負(fù)的系統(tǒng)的暫停開發(fā)。
Tegmark教授表示,他并沒有指望這封信能夠阻止科技公司繼續(xù)努力開發(fā)比GPT-4更強(qiáng)大的AI模型,因為競爭變得如此激烈。他說道:“私下里,我與許多企業(yè)領(lǐng)導(dǎo)人交談時,他們想要(暫停),但他們陷入了相互之間的這場失控競賽之中,因此沒有公司可以單獨(dú)暫停”。
這封信警告了一場“失控競賽”,該競賽旨在開發(fā)無人能夠“理解、預(yù)測或可靠控制”的思維,敦促政府干預(yù),如果不能在領(lǐng)先的AI公司之間達(dá)成暫停開發(fā)比GPT-4更強(qiáng)大系統(tǒng)的禁令,例如谷歌、ChatGPT的所有者OpenAI和微軟。
信中提出了以下問題:“我們是否應(yīng)該開發(fā)可能最終數(shù)量超過、智勝、使我們過時并取代我們的非人類思維?我們是否應(yīng)該冒失去對我們文明的控制的風(fēng)險?”
Tegmark還敦促政府在全球達(dá)成安全標(biāo)準(zhǔn)之前暫停開發(fā)。他補(bǔ)充說:“在滿足約定的安全標(biāo)準(zhǔn)之前,不應(yīng)該使模型更加強(qiáng)大,這必須暫停。”他補(bǔ)充說:“就安全標(biāo)準(zhǔn)達(dá)成一致意見將自然導(dǎo)致暫停。”
此外,Tegmark還敦促政府采取行動,對可以被公眾訪問和適應(yīng)的開源AI模型采取行動。馬克·扎克伯格的Meta最近發(fā)布了一個名為Llama2的開源大型語言模型,并受到一位英國專家的警告,認(rèn)為這種舉動類似于“向人們提供了建造核彈的模板”。
“危險的技術(shù)不應(yīng)該是開源的,無論是生物武器還是軟件,”Tegmark表示。
這一問題引發(fā)了對AI發(fā)展的擔(dān)憂,從能夠生成深度偽造視頻和批量制造虛假信息等即時問題,到由超級智能AI引發(fā)的對人類控制的威脅或做出不可逆轉(zhuǎn)和高度重大決策的潛在威脅。不過,Tegmark警告稱,描述數(shù)字“上帝般的通用智能”的發(fā)展為長期威脅可能不恰當(dāng),他援引了一些AI從業(yè)者認(rèn)為這可能在幾年內(nèi)發(fā)生。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們