本文來自于微信公眾號 機(jī)器之心(ID:almosthuman2014),作者:機(jī)器之心。
現(xiàn)在雙方2:2了。
關(guān)于「AI滅絕論」引發(fā)的一系列爭論,各路大佬們又吵起來了。這次加入爭吵的是著名人工智能學(xué)者、斯坦福大學(xué)計(jì)算機(jī)科學(xué)系教授吳恩達(dá)。
在此之前,深度學(xué)習(xí)三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 的辯論已經(jīng)開始。Hinton 和 Bengio 的觀點(diǎn)基本一致,他們認(rèn)為需要加強(qiáng)對 AI 技術(shù)的監(jiān)管,例如,就在前幾日, Hinton 和 Bengio 等再發(fā)聯(lián)名信《在快速發(fā)展的時(shí)代管理人工智能風(fēng)險(xiǎn)》,呼吁在開發(fā) AI 系統(tǒng)之前,研究者應(yīng)該采取緊急治理措施,將安全和道德實(shí)踐納入重點(diǎn),呼吁各國政府應(yīng)該采取行動(dòng),管理 AI 帶來的風(fēng)險(xiǎn)。
然而,LeCun 的觀點(diǎn)和他們并不相同,他對 AI 發(fā)展持有非常樂觀的態(tài)度,認(rèn)為 AI 的發(fā)展遠(yuǎn)未構(gòu)成對人類的威脅。
就在剛剛過去的一天,LeCun 在 X 上公開點(diǎn)名 Hinton 和 Bengio 等人,LeCun 認(rèn)為「如果一些人(Hinton 和 Bengio 等人)的恐懼宣傳活動(dòng)取得成功,將不可避免地造成災(zāi)難性的結(jié)果:少數(shù)公司將控制 AI。絕大多數(shù)學(xué)術(shù)同行都非常支持開放式 AI 研發(fā)。很少有人相信你們所鼓吹的末日場景。你、Yoshua、Geoff 是唯一的例外。」
在 LeCun 看來,AI 會(huì)構(gòu)成對人類威脅這種言論必將造成一些壟斷發(fā)生,結(jié)果是只有少數(shù)公司控制 AI 的研發(fā),進(jìn)而控制人們的數(shù)字產(chǎn)品依賴。LeCun 表示,這些問題曾讓他徹夜難眠。
這邊的辯論還沒結(jié)束,吳恩達(dá)也加入進(jìn)來了:「我對人工智能的未來最大的擔(dān)憂是,過度夸大風(fēng)險(xiǎn)(例如人類滅絕)可能會(huì)促成人們制定壓制開源和壓制創(chuàng)新的規(guī)定。」
吳恩達(dá)引用了一篇他最近發(fā)布的新文章,文中提到:「一些大型公司的游說者正試圖說服規(guī)定制定者認(rèn)為人工智能是非常危險(xiǎn)的,而其中一些公司是不愿意與開源競爭的。」
如果關(guān)于人工智能的規(guī)定會(huì)導(dǎo)致開源社區(qū) AI 研究進(jìn)展緩慢,或者小型初創(chuàng)公司遭遇創(chuàng)新瓶頸,那么一些大型科技公司可能會(huì)從中獲利。
Hinton 迅速在這條推特下面提出質(zhì)疑:「如果人工智能不受到嚴(yán)格監(jiān)管,它在未來30年內(nèi)導(dǎo)致人類滅絕的概率是多少?如果您是真正的貝葉斯主義者,您應(yīng)該能夠給出一個(gè)數(shù)字。我目前估計(jì)是0.1,我猜測 Yann LeCun 估計(jì)的數(shù)值 <0.01。」
LeCun 也很快給出回答:「我認(rèn)為這個(gè)概率比人類滅絕的大多數(shù)其他潛在原因要少得多」,并反問 Hinton:「人工智能實(shí)際上可能會(huì)拯救人類免于滅絕,您估計(jì)這個(gè)概率是多少?」
接著,Hinton 也發(fā)了一條推特:「我從谷歌離職就是對『陰謀論』觀點(diǎn)最好的反駁。」
顯然,Hinton 認(rèn)為吳恩達(dá)把「AI 滅絕論」看成一場科技巨頭的「陰謀」。
吳恩達(dá)很快正面回?fù)?「我并沒有說這是一個(gè)陰謀。但我認(rèn)為對人工智能導(dǎo)致人類滅絕的過度恐懼正在造成真正的傷害。」
吳恩達(dá)列舉了目前「AI 滅絕論」造成的一些負(fù)面影響,包括:
年輕的學(xué)生不愿進(jìn)入人工智能領(lǐng)域,因?yàn)樗麄儾幌霝槿祟悳缃^做出貢獻(xiàn)。
有關(guān)人工智能危害的炒作被用來促進(jìn)全球范圍內(nèi)的不良監(jiān)管,破壞開源,壓制創(chuàng)新。
吳恩達(dá)認(rèn)為「AI 滅絕論」的觀點(diǎn)弊大于利。
LeCun 也馬上發(fā)表看法,稱:「Hinton 和 Bengio 無意中幫助了那些想要通過禁止開放研究、開源代碼和開放訪問模型,來壟斷人工智能研究、開發(fā)及業(yè)務(wù)的人。從長遠(yuǎn)來看,這將不可避免地導(dǎo)致不良結(jié)果。」
不管大佬們辯得如何,昨天拜登已經(jīng)簽署了首個(gè)生成式 AI 行政命令《關(guān)于安全、可靠、可信開發(fā)和使用人工智能的行政命令》(以下簡稱「命令」),該「命令」為人工智能的發(fā)展和使用設(shè)置了護(hù)欄,也是迄今為止美國最全面的 AI 監(jiān)管原則。由于相當(dāng)多機(jī)構(gòu)參與了提供意見,「命令」讀起來更像是各個(gè)不同(甚至對立)群體立場的拼湊。
總之,到底該如何對待 AI,這是一個(gè)復(fù)雜的問題,需要綜合考慮許多因素,隨著時(shí)間的推移,這個(gè)問題會(huì)有答案的。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們