隨著大型人工智能模型對海量數(shù)據(jù)的依賴日益加深,傳統(tǒng)計(jì)算機(jī)架構(gòu)中內(nèi)存與處理能力分離所導(dǎo)致的**“內(nèi)存墻”**瓶頸正消耗巨大的時間和能源。普渡大學(xué)和佐治亞理工學(xué)院的研究人員在《科學(xué)前沿》雜志上發(fā)表了一項(xiàng)新研究,提出了一種利用類腦算法構(gòu)建新型計(jì)算機(jī)架構(gòu)的方法,以期大幅降低人工智能模型的能耗。
馮·諾依曼架構(gòu)的瓶頸:內(nèi)存墻
當(dāng)前大多數(shù)計(jì)算機(jī)仍基于1945年提出的馮·諾依曼架構(gòu),該架構(gòu)將內(nèi)存和處理能力分置,導(dǎo)致數(shù)據(jù)在兩者之間快速流動時形成性能瓶頸。普渡大學(xué)計(jì)算機(jī)工程教授、研究主要作者考希克·羅伊指出,過去四年里,語言處理模型的規(guī)模增長了 5000倍,使得這種效率問題變得至關(guān)重要,并呼吁從根本上重新思考計(jì)算機(jī)的設(shè)計(jì)方式。計(jì)算機(jī)工程師將內(nèi)存容量難以跟上處理速度的這一問題稱為**“內(nèi)存墻”**,它消耗了運(yùn)行底層人工智能模型所需的大量時間和能源。
解決方案:受人腦啟發(fā)的“內(nèi)存計(jì)算”
該論文的研究人員認(rèn)為,解決內(nèi)存瓶頸的關(guān)鍵在于嘗試一種將內(nèi)存和處理能力整合在一起的新型計(jì)算機(jī)架構(gòu),這種方法被稱為**“內(nèi)存計(jì)算”(Compute-in-Memory, CIM)**。
算法核心:研究人員建議,AI 模型應(yīng)采用受人腦運(yùn)作方式啟發(fā)的脈沖神經(jīng)網(wǎng)絡(luò)(Spiking Neural Networks, SNN)。雖然 SNN 過去因速度慢、精度低而受詬病,但近年來其性能已顯著提升。
CIM 優(yōu)勢:論文摘要指出,“CIM 通過將計(jì)算能力直接集成到內(nèi)存系統(tǒng)中,為解決內(nèi)存墻問題提供了一個很有前景的解決方案。”通過這種整合,可以減少數(shù)據(jù)傳輸量并提高處理效率。
應(yīng)用前景:從數(shù)據(jù)中心走向現(xiàn)實(shí)世界
研究人員相信,將計(jì)算機(jī)處理和內(nèi)存集成到一個系統(tǒng)中,將能大幅降低人工智能的能耗。普渡大學(xué)合著者兼研究員坦維·夏爾馬表示:“要將(人工智能)從數(shù)據(jù)中心轉(zhuǎn)移到現(xiàn)實(shí)世界,我們需要大幅降低其能源消耗。”
通過這種方法,人工智能可以集成到體積小、價格實(shí)惠且電池續(xù)航時間更長的設(shè)備中,從而改進(jìn)醫(yī)療設(shè)備、交通運(yùn)輸和無人機(jī)等多個領(lǐng)域。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們