在開源AI領(lǐng)域,與大型科技公司的差距不僅僅體現(xiàn)在算力上。AI2(前Allen人工智能研究所)正通過一系列開創(chuàng)性舉措縮小這一鴻溝,其最新發(fā)布的Tülu3后訓(xùn)練方案,讓"原始"大語言模型轉(zhuǎn)化為實用AI系統(tǒng)變得觸手可及。
與普遍認(rèn)知不同,基礎(chǔ)語言模型在預(yù)訓(xùn)練后并不能直接投入使用。事實上,后訓(xùn)練過程才是決定模型最終價值的關(guān)鍵環(huán)節(jié)。正是在這個階段,模型從一個"無所不知"卻缺乏判斷力的網(wǎng)絡(luò),轉(zhuǎn)變?yōu)榫哂刑囟üδ軐?dǎo)向的實用工具。
長期以來,各大公司對后訓(xùn)練方案諱莫如深。雖然任何人都能用最新技術(shù)構(gòu)建模型,但要讓模型在特定領(lǐng)域(如心理咨詢或研究分析)發(fā)揮作用,則需要獨特的后訓(xùn)練技術(shù)。即便是Meta的Llama這樣標(biāo)榜"開源"的項目,其原始模型的來源和通用訓(xùn)練方法仍是嚴(yán)格保密的。
Tülu3的出現(xiàn)改變了這一現(xiàn)狀。這套完整的后訓(xùn)練方案涵蓋了從主題選擇到數(shù)據(jù)治理,從強化學(xué)習(xí)到微調(diào)等全方位流程。用戶可以根據(jù)需求調(diào)整模型能力,比如強化數(shù)學(xué)和編程能力,或降低多語言處理優(yōu)先級。
AI2的測試顯示,經(jīng)Tülu3訓(xùn)練的模型性能已達(dá)到頂級開源模型水平。這一突破意義重大:它為企業(yè)提供了一個完全自主可控的選擇。特別是對醫(yī)療研究等處理敏感數(shù)據(jù)的機構(gòu)來說,不必再依賴第三方API或定制服務(wù),可以在本地完成全流程訓(xùn)練,既節(jié)省成本又保護隱私。
AI2不僅發(fā)布了這套方案,還率先將其應(yīng)用于自家產(chǎn)品。雖然目前的測試結(jié)果基于Llama模型,但他們已計劃推出基于自家OLMo且經(jīng)Tülu3訓(xùn)練的全新模型,這將是一個真正從頭到尾完全開源的解決方案。
這次技術(shù)開源不僅展現(xiàn)了AI2推動AI民主化的決心,更為整個開源AI社區(qū)注入了一針強心劑。它讓我們離真正的開放、透明的AI生態(tài)系統(tǒng)更近了一步。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們