在人工智能領域,最近發生了一場激烈的競爭。英偉達的4B 小模型 NVARC 在最新的 ARC-AGI2評測中以27.64% 的優異成績力壓對手 GPT-5Pro 的18.3%,成功登頂。這一成就不僅展示了 NVARC 的強大性能,其每個任務的成本僅為20美分,遠低于 GPT-5Pro 的7美元,成本比拼中簡直是 “性價比之王”。
NVARC 的成功有賴于其獨特的零預訓練深度學習方法。這一策略避免了傳統大規模通用數據集的預訓練所帶來的領域偏見和數據依賴問題。這次評測尤其挑戰性十足,ARC-AGI2采取了更高難度的測試,旨在考察模型能否在沒有直接訓練數據的情況下,快速學習并掌握新技能。
英偉達團隊為 NVARC 的訓練采取了一種創新思路。他們將復雜的推理過程移至離線的合成數據管道,使用 GPT-OSS-120B 生成高質量的合成謎題,從而降低實時計算資源的需求。團隊從現有的數據集中提取問題,并通過組合生成更復雜的新題目。為了確保生成數據的高質量,他們將推理過程分解為多個獨立驗證的階段,最終形成了一個包含320萬條增強樣本的大型合成數據集。
NVARC 在推理模塊中采用了改進版的 ARChitects 方法,并通過對話式模板簡化了謎題理解。在訓練過程中,他們還利用 NeMo RL 框架和 Megatron 后端進行監督微調。特別值得注意的是,針對每個任務進行微調的 TTFT 技術,使得模型能夠快速適應新的任務規則。
盡管有人可能會質疑這種小模型是否只是一臺 “做題機器”,但 NVARC 的成功實際上凸顯了其在特定領域內的強大適應能力和效率。小模型在成本、速度和適配性方面的優勢,使其在許多應用場景中顯得尤為重要。未來,如何將正確的方法應用于合適的領域,將是推動技術進一步發展的關鍵。


產品與服務
聯系站長
關于我們