當全球AI競賽仍圍繞自回歸大模型(如GPT-5、Gemini)激烈纏斗時,一家新銳初創公司正以顛覆性架構悄然突圍。由斯坦福大學教授Stefano Ermon領銜的AI公司Inception近日宣布完成5000萬美元種子輪融資,由Menlo Ventures領投,微軟M12、英偉達NVentures、Snowflake Ventures、Databricks Investment及Mayfield跟投,吳恩達(Andrew Ng)與Andrej Karpathy亦以天使投資人身份加入,陣容堪稱豪華。
Inception的核心押注,是將原本用于圖像生成的擴散模型(Diffusion Models)全面引入文本與代碼領域,挑戰當前主流的自回歸范式。Ermon指出,GPT、Gemini等模型采用“逐詞預測”方式,必須串行處理,限制了速度與效率;而擴散模型通過并行迭代優化整體輸出,在處理大規模代碼庫或長文本時展現出顯著優勢。
這一理念已落地為產品:公司同步發布其最新模型Mercury,專為軟件開發場景設計,目前已集成至ProxyAI、Buildglare、Kilo Code等多款開發者工具。實測顯示,Mercury在代碼補全、重構與跨文件理解任務中,推理速度突破1000token/秒,遠超現有自回歸模型。“我們的架構天生為并行而生,”Ermon強調,“它更快、更高效,且對算力成本極度友好。”
為何擴散模型適合代碼?
代碼不同于自然語言——它結構嚴謹、依賴全局上下文,且常需跨文件關聯。自回歸模型在處理此類任務時,易因“逐字生成”而忽略整體邏輯一致性。而擴散模型從“噪聲”出發,通過多輪全局調整逼近目標輸出,天然適合高結構化數據。此外,其并行計算特性可充分利用GPU/TPU集群,顯著降低延遲與能耗,直擊當前AI基礎設施高成本痛點。
巨頭為何押注?
在AI訓練與推理成本飆升的背景下,效率成為新戰場。微軟、英偉達、Databricks等投資方均在構建AI開發棧,亟需高性能、低開銷的模型底座。Inception的路徑,或為大模型商業化提供一條“省算力、高吞吐”的新出路。
AIbase認為,Inception的崛起標志著AI架構探索進入深水區——當參數競賽邊際效益遞減,底層范式創新將成為破局關鍵。如果擴散式LLM能在代碼、科研、金融等高價值場景持續驗證其優勢,這場由斯坦福實驗室發起的技術革命,或將重塑生成式AI的未來版圖。


產品與服務
聯系站長
關于我們