在科技飛速發(fā)展的今天,AMD 再一次引領(lǐng)潮流,推出了基于 Zen5架構(gòu)的銳龍 AI Max+395。這款處理器不僅是行業(yè)的佼佼者,更是首個(gè)能夠在本地運(yùn)行700億參數(shù) AI 大模型的平臺(tái)。而現(xiàn)在,AMD 宣布重磅升級,銳龍 AI Max+395可以支持本地運(yùn)行高達(dá)1280億參數(shù)的大模型,進(jìn)一步拓展了其在 AI 領(lǐng)域的應(yīng)用潛力。
為了實(shí)現(xiàn)這樣的性能,銳龍 AI Max+395依舊需要搭配128GB 的統(tǒng)一內(nèi)存,其中96GB 必須被分配作為顯存。此外,該處理器還要求在 Vulkan llama.cpp 環(huán)境下運(yùn)行,這為開發(fā)者提供了更大的靈活性。新的升級使得銳龍 AI Max+395成為第一個(gè)能夠運(yùn)行1090億參數(shù)的 Meta Llama4Sout 大模型的平臺(tái),該模型體積達(dá)66GB,支持多種高級功能如 Vision 和 MCP。
這次升級的核心在于混合專家(MoE)模式,這種模式每次僅激活模型的一部分,從而在保持性能的同時(shí)大幅降低資源消耗。銳龍 AI Max+395在實(shí)際測試中可以實(shí)現(xiàn)每秒15Tokens 的處理速度,表現(xiàn)相當(dāng)出色。同時(shí),它還支持68GB 體積、1230億參數(shù)的 Mistral Large 模型,以及其他多個(gè)小型模型,如18GB、300億參數(shù)的 Qwen3A3B 和17GB、270億參數(shù)的 Google Gemma。
更為驚人的是,銳龍 AI Max+395在上下文處理上也有了質(zhì)的飛躍,最大支持256000Tokens 的上下文長度,讓其能夠處理和分析更為復(fù)雜的數(shù)據(jù)資料。雖然一般的非大規(guī)模模型在32000Tokens 的上下文下已足夠,但此次升級后的處理器帶來了更多可能性,往日需要高端設(shè)備才能實(shí)現(xiàn)的超大規(guī)模上下文,如今也能在 AMD 的產(chǎn)品中輕松實(shí)現(xiàn)。
價(jià)格方面,搭載銳龍 AI Max+395及128GB 內(nèi)存的迷你 AI 工作站,現(xiàn)已降至1.3萬元左右,性價(jià)比顯著提升,極大地降低了高端 AI 應(yīng)用的門檻。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們