作為中國最大的Mixture of Experts(MoE)開源大模型,XVERSE-MoE-A36B的發布標志著中國在AI領域的重大進步,將國產開源技術提升至國際領先水平。
該模型的性能和效率帶來了訓練時間的縮短、推理性能的提升,以及降低了AI應用的成本,為中小企業、研究者和開發者提供了更多選擇機會。
XVERSE-MoE-A36B擁有255B總參數和36B激活參數,性能可與超過100B參數的大模型相媲美,實現了跨級的性能躍升。
MoE架構通過組合多個細分領域的專家模型,打破了傳統擴展定律的局限,保持了模型性能最大化,降低了計算成本。
元象MoE在權威評測中超越了多個同類模型,包括國內千億MoE模型Skywork-MoE、傳統MoE霸主Mixtral-8x22B等。


產品與服務
聯系站長
關于我們