近日,幻方量化旗下的DeepSeek公司宣布發布全新系列模型DeepSeek-V3首個版本,并同步開源。
DeepSeek-V3為自研MoE模型,671B參數,激活37B,在14.8T token上進行了預訓練。
DeepSeek引用評測報告指出,DeepSeek-V3多項評測成績超越了阿里旗下Qwen2.5-72B和Meta旗下Llama-3.1-405B等其他開源模型,并在性能上和世界頂尖的閉源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。
令業界震驚的是,DeepSeek-V3訓練僅花費了557.6萬美元,在2048xH800集群上運行55天完成,還很坦誠地公布了技術細節。
相比之下,GPT-4o這樣的模型訓練成本約為1億美元。
這一成果已經引起海外注意。其中,OpenAI創始成員Karpathy點評稱,DeepSeek-V3讓在有限算力預算上進行模型預訓練這件事變得容易。它看起來比Llama 3 405B更強,訓練消耗的算力卻僅為后者的1/11。
這意味著算力成本的大幅下降,也意味著大模型領域在經歷了“百模大戰”后,可能會迎來新一輪的大模型產品競爭。


產品與服務
聯系站長
關于我們