DeepSeek V4問世:1兆參數MoE模型,開源權重挑戰美國頂尖水平
AI新創DeepSeek今日釋出其最新DeepSeek V4,這是一款擁有1兆參數的Mixture of Experts(MoE)模型,重點在於有效利用專家機制提升模型效率與準確度。
DeepSeek V4全權重開源於Apache 2.0授權下,鼓勵全球開發者進行研究與應用。該模型在性能表現上可與美國頂尖模型媲美,但訓練資金僅約為520萬美元,展現相當高的性價比。
這次發布也強調了MoE技術在大規模AI模型中應用的前景,進一步推動開放且高效的AI生態系統建設。