12月26日,国产大模型DeepSeek发布了其新一代语言模型DeepSeek-V3,这是一款强大的混合专家(Mixture-of-Experts,MoE)语言模型。其技术亮点在于拥有671B的MoE和37B的激活参数,并在14.8万亿个高质量token上进行了预训练。这一创新在AI圈内引起了轰动,被誉为“圣诞节真的来了”的里程碑事件。