YuanLab.ai团队正式开源发布源Yuan3.0 Flash多模态基础大模型。该模型拥有40B参数规模,采用稀疏混合专家(MoE)架构,单次推理仅激活约3.7B参数。通过创新的强化学习训练方法(RAPO)和反思抑制奖励机制(RIRM),模型在提升推理准确性的同时,大幅压缩了推理过程的token消耗,显著降低算力成本。在企业场景的RAG、多模态检索、多模态表格理解、摘要生成等任务中,Yuan3.0 Flash的表现已优于GPT-5.1,体现出其在企业应用场景中的明显能力优势。此外,该模型全面开源,全系列模型参数和代码均可免费下载使用,支持社区在此基础上进行二次训练与行业定制。
