盘古团队回应抄袭指控:并非基于其他模型训练 已标注开源代码版权声明
8 小时前

7月5日下午,盘古Pro MoE技术开发团队发布声明,回应近期开源社区及网络平台对盘古大模型开源代码的讨论。声明指出,盘古Pro MoE开源模型专为昇腾硬件平台开发训练,非基于其他厂商模型增量训练。该模型在架构设计及技术特性上实现关键创新,为全球首个面向昇腾硬件的同规格混合专家模型。其提出的分组混合专家模型(MoGE)架构,有效解决了大规模分布式训练的负载均衡问题,显著提升了训练效率。