字节攻克MoE关键瓶颈,训练成本节省40%
2025-03-10

字节豆包大模型团队3月10日官宣开源一项针对MoE架构的关键优化技术,该技术可将大模型训练效率提升1.7倍,成本节省40%。据悉,该技术已应用于字节的万卡集群训练,累计节省数百万GPU小时训练算力。