京东开源 JoyAI-LLM-Flash 大模型:总参数 48B,激活参数 3B
3 小时前 / 阅读约2分钟
来源:IT之家
京东在Hugging Face平台开源JoyAI-LLM-Flash大模型,拥有3B激活参数及48B总参数,采用全新优化框架FiberPO和Muon优化器,解决了传统模型规模扩展不稳定问题,吞吐量提升1.3x-1.7x。
感谢IT之家网友 软媒用户389454 的线索投递!

IT之家 2 月 15 日消息,京东昨天在 Hugging Face 平台开源了 JoyAI-LLM-Flash 大模型,拥有 3B 激活参数以及 48B 总参数,在 20 万亿文本 Token 上进行预训练,擅长前沿知识理解、推理能力、编程、智能体等方面

据介绍,这款模型拥有全新优化框架 FiberPO,能够将纤维丛理论(fiber bundle theory)引入强化学习,并在训练中使用 Muon 优化器,通过微调 SFT、DPO 以及强化学习(RL)进一步训练。

同时,这款模型结合了 Muon 优化器以及稠密 MTP(Multi-Token Prediction),解决了传统模型规模扩展时不稳定的问题,相比非 MTP 版本吞吐量提升 1.3x-1.7x。

IT之家附该模型详细参数如下:

项目参数
架构混合专家模型 (MoE)
总参数量48B
激活参数量3B
层数(含 Dense)40
Dense 层数量1
注意力隐藏维度2048
MoE 隐藏维度768
多头注意力数量32
专家个数256
每 Token 专家数8
共享专家数
1
词表大小129K
上下文长度128K
注意力机制MLA
激活函数SwiGLU