感谢IT之家网友 软媒用户389454 的线索投递!
2 月 15 日,京东昨天在 Hugging Face 平台开源了 JoyAI-LLM-Flash 大模型,拥有 3B 激活参数以及 48B 总参数,在 20 万亿文本 Token 上进行预训练,擅长前沿知识理解、推理能力、编程、智能体等方面。据介绍,这款模型拥有全新优化框架 FiberPO,能够将纤维丛理论(fiber bundle theory)引入强化学习,并在训练中使用 Muon 优化器,通过微调 SFT、DPO 以及强化学习(RL)进一步训练。同时,这款模型结合了 Muon 优化器以及稠密 MTP(Multi-Token Prediction),解决了传统模型规模扩展时不稳定的问题,相比非 MTP 版本吞吐量提升 1.3x-1.7x。IT之家附该模型详细参数如下:项目参数架构混合专家模型 (MoE)总参数量48B激活参数量3B层数(含 Dense)40Dense 层数量1注意力隐藏维度2048MoE 隐藏维度768多头注意力数量32专家个数256每 Token 专家数8共享专家数1词表大小129K上下文长度128K注意力机制MLA激活函数SwiGLU
来源:
IT之家
IT之家未经允许不得转载:爱AI工具库 » 京东开源 JoyAI-LLM-Flash 大模型:总参数 48B,激活参数 3B









评论 ( 0 )