爱AI工具库,国内AIGC产品探索者分享平台
注册
99%工具无需特殊网络!
当前位置:首页

字节跳动豆包大模型团队开源MoE架构优化技术,训练成本节省40%

爱AI工具库 2025-03-10
9

感谢IT之家网友 HH_KK、某咸鱼的小号 的线索投递!
3 月 10 日,字节跳动豆包大模型团队官宣开源一项针对 MoE(混合专家模型)架构的关键优化技术,可将大模型训练效率提升 1.7 倍,成本节省 40%。据悉,该技术叫做 COMET,已实际应用于字节的万卡集群训练,累计帮助节省了数百万 GPU 小时训练算力。IT之家注意到,早前豆包团队发布了新一代稀疏架构 UltraMem,将模型推理成本砍掉 83%,此次,又开源了 COMET,向模型训练成本出手。目前,COMET 核心代码已开源,并计划兼容 Triton 等编译生态。论文链接:https://arxiv.org/pdf/2502.19811开源地址:https://github.com/bytedance/flux

来源:IT之家

相关推荐

暂无数据

评论 ( 0 )

aiaitool@163.com

打开微信扫一扫

qrcode

回顶部

×

我的收藏

请先登录登录

请先登录登录