字节开源MoE关键优化技术 大模型训练成本可再省40%
创始人
2025-03-10 19:10:45

3月10日,记者从字节跳动获悉,字节豆包大模型团队宣布开源针对MoE架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。

上证报中国证券网讯(记者 罗茂林)3月10日,记者从字节跳动获悉,字节豆包大模型团队宣布开源针对MoE架构的关键优化技术COMET,可将大模型训练效率提升1.7倍,成本节省40%。

据悉,该技术已实际应用于字节的万卡集群训练,累计帮助节省了数百万GPU小时训练算力。针对MoE通信瓶颈,COMET通过在计算-通信重叠层面的多项创新,大幅降低了MoE流水线上的通信延迟。

同时,COMET支持业界绝大部分主流大模型,并可以像插件一样接入已有的MoE训练框架,无需进行侵入式改动,也可以与DeepSeek开源的DualPipe方案联用以更大压缩训练成本。该工作以高分入选了全球机器学习系统顶级会议MLSys 2025。

相关内容

热门资讯

南天信息新注册《资产公司核心业... 证券之星消息,近日南天信息(000948)新注册了3个项目的软件著作权,包括《资产公司核心业务AI助...
张凌赫钟爱联想moto X70... 作者:龚进辉 今晚,在联想天禧AI一体多端秋季新品超能之夜上,联想一口气带来了联想moto X70 ...
我们与恶的距离,只隔着一个谄媚... 文 | 脑极体 一位前科技高管在AI的“安慰”下走向弑母的悲剧;一位精神病患者在社交媒体上发起心理...
AI不是万能药!对话唐彬:支付... 支付行业正迎来一场从“支付工具”到“交易服务”的结构性变革。 一边是国内市场“内卷”加剧,企业比拼数...
联想AI眼镜V1发布:38克轻... IT之家 10 月 31 日消息,联想 AI 眼镜 V1 现已发布,主打 38 克轻量设计,搭载树脂...