美团“Building LLM ”进展首度曝光:发布并开源 LongCat-Flash-Chat 输出成本低至5元/百万token
创始人
2025-09-01 13:42:19

【环球网科技报道 记者 李文瑶】9月1日,美团宣布 LongCat-Flash-Chat 正式发布,在Github、Hugging Face 平台开源,并同步上线官网。

美团发布并开源 LongCat-Flash-Chat(资料图)

据悉,LongCat-Flash 采用创新性混合专家模型(Mixture-of-Experts, MoE)架构,总参数 560B,激活参数 18.6B-31.3B(平均 27B),实现了计算效率与性能的双重优化。根据多项基准测试综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat 在仅激活少量参数的前提下,性能比肩当下领先的主流模型,尤其在智能体任务中具备突出优势。此外,因为面向推理效率的设计和创新,LongCat-Flash-Chat 具有明显更快的推理速度,更适合于耗时较长的复杂智能体应用。

今年以来,美团 AI 进展频传,发布了 AI Coding Agent 工具 NoCode 、AI 经营决策助手袋鼠参谋、酒店经营的垂类 AI Agent 美团既白等多款 AI 应用。公司方面曾表示,其 AI 战略会建立在三个层面:AI at work、AI in products 以及 Building LLM,此次模型开源是其 Building LLM 进展的首度曝光。

具体来看,LongCat-Flash 模型在架构层面引入“零计算专家(Zero-Computation Experts)”机制,总参数量 560B,每个token 依据上下文需求仅激活 18.6B-31.3B 参数,实现算力按需分配和高效利用。为控制总算力消耗,训练过程采用 PID 控制器实时微调专家偏置,将单 token 平均激活量稳定在约 27B。

此外,LongCat-Flash 在层间铺设跨层通道,使MoE的通信和计算能很大程度上并行,极大提高了训练和推理效率。配合定制化的底层优化,LongCat-Flash 在 30 天内完成高效训练,并在 H800 上实现单用户 100+ tokens/s 的推理速度。LongCat-Flash 还对常用大模型组件和训练方式进行了改进,使用了超参迁移和模型层叠加的方式进行训练,并结合了多项策略保证训练稳定性,使得训练全程高效且顺利。

针对智能体(Agentic)能力,LongCat-Flash 自建了 Agentic 评测集指导数据策略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了优异的智能体能力。

通过算法和工程层面的联合设计,LongCat-Flash在理论上的成本和速度都大幅领先行业同等规模、甚至规模更小的模型;通过系统优化,LongCat-Flash 在 H800 上达成了 100 token/s的生成速度,在保持极致生成速度的同时,输出成本低至5元/百万token。

相关内容

热门资讯

AI回答别成“AI推销” 本图由AI生成 什么牌子的净水器质量好?北京周边两日游选哪家旅行社?……如今,面对这些问题,越来越多...
Check Point:AI时... Check Point:AI时代策马加速,网络安全需同步升级 随着春节临近,人工智能正推动互联网生态...
Claude搅动硅谷 AI开始... 在人工智能(AI)技术迅猛演进的浪潮中,一场关于“谁将主导下一代企业软件”的激烈博弈正悄然上演。 近...
盘前资讯|AI主题ETF集体反... 中证网讯 ①2月9日,AI板块反弹,两只影视主题ETF涨幅在7%左右,并且出现1%以上的场内溢价,另...