洞察财经脉动 · 引领数码未来

科金社 - 连接财经智慧与科技创新的专业资讯平台

美团开源超大规模混合专家模型:5600亿参数,仅激活5%便展现惊人性能

美团5600亿参数模型仅激活5%,性能媲美百亿级巨头

科金社2025年09月01日 13:21消息,美团发布开源混合专家模型,5600亿参数仅激活5%即显高效性能。

   9月1日消息,美团正式推出其自主研发的LongCat-Flash-ChatAI模型,并同步进行开源。该模型采用创新性的混合专家(MoE)架构,总参数量达到560B(即5600亿),在实际应用中激活的参数规模为18.6至31.3B,平均约为27B,从而在提升性能的同时显著优化了计算效率。 这一技术突破体现了企业在大模型研发上的持续投入与创新,尤其是在资源利用和效率平衡方面展现出较强的工程能力。开源举措也有助于推动行业生态的发展,促进更多开发者和研究者参与其中,进一步释放模型的潜力。

美团开源超大规模混合专家模型:5600亿参数,仅激活5%便展现惊人性能

   美团声称,根据多项基准测试的综合评估,作为一款非思考型基础模型,LongCat-Flash-Chat在仅启用少量参数的情况下,性能即可达到当前主流先进模型的水平,尤其在智能体任务中展现出显著优势。

美团开源超大规模混合专家模型:5600亿参数,仅激活5%便展现惊人性能

   同时,由于在推理效率方面的设计和创新,LongCat-Flash-Chat展现出显著更快的推理速度,更适用于需要长时间运行的复杂智能体应用。

美团开源超大规模混合专家模型:5600亿参数,仅激活5%便展现惊人性能

   美团LongCat-Flash在架构设计中引入“零计算专家”机制,总参数规模达到560B,每个token根据上下文需求仅激活18.6-31.3B参数,实现算力的按需分配与高效使用。

   为降低整体算力消耗,训练过程中采用PID控制器对专家偏置进行实时调整,使每个token的平均激活量维持在约27B左右。

   此外,LongCat-Flash在层间铺设跨层通道,使MoE的通信和计算能很大程度上并行,极大提高了训练和推理效率。

   配合定制化的底层优化,LongCat-Flash在30天内实现了高效训练,并在H800 GPU上达到单用户100 tokens/s的推理速度。

   LongCat-Flash 对常见的大模型组件和训练方法进行了优化,采用了超参数迁移与模型层级叠加的训练方式,并融合了多种策略以提升训练的稳定性,从而确保整个训练过程高效且顺畅。

   针对智能体(Agentic)能力,LongCat-Flash自建了Agentic评测集指导数据策略,并在训练全流程进行了全面的优化,包括使用多智能体方法生成多样化高质量的轨迹数据等,实现了优异的智能体能力。

   通过算法与工程的协同优化,LongCat-Flash在理论层面实现了成本和速度的显著提升,其表现优于同规模乃至更小规模的行业模型。

   通过系统优化,LongCat-Flash在H800平台上实现了每秒生成100个token的效率,同时每百万token的输出成本低至5元。

   LongCat-Flash架构图

   在通用领域知识方面,LongCat-Flash在ArenaHard-V2测试中取得了86.50的出色成绩,排名位列所有参评模型中的第二位。

   在基础基准测试中,MMLU(多任务语言理解基准)得分为89.71,CEval(中文通用能力评估基准)得分为90.44。这些数据反映出当前模型在多任务理解和中文语言处理方面具备较强的综合能力。从评测结果来看,模型在不同语言和任务场景下的表现较为均衡,显示出良好的泛化能力和技术成熟度。这样的成绩也为后续的优化和应用提供了坚实的基础。

   这些成果可以与当前国内领先的模型相媲美,且其参数量少于DeepSeek-V3.1、Kimi-K2等产品。

   智能体工具使用方面,LongCat-Flash即便与参数规模更大的模型相比,在τ2-Bench(智能体工具使用基准)中的表现仍超越其他模型;高复杂度场景下,在VitaBench(复杂场景智能体基准)中以24.30分位列第一。

   编程方面,LongCat-Flash在TerminalBench基准测试中以39.51分的成绩排名第二,在SWE-Bench-Verified测试中取得了60.4分的成绩。这些数据反映出该模型在命令行任务和软件工程能力方面具备较强的实力,尤其在与同类模型的竞争中表现不俗。可以看出,LongCat-Flash在实际应用和代码生成方面已经达到了较高的水平,未来有望在更多专业场景中发挥作用。

   在指令遵循评估方面,LongCat-Flash在IFEval基准中以89.65分位居榜首,在中文指令遵循基准COLLIE和中文多场景指令基准Meeseeks-zh中的得分分别为57.10和43.03。

   LongCat-Flash基准测试性能

   美团同步提供了分别基于SGLang和vLLM的两种高效部署方案。

   以下为使用SGLang进行单机部署的示例:

   python3 -m sglang.launch_server \

       --model meituan-longcat/LongCat-Flash-Chat-FP8 \

       --trust-remote-code \

       --attention-backend flashinfer \

       --enable-ep-moe \

       --tp 8

   现在前往https://longcat.ai/ ,就能立即与LongCat-Flash-Chat开启对话。 

   开源平台地址:

   Hugging Face:

   https://huggingface.co/meituan-longcat/LongCat-Flash-Chat

   Github:

   https://github.com/meituan-longcat/LongCat-Flash-Chat

   开源仓库统一采用MIT License,并允许用户使用模型输出内容,或通过模型蒸馏等技术训练其他模型。这一政策为开发者和研究者提供了更大的灵活性和自由度,有助于推动技术的快速迭代与应用落地。在当前AI技术日益普及的背景下,开放源代码与共享成果已成为行业共识,MIT License的广泛适用性也进一步降低了技术使用的门槛。这种开放态度不仅促进了技术创新,也为更多人参与AI发展提供了可能。

留言评论

(已有 0 条评论)
请输入您的姓名
请输入有效的邮箱地址
请输入评论内容

暂无评论,成为第一个评论者吧!

特别推荐
人形战甲登场:未来战场的机器人军团来袭
2025-11-30 13:44
人工智能+引爆新风口!22只高增长黑马股被机构抢筹
2025-11-29 13:43
阿里震撼发布首款自研AI眼镜:夸克S1首发双光机显示,支持3K视频与秒换电池
2025-11-27 16:22
AI新王来袭!摩根士丹利预测:2027年谷歌TPU销量或破百万
2025-11-27 16:18
AI对话数据揭示:Claude助效率提升80%,工作时间大幅缩短
2025-11-26 12:20
惠普大裁员6000人,AI成成本新引擎
2025-11-26 12:17
独家:Meta拟联手谷歌,TPU芯片入局自建数据中心?
2025-11-25 11:28
创世纪来袭:美国AI计划对标曼哈顿计划引发全球关注
2025-11-25 09:28
英伟达强势反击:直指华尔街分析师,否认会计丑闻指控
2025-11-25 09:22
智元机器人携手智慧倍增,共拓机器人新未来
2025-11-25 09:19
奥尔特曼新动作:Shallotpeat来袭,直面谷歌挑战
2025-11-24 16:52
软科技谁主沉浮?AI浪潮下的估值新逻辑
2025-11-24 16:44
谷歌被曝用Gmail训练AI,官方紧急辟谣引热议
2025-11-23 11:48
AI不是人:Karpathy警告别赋予它人性特质
2025-11-23 10:10
AI泡沫风暴来袭?达利欧与大空头罕见同台激辩未来生死局
2025-11-23 10:02
京东郑小丹:具身智能引领产业变革与民生升级
2025-11-22 15:12
中国AI应用4天狂揽百万下载,速度领跑全球
2025-11-22 15:12
蚂蚁灵光 AI 助手上线四天狂揽百万下载,超越 ChatGPT?
2025-11-22 13:33
AI 拍立得上线!网友玩转谷歌 Gemini 3,零门槛造出复古游戏
2025-11-20 14:39
马斯克预言:AI将终结工作与金钱时代
2025-11-20 14:37
战略联盟

友情链接 - 合作伙伴网络

携手顶尖科技平台 共建数字生态

网暻网络

www.wjwl666.top

访问网站

科技快讯

news9999.cn

访问网站

文化潮流网

www.kouc.cn

访问网站

量子财讯

www.360shoulu.com

访问网站

友情链接持续增加中,期待与更多优秀平台建立友情链接