美团杀入开源大模型混战
外卖的拼音“waimai”中有两个“ai”,所以,大模型混战,“外卖一哥”没有不跟的道理。
近日,美团发布并开源了首个混合专家(MoE)模型——LongCat-Flash(龙猫),一个拥有5600亿参数,还很便宜的模型。
图源:LongCat
图源:LongCat官网截图
不过,目前LongCat只有推出了联网搜索生成功能,其“深度思考”按钮为灰色,点击后显示“敬请期待”。链接放在这里,大家可以取用:https://longcat.ai
图源:LongCat官网截图
在价格上,美团宣布,将推出“龙猫开发者计划”,为优质项目提供算力补贴。此外还将推出企业版API服务,定价较市场平均水平低30%,野心很大,直指DeepSeek、阿里云等老玩家。
值得一提的是,在美团官方的技术报告中,强调了LongCat-Flash是在一个包含数万个加速器(tens of thousands of accelerators)的大规模集群上完成训练的。“加速器”是一个笼统的概念,不单独指代目前常用的GPU。
还有消息称,LongCat-Flash的训练摆脱了英伟达GPU,那么则不排除是国产芯片,当然,对此美团方面并未做出回应。
倘若美团大模型同国产硬件供应商合作属实,那么则是为近期热议的“AI芯片国产替代”提供了关键验证。
接下来,我们来看看这个LongCat-Flash。
首先,LongCat-Flash极具创新性的设计之一是 “零计算”专家机制 (Zero-computation Experts) 。
所谓“零计算”专家机制,就是通过动态分配算力资源,将简单的token直接原样输出,仅对复杂token(如逻辑推理部分)调用完整算力,从而极大地节省算力。
图源:微博
由此,龙猫可以实现计算效率与性能的双重提升。相比同行其他模型,美团大模型在训练和推理速度上优势明显,能在 H800 上实现单用户每秒 100+ tokens 的推理速度,理论上每token输出时间相比DeepSeek-V3了降低近50%。
宋辉也用免费版进行了测试,速度确实快,堪比搜索引擎的程度,输出指令后几乎2秒内立刻便给出了答案。链接放置在此,大家可以直接取用:https://longcat.ai
其次,是快捷连接架构(ScMoE)在层与层间引入跨层捷径,使稠密计算与专家并行通信完全重叠。实测中,该架构使理论每token输出时间缩短至0.01秒,较DeepSeek-V3降低了50%,达到每秒100token的业界顶尖水平。
最后,为了更详细直观地展现其性能,下面给出LongCat-Flash和主流大模型的对比。
值得注意的是,LongCat-Flash在ArenaHard-V2基准测试中取得86.50的优异成绩,位列所有评估模型中的第二名,超过了DeepSeek-V3.1。
编程能力方面,在TerminalBench(终端命令行任务基准)中,以39.51的得分位列第二,仅次于闭源的“编程之王”Claude4 Sonnet(40.7分)。
此外还有指令遵循方面,在IFEval中,LongCat-Flash力压一众对手,以89.65分的成绩拿下了第一。
图源:微博
综上,从官方报告来看,LongCat-Flash-Chat性能的确比肩当下领先的主流模型。
事实上,今年以来,美团在AI领域的发力十分明显,先是连续发布AI Coding Agent工具NoCode,再是经营决策助手袋鼠参谋,再到酒店垂类AI Agent美团既白等多款垂直场景应用,如今又开源了自研大模型。
看来,“外卖一哥”美团并不打算缺席业界这场AI混战。
不过,开源模型消息发布后,美团的股价没有出现较大的波动,看来资本市场仍对这个外卖巨头的大模型动作持观望态度。
AI,美团必须要打的仗
值得玩味的是,几天前美团二季度财报刚出,利润亏损九成,外界一片哗然。如此关头,美团选择放出了大模型,很难不引发联想。
根据财报,美团二季度的经营利润下滑至2.26亿人民币,同比大幅下降98%,经营利润率也由13.7%降至0.2%。
图源:美团
具体来看,受外卖竞争影响,二季度核心本地商业分部经营利润仅为37亿人民币,同比下降75.6%。同时,由于海外扩张,新业务分部的经营亏损同比扩大至19亿人民币。
此前,伴随着京东、淘宝闪购纷纷加入这场空前绝后的外卖市场争夺战,各家纷纷玩起了“大额补贴”,从“15-15元”“18-18元”“25-20元”不等,在此期间,还出现了不少密集发券把系统干崩溃的现象。
图源:美团
玩得太大,终归要降降温。7月中旬三个平台皆被相关部门约谈,此后在发放消费者“外卖券”上,都有所收敛。但对手没有消失,战还是要打的,补贴资源进而转向了商家和骑手,比如,美团跟团京东搞起了品质外卖,推出“浣熊食堂”。
换言之,美团想要捍卫自己“外卖一哥”的地位,钱是不得不烧的。
当然,众所周知,“外卖市场”如今已然是存量市场,争破了头最终也仅仅是“增收不增利”,那么,寻找新的业务突破口成了关键,AI大模型就是尝试方向之一。
今年三月,王兴首次披露了美团AI战略三层次,分别是“AI at Work、AI in Products、Building LLM”。
AI at Work意味着内部工具全面智能化,将AI运用到所有员工的日常工作和业务运营。
AI in Products指用AI升级现有的2B端(面向企业)和2C端(面向消费者)的产品和服务,并且将推出全新的AI原生应用(AI native products),更好地服务消费者、商家、骑手和商业合作伙伴。
Building LLM则是投入数十亿美元采购GPU资源,自研基座模型,而目前开源的大模型,便是Building LLM战略的其中一环。
今年6月,美团核心本地商业CEO王莆中还坦言:美团每年在AI上投入超百亿元,主要因为GPU(图形处理器)很贵。但是我们觉得这个投入是值得的。因为只有把AI的基础设施包括大模型的研发投入进行下去,才能让美团在过去十几年在各行各业积累的大数据发挥新的价值,否则那些数据无法被鲜活地使用。
不久前发布的2025年二季度财报显示,美团研发投入达到 63 亿元,同比增长 17.2%,占营收比例约 6.8%,用于加大 AI 和无人配送技术布局。
以上美团在AI侧的一系列动作,可以用王兴的一句话总结:“AI将颠覆所有行业,我们(美团)的策略是主动进攻而非被动防御。”
话是这么说,从业务层面来看,美团搞大模型显然更偏向于“必须要做的选择”。毕竟美团核心业务涉及的物流、服务业,都正在被AI深刻重塑,AI+本地生活也已经被不少头部企业盯上。此外王兴押注的人形机器人,也离不开大模型的底层逻辑。
此时不跟牌,要等何时跟?
作者 | 宋辉