
这两年看月之暗面,最容易产生的误会,是觉得 Kimi 掉队了。
这个说法不太对。
Kimi 的模型能力并不差。Kimi 2.6 刚发布,开源模型榜单、编程能力、长程执行、Agent Swarm,都挺能打。技术社区里很多人讨论的,也不是 Kimi 行不行,而是它在像 coding agent 这种场景上有多强。
所以月之暗面的麻烦,不是弱。
恰恰相反,它的麻烦是,强得不够有特点。
一个公司当然可以有很多能力。问题是,当大模型行业卷到今天,用户、开发者、投资人和媒体都没有耐心听你完整介绍一遍。
大家只想用一句话记住你。
DeepSeek 是什么?
开源、便宜、能打。
OpenAI 是什么?
最强闭源模型和最大 AI 应用入口。
Anthropic 是什么?
Claude,写代码,企业安全感。
Google 是什么?
Gemini,长上下文,多模态,全家桶。
豆包是什么?
字节的流量入口和低价 AI 助手。
那月之暗面是什么?
这个问题反而不好回答了。
2024 年,这个问题很好回答,Kimi 是那个能读 200 万字的 AI。
普通用户不懂 token,不关心 MoE,也不想看参数表。但他听到 200 万字,马上就懂了。这东西能读论文,能读合同,能读研报,能读代码仓库,能把我不想看的那堆东西先看一遍。
那时候 Kimi 的产品心智非常清楚。
它没有跟所有大模型公司一起喊自己更聪明,而是换了一个角度,说自己更能记事。
这个说法比「更聪明」好用多了。
我那时候用 Kimi,最常见的场景也不是让它写诗,或者陪我聊天。
就是丢进去一个 PDF。
论文太长,合同太长,群聊太长,代码仓库太乱,自己翻当然也能翻,但真不想翻。
Kimi 早期最讨巧的地方就在这儿,它不像是在给你表演智力,而是在替你干一件你本来就不想干的活。
月之暗面能最早抓住长文本,不是产品经理会找痛点,是创始人的技术履历本来就在这条线上。
杨植麟 2015 年从清华毕业,去 CMU 读博士,2019 年做 Transformer-XL,后来又做 XLNet。Transformer-XL 要解决的,就是原始 Transformer 固定窗口太短的问题。模型读完一段就像翻篇了,前面的状态很难带到后面。Transformer-XL 想做的是,让机器跨过一段文本以后,还能把前面的东西带着走。
所以月之暗面做长文本,不是临时挑了一个卖点。
这是创始人研究进程中自然演进出来的东西。
问题是,它后来变成了全行业的标配。
2023 年 5 月,Anthropic 把 Claude 的上下文拉到 100K。2024 年 2 月,Google 发布 Gemini 1.5 Pro,展示 100 万 token。2024 年 3 月,Kimi 把 200 万字推到国内用户面前。到 2026 年,DeepSeek-V4 也把 1M 上下文和 Agent 能力放进了卖点里。
所以不是月之暗面押错了宝。
它押对了。
只是一个方向一旦被证明是对的,就会有很多人一起进来。
一项能力刚出现时,它是你的招牌。所有人都开始做以后,它就变成行业标配。
这就是月之暗面现在最尴尬的地方。
它有很多强项,但每一个强项旁边,都站着一个更容易被记住的对手。
长上下文,它很早做出来,也做得很好。
但现在 Claude 有,Gemini 有,DeepSeek 有,OpenAI 也会继续往上加。用户不再因为你能读长文就天然兴奋,因为他默认大模型就应该能读长文。
参数量,它也曾经拿出来讲过。
但参数量这个东西,传播寿命很短。今天你最大,明天别人更大。更何况用户根本不关心你到底多少参数,他只关心今天好不好用,贵不贵,快不快。
开源模型,它也在做。
K2、K2.5、K2.6 都给开源社区带来了很强的存在感。但中文 AI 圈里,开源这两个字的心智基本被 DeepSeek 先拿走了。R1 那一波太火,开源、低价、推理能力、全球资本市场反应,全都叠在一起。后面别人再开源,也容易被放到「也很强」这一挂,而不是「重新定义开源」的地位。
Agent 和长任务编程,它现在也在发力。
K2.6 的方向非常清楚,coding、long-horizon execution、agent swarm。这个转向是对的,因为行业已经不缺会读长文的模型,行业缺的是能把复杂任务跑完的模型。
但这个方向也最卷。
美国那几家闭源模型,在真实编程工作流里仍然有很强的心智。Claude、OpenAI、Google,都在抢 Agent 和 coding 的主线。国内这边,DeepSeek、豆包、通义、腾讯,也不会差太远。你说 Kimi 强,没问题。但你要让一个开发者形成肌肉记忆,第一反应就是用 Kimi,这比跑分更难。
这就是月之暗面的处境。
它不是没有牌。
它是每张牌都有人跟。
这在商业上很难受。
2024 年,Kimi 靠 200 万字建立了清晰心智。到了 2025 年以后,这个心智被稀释了。大家不再只问谁能读得长,而是开始问谁开源,谁便宜,谁推理强,谁写代码稳定,谁能进我的 IDE,谁有更好的 API,谁的生态更完整。
一旦问题变多,Kimi 反而不好被一句话概括。
它什么都能做。但传播有时候很残酷。
什么都能做,往往不如把一个做到极致。
DeepSeek 就吃到了这个红利。
它当然也有很多复杂技术细节,但大众记住的不是那些。大众记住的是,一个杭州团队,把开源模型做得很强,还把价格打下来了。
这个故事太带感了。
它有技术,有情绪,有民族叙事,有成本曲线,有资本市场反应,还有开发者参与感。
月之暗面的故事就更难讲。
你说它是长文本公司,可长文本已经成了行业能力。
你说它是开源模型公司,可开源心智已经被 DeepSeek 占了先手。
你说它是 Agent 公司,可 Agent 这条路上前面站着美国闭源三巨头,旁边站着一堆国内大厂和创业公司。
你说它是 C 端 AI 助手,可 C 端入口又是字节、腾讯、阿里这种公司的主场。
你说它是基础模型公司,那就要面对一个更残酷的问题,基础模型太费钱,而且领先窗口越来越短。
这不是技术批评。
这是定位问题。
很多技术公司都会遇到这个问题。
早期靠一个鲜明标签冲出来。等行业跟上以后,原来的标签不再稀缺,公司就必须找到第二个标签。
有些公司找到了。
有些公司没有,从此变成人们口中的「也很强」。
「也很强」是科技公司最难受的位置。
它不是失败。
但它很难被主动想起。
用户需要一个 AI 助手,可能先想豆包、元宝、通义、ChatGPT。
开发者需要写代码,可能先想 Claude、Cursor、OpenAI、Gemini,或者 DeepSeek。
企业要做私有化和模型接入,可能会先看大厂云和开源生态。
媒体要找一个中国 AI 故事,可能先找 DeepSeek。
Kimi 当然都能参与。
但参与和被默认选择,是两件事。
这才是月之暗面真正的尴尬。
它站在很多赛道的交叉口,却还没有重新占住一个所有人都绕不开的位置。
说到这里,反而能理解 K2.6 为什么要强调 long-horizon execution 和 agent swarm。
因为这可能是月之暗面最有机会重新定义自己的地方。
读 PDF 是静态任务。
Agent 是动态任务。
读 PDF 的时候,资料在那里,模型读完回答就行。Agent 干活时,信息是一路产生的。它打开网页,调用工具,写代码,跑测试,看报错,改文件,再跑测试。每一步都会留下新状态。
十几轮以后,上下文就像一块写满字的白板。
你擦掉一半,后面就会犯傻。
这时候长上下文不再是广告词,而是工作现场本身。
如果月之暗面能把长上下文、工具调用、代码能力、多 Agent 协作,真正揉成一套可靠工作流,它就有机会把自己的标签从「能读长文」改成「能跑长任务」。
这两个词可差多了。
会读长文,解决的是人的懒。
会跑长任务,解决的是机器自己的笨。
前者容易被入口和价格稀释。
后者如果真做成,会进入开发、办公、研究、企业自动化这些更有价值的流程里。
但这条路也很难。
因为它不能只靠一次模型发布来证明。
它要靠真实用户的肌肉记忆来证明。
一个开发者连续几周用 Kimi Code,发现它在复杂项目里比别的模型更好,出错更少。
一个团队把 Kimi 接进 CI、文档、测试、代码审查,发现它能长期节省真实人力。
一个企业把长流程交给它,发现它不止是演示时很惊艳,而且在真实业务场景里也不掉链子。
只有到这个程度,Kimi 才能重新拥有一句话心智。
不是 200 万字。而是长任务。
这也是为什么我觉得月之暗面现在不是输赢问题,而是定义问题。
Kimi 不弱。
Kimi 甚至很强。
但强模型越来越多。
这个行业的残酷之处在于,强不是定位,强只是入场券。
你得让别人知道,在什么场景下必须优先想起你。
DeepSeek 已经用开源低价拿到了一次心智。
Claude 在编程和企业工作流里有强心智。
OpenAI 有应用入口和前沿模型心智。
Google 有多模态、长上下文和生态心智。
国内大厂有入口、云、渠道和补贴心智。
月之暗面要找的,是下一个能被一句话讲清楚的位置。
杨植麟给公司取名「月之暗面」,来自平克·弗洛伊德那张专辑。这个名字有点书生气,也挺适合它现在的位置。
月亮暗面不是不存在,也不是没有光,只是很长时间不被地球看见。
月之暗面今天的问题也不是没有光。
是光被太多方向分散了。
长上下文。
开源。
Agent。
编程。
多模态。
但一家公司的产品心智,不能像展厅灯一样哪里都亮一点。
它得像手电筒,照在一个地方。
2024 年,Kimi 的手电筒照在 200 万字上,所以大家记住了它。
2026 年,它需要重新找那个光点。
我倾向于这个光点不该再是「更长上下文」。
因为更长已经不够新了。
也不该只是「更大模型」。
因为更大很快会被刷新。
也不该泛泛地说「Agent」。
因为所有人都在说 Agent。
它更可能是一个非常具体的长任务场景。
比如长程编程。
比如复杂代码库维护。
比如多 Agent 协同完成软件工程任务。
比如企业内部那些又长、又碎、又需要记住上下文的流程。
不一定性感,但足够有用。
当用户能用一句话说出「这种活儿交给 Kimi 最靠谱」的时候,月之暗面的定位才算重新立住。
否则它就会一直处在一个微妙的位置。
模型很强。
故事很多。
但别人问起中国 AI,你不一定第一个想起它。
这比掉队更麻烦。
掉队是能力问题,能力补上来就行。
难被记住,是心智问题。
心智一旦让出去,再拿回来就很贵。
所以我现在看月之暗面,真正关心的不是 K2.6 某个榜单排第几。
榜单当然重要,但不够。
我更关心的是,半年后,开发者会不会在真实工作流里自然说出一句话。
长任务,用 Kimi。
如果这句话能成立,月之暗面就不尴尬了。
如果这句话立不住,它就算继续很强,也会继续难被记住。
