前言:
4月的AI圈,月之暗面发布Kimi K2.6开源模型,将Agent集群能力推至300个子Agent并行协同的新高度。
深度求索DeepSeek V4如约而至,把百万级上下文的推理成本压缩至前代的27%。
一周之内,两个总参数超万亿的开源模型先后落地,全球技术社区的讨论热度持续攀升。
过去15个月里,两家公司在关键技术节点上的同步,已经到了让人会心一笑的程度。
从同日发布推理模型、前后脚更新底层架构论文,到互相复用验证过的核心技术、不约而同攻坚Transformer底层基石。
这种被网友戏称[心有灵犀]的默契,早已不是简单的巧合。
作者 | 方文三
图片来源 | 网络
被精准对齐的技术节奏
两家公司的技术演进路径,每一个关键节点的同步,都指向行业最核心的技术命题。
2025年1月,DeepSeek-R1推理模型与Kimi K1.5多模态思考模型同日上线,相隔仅两个小时。
二者均是国内最早复现OpenAI o1思维链技术的团队,直接把国产大模型的复杂推理能力拉到了全球第一梯队。
2025年7月,Kimi发布K2开源模型,被《自然》杂志称为[又一个DeepSeek时刻]。
这个万亿参数模型的技术报告里,明确采用了DeepSeek-V3首创的MLA多隐头注意力机制。
同时首次在万亿级规模上验证了二阶优化器Muon的可行性,替代了行业沿用十年的Adam优化器。
九个月后,DeepSeek V4正式官宣,绝大多数模块改用Muon优化器,完成了对这项技术的进一步优化与落地。
在Transformer底层架构的重构上,两家的动作同样高度同频。
2026年初,DeepSeek推出mHC流形约束超连接技术,改造深度学习网络的残差连接,将训练效率提升30%。
仅两个月后,Kimi发布的注意力残差技术论文,同样针对Transformer的核心结构实现突破。
甚至在长上下文这条核心赛道上,两家也选择了不同解法、同一目标。
Kimi深耕线性注意力机制,将长文本计算复杂度从O(n²)降至O(n),从理论层面实现极致优化。
DeepSeek则聚焦DSA稀疏注意力架构,把百万级上下文的KV Cache显存占用压缩至原有10%。
这种同步没有陷入同质化内卷,反而形成了清晰的能力互补。
DeepSeek始终聚焦模型底层的效率重构,把训练与推理成本打到极致,用全栈开源建立开发者信任。
Kimi则从长文本能力出发,逐步向长程编码、Agent集群、复杂工程任务落地延伸,解决模型如何真正融入工作流的核心问题。
一个筑牢底层技术底座,一个拓宽产业落地边界,路线看似不同,却共同撑起了国产开源模型的全球竞争力。
默契背后的国产AI路线共识
DeepSeek与Kimi的技术同频,是行业浪潮奔涌到临界点时,技术规律与时代大势共同书写的答案。
经过三年多的摸石过河,中国AI终于走出了一条区别于硅谷的、属于自己的发展道路。
开源生态的正向循环,是这份默契形成的核心基石。
开源从来不是简单的代码开放,而是一套[创新-验证-复用-再创新]的飞轮机制。
当DeepSeek将验证成熟的MLA注意力机制开源,Kimi便跳过了无数试错的深坑,直接在万亿级模型上完成规模化验证。
当Kimi分享Muon优化器的万亿级落地经验,DeepSeek又能在此基础上迭代优化,适配更多产业场景。
与OpenAI、Anthropic等海外巨头将技术锁在闭源黑箱中不同,中国的头部玩家选择把创新变成全行业的公共财富,让单点突破快速裂变成为集体跃迁。
如今,二者已是中国唯二总参数超万亿、权重完全公开的模型,连英伟达GTC大会都用它们来演示下一代芯片性能,这正是开源生态赢得的全球尊重。
行业核心命题的转变,让所有真正的探索者走向了同一条赛道。
当[堆参数]的内卷走到尽头,行业的终极考题变成了:如何在有限的算力约束下,实现模型能力的持续突破,让技术真正转化为生产力。
这个命题直接决定了技术路线的收敛,用更低的成本,造更强的模型,做更实的落地。
DeepSeek与Kimi的同频,本质上是两家都精准击中了行业的核心矛盾。
他们没有满足于在海外巨头划定的框架里做微创新,而是不约而同地扎进了大模型最硬核的根技术:优化器、注意力机制、残差连接。
选择重构底层框架这条路注定艰难,但正是这份对底层创新的执念,让国产AI第一次拥有了和海外巨头掰手腕的底气。
海外持续升级的算力管制,则是这份路线共识形成的最强外部推力。
无限堆砌高端算力的路径早已被堵死,中国AI必须在算法创新与工程优化上杀出一条血路,用更少的算力,实现更好的效果。
Kimi直言不具备无限算力的条件,因此始终死磕算法与系统效率。
DeepSeek则用极致的工程优化,将模型推理成本降到了行业顶尖水平,V4-Flash的API价格仅为海外同类产品的百分之一。
真正的技术普惠,从来不是喊出来的口号,而是用极致的工程创新,把AI的门槛踩到泥土里,让千行百业都能轻松踏上去,用得起、用得好。
站在行业的坐标系中回望,DeepSeek与Kimi虽选择了不同的突围路径,却正奔赴同一个终点,而中国AI的三大核心共识已清晰成型。
①全面拥抱开源,与美国[闭源为主+高定价]的模式形成鲜明对比。
②锚定自主可控的算力底座,模型的能力上限,终究取决于算力体系的可控底线。
③让应用需求重新定义技术方向,彻底脱离[为参数而参数]的内卷,回归[为价值而创新]的本质。
硅谷在[造墙],中国在[修路]。
墙的核心是控制与垄断,试图用技术壁垒守住先发优势。
路的核心是连接与开放,用生态的繁荣撬动更长远的未来。
从DeepSeek为华为昇腾重写200多个核心算子,到Kimi K2.6在昇腾、壁仞等国产芯片上快速跑通......
黄仁勋那句[如果DeepSeek先在华为平台发布,对美国将是可怕的结果],恰恰印证了这条路的力量。
这条路是被逼出来的,但历史无数次证明,被迫的创新往往能打开全新的天地。
全球AI格局发生微妙的变化
2026年一季度,OpenRouter官方数据显示,Kimi K2.6在调用量榜单上冲到全球第一,DeepSeek V3.2排名第四。
这个平台是全球最大的AI API聚合市场,调用量排名反映的是真实的市场选择。
更耐人寻味的是下游应用的变化,Cursor Composer 2发布时,对外宣称是[自研]。
但很快被技术社区扒出底座是Kimi K2.5,不是简单调用API,是直接拿K2.5微调出来的。
Cursor创始人后来接受采访时承认:[Kimi K2.5是我们测试过的最强基座模型]。
日本乐天Rakuten的AI助手也用上了DeepSeek V3作为底座,当一个开源模型的性能足以对标闭源顶级选手时,理性的选择就是用它。
斯坦福大学的一份报告显示,中美顶级AI大模型性能差距已从2024年的17.5%,缩小到2025年的0.3%。这个数字可能有些理想化,但趋势是明确的。
中国AI的新叙事,正在从Copy to China变成Copy from China。
结尾:
十四个月前,梁文锋说:中国AI最需要证明的是[能不能做出一款世界级的基础模型]。
十四个月后,杨植麟说:问题已经变成[在被封锁的算力生态里,能不能持续地做、一起做,让基础能力的跃迁变成常态]。
现在,DeepSeek和Kimi,两个广东年轻人,正在用万亿参数的开源模型,把这句话翻译成现实。
部分资料参考:字母榜:《这一次,梁文锋和杨植麟隔空握手》,机器之心:《翻完DeepSeek报告,我们发现了中国AI的默契》,APPSO:《扒完 DeepSeek V4 报告,我翻出了这个隐藏彩蛋》,凤凰网科技:《两个广东人的五次撞车,撞出最强开源双雄的底气?》,腾讯科技:《中国芯片,DeepSeek与Kimi的隐秘交点》










