DeepSeek不惜代价保住它!V4关键特性被挖出来了
鱼羊 发自 凹非寺量子位 | 公众号 QbitAIDeepSeek V4技术报告还在被深挖。常看常新的那种——一个引起关注的新发现是V4在工程上为了保留核心设计「batch invariance」都有点不计代价了。怎么说DeepSeek V4同时做到了「超长上下文」「复杂后训练/推理管线」「自研高性能kernel栈」这几件很容易打架的事而背后的关键正是batch invariance批次不变性。但batch invariance并非没有代价甚至代价还挺大GPU利用率、推理速度下降工程复杂度还更高了……所以为什么DeepSeek V4会对这一设计如此执着我们具体来拆析一下。什么是batch invariance先来看看batch invariance的定义对于同一个token无论它在批次里排第几、无论批次多大、无论和谁一起批处理输出都能保持逐比特完全一致。论文提到其核心设计目的是确保预训练、后训练和推理全流程的可复现性保证各个环节之间的对齐。这样做的好处是首先能保证线上推理结果稳定。线上服务会动态batching同一个用户请求今天可能和A、B请求拼在一起明天可能和C、D请求拼在一起。如果没有batch invariance同样的提示词就可能因为batch组合不同、底层kernel归约顺序不同等因素被放大成完全不同的答案。也就是说batch invariance能让同一个输入尽量得到严格一致的输出。其次保证预训练、后训练、推理之间的对齐。DeepSeek V4有预训练、SFT、RL、on-policy distillation、推理服务等多条链路。这就导致了一个问题模型行为变化到底是来自数据、RL、蒸馏、量化还是来自batch shape/ kernel路径变化有了batch invariance工程团队更容易判断是不是batch组织方式改变了数值结果。当问题能够被准确定位异常也就更容易复现提高了可复现性和可调试性。另外batch invariance也是复杂上下文系统的底座之一。V4同时用了长上下文attention、压缩KV、稀疏注意力、MoE、FP4/FP8、Muon、mHC、自研 kernel等很多复杂组件。组件越多数值不确定性的来源越多。batch invariance相当于给底层执行系统加了一条硬约束可以优化性能但不能因为batch变了就让同一个token的结果变了。batch invariance还能让后训练更稳定。RL、蒸馏、长链推理对细微差异很敏感。一点点数值差异可能改变采样路径采样路径一变reward、teacher-student对齐、训练信号都会变。batch invariance能够减少随机数值扰动让模型行为更可控。总结一下就是batch invariance是DeepSeek V4的底层工程稳定器可以在在极复杂的长上下文训练、后训练和推理系统里保证同一输入的数值行为不被batch组织、kernel调度和归约顺序污染实现可复现、可调试、可对齐、可稳定部署的工程确定性。牺牲了什么这样看来batch invariance确实很重要。但就像前面说的代价不少。为了batch invarianceV4不能随便使用一些常见性能优化了比如split-KV、split-K。在attention里split-KV会把单条序列的注意力计算分摊到多个SM上以提高负载均衡和GPU利用率。但这种做法会改变并行归约路径难以保证同一个token在不同batch组织方式下的逐比特一致性。在GEMM里split-K的做法是把矩阵乘法的归约维度K切开并行计算。多路并行求和之后还要再归约而浮点加法的归约顺序一变最终结果的bi 就可能不同因此也和batch invariance存在冲突。为此DeepSeek在attention侧提出了dual-kernel为同一个注意力解码任务准备两套计算程序分别处理“GPU吃得满”和“GPU吃不满”的情况同时保证两套程序算出来的结果逐比特一致。矩阵乘法方面V4在大多数场景中放弃split-K转而做更受约束的 batch-invariant GEMM。他们用自研DeepGEMM替代了通用的cuBLAS。这些都导致了工程复杂度的明显上升很多原本可以交给通用库或常规优化策略的工作都必须由自研kernel和更严格的计算路径来承担。如此种种简单总结起来意味着DeepSeek V4在以下几个方面做了牺牲GPU 利用率波前量化问题小批量/短序列速度原生算子兼容性部分稀疏加速的自由度以换取训练/推理/RL三阶段逐比特可复现长上下文、Agent、RL训练稳定度多机多卡跑出来的结果完全对齐One More ThingDeepSeek V4发布了这么些天但这个技术报告属实是越挖越有。看点还包括把10个以上专家教师模型蒸馏成一个学生模型等等。并且每个问题背后都有坚实的数学解释。Hugging Face的Transformers负责人Arthur Zucker就感慨把数月乃至数年的努力全部免费公开让任何人都能受益这是真正的GOATGreatest of All Times。参考链接[1]https://x.com/teortaxesTex/status/2048707398886404524?s20[2]https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf—完— 量子位智库「2026中国AI应用全景图谱」与「值得关注落地案例」评选启动征集 扫码申报让你的产品定义2026中国AI应用行业格局。