职贝云数AI新零售门户

标题: 站在DeepSeek的肩膀上--Kimi K2 Thinking [打印本页]

作者: 8PSoKs86y    时间: 4 天前
标题: 站在DeepSeek的肩膀上--Kimi K2 Thinking
2025.11.06 MoonShotAI发布了开源Kimi K2 Thinking,目前更详细的技术报告还没有出来。本文简单引见下这部分内容。

除了K2 Thinking 模型,Kimi团队近期在线性留意力机制上的工作 KIMI LINEAR 也值得关注,我们将在后续引见。
TL;DR

Kimi K2 Thinking

Kimi K2 Thinking built as a thinking agent, 可以逐渐推理,同时动态调用工具。经过分明提升多步推理深度,并在200–300次延续调用中保持波动的工具运用

同时,K2 Thinking是原生INT4量化模型,拥有256k的上下文窗口,完成了推理延迟和GPU内存运用的无损降低。
Model Summary

(, 下载次数: 0)

据CNBC征引知情人士的报道,该模型的训练成本仅为460万美元。作为对比,DeepSeek披露的 V3训练成本(租赁价,正式训练阶段)是560 万美元,R1为29.4万美元。这里次要思索的是GPU预训练费用,不包括研发、基础设备等投资。

(, 下载次数: 0)

Kimi K2本质上就是一个规模上略作调整的 DeepSeek V3/R1。它的改进次要体如今数据和训练配方上

(, 下载次数: 0)

听说Kimi K2的训练运用了 Policy Mirror Descent,暂时没有准确信源。
Evaluations

(, 下载次数: 0)

经过在积极运用多种工具的同时停止推理,K2 Thinking可以在数百个步骤中停止规划、推理、执行和调整,以处理一些最具应战性的学术和分析成绩。在一个案例中,它经过23次交错的推理和工具调用成功处理了一个博士级别的数学成绩,这表现了其深度、结构化推理和长周期成绩处理的才能

该模型在HTML、React以及组件密集型前端义务上有分明改进,可以将想法转化为功能完备的呼应式产品。在智能体编程环境中,它会在调用工具时停止推理,流利地融入软件智能体,以准确性和顺应性执行复杂的多步骤开发工作流。

K2 Thinking可以执行200-300次延续的工具调用,这得益于长期规划和自顺应推理。它会执行思索→搜索→阅读器运用→思索→编码的动态循环,不断生成和完善假设、验证证据、停止推理并构建连接的答案。这种交错式推理使它可以将模糊、开放式的成绩分解为明晰、可执行的子义务。
Inference Efficiency

Low-bit quantization is an effective way to reduce inference latency and GPU memory usage on large-scale inference servers.

但是,thinking models 普通会具有很长的 decoding lengths, 在较长的decoding lengths 停止量化常常导致功能大幅下降。

为了克制这一应战,我们在post-training采用了Quantization-Aware Training(量化感知训练(QAT)),对 MoE 组件运用 INT4 weight-only quantization。这使得K2 Thinking可以支持原生INT4推理,生成速度大约提升2倍,同时达到最先进的功能。

开源还是闭源?

K2 Thinking模型的发布,比较受关注的地方除了使得开源模型和闭源模型之间的gap极速拉近,为开源社区注入新的活力,更使得中国团队在这场AI竞赛中获得更多话语权。

大模型精度格式比较


从往年推出的模型来看,模型训练运用的精度还在持续降低,比如DeepSeek的FP8 到如今K2 的INT4,将来不扫除会降低到1-bit。



精度格式全称/别称位数格式构成 (符号/指数/尾数)代表性模型次要特点与运用
FP128四倍精度浮点 (Quadruple Precision)128位1 / 15 / 112迷信计算模拟、高精度金融模型提供约34位十进制有效数字的极高精度,次要用于迷信计算、金融建模和需求极高数值精度的研讨范畴。在AI范畴运用较少,但对精度要求极高的场景会运用。
FP64双精度浮点 (Double Precision)64位1 / 11 / 52AlphaFold(部分计算)、迷信计算运用提供约15位十进制有效数字的高精度,是迷信计算的标准。在AI训练中较少运用(由于计算成本高),但在需求高精度梯度累积或数值波动性的场景中会运用。
FP32单精度浮点 (Single Precision)32位1 / 8 / 23GPT-2、ResNet、早期BERT等传统模型动态范围和精度都很高,是传统深度学习训练的基准,兼容性最广。
TF32TensorFloat-3232位 (外部19位计算)1 / 8 / 10A100上训练的Llama、GPT-3等大模型NVIDIA Ampere架构及更新GPU中Tensor Core的外部格式。拥有与FP32相反的动态范围和FP16的精度,经过截断FP32的尾数位完成加速,无需修正代码即可提升FP32训练速度。
FP16半精度浮点 (Half Precision)16位1 / 5 / 10GPT-3(混合精度训练)、Stable Diffusion相比FP32内存和计算减半。动态范围较小(约6e-5 到 65504),训练时能够出现上溢或下溢,通常需求结合动态损失缩放(Dynamic Loss Scaling)运用。
BF16BFloat16 / 脑浮点数16位1 / 8 / 7Llama 2/3、Qwen、Gemini动态范围与FP32相反,处理了FP16的溢出成绩,但尾数精度较低。🔥 目前Instruction大模型训练最常用的精度格式,非常合适大规模模型的训练,是云端AI芯片的主流格式。
INT1616位整型 (16-bit Integer)16位value = (int_value - zero_point) * scale音频处理模型、部分混合精度训练场景提供比INT8更高的精度和更大的动态范围。内存占用为FP32的1/2,适用于需求比INT8更高精度的量化场景。在某些混合精度训练中用于梯度和权重的中间表示。
FP8 (E4M3)8位浮点8位1 / 4 / 3H100上训练的大模型、Transformer EngineNVIDIA Hopper架构及更新GPU支持。动态范围较小,但精度相对E5M2更高。适用于模型权重和激活值的表示,在Transformer模型的前向传播中表现出色。
FP8 (E5M2)8位浮点8位1 / 5 / 2DeepSeek-R1 (671B)、H100上训练的大模型(梯度计算)NVIDIA Hopper架构及更新GPU支持。动态范围比E4M3更广,但精度较低。适用于反向传播中的梯度计算,能更好地处理数值较大的梯度值。
MXFP8 (E5M2)Microscaling FP88位1 / 5 / 2 + 每32值共享的E8M0缩放OCP微缩放规范研讨、实验性推理微缩放8位浮点格式,每32个E5M2值共享一个E8M0缩放因子(8位指数+0位尾数,表示2的幂次)。支持硬件加速,提供比标准FP8更大的动态范围(2^-127到2^128)。
INT88位整型 (8-bit Integer)8位value = (int_value - zero_point) * scaleMobileNet、MobileBERT、各类Llama量化推理版本内存占用为FP32的1/4,计算速度极快,尤其在有INT8加速单元的硬件上。广泛用于模型推理量化,经过缩放因子和零点将浮点数映射到[-128, 127]或的整数范围。
FP4 (E2M1)4位浮点标准格式4位1 / 2 / 1 + 软件缩放因子实验性量化研讨基础的4位浮点格式,需求软件层面的缩放因子。相比FP16内存最多减少4倍,但与FP8相比存在分明的准确性下降风险。无硬件加速缩放支持。
MXFP4Microscaling FP44位1 / 2 / 1 + 每32值共享的E8M0缩放GPT-OSS (120B/20B)、OCP微缩放规范研讨微缩放浮点格式,每32个E2M1值共享一个E8M0缩放因子(8位指数+0位尾数,表示2的幂次)。支持硬件加速缩放,相比FP16内存最多减少4倍。与FP8相比存在分明的准确性下降风险,但硬件效率更高。
NVFP4NVIDIA FP44位1 / 2 / 1 + 每16值共享的FP8缩放Blackwell架构上的超大规模LLM推理NVIDIA Blackwell架构引入。每16个值共享一个FP8缩放因子,采用二级微块缩放策略。支持硬件加速缩放,相比FP16内存最多减少4倍。特别适用于大型LLM推理,准确性下降风险相对较低。
INT44位整型 (4-bit Integer)4位value = (int_value - zero_point) * scaleKimi k2 thinking、Llama-GPTQ/AWQ、ChatGLM-INT4极高的紧缩率(FP32的1/8)。通常用于推理,对模型功能有一定应战,需求配合先进的量化算法(如GPTQ, AWQ)来降低精度损失。将浮点数映射到[-8, 7]或的整数范围。
INT22位整型 (2-bit Integer)2位value = (int_value - zero_point) * scale极端量化实验、研讨原型极端紧缩率(FP32的1/16)。将浮点数映射到4个团圆值(如[-2, -1, 1, 2])。次要用于极端量化研讨,需求特殊的量化技术来维持可用的模型功能。目前仍处于实验阶段。
1-bit (Binary)1位二值化 (e.g., BinaryNet, XNOR-Net)1位参数被量化为 {-1, +1}BinaryNet、XNOR-Net、边缘设备轻量级模型纯二值化网络,权重只要两个值。内存占用极小(FP32的1/32),运用XNOR和popcount操作替代乘法和加法,能效极高。次要用于边缘设备推理。准确性损失较大,需求特殊训练技术。
1-bit (Ternary)1位/三元量化 (e.g., BitNet b1.58)~1.58位参数被量化为 {-1, 0, 1}BitNet b1.58、Microsoft 1-bit LLM研讨极致的紧缩和能效。经过将权重约束到三个值,可以用log2(3) ≈ 1.58位来存储。这使得乘法运算可以被交换为更高效的加法/减法,极大地降低了计算成本。目前属于前沿研讨范畴。
NVIDIA 专属精度格式

NVIDIA在其GPU架构中引入了多个专属的精度格式,以优化AI训练和推理功能:

这些格式均在NVIDIA的Tensor Core中获得硬件加速支持,代表了业界在低精度AI计算方面的抢先技术。
微缩放格式与E8M0缩放因子

E8M0(8位指数+0位尾数)是一种特殊的8位格式,专门用作微缩放(Microscaling, MX)格式的缩放因子,而非独立的数据格式:

这种设计使得微缩放格式可以在保持硬件效率的同时,提供比传统低精度格式更好的数值波动性。




欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) Powered by Discuz! X3.5