体验 Kimi K2 0905
256K 上下文 • 智能体编程增强 • MoE 架构
Kimi K2 0905 助手
256K 上下文 • 智能体编程
Fast Response
Get instant answers powered by our optimized infrastructure
Privacy First
Your conversations are secure and never used for training
Premium Features
Sign in to unlock API access and unlimited conversations
Kimi K2 0905 关键指标
面向复杂编程任务的规模与长上下文能力。
总参数量
1T
专家混合(MoE)架构
激活参数量
32B
按 token 激活的计算量
上下文窗口
256K
支持长程推理
专家数量
384
每个 token 选择 8 个专家
为长程编程而生
K2-Instruct-0905 在 K2 体系上强化了上下文长度与智能体编程表现。
256K 上下文窗口
从 128K 扩展至 256K tokens,支持更长周期任务。
智能体编程增强
在公开基准与真实编程智能体任务上表现提升。
前端编程体验提升
在审美与实用性方面带来更好的前端输出。
工具调用能力
具备强工具调用能力,支持自主任务执行。
模型摘要
K2-Instruct-0905 的核心架构参数。
61 层(含 1 层 Dense)
共 61 层结构,包含 1 层 Dense。
MLA 注意力
64 个注意力头,隐藏维度 7168。
MoE 隐藏维度 2048
每个专家隐藏维度为 2048。
SwiGLU 激活函数
全模型采用 SwiGLU 激活函数。
160K 词表
更大词表覆盖多样语言与表达。
MLA + MoE 路由
每个 token 选择 8 个专家,并含 1 个共享专家。
基准表现
K2-Instruct-0905 报告的基准结果。
SWE-Bench Verified
69.2 ± 0.63 准确率。
SWE-Bench Multilingual
55.9 ± 0.72 准确率。
Terminal-Bench
44.5 ± 2.03 准确率。
SWE-Dev
66.6 ± 0.72 准确率。
部署与使用建议
生产环境部署的关键提示。
OpenAI / Anthropic 兼容 API
可通过 platform.moonshot.ai 访问,兼容 OpenAI/Anthropic 格式。
Anthropic 温度映射
兼容接口温度映射为 real_temperature = request_temperature × 0.6。
Block-FP8 权重格式
模型权重采用 block-fp8 格式并托管在 Hugging Face。
推荐推理引擎
推荐 vLLM、SGLang、KTransformers 与 TensorRT-LLM。
推荐温度 0.6
默认推荐 temperature = 0.6。
工具调用支持
请求中传入可用工具列表,由模型自动决定调用。
Kimi K2 0905 常见问题
面向开发者与研究者的要点说明。
Kimi K2 0905 是什么?
K2-Instruct-0905 是具备 1T 总参数与 32B 激活参数的高性能 MoE 语言模型。
上下文长度是多少?
上下文窗口为 256K tokens,并由 128K 扩展而来。
推荐的温度参数?
通用场景推荐 temperature = 0.6。
推荐哪些推理引擎?
推荐 vLLM、SGLang、KTransformers 与 TensorRT-LLM。
立即构建 Kimi K2 0905
从 API 文档开始,或查看定价以扩展使用规模。