体验 Kimi K2 0905

256K 上下文 • 智能体编程增强 • MoE 架构

在线
由 K2-Instruct-0905 驱动(总参 1T / 激活 32B)

Kimi K2 0905 助手

256K 上下文 • 智能体编程

剩余 10 条免费消息

你好,我是 Kimi K2 0905

具备扩展上下文与更强智能体编程能力的高性能 MoE 模型。

💡 试试问:

"解释量子计算"

🎯 或者试试:

"编写一个 Python 函数"

📝 甚至可以:

"帮我做作业"

🚀 还有更多:

"创建商业计划"

⌘/Ctrl + Enter to sendShift + Enter for new line
10 free messages
🚀

Fast Response

Get instant answers powered by our optimized infrastructure

🔒

Privacy First

Your conversations are secure and never used for training

💎

Premium Features

Sign in to unlock API access and unlimited conversations

Kimi K2 0905 关键指标

面向复杂编程任务的规模与长上下文能力。

总参数量

1T

专家混合(MoE)架构

激活参数量

32B

按 token 激活的计算量

上下文窗口

256K

支持长程推理

专家数量

384

每个 token 选择 8 个专家

核心升级

为长程编程而生

K2-Instruct-0905 在 K2 体系上强化了上下文长度与智能体编程表现。

256K 上下文窗口

从 128K 扩展至 256K tokens,支持更长周期任务。

智能体编程增强

在公开基准与真实编程智能体任务上表现提升。

前端编程体验提升

在审美与实用性方面带来更好的前端输出。

工具调用能力

具备强工具调用能力,支持自主任务执行。

模型摘要

K2-Instruct-0905 的核心架构参数。

61 层(含 1 层 Dense)

共 61 层结构,包含 1 层 Dense。

MLA 注意力

64 个注意力头,隐藏维度 7168。

MoE 隐藏维度 2048

每个专家隐藏维度为 2048。

SwiGLU 激活函数

全模型采用 SwiGLU 激活函数。

160K 词表

更大词表覆盖多样语言与表达。

MLA + MoE 路由

每个 token 选择 8 个专家,并含 1 个共享专家。

基准表现

K2-Instruct-0905 报告的基准结果。

SWE-Bench Verified

69.2 ± 0.63 准确率。

SWE-Bench Multilingual

55.9 ± 0.72 准确率。

Terminal-Bench

44.5 ± 2.03 准确率。

SWE-Dev

66.6 ± 0.72 准确率。

部署与使用建议

生产环境部署的关键提示。

OpenAI / Anthropic 兼容 API

可通过 platform.moonshot.ai 访问,兼容 OpenAI/Anthropic 格式。

Anthropic 温度映射

兼容接口温度映射为 real_temperature = request_temperature × 0.6。

Block-FP8 权重格式

模型权重采用 block-fp8 格式并托管在 Hugging Face。

推荐推理引擎

推荐 vLLM、SGLang、KTransformers 与 TensorRT-LLM。

推荐温度 0.6

默认推荐 temperature = 0.6。

工具调用支持

请求中传入可用工具列表,由模型自动决定调用。

FAQ

Kimi K2 0905 常见问题

面向开发者与研究者的要点说明。

1

Kimi K2 0905 是什么?

K2-Instruct-0905 是具备 1T 总参数与 32B 激活参数的高性能 MoE 语言模型。

2

上下文长度是多少?

上下文窗口为 256K tokens,并由 128K 扩展而来。

3

推荐的温度参数?

通用场景推荐 temperature = 0.6。

4

推荐哪些推理引擎?

推荐 vLLM、SGLang、KTransformers 与 TensorRT-LLM。

立即构建 Kimi K2 0905

从 API 文档开始,或查看定价以扩展使用规模。