Попробуйте Kimi K2 0905
Контекст 256K • Усиленный агентный кодинг • MoE‑архитектура
Ассистент Kimi K2 0905
Контекст 256K • agentic coding
Fast Response
Get instant answers powered by our optimized infrastructure
Privacy First
Your conversations are secure and never used for training
Premium Features
Sign in to unlock API access and unlimited conversations
Kimi K2 0905 в цифрах
Масштаб и длинный контекст для сложных задач программирования.
Всего параметров
1T
Архитектура Mixture‑of‑Experts
Активные параметры
32B
Активное вычисление на токен
Контекстное окно
256K
Длинный горизонт рассуждений
Эксперты
384
8 экспертов выбираются на токен
Создано для длинных задач кодинга
K2-Instruct-0905 улучшает линейку K2: больше контекст и сильнее agentic‑кодинг.
Контекст 256K
Расширение с 128K до 256K токенов для long‑horizon задач.
Усиленный agentic coding
Лучшие результаты на публичных бенчмарках и в реальных задачах агентного кодинга.
Улучшенный фронтенд‑кодинг
Более качественная эстетика и практичность в фронтенд‑разработке.
Tool Calling
Сильные способности к вызову инструментов для автономного выполнения задач.
Сводка модели
Ключевые архитектурные характеристики K2-Instruct-0905.
61 слой (1 Dense)
Всего 61 слой, включая один dense‑слой.
MLA Attention
64 attention heads и 7168 hidden dimension.
MoE Hidden Dim 2048
Скрытая размерность 2048 на эксперта.
SwiGLU Activation
Функция активации SwiGLU по всей модели.
160K Vocabulary
Большой словарь для устойчивого понимания языка.
MLA + MoE Routing
8 экспертов на токен + 1 общий эксперт.
Ключевые бенчмарки
Заявленные результаты для K2-Instruct-0905.
SWE-Bench Verified
69.2 ± 0.63 точности на verified SWE‑Bench.
SWE-Bench Multilingual
55.9 ± 0.72 точности на multilingual SWE‑Bench.
Terminal-Bench
44.5 ± 2.03 точности на Terminal‑Bench.
SWE-Dev
66.6 ± 0.72 точности на SWE‑Dev.
Развёртывание и использование
Операционные рекомендации и настройки.
OpenAI & Anthropic Compatible API
Доступно через platform.moonshot.ai в форматах, совместимых с OpenAI/Anthropic.
Anthropic Temperature Mapping
Совместимый API маппит real_temperature = request_temperature × 0.6.
Block-FP8 Checkpoints
Чекпойнты модели хранятся в block‑fp8 формате на Hugging Face.
Рекомендуемые inference‑движки
vLLM, SGLang, KTransformers и TensorRT-LLM.
Рекомендуемая температура
Рекомендуемая температура = 0.6 для K2-Instruct-0905.
Поддержка Tool Calling
Передайте доступные инструменты в каждом запросе; модель решает, когда их вызвать.
FAQ по Kimi K2 0905
Ключевые сведения для разработчиков и исследователей.
Что такое Kimi K2 0905?
Kimi K2‑Instruct‑0905 — высокопроизводительная MoE‑модель с 1T общих параметров и 32B активных параметров.
Какова длина контекста?
Контекстное окно — 256K токенов, расширено с 128K.
Какая температура рекомендована?
Для общего использования рекомендуется температура 0.6.
Какие inference‑движки рекомендуются?
Рекомендуются vLLM, SGLang, KTransformers и TensorRT-LLM.
Стройте с Kimi K2 0905
Начните с API или посмотрите цены для масштабирования.