Попробуйте Kimi K2 0905

Контекст 256K • Усиленный агентный кодинг • MoE‑архитектура

Онлайн
Powered by K2-Instruct-0905 (1T total, 32B active)

Ассистент Kimi K2 0905

Контекст 256K • agentic coding

Гостевые сообщения

Привет! Я Kimi K2 0905

Высокопроизводительная MoE‑модель с расширенным контекстом и усиленной agentic‑производительностью в кодинге.

Кодинг

"Создай React‑компонент для таблицы с фильтрацией."

Исследование

"Какие 5 крупнейших компаний в сфере возобновляемой энергетики были в 2024 году?"

Письмо

"Напишите убедительный пост в LinkedIn о важности тимбилдинга."

Математика

"Если после добавления 15% НДС цена стала $230, какой была исходная цена?"

⌘/Ctrl + Enter to sendShift + Enter for new line
10 free messages
🚀

Fast Response

Get instant answers powered by our optimized infrastructure

🔒

Privacy First

Your conversations are secure and never used for training

💎

Premium Features

Sign in to unlock API access and unlimited conversations

Kimi K2 0905 в цифрах

Масштаб и длинный контекст для сложных задач программирования.

Всего параметров

1T

Архитектура Mixture‑of‑Experts

Активные параметры

32B

Активное вычисление на токен

Контекстное окно

256K

Длинный горизонт рассуждений

Эксперты

384

8 экспертов выбираются на токен

Ключевые улучшения

Создано для длинных задач кодинга

K2-Instruct-0905 улучшает линейку K2: больше контекст и сильнее agentic‑кодинг.

Контекст 256K

Расширение с 128K до 256K токенов для long‑horizon задач.

Усиленный agentic coding

Лучшие результаты на публичных бенчмарках и в реальных задачах агентного кодинга.

Улучшенный фронтенд‑кодинг

Более качественная эстетика и практичность в фронтенд‑разработке.

Tool Calling

Сильные способности к вызову инструментов для автономного выполнения задач.

Сводка модели

Ключевые архитектурные характеристики K2-Instruct-0905.

61 слой (1 Dense)

Всего 61 слой, включая один dense‑слой.

MLA Attention

64 attention heads и 7168 hidden dimension.

MoE Hidden Dim 2048

Скрытая размерность 2048 на эксперта.

SwiGLU Activation

Функция активации SwiGLU по всей модели.

160K Vocabulary

Большой словарь для устойчивого понимания языка.

MLA + MoE Routing

8 экспертов на токен + 1 общий эксперт.

Ключевые бенчмарки

Заявленные результаты для K2-Instruct-0905.

SWE-Bench Verified

69.2 ± 0.63 точности на verified SWE‑Bench.

SWE-Bench Multilingual

55.9 ± 0.72 точности на multilingual SWE‑Bench.

Terminal-Bench

44.5 ± 2.03 точности на Terminal‑Bench.

SWE-Dev

66.6 ± 0.72 точности на SWE‑Dev.

Развёртывание и использование

Операционные рекомендации и настройки.

OpenAI & Anthropic Compatible API

Доступно через platform.moonshot.ai в форматах, совместимых с OpenAI/Anthropic.

Anthropic Temperature Mapping

Совместимый API маппит real_temperature = request_temperature × 0.6.

Block-FP8 Checkpoints

Чекпойнты модели хранятся в block‑fp8 формате на Hugging Face.

Рекомендуемые inference‑движки

vLLM, SGLang, KTransformers и TensorRT-LLM.

Рекомендуемая температура

Рекомендуемая температура = 0.6 для K2-Instruct-0905.

Поддержка Tool Calling

Передайте доступные инструменты в каждом запросе; модель решает, когда их вызвать.

FAQ

FAQ по Kimi K2 0905

Ключевые сведения для разработчиков и исследователей.

1

Что такое Kimi K2 0905?

Kimi K2‑Instruct‑0905 — высокопроизводительная MoE‑модель с 1T общих параметров и 32B активных параметров.

2

Какова длина контекста?

Контекстное окно — 256K токенов, расширено с 128K.

3

Какая температура рекомендована?

Для общего использования рекомендуется температура 0.6.

4

Какие inference‑движки рекомендуются?

Рекомендуются vLLM, SGLang, KTransformers и TensorRT-LLM.

Стройте с Kimi K2 0905

Начните с API или посмотрите цены для масштабирования.