Kimi K2 0905 ausprobieren

256K Kontext • Verbessertes agentisches Coding • MoE‑Architektur

Online
Powered by K2-Instruct-0905 (1T total, 32B active)

Kimi K2 0905 Assistent

256K Kontext • agentisches Coding

10 kostenlose Nachrichten übrig

Hi! Ich bin Kimi K2 0905

Ein hochfähiges MoE‑Modell mit erweitertem Kontext und stärkerer agentischer Coding‑Leistung.

💡 Versuch es mit:

"Erkläre Quantencomputing"

🎯 Oder:

"Schreibe eine Python‑Funktion"

📝 Oder auch:

"Hilf mir mit Hausaufgaben"

🚀 Und mehr:

"Erstelle einen Business‑Plan"

⌘/Ctrl + Enter to sendShift + Enter for new line
10 free messages
🚀

Fast Response

Get instant answers powered by our optimized infrastructure

🔒

Privacy First

Your conversations are secure and never used for training

💎

Premium Features

Sign in to unlock API access and unlimited conversations

Kimi K2 0905 im Überblick

Skalierung und Long‑Context‑Kapazität für komplexe Coding‑Tasks.

Gesamtparameter

1T

Mixture‑of‑Experts‑Architektur

Aktivierte Parameter

32B

Aktive Berechnung pro Token

Kontextfenster

256K

Long‑Horizon‑Reasoning

Experten

384

8 Experten pro Token ausgewählt

Wichtige Verbesserungen

Gezielt für Long‑Horizon‑Coding entwickelt

K2-Instruct-0905 erweitert die K2‑Linie mit längerem Kontext und stärkerer agentischer Coding‑Leistung.

256K Kontextfenster

Von 128K auf 256K Tokens erweitert für Long‑Horizon‑Tasks.

Verbessertes agentisches Coding

Bessere Performance auf öffentlichen Benchmarks und in realen Agent‑Coding‑Tasks.

Verbessertes Frontend‑Coding

Fortschritte bei Ästhetik und Praxistauglichkeit im Frontend‑Programming.

Tool Calling

Starke Tool‑Calling‑Fähigkeiten für autonome Ausführung.

Modellzusammenfassung

Kern‑Architekturspezifikationen für K2-Instruct-0905.

61 Layer (1 Dense)

Insgesamt 61 Layer, inkl. einer Dense‑Schicht.

MLA Attention

64 Attention‑Heads und 7168 Hidden Dimension.

MoE Hidden Dim 2048

Hidden‑Dimension pro Expert: 2048.

SwiGLU Activation

SwiGLU‑Aktivierungsfunktion im gesamten Modell.

160K Vocabulary

Großes Vokabular für robustes Sprachverständnis.

MLA + MoE Routing

8 Experten pro Token mit 1 gemeinsamem Experten.

Benchmark‑Highlights

Gemeldete Ergebnisse für K2-Instruct-0905.

SWE-Bench Verified

69.2 ± 0.63 Genauigkeit auf verified SWE‑Bench.

SWE-Bench Multilingual

55.9 ± 0.72 Genauigkeit auf multilingual SWE‑Bench.

Terminal-Bench

44.5 ± 2.03 Genauigkeit auf Terminal‑Bench.

SWE-Dev

66.6 ± 0.72 Genauigkeit auf SWE‑Dev.

Deployment & Nutzung

Betriebliche Hinweise und empfohlene Einstellungen.

OpenAI & Anthropic Compatible API

Über platform.moonshot.ai mit OpenAI/Anthropic‑kompatiblen Formaten verfügbar.

Anthropic Temperature Mapping

Im Anthropic‑kompatiblen API gilt: real_temperature = request_temperature × 0.6.

Block-FP8 Checkpoints

Model‑Checkpoints liegen im Block‑FP8‑Format auf Hugging Face.

Empfohlene Inference‑Engines

vLLM, SGLang, KTransformers und TensorRT-LLM.

Empfohlene Temperatur

Empfohlene Temperatur = 0.6 für K2-Instruct-0905.

Tool‑Calling‑Support

Geben Sie verfügbare Tools pro Request mit; das Modell entscheidet, wann es sie aufruft.

FAQ

Kimi K2 0905 FAQ

Kerninfos für Builder und Forscher.

1

Was ist Kimi K2 0905?

Kimi K2‑Instruct‑0905 ist ein leistungsstarkes MoE‑Sprachmodell mit 1T Gesamtparametern und 32B aktivierten Parametern.

2

Wie lang ist der Kontext?

Das Kontextfenster beträgt 256K Tokens, erweitert von 128K.

3

Welche Temperatur wird empfohlen?

Empfohlene Temperatur für den allgemeinen Einsatz ist 0.6.

4

Welche Inference‑Engines sind empfohlen?

Empfohlen werden vLLM, SGLang, KTransformers und TensorRT-LLM.

Mit Kimi K2 0905 bauen

Starten Sie mit der API oder sehen Sie sich die Preise für Skalierung an.