Kimi K2 0905 ausprobieren
256K Kontext • Verbessertes agentisches Coding • MoE‑Architektur
Kimi K2 0905 Assistent
256K Kontext • agentisches Coding
Fast Response
Get instant answers powered by our optimized infrastructure
Privacy First
Your conversations are secure and never used for training
Premium Features
Sign in to unlock API access and unlimited conversations
Kimi K2 0905 im Überblick
Skalierung und Long‑Context‑Kapazität für komplexe Coding‑Tasks.
Gesamtparameter
1T
Mixture‑of‑Experts‑Architektur
Aktivierte Parameter
32B
Aktive Berechnung pro Token
Kontextfenster
256K
Long‑Horizon‑Reasoning
Experten
384
8 Experten pro Token ausgewählt
Gezielt für Long‑Horizon‑Coding entwickelt
K2-Instruct-0905 erweitert die K2‑Linie mit längerem Kontext und stärkerer agentischer Coding‑Leistung.
256K Kontextfenster
Von 128K auf 256K Tokens erweitert für Long‑Horizon‑Tasks.
Verbessertes agentisches Coding
Bessere Performance auf öffentlichen Benchmarks und in realen Agent‑Coding‑Tasks.
Verbessertes Frontend‑Coding
Fortschritte bei Ästhetik und Praxistauglichkeit im Frontend‑Programming.
Tool Calling
Starke Tool‑Calling‑Fähigkeiten für autonome Ausführung.
Modellzusammenfassung
Kern‑Architekturspezifikationen für K2-Instruct-0905.
61 Layer (1 Dense)
Insgesamt 61 Layer, inkl. einer Dense‑Schicht.
MLA Attention
64 Attention‑Heads und 7168 Hidden Dimension.
MoE Hidden Dim 2048
Hidden‑Dimension pro Expert: 2048.
SwiGLU Activation
SwiGLU‑Aktivierungsfunktion im gesamten Modell.
160K Vocabulary
Großes Vokabular für robustes Sprachverständnis.
MLA + MoE Routing
8 Experten pro Token mit 1 gemeinsamem Experten.
Benchmark‑Highlights
Gemeldete Ergebnisse für K2-Instruct-0905.
SWE-Bench Verified
69.2 ± 0.63 Genauigkeit auf verified SWE‑Bench.
SWE-Bench Multilingual
55.9 ± 0.72 Genauigkeit auf multilingual SWE‑Bench.
Terminal-Bench
44.5 ± 2.03 Genauigkeit auf Terminal‑Bench.
SWE-Dev
66.6 ± 0.72 Genauigkeit auf SWE‑Dev.
Deployment & Nutzung
Betriebliche Hinweise und empfohlene Einstellungen.
OpenAI & Anthropic Compatible API
Über platform.moonshot.ai mit OpenAI/Anthropic‑kompatiblen Formaten verfügbar.
Anthropic Temperature Mapping
Im Anthropic‑kompatiblen API gilt: real_temperature = request_temperature × 0.6.
Block-FP8 Checkpoints
Model‑Checkpoints liegen im Block‑FP8‑Format auf Hugging Face.
Empfohlene Inference‑Engines
vLLM, SGLang, KTransformers und TensorRT-LLM.
Empfohlene Temperatur
Empfohlene Temperatur = 0.6 für K2-Instruct-0905.
Tool‑Calling‑Support
Geben Sie verfügbare Tools pro Request mit; das Modell entscheidet, wann es sie aufruft.
Kimi K2 0905 FAQ
Kerninfos für Builder und Forscher.
Was ist Kimi K2 0905?
Kimi K2‑Instruct‑0905 ist ein leistungsstarkes MoE‑Sprachmodell mit 1T Gesamtparametern und 32B aktivierten Parametern.
Wie lang ist der Kontext?
Das Kontextfenster beträgt 256K Tokens, erweitert von 128K.
Welche Temperatur wird empfohlen?
Empfohlene Temperatur für den allgemeinen Einsatz ist 0.6.
Welche Inference‑Engines sind empfohlen?
Empfohlen werden vLLM, SGLang, KTransformers und TensorRT-LLM.
Mit Kimi K2 0905 bauen
Starten Sie mit der API oder sehen Sie sich die Preise für Skalierung an.