Kimi K2 0905 आज़माएँ
256K कॉन्टेक्स्ट • बेहतर एजेंटिक कोडिंग • MoE आर्किटेक्चर
Kimi K2 0905 असिस्टेंट
256K कॉन्टेक्स्ट • एजेंटिक कोडिंग
Fast Response
Get instant answers powered by our optimized infrastructure
Privacy First
Your conversations are secure and never used for training
Premium Features
Sign in to unlock API access and unlimited conversations
Kimi K2 0905 एक नज़र में
जटिल कोडिंग कार्यों के लिए स्केल और लंबा कॉन्टेक्स्ट।
कुल पैरामीटर
1T
Mixture‑of‑Experts आर्किटेक्चर
सक्रिय पैरामीटर
32B
प्रति‑टोकन सक्रिय कम्प्यूट
कॉन्टेक्स्ट विंडो
256K
लॉन्ग‑होराइज़न रीजनिंग
एक्सपर्ट्स
384
प्रति टोकन 8 एक्सपर्ट चुने जाते हैं
लंबे‑होराइज़न कोडिंग के लिए बनाया गया
K2-Instruct-0905, K2 लाइन को लंबे कॉन्टेक्स्ट और मजबूत एजेंटिक कोडिंग प्रदर्शन के साथ अपग्रेड करता है।
256K कॉन्टेक्स्ट विंडो
128K से 256K टोकन तक विस्तार, लंबी‑होराइज़न टास्क्स के लिए।
एन्हांस्ड एजेंटिक कोडिंग
पब्लिक बेंचमार्क और वास्तविक‑दुनिया कोडिंग एजेंट टास्क्स में बेहतर प्रदर्शन।
इम्प्रूव्ड फ्रंटएंड कोडिंग
फ्रंटएंड प्रोग्रामिंग में एस्थेटिक्स और प्रैक्टिकलिटी के लिए उन्नति।
टूल कॉलिंग
स्वायत्त कार्य निष्पादन के लिए मजबूत टूल‑कॉलिंग क्षमताएँ।
मॉडल सारांश
K2-Instruct-0905 के लिए कोर आर्किटेक्चर स्पेसिफिकेशन्स।
61 लेयर्स (1 Dense)
कुल 61 लेयर, जिनमें एक dense लेयर शामिल है।
MLA Attention
64 attention heads और 7168 hidden dimension।
MoE Hidden Dim 2048
प्रति‑एक्सपर्ट hidden dimension 2048।
SwiGLU Activation
मॉडल में SwiGLU activation function।
160K Vocabulary
मजबूत भाषा समझ के लिए बड़ा वोकैब्युलरी।
MLA + MoE Routing
प्रति टोकन 8 एक्सपर्ट चुने जाते हैं, साथ में 1 shared expert।
बेंचमार्क हाइलाइट्स
K2-Instruct-0905 के लिए रिपोर्ट किए गए परिणाम।
SWE-Bench Verified
Verified SWE‑Bench पर 69.2 ± 0.63 सटीकता।
SWE-Bench Multilingual
Multilingual SWE‑Bench पर 55.9 ± 0.72 सटीकता।
Terminal-Bench
Terminal‑Bench पर 44.5 ± 2.03 सटीकता।
SWE-Dev
SWE‑Dev पर 66.6 ± 0.72 सटीकता।
डिप्लॉयमेंट और उपयोग
ऑपरेशनल गाइडेंस और सुझाए गए सेटिंग्स।
OpenAI & Anthropic Compatible API
platform.moonshot.ai पर OpenAI/Anthropic‑compatible फ़ॉर्मेट्स के साथ उपलब्ध।
Anthropic Temperature Mapping
Anthropic‑compatible API में real_temperature = request_temperature × 0.6 मैप होता है।
Block-FP8 Checkpoints
मॉडल checkpoints Hugging Face पर block‑fp8 फ़ॉर्मेट में स्टोर हैं।
Recommended Inference Engines
vLLM, SGLang, KTransformers, और TensorRT-LLM।
Recommended Temperature
K2-Instruct-0905 के लिए सुझाया गया temperature = 0.6।
Tool Calling Support
प्रत्येक रिक्वेस्ट में उपलब्ध टूल्स पास करें; मॉडल तय करेगा कब उपयोग करना है।
Kimi K2 0905 FAQ
बिल्डर्स और रिसर्चर्स के लिए मुख्य विवरण।
Kimi K2 0905 क्या है?
Kimi K2‑Instruct‑0905 एक हाई‑कैपेबिलिटी MoE भाषा मॉडल है जिसमें 1T कुल पैरामीटर और 32B सक्रिय पैरामीटर हैं।
कॉन्टेक्स्ट लंबाई कितनी है?
कॉन्टेक्स्ट विंडो 256K टोकन है, 128K से बढ़ाई गई।
कौन‑सा temperature सुझाया है?
सामान्य उपयोग के लिए सुझाया गया temperature 0.6 है।
कौन‑से inference engines सुझाए गए हैं?
vLLM, SGLang, KTransformers, और TensorRT-LLM सुझाए गए हैं।
Kimi K2 0905 के साथ निर्माण करें
API से शुरुआत करें या स्केल के लिए प्राइसिंग देखें।