डीपसीक-आर1 एक 671B पैरामीटर वाला मिश्रण-विशेषज्ञ (MoE) मॉडल है जिसमें प्रति टोकन 37B सक्रिय पैरामीटर हैं, जिसे तर्क क्षमताओं पर ध्यान केंद्रित करते हुए बड़े पैमाने पर रीइन्फोर्समेंट लर्निंग के माध्यम से प्रशिक्षित किया गया है। यह बेहतर तर्क पैटर्न खोजने और मानव प्राथमिकताओं के साथ संरेखित करने के लिए दो आरएल चरणों के साथ-साथ तर्क और गैर-तर्क क्षमताओं को बीजित करने के लिए दो एसएफटी चरणों को शामिल करता है। यह मॉडल गणित, कोड और तर्क कार्यों में OpenAI-o1 के बराबर प्रदर्शन प्राप्त करता है।
एनवीडिया का लामा 3.1 नेमोट्रॉन 70बी एक शक्तिशाली भाषा मॉडल है जो सटीक और सूचनात्मक प्रतिक्रियाएं देने के लिए अनुकूलित है। लामा 3.1 70बी आर्किटेक्चर पर बनाया गया और रीइन्फोर्समेंट लर्निंग फ्रॉम ह्यूमन फीडबैक (आरएलएचएफ) के साथ संवर्धित, यह स्वचालित संरेखण बेंचमार्क में शीर्ष प्रदर्शन प्राप्त करता है। प्रतिक्रिया जनरेशन और सहायकता में उच्च परिशुद्धता की मांग वाले अनुप्रयोगों के लिए डिज़ाइन किया गया, यह मॉडल कई डोमेन में उपयोगकर्ता प्रश्नों की एक विस्तृत श्रृंखला के लिए उपयुक्त है।
DeepSeek-R1 | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
वेबसाइट
| ||
प्रदाता
| ||
चैट
| ||
रिलीज तिथि
| ||
मोडलिटीज
| टेक्स्ट | टेक्स्ट |
एपीआई प्रदाता
| DeepSeek, HuggingFace | OpenRouter |
ज्ञान समाप्ति तिथि
| अज्ञात | - |
ओपन सोर्स
| हां | हां |
मूल्य निर्धारण इनपुट
| $0.55 प्रति मिलियन टोकन | $0.35 प्रति मिलियन टोकन |
मूल्य निर्धारण आउटपुट
| $2.19 प्रति मिलियन टोकन | $0.40 प्रति मिलियन टोकन |
एमएमएलयू
| 90.8% Pass@1 स्रोत | 85% 5-shot स्रोत |
एमएमएलयू-प्रो
| 84% EM स्रोत | उपलब्ध नहीं |
एमएमएमयू
| - | उपलब्ध नहीं |
हेलास्वैग
| - | उपलब्ध नहीं |
ह्यूमनएवैल
| - | 75% स्रोत |
मैथ
| - | 71% स्रोत |
जीपीक्यूए
| 71.5% Pass@1 स्रोत | उपलब्ध नहीं |
आईएफइवैल
| 83.3% Prompt Strict स्रोत | उपलब्ध नहीं |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
वैश्विक MMLU (लाइट)
| - | - |
MathVista
| - | - |
मोबाइल एप्लिकेशन | - |
Compare AI. Test. Benchmarks. मोबाइल ऐप्स चैटबॉट्स, Sketch
Copyright © 2025 All Right Reserved.