DeepSeek-R1

डीपसीक-आर1 एक 671B पैरामीटर वाला मिश्रण-विशेषज्ञ (MoE) मॉडल है जिसमें प्रति टोकन 37B सक्रिय पैरामीटर हैं, जिसे तर्क क्षमताओं पर ध्यान केंद्रित करते हुए बड़े पैमाने पर रीइन्फोर्समेंट लर्निंग के माध्यम से प्रशिक्षित किया गया है। यह बेहतर तर्क पैटर्न खोजने और मानव प्राथमिकताओं के साथ संरेखित करने के लिए दो आरएल चरणों के साथ-साथ तर्क और गैर-तर्क क्षमताओं को बीजित करने के लिए दो एसएफटी चरणों को शामिल करता है। यह मॉडल गणित, कोड और तर्क कार्यों में OpenAI-o1 के बराबर प्रदर्शन प्राप्त करता है।

Llama 3.1 Nemotron 70B Instruct

एनवीडिया का लामा 3.1 नेमोट्रॉन 70बी एक शक्तिशाली भाषा मॉडल है जो सटीक और सूचनात्मक प्रतिक्रियाएं देने के लिए अनुकूलित है। लामा 3.1 70बी आर्किटेक्चर पर बनाया गया और रीइन्फोर्समेंट लर्निंग फ्रॉम ह्यूमन फीडबैक (आरएलएचएफ) के साथ संवर्धित, यह स्वचालित संरेखण बेंचमार्क में शीर्ष प्रदर्शन प्राप्त करता है। प्रतिक्रिया जनरेशन और सहायकता में उच्च परिशुद्धता की मांग वाले अनुप्रयोगों के लिए डिज़ाइन किया गया, यह मॉडल कई डोमेन में उपयोगकर्ता प्रश्नों की एक विस्तृत श्रृंखला के लिए उपयुक्त है।

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
वेबसाइट ?
प्रदाता ?
चैट ?
रिलीज तिथि ?
मोडलिटीज ?
टेक्स्ट ?
टेक्स्ट ?
एपीआई प्रदाता ?
DeepSeek, HuggingFace
OpenRouter
ज्ञान समाप्ति तिथि ?
अज्ञात
-
ओपन सोर्स ?
हां
हां
मूल्य निर्धारण इनपुट ?
$0.55 प्रति मिलियन टोकन
$0.35 प्रति मिलियन टोकन
मूल्य निर्धारण आउटपुट ?
$2.19 प्रति मिलियन टोकन
$0.40 प्रति मिलियन टोकन
एमएमएलयू ?
90.8%
Pass@1
स्रोत
85%
5-shot
स्रोत
एमएमएलयू-प्रो ?
84%
EM
स्रोत
उपलब्ध नहीं
एमएमएमयू ?
-
उपलब्ध नहीं
हेलास्वैग ?
-
उपलब्ध नहीं
ह्यूमनएवैल ?
-
75%
स्रोत
मैथ ?
-
71%
स्रोत
जीपीक्यूए ?
71.5%
Pass@1
स्रोत
उपलब्ध नहीं
आईएफइवैल ?
83.3%
Prompt Strict
स्रोत
उपलब्ध नहीं
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
वैश्विक MMLU (लाइट) ?
-
-
MathVista ?
-
-
मोबाइल एप्लिकेशन
-

एलएलएम की तुलना करें

टिप्पणी जोड़ें


10%
हमारी साइट कुकीज़ का उपयोग करती है।

गोपनीयता और कुकी नीति: यह साइट कुकीज़ का उपयोग करती है। साइट का उपयोग जारी रखते हुए, आप उनके उपयोग के लिए सहमत होते हैं।