DeepSeek-R1

ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.

Llama 3.1 Nemotron 70B Instruct

Llama 3.1 Nemotron 70B من NVIDIA هو نموذج لغوي قوي مُحسّن لتقديم استجابات دقيقة وغنية بالمعلومات. مبني على بنية Llama 3.1 70B ومُحسّن بتعلم التعزيز من التغذية الراجعة البشرية (RLHF)، يحقق أداءً متميزًا في معايير المحاذاة التلقائية. مصمم للتطبيقات التي تتطلب دقة عالية في توليد الاستجابات والفائدة، وهو مناسب لمجموعة واسعة من استفسارات المستخدمين عبر مجالات متعددة.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
مزودو API ?
DeepSeek, HuggingFace
OpenRouter
تاريخ قطع المعرفة ?
غير معروف
-
مفتوح المصدر ?
نعم
نعم
تسعير الإدخال ?
$0.55 لكل مليون رمز
$0.35 لكل مليون رمز
تسعير الإخراج ?
$2.19 لكل مليون رمز
$0.40 لكل مليون رمز
MMLU ?
90.8%
Pass@1
المصدر
85%
5-shot
المصدر
MMLU-Pro ?
84%
EM
المصدر
غير متاح
MMMU ?
-
غير متاح
HellaSwag ?
-
غير متاح
HumanEval ?
-
75%
المصدر
MATH ?
-
71%
المصدر
GPQA ?
71.5%
Pass@1
المصدر
غير متاح
IFEval ?
83.3%
Prompt Strict
المصدر
غير متاح
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال
-

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.