ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
Llama 3.1 Nemotron 70B من NVIDIA هو نموذج لغوي قوي مُحسّن لتقديم استجابات دقيقة وغنية بالمعلومات. مبني على بنية Llama 3.1 70B ومُحسّن بتعلم التعزيز من التغذية الراجعة البشرية (RLHF)، يحقق أداءً متميزًا في معايير المحاذاة التلقائية. مصمم للتطبيقات التي تتطلب دقة عالية في توليد الاستجابات والفائدة، وهو مناسب لمجموعة واسعة من استفسارات المستخدمين عبر مجالات متعددة.
DeepSeek-R1 | Llama 3.1 Nemotron 70B Instruct | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص |
مزودو API
| DeepSeek, HuggingFace | OpenRouter |
تاريخ قطع المعرفة
| غير معروف | - |
مفتوح المصدر
| نعم | نعم |
تسعير الإدخال
| $0.55 لكل مليون رمز | $0.35 لكل مليون رمز |
تسعير الإخراج
| $2.19 لكل مليون رمز | $0.40 لكل مليون رمز |
MMLU
| 90.8% Pass@1 المصدر | 85% 5-shot المصدر |
MMLU-Pro
| 84% EM المصدر | غير متاح |
MMMU
| - | غير متاح |
HellaSwag
| - | غير متاح |
HumanEval
| - | 75% المصدر |
MATH
| - | 71% المصدر |
GPQA
| 71.5% Pass@1 المصدر | غير متاح |
IFEval
| 83.3% Prompt Strict المصدر | غير متاح |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال | - |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.