DeepSeek-R1

ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.

Llama 3.3 70B Instruct

Llama 3.3 70B Instruct، من تطوير Meta، هو نموذج لغوي كبير متعدد اللغات تم ضبطه خصيصًا للمهام القائمة على التعليمات ومُحسّن للتطبيقات المحادثة. يمكنه معالجة وإنشاء نصوص بلغات متعددة، مع نافذة سياقية تدعم حتى 128,000 وحدة. تم إطلاقه في 6 ديسمبر 2024، ويتفوق النموذج على العديد من نماذج الدردشة مفتوحة المصدر والخاصة في معايير الصناعة المختلفة. يستخدم الانتباه الاستعلامي المجمع (GQA) لتحسين قابلية التوسع، وتم تدريبه على مجموعة بيانات متنوعة تضم أكثر من 15 تريليون وحدة من مصادر متاحة للجمهور. معرفة النموذج محدثة حتى ديسمبر 2023.

DeepSeek-R1Llama 3.3 70B Instruct
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
مزودو API ?
DeepSeek, HuggingFace
Fireworks, Together, DeepInfra, Hyperbolic
تاريخ قطع المعرفة ?
غير معروف
12.2024
مفتوح المصدر ?
نعم
نعم
تسعير الإدخال ?
$0.55 لكل مليون رمز
$0.23 لكل مليون رمز
تسعير الإخراج ?
$2.19 لكل مليون رمز
$0.40 لكل مليون رمز
MMLU ?
90.8%
Pass@1
المصدر
86%
0-shot, CoT
المصدر
MMLU-Pro ?
84%
EM
المصدر
68.9%
5-shot, CoT
المصدر
MMMU ?
-
غير متاح
HellaSwag ?
-
غير متاح
HumanEval ?
-
88.4%
pass@1
المصدر
MATH ?
-
77%
0-shot, CoT
المصدر
GPQA ?
71.5%
Pass@1
المصدر
50.5%
0-shot, CoT
المصدر
IFEval ?
83.3%
Prompt Strict
المصدر
92.1%
المصدر
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال
-

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.