DeepSeek-R1

ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.

Llama 4 Scout

ليما 4 سكاوت هو نموذج بـ 17 مليار معلمة يستخدم بنية خليط الخبراء مع 16 خبيرًا نشطًا، مما يضعه كأفضل نموذج متعدد الوسائط في فئته. يتفوق باستمرار على منافسين مثل جيما 3، وجيميني 2.0 فلاش-لايت، وميسترال 3.1 عبر مجموعة متنوعة من مهام المعايير. على الرغم من أدائه، فإن ليما 4 سكاوت فعال بشكل ملحوظ - قادر على العمل على وحدة معالجة رسومية واحدة من نوع NVIDIA H100 مع تكميم Int4. كما يتميز بنافذة سياق رائدة في الصناعة تصل إلى 10 ملايين وحدة وهو متعدد الوسائط بشكل أصلي، حيث يعالج بسلاسة مدخلات النصوص والصور والفيديو للتطبيقات الواقعية المتقدمة.

DeepSeek-R1Llama 4 Scout
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
صور ?
فيديو ?
مزودو API ?
DeepSeek, HuggingFace
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
تاريخ قطع المعرفة ?
غير معروف
2025-04
مفتوح المصدر ?
نعم
نعم (المصدر)
تسعير الإدخال ?
$0.55 لكل مليون رمز
غير متاح
تسعير الإخراج ?
$2.19 لكل مليون رمز
غير متاح
MMLU ?
90.8%
Pass@1
المصدر
غير متاح
MMLU-Pro ?
84%
EM
المصدر
74.3%
Reasoning & Knowledge
المصدر
MMMU ?
-
69.4%
Image Reasoning
المصدر
HellaSwag ?
-
غير متاح
HumanEval ?
-
غير متاح
MATH ?
-
غير متاح
GPQA ?
71.5%
Pass@1
المصدر
57.2%
Diamond
المصدر
IFEval ?
83.3%
Prompt Strict
المصدر
غير متاح
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال
-

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.