ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
ليما 4 سكاوت هو نموذج بـ 17 مليار معلمة يستخدم بنية خليط الخبراء مع 16 خبيرًا نشطًا، مما يضعه كأفضل نموذج متعدد الوسائط في فئته. يتفوق باستمرار على منافسين مثل جيما 3، وجيميني 2.0 فلاش-لايت، وميسترال 3.1 عبر مجموعة متنوعة من مهام المعايير. على الرغم من أدائه، فإن ليما 4 سكاوت فعال بشكل ملحوظ - قادر على العمل على وحدة معالجة رسومية واحدة من نوع NVIDIA H100 مع تكميم Int4. كما يتميز بنافذة سياق رائدة في الصناعة تصل إلى 10 ملايين وحدة وهو متعدد الوسائط بشكل أصلي، حيث يعالج بسلاسة مدخلات النصوص والصور والفيديو للتطبيقات الواقعية المتقدمة.
DeepSeek-R1 | Llama 4 Scout | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص صور فيديو |
مزودو API
| DeepSeek, HuggingFace | Meta AI, Hugging Face, Fireworks, Together, DeepInfra |
تاريخ قطع المعرفة
| غير معروف | 2025-04 |
مفتوح المصدر
| نعم | نعم (المصدر) |
تسعير الإدخال
| $0.55 لكل مليون رمز | غير متاح |
تسعير الإخراج
| $2.19 لكل مليون رمز | غير متاح |
MMLU
| 90.8% Pass@1 المصدر | غير متاح |
MMLU-Pro
| 84% EM المصدر | 74.3% Reasoning & Knowledge المصدر |
MMMU
| - | 69.4% Image Reasoning المصدر |
HellaSwag
| - | غير متاح |
HumanEval
| - | غير متاح |
MATH
| - | غير متاح |
GPQA
| 71.5% Pass@1 المصدر | 57.2% Diamond المصدر |
IFEval
| 83.3% Prompt Strict المصدر | غير متاح |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال | - |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.