ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
GPT-4.1، الذي أطلقته OpenAI في 14 أبريل 2025، يقدم نافذة سياق تصل إلى مليون وحدة ويدعم إخراجًا يصل إلى 32,768 وحدة لكل طلب. يقدم أداءً متميزًا في مهام البرمجة، حيث حقق 54.6% في اختبار SWE-Bench Verified، ويظهر تحسنًا بنسبة 10.5% مقارنة بـ GPT-4o في اختبار MultiChallenge لمتابعة التعليمات. تم تحديد حد المعرفة في يونيو 2024. التسعير هو 2.00 دولار لكل مليون وحدة إدخال و8.00 دولار لكل مليون وحدة إخراج، مع خصم 75% للمدخلات المخزنة مؤقتًا، مما يجعله فعالاً جدًا من حيث التكلفة للاستعلامات المتكررة.
DeepSeek-R1 | GPT-4.1 | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص صور |
مزودو API
| DeepSeek, HuggingFace | OpenAI API |
تاريخ قطع المعرفة
| غير معروف | - |
مفتوح المصدر
| نعم | لا |
تسعير الإدخال
| $0.55 لكل مليون رمز | $2.00 لكل مليون رمز |
تسعير الإخراج
| $2.19 لكل مليون رمز | $8.00 لكل مليون رمز |
MMLU
| 90.8% Pass@1 المصدر | 90.2% pass@1 المصدر |
MMLU-Pro
| 84% EM المصدر | - |
MMMU
| - | 74.8% المصدر |
HellaSwag
| - | - |
HumanEval
| - | - |
MATH
| - | - |
GPQA
| 71.5% Pass@1 المصدر | 66.3% Diamond المصدر |
IFEval
| 83.3% Prompt Strict المصدر | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% المصدر |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 المصدر |
MathVista
| - | - |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.