ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
OpenAI o3-mini هو نموذج استدلالي عالي السرعة وفعال من حيث التكلفة مصمم لتطبيقات STEM، بأداء قوي في العلوم والرياضيات والبرمجة. تم إطلاقه في يناير 2025، وهو يتضمن ميزات أساسية للمطورين مثل استدعاء الوظائف، والمخرجات المنظمة، ورسائل المطورين. يقدم النموذج ثلاث مستويات جهد استدلالي - منخفض، ومتوسط، وعالي - مما يسمح للمستخدمين بالتحسين بين التحليل الأعمق وأوقات الاستجابة الأسرع. على عكس نموذج o3، فإنه يفتقر إلى قدرات الرؤية. كان متاحًا في البداية لمطورين مختارين في مستويات استخدام API من 3 إلى 5، ويمكن الوصول إليه عبر Chat Completions API و Assistants API و Batch API.
DeepSeek-R1 | o3-mini | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص |
مزودو API
| DeepSeek, HuggingFace | OpenAI API |
تاريخ قطع المعرفة
| غير معروف | غير معروف |
مفتوح المصدر
| نعم | لا |
تسعير الإدخال
| $0.55 لكل مليون رمز | $1.10 لكل مليون رمز |
تسعير الإخراج
| $2.19 لكل مليون رمز | $4.40 لكل مليون رمز |
MMLU
| 90.8% Pass@1 المصدر | 86.9% pass@1, high effort المصدر |
MMLU-Pro
| 84% EM المصدر | غير متاح |
MMMU
| - | غير متاح |
HellaSwag
| - | غير متاح |
HumanEval
| - | غير متاح |
MATH
| - | 97.9% pass@1, high effort المصدر |
GPQA
| 71.5% Pass@1 المصدر | 79.7% 0-shot, high effort المصدر |
IFEval
| 83.3% Prompt Strict المصدر | غير متاح |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.