ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
أو4-ميني من OpenAI هو أحدث نموذج خفيف الوزن في سلسلة o، مصمم للاستدلال الفعال والقادر عبر مهام النصوص والصور. محسن للسرعة والأداء، يتفوق في توليد الأكواد والفهم القائم على الصور، مع الحفاظ على التوازن بين زمن الاستجابة وعمق الاستدلال. يدعم النموذج نافذة سياق تصل إلى 200,000 وحدة مع إخراج يصل إلى 100,000 وحدة، مما يجعله مناسبًا للتفاعلات الممتدة عالية الحجم. يتعامل مع مدخلات النصوص والصور معًا، وينتج مخرجات نصية بقدرات استدلالية متقدمة. بفضل بنيته المدمجة وأدائه المتعدد الاستخدامات، يعتبر o4-mini مثاليًا لمجموعة واسعة من التطبيقات الواقعية التي تتطلب ذكاءً سريعًا وفعالًا من حيث التكلفة.
DeepSeek-R1 | o4-mini | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص صور |
مزودو API
| DeepSeek, HuggingFace | OpenAI API |
تاريخ قطع المعرفة
| غير معروف | - |
مفتوح المصدر
| نعم | لا |
تسعير الإدخال
| $0.55 لكل مليون رمز | $1.10 لكل مليون رمز |
تسعير الإخراج
| $2.19 لكل مليون رمز | $4.40 لكل مليون رمز |
MMLU
| 90.8% Pass@1 المصدر | fort |
MMLU-Pro
| 84% EM المصدر | - |
MMMU
| - | 81.6% المصدر |
HellaSwag
| - | - |
HumanEval
| - | 14.28% المصدر |
MATH
| - | - |
GPQA
| 71.5% Pass@1 المصدر | 81.4% المصدر |
IFEval
| 83.3% Prompt Strict المصدر | - |
SimpleQA
| - | - |
AIME 2024 | - | 93.4% المصدر |
AIME 2025 | - | 92.7% المصدر |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.