ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.
GPT-4.1 Nano، الذي أطلقته OpenAI في 14 أبريل 2025، هو أسرع نموذج للشركة وأكثرها affordability حتى الآن. مصمم لمهام زمن الاستجابة المنخفض مثل التصنيف والإكمال التلقائي وسيناريوهات الاستدلال السريع، يجمع بين البنية المدمجة والقدرات القوية. على الرغم من حجمه الصغير، يدعم نافذة سياق مذهلة تصل إلى مليون وحدة ويقدم نتائج قوية في الاختبارات المعيارية، حيث حقق 80.1% في MMLU و50.3% في GPQA. مع حد معرفة في يونيو 2024، يقدم GPT-4.1 Nano قيمة استثنائية بسعر 0.10 دولار فقط لكل مليون وحدة إدخال و0.40 دولار لكل مليون وحدة إخراج، مع خصم 75% للمدخلات المخزنة مؤقتًا، مما يجعله مثاليًا للنشر عالي الحجم الحساس للتكلفة.
DeepSeek-R1 | GPT-4.1 Nano | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص صور |
مزودو API
| DeepSeek, HuggingFace | OpenAI API |
تاريخ قطع المعرفة
| غير معروف | - |
مفتوح المصدر
| نعم | لا |
تسعير الإدخال
| $0.55 لكل مليون رمز | $0.10 لكل مليون رمز |
تسعير الإخراج
| $2.19 لكل مليون رمز | $0.40 لكل مليون رمز |
MMLU
| 90.8% Pass@1 المصدر | 80.1% المصدر |
MMLU-Pro
| 84% EM المصدر | - |
MMMU
| - | 55.4% المصدر |
HellaSwag
| - | - |
HumanEval
| - | - |
MATH
| - | - |
GPQA
| 71.5% Pass@1 المصدر | 50.3% Diamond المصدر |
IFEval
| 83.3% Prompt Strict المصدر | 74.5% المصدر |
SimpleQA
| - | - |
AIME 2024 | - | 29.4% المصدر |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 66.9% المصدر |
MathVista
| - | 56.2% Image Reasoning المصدر |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.