DeepSeek-R1

ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.

o4-mini

أو4-ميني من OpenAI هو أحدث نموذج خفيف الوزن في سلسلة o، مصمم للاستدلال الفعال والقادر عبر مهام النصوص والصور. محسن للسرعة والأداء، يتفوق في توليد الأكواد والفهم القائم على الصور، مع الحفاظ على التوازن بين زمن الاستجابة وعمق الاستدلال. يدعم النموذج نافذة سياق تصل إلى 200,000 وحدة مع إخراج يصل إلى 100,000 وحدة، مما يجعله مناسبًا للتفاعلات الممتدة عالية الحجم. يتعامل مع مدخلات النصوص والصور معًا، وينتج مخرجات نصية بقدرات استدلالية متقدمة. بفضل بنيته المدمجة وأدائه المتعدد الاستخدامات، يعتبر o4-mini مثاليًا لمجموعة واسعة من التطبيقات الواقعية التي تتطلب ذكاءً سريعًا وفعالًا من حيث التكلفة.

DeepSeek-R1o4-mini
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
صور ?
مزودو API ?
DeepSeek, HuggingFace
OpenAI API
تاريخ قطع المعرفة ?
غير معروف
-
مفتوح المصدر ?
نعم
لا
تسعير الإدخال ?
$0.55 لكل مليون رمز
$1.10 لكل مليون رمز
تسعير الإخراج ?
$2.19 لكل مليون رمز
$4.40 لكل مليون رمز
MMLU ?
90.8%
Pass@1
المصدر
fort
MMLU-Pro ?
84%
EM
المصدر
-
MMMU ?
-
81.6%
المصدر
HellaSwag ?
-
-
HumanEval ?
-
14.28%
المصدر
MATH ?
-
-
GPQA ?
71.5%
Pass@1
المصدر
81.4%
المصدر
IFEval ?
83.3%
Prompt Strict
المصدر
-
SimpleQA ?
-
-
AIME 2024
-
93.4%
المصدر
AIME 2025
-
92.7%
المصدر
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.