DeepSeek-R1

ديب سيك-R1 هو نموذج خليط من الخبراء (MoE) بمعاملات تبلغ 671 مليار مع 37 مليار معلمة مفعلة لكل وحدة، تم تدريبه عبر تعلم تعزيزي واسع النطاق مع التركيز على القدرات الاستدلالية. وهو يدمج مرحلتين من التعلم التعزيزي لاكتشاف أنماط استدلالية محسنة ومحاذاة التفضيلات البشرية، إلى جانب مرحلتين SFT لزرع القدرات الاستدلالية وغير الاستدلالية. يحقق النموذج أداءً مماثلاً لـ OpenAI-o1 عبر مهام الرياضيات والبرمجة والاستدلال.

Claude 3.5 Haiku

كلود 3.5 هايكو، المطور من قبل أنثروبيك، يوفر نافذة سياقية تبلغ 200 ألف وحدة. يتم تحديد التسعير عند 1 دولار لكل مليون وحدة إدخال و5 دولارات لكل مليون وحدة إخراج، مع توفير محتمل يصل إلى 90٪ عبر التخزين المؤقت للطلبات و50٪ عبر واجهة Message Batches API. تم إصداره في 4 نوفمبر 2024، ويتفوق هذا النموذج في إكمال الأكواد، والدردشات التفاعلية، واستخراج البيانات وتصنيفها، بالإضافة إلى مراقبة المحتوى في الوقت الفعلي.

DeepSeek-R1Claude 3.5 Haiku
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
مزودو API ?
DeepSeek, HuggingFace
Anthropic, AWS Bedrock, Vertex AI
تاريخ قطع المعرفة ?
غير معروف
01.04.2024
مفتوح المصدر ?
نعم
لا
تسعير الإدخال ?
$0.55 لكل مليون رمز
$0.80 لكل مليون رمز
تسعير الإخراج ?
$2.19 لكل مليون رمز
$4.00
MMLU ?
90.8%
Pass@1
المصدر
غير متاح
MMLU-Pro ?
84%
EM
المصدر
65%
0-shot CoT
المصدر
MMMU ?
-
غير متاح
HellaSwag ?
-
غير متاح
HumanEval ?
-
88.1%
0-shot
المصدر
MATH ?
-
69.4%
0-shot CoT
المصدر
GPQA ?
71.5%
Pass@1
المصدر
غير متاح
IFEval ?
83.3%
Prompt Strict
المصدر
غير متاح
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.