Claude 3.5 Haiku

كلود 3.5 هايكو، المطور من قبل أنثروبيك، يوفر نافذة سياقية تبلغ 200 ألف وحدة. يتم تحديد التسعير عند 1 دولار لكل مليون وحدة إدخال و5 دولارات لكل مليون وحدة إخراج، مع توفير محتمل يصل إلى 90٪ عبر التخزين المؤقت للطلبات و50٪ عبر واجهة Message Batches API. تم إصداره في 4 نوفمبر 2024، ويتفوق هذا النموذج في إكمال الأكواد، والدردشات التفاعلية، واستخراج البيانات وتصنيفها، بالإضافة إلى مراقبة المحتوى في الوقت الفعلي.

Llama 3.1 Nemotron 70B Instruct

Llama 3.1 Nemotron 70B من NVIDIA هو نموذج لغوي قوي مُحسّن لتقديم استجابات دقيقة وغنية بالمعلومات. مبني على بنية Llama 3.1 70B ومُحسّن بتعلم التعزيز من التغذية الراجعة البشرية (RLHF)، يحقق أداءً متميزًا في معايير المحاذاة التلقائية. مصمم للتطبيقات التي تتطلب دقة عالية في توليد الاستجابات والفائدة، وهو مناسب لمجموعة واسعة من استفسارات المستخدمين عبر مجالات متعددة.

Claude 3.5 HaikuLlama 3.1 Nemotron 70B Instruct
موقع الويب ?
المزود ?
الدردشة ?
تاريخ الإصدار ?
الوسائط ?
نص ?
نص ?
مزودو API ?
Anthropic, AWS Bedrock, Vertex AI
OpenRouter
تاريخ قطع المعرفة ?
01.04.2024
-
مفتوح المصدر ?
لا
نعم
تسعير الإدخال ?
$0.80 لكل مليون رمز
$0.35 لكل مليون رمز
تسعير الإخراج ?
$4.00
$0.40 لكل مليون رمز
MMLU ?
غير متاح
85%
5-shot
المصدر
MMLU-Pro ?
65%
0-shot CoT
المصدر
غير متاح
MMMU ?
غير متاح
غير متاح
HellaSwag ?
غير متاح
غير متاح
HumanEval ?
88.1%
0-shot
المصدر
75%
المصدر
MATH ?
69.4%
0-shot CoT
المصدر
71%
المصدر
GPQA ?
غير متاح
غير متاح
IFEval ?
غير متاح
غير متاح
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
تطبيق الجوال
-

مقارنة نماذج LLM

إضافة تعليق


10%
يستخدم موقعنا ملفات تعريف الارتباط.

سياسة الخصوصية وملفات تعريف الارتباط: يستخدم هذا الموقع ملفات تعريف الارتباط. باستخدامك المستمر للموقع، فإنك توافق على استخدامها.