كلود 3.5 هايكو، المطور من قبل أنثروبيك، يوفر نافذة سياقية تبلغ 200 ألف وحدة. يتم تحديد التسعير عند 1 دولار لكل مليون وحدة إدخال و5 دولارات لكل مليون وحدة إخراج، مع توفير محتمل يصل إلى 90٪ عبر التخزين المؤقت للطلبات و50٪ عبر واجهة Message Batches API. تم إصداره في 4 نوفمبر 2024، ويتفوق هذا النموذج في إكمال الأكواد، والدردشات التفاعلية، واستخراج البيانات وتصنيفها، بالإضافة إلى مراقبة المحتوى في الوقت الفعلي.
Claude Sonnet 4 | Claude 3.5 Haiku | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص صور | نص |
مزودو API
| Anthropic API, Amazon Bedrock, Google Cloud's Vertex AI | Anthropic, AWS Bedrock, Vertex AI |
تاريخ قطع المعرفة
| غير معروف | 01.04.2024 |
مفتوح المصدر
| لا | لا |
تسعير الإدخال
| $3 لكل مليون رمز | $0.80 لكل مليون رمز |
تسعير الإخراج
| $15 لكل مليون رمز | $4.00 |
MMLU
| 86.5% المصدر | غير متاح |
MMLU-Pro
| - | 65% 0-shot CoT المصدر |
MMMU
| 74.4% المصدر | غير متاح |
HellaSwag
| - | غير متاح |
HumanEval
| - | 88.1% 0-shot المصدر |
MATH
| - | 69.4% 0-shot CoT المصدر |
GPQA
| 75.4% Diamond المصدر | غير متاح |
IFEval
| - | غير متاح |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | 75.5% المصدر | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.