كلود 3.5 هايكو، المطور من قبل أنثروبيك، يوفر نافذة سياقية تبلغ 200 ألف وحدة. يتم تحديد التسعير عند 1 دولار لكل مليون وحدة إدخال و5 دولارات لكل مليون وحدة إخراج، مع توفير محتمل يصل إلى 90٪ عبر التخزين المؤقت للطلبات و50٪ عبر واجهة Message Batches API. تم إصداره في 4 نوفمبر 2024، ويتفوق هذا النموذج في إكمال الأكواد، والدردشات التفاعلية، واستخراج البيانات وتصنيفها، بالإضافة إلى مراقبة المحتوى في الوقت الفعلي.
GPT-4.1، الذي أطلقته OpenAI في 14 أبريل 2025، يقدم نافذة سياق تصل إلى مليون وحدة ويدعم إخراجًا يصل إلى 32,768 وحدة لكل طلب. يقدم أداءً متميزًا في مهام البرمجة، حيث حقق 54.6% في اختبار SWE-Bench Verified، ويظهر تحسنًا بنسبة 10.5% مقارنة بـ GPT-4o في اختبار MultiChallenge لمتابعة التعليمات. تم تحديد حد المعرفة في يونيو 2024. التسعير هو 2.00 دولار لكل مليون وحدة إدخال و8.00 دولار لكل مليون وحدة إخراج، مع خصم 75% للمدخلات المخزنة مؤقتًا، مما يجعله فعالاً جدًا من حيث التكلفة للاستعلامات المتكررة.
Claude 3.5 Haiku | GPT-4.1 | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص صور |
مزودو API
| Anthropic, AWS Bedrock, Vertex AI | OpenAI API |
تاريخ قطع المعرفة
| 01.04.2024 | - |
مفتوح المصدر
| لا | لا |
تسعير الإدخال
| $0.80 لكل مليون رمز | $2.00 لكل مليون رمز |
تسعير الإخراج
| $4.00 | $8.00 لكل مليون رمز |
MMLU
| غير متاح | 90.2% pass@1 المصدر |
MMLU-Pro
| 65% 0-shot CoT المصدر | - |
MMMU
| غير متاح | 74.8% المصدر |
HellaSwag
| غير متاح | - |
HumanEval
| 88.1% 0-shot المصدر | - |
MATH
| 69.4% 0-shot CoT المصدر | - |
GPQA
| غير متاح | 66.3% Diamond المصدر |
IFEval
| غير متاح | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% المصدر |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 المصدر |
MathVista
| - | - |
تطبيق الجوال |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.