Llama 3.3 70B Instruct، من تطوير Meta، هو نموذج لغوي كبير متعدد اللغات تم ضبطه خصيصًا للمهام القائمة على التعليمات ومُحسّن للتطبيقات المحادثة. يمكنه معالجة وإنشاء نصوص بلغات متعددة، مع نافذة سياقية تدعم حتى 128,000 وحدة. تم إطلاقه في 6 ديسمبر 2024، ويتفوق النموذج على العديد من نماذج الدردشة مفتوحة المصدر والخاصة في معايير الصناعة المختلفة. يستخدم الانتباه الاستعلامي المجمع (GQA) لتحسين قابلية التوسع، وتم تدريبه على مجموعة بيانات متنوعة تضم أكثر من 15 تريليون وحدة من مصادر متاحة للجمهور. معرفة النموذج محدثة حتى ديسمبر 2023.
أمازون نوفا مايكرو هو نموذج يعمل بالنص فقط ومُحسّن للتكلفة والسرعة. مع نافذة سياقية تبلغ 128 ألف وحدة، فهو يتفوق في مهام مثل تلخيص النصوص، والترجمة، والدردشة التفاعلية، والبرمجة الأساسية. تم إصداره كجزء من نماذج أمازون نوفا الأساسية، وهو يدعم الضبط الدقيق والتقطير للتخصيص على البيانات الخاصة.
Llama 3.3 70B Instruct | Nova Micro | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص |
مزودو API
| Fireworks, Together, DeepInfra, Hyperbolic | Amazon Bedrock |
تاريخ قطع المعرفة
| 12.2024 | غير مُفصح عنه عمدًا |
مفتوح المصدر
| نعم | لا |
تسعير الإدخال
| $0.23 لكل مليون رمز | $0.04 لكل مليون رمز |
تسعير الإخراج
| $0.40 لكل مليون رمز | $0.14 لكل مليون رمز |
MMLU
| 86% 0-shot, CoT المصدر | 77.6% CoT المصدر |
MMLU-Pro
| 68.9% 5-shot, CoT المصدر | - |
MMMU
| غير متاح | - |
HellaSwag
| غير متاح | - |
HumanEval
| 88.4% pass@1 المصدر | 81.1% pass@1 المصدر |
MATH
| 77% 0-shot, CoT المصدر | 69.3% CoT المصدر |
GPQA
| 50.5% 0-shot, CoT المصدر | 40% Main المصدر |
IFEval
| 92.1% المصدر | 87.2% المصدر |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال | - | - |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.