Llama 3.1 Nemotron 70B من NVIDIA هو نموذج لغوي قوي مُحسّن لتقديم استجابات دقيقة وغنية بالمعلومات. مبني على بنية Llama 3.1 70B ومُحسّن بتعلم التعزيز من التغذية الراجعة البشرية (RLHF)، يحقق أداءً متميزًا في معايير المحاذاة التلقائية. مصمم للتطبيقات التي تتطلب دقة عالية في توليد الاستجابات والفائدة، وهو مناسب لمجموعة واسعة من استفسارات المستخدمين عبر مجالات متعددة.
كوماند R+ هو نموذج الذكاء الاصطناعي التوليدي المتطور من كوهير، مصمم لأداء على مستوى المؤسسات حيث تكون السرعة والأمان وجودة المخرجات حاسمة. مصمم للعمل بكفاءة بأقل بنية تحتية، يتفوق على نماذج من الطراز الأول مثل GPT-4o وDeepSeek-V3 في كل من القدرة والكفاءة من حيث التكلفة. يتميز بنافذة سياق ممتدة تصل إلى 256 ألف وحدة - ضعف حجم معظم النماذج الرائدة - ويتفوق في المهام متعددة اللغات والمعقدة القائمة على الوكلاء والتي تعد ضرورية لعمليات الأعمال الحديثة. على الرغم من قوته، يمكن نشره على وحدتي معالجة رسومية فقط، مما يجعله في متناول اليد بسهولة. مع إنتاجية سريعة تصل إلى 156 وحدة في الثانية - أسرع بحوالي 1.75 مرة من GPT-4o - يقدم كوماند R+ كفاءة استثنائية دون المساس بالدقة أو العمق.
Llama 3.1 Nemotron 70B Instruct | Command A | |
---|---|---|
موقع الويب
| ||
المزود
| ||
الدردشة
| ||
تاريخ الإصدار
| ||
الوسائط
| نص | نص |
مزودو API
| OpenRouter | Cohere, Hugging Face, Major cloud providers |
تاريخ قطع المعرفة
| - | - |
مفتوح المصدر
| نعم | نعم |
تسعير الإدخال
| $0.35 لكل مليون رمز | $2.50 لكل مليون رمز |
تسعير الإخراج
| $0.40 لكل مليون رمز | $10.00 لكل مليون رمز |
MMLU
| 85% 5-shot المصدر | 85.5% المصدر |
MMLU-Pro
| غير متاح | غير متاح |
MMMU
| غير متاح | غير متاح |
HellaSwag
| غير متاح | غير متاح |
HumanEval
| 75% المصدر | غير متاح |
MATH
| 71% المصدر | 80% المصدر |
GPQA
| غير متاح | 50.8% المصدر |
IFEval
| غير متاح | 90.9% المصدر |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
تطبيق الجوال | - | - |
Compare AI. Test. Benchmarks. تطبيبات دردشة الجوال, Sketch
Copyright © 2025 All Right Reserved.