Llama 3.1 Nemotron 70B Instruct

Le Llama 3.1 Nemotron 70B de NVIDIA est un modèle linguistique puissant optimisé pour fournir des réponses précises et informatives. Basé sur l'architecture Llama 3.1 70B et amélioré par l'apprentissage par renforcement à partir de retours humains (RLHF),il atteint des performances de pointe dans les benchmarks d'alignement automatique. Conçu pour des applications nécessitant une grande précision dans la génération de réponses et leur utilité, ce modèle est bien adapté à une large gamme de requêtes utilisateurs dans plusieurs domaines.

Nova Micro

Amazon Nova Micro est un modèle textuel optimisé pour le coût et la rapidité. Avec une fenêtre de contexte de 128K tokens, il excelle dans des tâches telles que le résumé de texte, la traduction, le chat interactif et le codage basique. Publié dans le cadre des modèles fondamentaux Amazon Nova, il prend en charge l'ajustement fin et la distillation pour une personnalisation sur des données propriétaires.

Llama 3.1 Nemotron 70B InstructNova Micro
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
texte ?
Fournisseurs d’API ?
OpenRouter
Amazon Bedrock
Date de mise à jour des connaissances ?
-
Délibérément non divulgué
Open Source ?
Oui
Non
Tarification d’entrée ?
$0.35 par million de tokens
$0.04 par million de tokens
Tarification de sortie ?
$0.40 par million de tokens
$0.14 par million de tokens
MMLU ?
85%
5-shot
Source
77.6%
CoT
Source
MMLU-Pro ?
Non disponible
-
MMMU ?
Non disponible
-
HellaSwag ?
Non disponible
-
HumanEval ?
75%
Source
81.1%
pass@1
Source
MATH ?
71%
Source
69.3%
CoT
Source
GPQA ?
Non disponible
40%
Main
Source
IFEval ?
Non disponible
87.2%
Source
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Application mobile
-
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.