Nova Pro

Amazon Nova Pro est un modèle multimodal de pointe conçu pour gérer des entrées de texte, d'image et de vidéo avec des capacités de traitement avancées. Doté d'une fenêtre contextuelle de 300 000 tokens, il excelle dans l'analyse de documents, la réponse visuelle aux questions et les flux de travail complexes pilotés par des agents. Faisant partie des modèles de base Amazon Nova, il prend en charge le réglage fin et la distillation, permettant une personnalisation approfondie pour diverses applications.

GPT-4.1

GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.

Nova ProGPT-4.1
Fournisseur
Site web
Date de sortie
Dec 02, 2024
4 mois ago
Apr 14, 2025
2 semaines ago
Modalités
texte ?
images ?
vidéo ?
texte ?
images ?
Fournisseurs d’API
Amazon Bedrock
OpenAI API
Date de mise à jour des connaissances
Délibérément non divulgué
-
Open Source
Non
Non
Tarification d’entrée
$0.80 par million de tokens
$2.00 par million de tokens
Tarification de sortie
$3.20 par million de tokens
$8.00 par million de tokens
MMLU
85.9%
CoT
Source
90.2%
pass@1
Source
MMLU Pro
Non disponible
-
MMMU
Non disponible
74.8%
Source
HellaSwag
Non disponible
-
HumanEval
89%
pass@1
Source
-
MATH
76.6%
CoT
Source
-
GPQA
46.9%
Main
Source
66.3%
Diamond
Source
IFEval
92.1%
Source
-
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.