GPT-4.1

GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.

Mistral Large 2

Mistral Large 2, développé par Mistral, offre une fenêtre contextuelle de 128 000 tokens et est tarifé à 3,00 USD par million de tokens d'entrée et 9,00 USD par million de tokens de sortie. Publié le 24 juillet 2024, le modèle a obtenu un score de 84,0 au benchmark MMLU dans une évaluation 5-shot, démontrant de solides performances dans diverses tâches.

GPT-4.1Mistral Large 2
Site web ?
Fournisseur ?
Chat ?
Date de sortie ?
Modalités ?
texte ?
images ?
texte ?
Fournisseurs d’API ?
OpenAI API
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Date de mise à jour des connaissances ?
-
Inconnu
Open Source ?
Non
Oui
Tarification d’entrée ?
$2.00 par million de tokens
$3.00 par million de tokens
Tarification de sortie ?
$8.00 par million de tokens
$9.00 par million de tokens
MMLU ?
90.2%
pass@1
Source
84%
5-shot
Source
MMLU-Pro ?
-
50.69%
Source
MMMU ?
74.8%
Source
Non disponible
HellaSwag ?
-
Non disponible
HumanEval ?
-
Non disponible
MATH ?
-
1.13%
Source
GPQA ?
66.3%
Diamond
Source
24.94%
IFEval ?
-
84.01%
SimpleQA ?
-
-
AIME 2024
48.1%
Source
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
87.3%
pass@1
Source
-
MathVista ?
-
-
Application mobile
-

Comparer les LLMs

Ajouter un commentaire


10%
Notre site utilise des cookies.

Politique de confidentialité et de cookies: ce site utilise des cookies. En continuant à utiliser le site, vous acceptez leur utilisation.