GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.
GPT-4.1 | GPT-4.1 Nano | |
---|---|---|
Site web
| ||
Fournisseur
| ||
Chat
| ||
Date de sortie
| ||
Modalités
| texte images | texte images |
Fournisseurs d’API
| OpenAI API | OpenAI API |
Date de mise à jour des connaissances
| - | - |
Open Source
| Non | Non |
Tarification d’entrée
| $2.00 par million de tokens | $0.10 par million de tokens |
Tarification de sortie
| $8.00 par million de tokens | $0.40 par million de tokens |
MMLU
| 90.2% pass@1 Source | 80.1% Source |
MMLU-Pro
| - | - |
MMMU
| 74.8% Source | 55.4% Source |
HellaSwag
| - | - |
HumanEval
| - | - |
MATH
| - | - |
GPQA
| 66.3% Diamond Source | 50.3% Diamond Source |
IFEval
| - | 74.5% Source |
SimpleQA
| - | - |
AIME 2024 | 48.1% Source | 29.4% Source |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| 87.3% pass@1 Source | 66.9% Source |
MathVista
| - | 56.2% Image Reasoning Source |
Application mobile |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.