Claude 3.5 Haiku, développé par Anthropic, offre une fenêtre de contexte de 200 000 tokens. Son prix est fixé à 1 $ par million de tokens d’entrée et 5 $ par million de tokens de sortie, avec des économies potentielles allant jusqu'à 90 % grâce à la mise en cache des invites et 50 % via l'API Message Batches. Ce modèle, lancé le 4 novembre 2024, excelle dans l'autocomplétion de code, les chatbots interactifs, l’extraction et l’étiquetage de données, ainsi que la modération de contenu en temps réel.
GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.
Claude 3.5 Haiku | GPT-4.1 | |
---|---|---|
Site web
| ||
Fournisseur
| ||
Chat
| ||
Date de sortie
| ||
Modalités
| texte | texte images |
Fournisseurs d’API
| Anthropic, AWS Bedrock, Vertex AI | OpenAI API |
Date de mise à jour des connaissances
| 01.04.2024 | - |
Open Source
| Non | Non |
Tarification d’entrée
| $0.80 par million de tokens | $2.00 par million de tokens |
Tarification de sortie
| $4.00 | $8.00 par million de tokens |
MMLU
| Non disponible | 90.2% pass@1 Source |
MMLU-Pro
| 65% 0-shot CoT Source | - |
MMMU
| Non disponible | 74.8% Source |
HellaSwag
| Non disponible | - |
HumanEval
| 88.1% 0-shot Source | - |
MATH
| 69.4% 0-shot CoT Source | - |
GPQA
| Non disponible | 66.3% Diamond Source |
IFEval
| Non disponible | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Source |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Source |
MathVista
| - | - |
Application mobile |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.