Claude 3.5 Haiku, développé par Anthropic, offre une fenêtre de contexte de 200 000 tokens. Son prix est fixé à 1 $ par million de tokens d’entrée et 5 $ par million de tokens de sortie, avec des économies potentielles allant jusqu'à 90 % grâce à la mise en cache des invites et 50 % via l'API Message Batches. Ce modèle, lancé le 4 novembre 2024, excelle dans l'autocomplétion de code, les chatbots interactifs, l’extraction et l’étiquetage de données, ainsi que la modération de contenu en temps réel.
Mistral Large 2, développé par Mistral, offre une fenêtre contextuelle de 128 000 tokens et est tarifé à 3,00 USD par million de tokens d'entrée et 9,00 USD par million de tokens de sortie. Publié le 24 juillet 2024, le modèle a obtenu un score de 84,0 au benchmark MMLU dans une évaluation 5-shot, démontrant de solides performances dans diverses tâches.
Claude 3.5 Haiku | Mistral Large 2 | |
---|---|---|
Site web
| ||
Fournisseur
| ||
Chat
| ||
Date de sortie
| ||
Modalités
| texte | texte |
Fournisseurs d’API
| Anthropic, AWS Bedrock, Vertex AI | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
Date de mise à jour des connaissances
| 01.04.2024 | Inconnu |
Open Source
| Non | Oui |
Tarification d’entrée
| $0.80 par million de tokens | $3.00 par million de tokens |
Tarification de sortie
| $4.00 | $9.00 par million de tokens |
MMLU
| Non disponible | 84% 5-shot Source |
MMLU-Pro
| 65% 0-shot CoT Source | 50.69% Source |
MMMU
| Non disponible | Non disponible |
HellaSwag
| Non disponible | Non disponible |
HumanEval
| 88.1% 0-shot Source | Non disponible |
MATH
| 69.4% 0-shot CoT Source | 1.13% Source |
GPQA
| Non disponible | 24.94% |
IFEval
| Non disponible | 84.01% |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Application mobile | - |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.