Claude 3.5 Haiku, développé par Anthropic, offre une fenêtre de contexte de 200 000 tokens. Son prix est fixé à 1 $ par million de tokens d’entrée et 5 $ par million de tokens de sortie, avec des économies potentielles allant jusqu'à 90 % grâce à la mise en cache des invites et 50 % via l'API Message Batches. Ce modèle, lancé le 4 novembre 2024, excelle dans l'autocomplétion de code, les chatbots interactifs, l’extraction et l’étiquetage de données, ainsi que la modération de contenu en temps réel.
Command R+ est le modèle génératif d'IA de pointe de Cohere, conçu pour des performances professionnelles où la vitesse, la sécurité et la qualité des résultats sont cruciales. Optimisé pour fonctionner efficacement avec une infrastructure minimale, il surpasse les meilleurs modèles comme GPT-4o et DeepSeek-V3 en capacités et rentabilité. Avec une fenêtre contextuelle étendue de 256K tokens (le double de la plupart des modèles leaders),il excelle dans les tâches multilingues complexes et basées sur des agents, essentielles aux opérations commerciales modernes. Malgré sa puissance, il peut être déployé sur seulement deux GPU, le rendant très accessible. Avec un débit fulgurant allant jusqu'à 156 tokens par seconde (environ 1,75× plus rapide que GPT-4o),Command R+ offre une efficacité exceptionnelle sans compromis sur la précision ou la profondeur.
Claude 3.5 Haiku | Command A | |
---|---|---|
Fournisseur | ||
Site web | ||
Date de sortie | Nov 04, 2024 5 mois ago | Mar 14, 2025 1 mois ago |
Modalités | texte | texte |
Fournisseurs d’API | Anthropic, AWS Bedrock, Vertex AI | Cohere, Hugging Face, Major cloud providers |
Date de mise à jour des connaissances | 01.04.2024 | - |
Open Source | Non | Oui |
Tarification d’entrée | $0.80 par million de tokens | $2.50 par million de tokens |
Tarification de sortie | $4.00 | $10.00 par million de tokens |
MMLU | Non disponible | 85.5% Source |
MMLU Pro | 65% 0-shot CoT Source | Non disponible |
MMMU | Non disponible | Non disponible |
HellaSwag | Non disponible | Non disponible |
HumanEval | 88.1% 0-shot Source | Non disponible |
MATH | 69.4% 0-shot CoT Source | 80% Source |
GPQA | Non disponible | 50.8% Source |
IFEval | Non disponible | 90.9% Source |
Application mobile | - |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.