GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.
Command R+ est le modèle génératif d'IA de pointe de Cohere, conçu pour des performances professionnelles où la vitesse, la sécurité et la qualité des résultats sont cruciales. Optimisé pour fonctionner efficacement avec une infrastructure minimale, il surpasse les meilleurs modèles comme GPT-4o et DeepSeek-V3 en capacités et rentabilité. Avec une fenêtre contextuelle étendue de 256K tokens (le double de la plupart des modèles leaders),il excelle dans les tâches multilingues complexes et basées sur des agents, essentielles aux opérations commerciales modernes. Malgré sa puissance, il peut être déployé sur seulement deux GPU, le rendant très accessible. Avec un débit fulgurant allant jusqu'à 156 tokens par seconde (environ 1,75× plus rapide que GPT-4o),Command R+ offre une efficacité exceptionnelle sans compromis sur la précision ou la profondeur.
GPT-4.1 | Command A | |
---|---|---|
Fournisseur | ||
Site web | ||
Date de sortie | Apr 14, 2025 2 semaines ago | Mar 14, 2025 1 mois ago |
Modalités | texte images | texte |
Fournisseurs d’API | OpenAI API | Cohere, Hugging Face, Major cloud providers |
Date de mise à jour des connaissances | - | - |
Open Source | Non | Oui |
Tarification d’entrée | $2.00 par million de tokens | $2.50 par million de tokens |
Tarification de sortie | $8.00 par million de tokens | $10.00 par million de tokens |
MMLU | 90.2% pass@1 Source | 85.5% Source |
MMLU Pro | - | Non disponible |
MMMU | 74.8% Source | Non disponible |
HellaSwag | - | Non disponible |
HumanEval | - | Non disponible |
MATH | - | 80% Source |
GPQA | 66.3% Diamond Source | 50.8% Source |
IFEval | - | 90.9% Source |
Application mobile | - |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.