GPT-4.1, lancé par OpenAI le 14 avril 2025, introduit une fenêtre de contexte de 1 million de tokens et prend en charge des sorties allant jusqu'à 32 768 tokens par requête. Il offre des performances exceptionnelles sur les tâches de codage, atteignant 54,6 % sur le benchmark SWE-Bench Verified, et montre une amélioration de 10,5 % par rapport à GPT-4o sur MultiChallenge pour le suivi des instructions. La date de connaissance du modèle est fixée à juin 2024. Le prix est de 2,00 $ par million de tokens pour l'entrée et 8,00 $ par million de tokens pour la sortie, avec une remise de 75 % appliquée aux entrées mises en cache, ce qui le rend très rentable pour les requêtes répétées.
„Llama 3.3 70B Instruct“, conçu par Meta, est un grand modèle de langage multilingue spécialement affiné pour les tâches basées sur des instructions et optimisé pour les applications conversationnelles. Il peut traiter et générer du texte en plusieurs langues, avec une fenêtre contextuelle prenant en charge jusqu'à 128 000 tokens. Lancé le 6 décembre 2024, le modèle surpasse de nombreux chatbots open-source et propriétaires selon divers benchmarks industriels. Il utilise le Grouped-Query Attention (GQA) pour améliorer l'évolutivité et a été entraîné sur un ensemble de données diversifié comprenant plus de 15 billions de tokens provenant de sources publiques. Les connaissances du modèle sont à jour jusqu'en décembre 2023.
GPT-4.1 | Llama 3.3 70B Instruct | |
---|---|---|
Fournisseur | ||
Site web | ||
Date de sortie | Apr 14, 2025 2 semaines ago | Dec 06, 2024 4 mois ago |
Modalités | texte images | texte |
Fournisseurs d’API | OpenAI API | Fireworks, Together, DeepInfra, Hyperbolic |
Date de mise à jour des connaissances | - | 12.2024 |
Open Source | Non | Oui |
Tarification d’entrée | $2.00 par million de tokens | $0.23 par million de tokens |
Tarification de sortie | $8.00 par million de tokens | $0.40 par million de tokens |
MMLU | 90.2% pass@1 Source | 86% 0-shot, CoT Source |
MMLU Pro | - | 68.9% 5-shot, CoT Source |
MMMU | 74.8% Source | Non disponible |
HellaSwag | - | Non disponible |
HumanEval | - | 88.4% pass@1 Source |
MATH | - | 77% 0-shot, CoT Source |
GPQA | 66.3% Diamond Source | 50.5% 0-shot, CoT Source |
IFEval | - | 92.1% Source |
Application mobile | - |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.