Le OpenAI o3-mini est un modèle de raisonnement rapide et économique conçu pour les applications STEM, offrant d'excellentes performances en sciences, mathématiques et programmation. Lancé en janvier 2025, il inclut des fonctionnalités essentielles pour les développeurs, telles que l’appel de fonctions, les sorties structurées et les messages développeurs. Le modèle propose trois niveaux d’effort de raisonnement—faible, moyen et élevé—permettant aux utilisateurs d’optimiser entre une analyse plus approfondie et des temps de réponse plus rapides. Contrairement au modèle o3, il ne dispose pas de capacités de vision. Initialement disponible pour certains développeurs dans les niveaux 3 à 5 d'utilisation de l'API, il est accessible via l'API Chat Completions, l'API Assistants et l'API Batch.
Gemini 2.0 Pro est le modèle le plus avancé de Google à ce jour, offrant des performances exceptionnelles en programmation et gérant avec aisance des instructions complexes. Il est doté de capacités améliorées telles que l’intégration native d’outils, la génération d’images et la synthèse vocale. Conçu pour un raisonnement avancé, ce modèle prend en charge les entrées multimodales, y compris le texte, les images, la vidéo et l’audio. Disponible via Google AI Studio et Vertex AI, il offre des améliorations significatives par rapport aux versions précédentes tout en maintenant une grande efficacité.
o3-mini | Gemini 2.0 Pro | |
---|---|---|
Fournisseur | ||
Site web | ||
Date de sortie | Jan 31, 2025 2 mois ago | Dec 11, 2024 4 mois ago |
Modalités | texte | texte images voix vidéo |
Fournisseurs d’API | OpenAI API | Google AI Studio, Vertex AI |
Date de mise à jour des connaissances | Inconnu | 08.2024 |
Open Source | Non | Non |
Tarification d’entrée | $1.10 par million de tokens | $0.10 par million de tokens |
Tarification de sortie | $4.40 par million de tokens | $0.40 par million de tokens |
MMLU | 86.9% pass@1, high effort Source | Non disponible |
MMLU Pro | Non disponible | 79.1% Source |
MMMU | Non disponible | 72.7% Source |
HellaSwag | Non disponible | Non disponible |
HumanEval | Non disponible | Non disponible |
MATH | 97.9% pass@1, high effort Source | 91.8% Source |
GPQA | 79.7% 0-shot, high effort Source | 64.7% Diamond Source |
IFEval | Non disponible | Non disponible |
Application mobile |
Compare AI. Test. Benchmarks. Applications de chatbots mobiles, Sketch
Copyright © 2025 All Right Reserved.