Gemini 2.5 Pro is het meest geavanceerde AI-model van Google, ontworpen voor diepgaande redenering en doordachte responsgeneratie. Het presteert beter op belangrijke benchmarks en toont uitzonderlijke logica en programmeervaardigheden. Geoptimaliseerd voor de ontwikkeling van dynamische webapplicaties, autonome codesystemen en codeaanpassing, levert het model topprestaties. Met ingebouwde multimodale mogelijkheden en een uitgebreid contextvenster verwerkt het efficiënt grote datasets en integreert het diverse informatiebronnen om complexe uitdagingen aan te pakken.
OpenAI o4-mini is het nieuwste lichtgewicht model in de o-serie, ontworpen voor efficiënte en capabele redenering over tekst- en visuele taken. Geoptimaliseerd voor snelheid en prestaties, blinkt het uit in codegeneratie en beeldbegrip, terwijl het een balans behoudt tussen latentie en redeneerdiepte. Het model ondersteunt een contextvenster van 200.000 tokens met maximaal 100.000 uitvoertokens, wat het geschikt maakt voor uitgebreide interacties met hoge volumes. Het verwerkt zowel tekst- als beeldinvoer en produceert tekstuele uitvoer met geavanceerde redeneermogelijkheden. Met zijn compacte architectuur en veelzijdige prestaties is o4-mini ideaal voor een breed scala aan real-world toepassingen die snelle en kosteneffectieve intelligentie vereisen.
Gemini 2.5 Pro | o4-mini | |
---|---|---|
Website
| ||
Aanbieder
| ||
Chat
| ||
Releasedatum
| ||
Modaliteiten
| tekst afbeeldingen spraak video | tekst afbeeldingen |
API-Aanbieders
| Google AI Studio, Vertex AI, Gemini app | OpenAI API |
Kennisafsluitdatum
| - | - |
Open Source
| Nee | Nee |
Prijzen Invoer
| Niet beschikbaar | $1.10 per miljoen tokens |
Prijzen Uitvoer
| Niet beschikbaar | $4.40 per miljoen tokens |
MMLU
| Niet beschikbaar | fort |
MMLU-Pro
| Niet beschikbaar | - |
MMMU
| 81.7% Bron | 81.6% Bron |
HellaSwag
| Niet beschikbaar | - |
HumanEval
| Niet beschikbaar | 14.28% Bron |
MATH
| Niet beschikbaar | - |
GPQA
| 84.0% Diamond Science Bron | 81.4% Bron |
IFEval
| Niet beschikbaar | - |
SimpleQA
| 52.9% | - |
AIME 2024 | 92.0% | 93.4% Bron |
AIME 2025 | 86.7% | 92.7% Bron |
Aider Polyglot
| 74.0% / 68.6% | - |
LiveCodeBench v5
| 70.4% | - |
Global MMLU (Lite)
| 89.8% | - |
MathVista
| - | - |
Mobiele applicatie | ||
VideoGameBench | ||
Totale score | 0.48% | - |
Doom II | 0% | - |
Dream DX | 4.8% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | 0% | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.