De OpenAI o3-mini is een hoogwaardig, kosteneffectief redeneermodel ontworpen voor STEM-toepassingen, met sterke prestaties in wetenschap, wiskunde en programmeren. Gelanceerd in januari 2025, omvat het essentiële ontwikkelaarsfuncties zoals functie-aanroepen, gestructureerde uitvoer en ontwikkelaarsberichten. Het model biedt drie redeneerinspanningen—laag, medium en hoog—waardoor gebruikers kunnen optimaliseren tussen diepere analyse en snellere reactietijden. In tegenstelling tot het o3-model heeft het geen visuele mogelijkheden. In eerste instantie beschikbaar voor geselecteerde ontwikkelaars in API-gebruiksniveaus 3-5, kan het worden benaderd via de Chat Completions API, Assistants API en Batch API.
OpenAI o4-mini is het nieuwste lichtgewicht model in de o-serie, ontworpen voor efficiënte en capabele redenering over tekst- en visuele taken. Geoptimaliseerd voor snelheid en prestaties, blinkt het uit in codegeneratie en beeldbegrip, terwijl het een balans behoudt tussen latentie en redeneerdiepte. Het model ondersteunt een contextvenster van 200.000 tokens met maximaal 100.000 uitvoertokens, wat het geschikt maakt voor uitgebreide interacties met hoge volumes. Het verwerkt zowel tekst- als beeldinvoer en produceert tekstuele uitvoer met geavanceerde redeneermogelijkheden. Met zijn compacte architectuur en veelzijdige prestaties is o4-mini ideaal voor een breed scala aan real-world toepassingen die snelle en kosteneffectieve intelligentie vereisen.
o3-mini | o4-mini | |
---|---|---|
Aanbieder | ||
Website | ||
Releasedatum | Jan 31, 2025 3 maanden ago | Apr 16, 2025 1 maand ago |
Modaliteiten | tekst | tekst afbeeldingen |
API-Aanbieders | OpenAI API | OpenAI API |
Kennisafsluitdatum | Onbekend | - |
Open Source | Nee | Nee |
Prijzen Invoer | $1.10 per miljoen tokens | $1.10 per miljoen tokens |
Prijzen Uitvoer | $4.40 per miljoen tokens | $4.40 per miljoen tokens |
MMLU | 86.9% pass@1, high effort Bron | fort |
MMLU Pro | Niet beschikbaar | - |
MMMU | Niet beschikbaar | 81.6% Bron |
HellaSwag | Niet beschikbaar | - |
HumanEval | Niet beschikbaar | 14.28% Bron |
MATH | 97.9% pass@1, high effort Bron | - |
GPQA | 79.7% 0-shot, high effort Bron | 81.4% Bron |
IFEval | Niet beschikbaar | - |
Array | - | - |
AIME 2024 | - | 93.4% Bron |
AIME 2025 | - | 92.7% Bron |
Array | - | - |
Array | - | - |
Array | - | - |
Array | - | - |
Mobiele applicatie |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.