De OpenAI o3-mini is een hoogwaardig, kosteneffectief redeneermodel ontworpen voor STEM-toepassingen, met sterke prestaties in wetenschap, wiskunde en programmeren. Gelanceerd in januari 2025, omvat het essentiële ontwikkelaarsfuncties zoals functie-aanroepen, gestructureerde uitvoer en ontwikkelaarsberichten. Het model biedt drie redeneerinspanningen—laag, medium en hoog—waardoor gebruikers kunnen optimaliseren tussen diepere analyse en snellere reactietijden. In tegenstelling tot het o3-model heeft het geen visuele mogelijkheden. In eerste instantie beschikbaar voor geselecteerde ontwikkelaars in API-gebruiksniveaus 3-5, kan het worden benaderd via de Chat Completions API, Assistants API en Batch API.
GPT-4.1, gelanceerd door OpenAI op 14 april 2025, introduceert een contextvenster van 1 miljoen tokens en ondersteunt uitvoer van maximaal 32.768 tokens per verzoek. Het levert uitstekende prestaties bij codeertaken, behaalt 54,6% op de SWE-Bench Verified-benchmark en toont een verbetering van 10,5% ten opzichte van GPT-4o op MultiChallenge voor het opvolgen van instructies. De kennis van het model is bijgewerkt tot juni 2024. De prijs is $2,00 per miljoen tokens voor invoer en $8,00 per miljoen tokens voor uitvoer, met een korting van 75% op gecachete invoer, wat het zeer kostenefficiënt maakt voor herhaalde queries.
o3-mini | GPT-4.1 | |
---|---|---|
Website
| ||
Aanbieder
| ||
Chat
| ||
Releasedatum
| ||
Modaliteiten
| tekst | tekst afbeeldingen |
API-Aanbieders
| OpenAI API | OpenAI API |
Kennisafsluitdatum
| Onbekend | - |
Open Source
| Nee | Nee |
Prijzen Invoer
| $1.10 per miljoen tokens | $2.00 per miljoen tokens |
Prijzen Uitvoer
| $4.40 per miljoen tokens | $8.00 per miljoen tokens |
MMLU
| 86.9% pass@1, high effort Bron | 90.2% pass@1 Bron |
MMLU-Pro
| Niet beschikbaar | - |
MMMU
| Niet beschikbaar | 74.8% Bron |
HellaSwag
| Niet beschikbaar | - |
HumanEval
| Niet beschikbaar | - |
MATH
| 97.9% pass@1, high effort Bron | - |
GPQA
| 79.7% 0-shot, high effort Bron | 66.3% Diamond Bron |
IFEval
| Niet beschikbaar | - |
SimpleQA
| - | - |
AIME 2024 | - | 48.1% Bron |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | 87.3% pass@1 Bron |
MathVista
| - | - |
Mobiele applicatie |
Compare AI. Test. Benchmarks. Mobiele Chatbot-apps, Sketch
Copyright © 2025 All Right Reserved.