o3

OpenAI o3 is het meest geavanceerde redeneermodel van OpenAI, speciaal gebouwd voor het afhandelen van complexe, hoogcognitieve taken. Gelanceerd in april 2025, levert het uitstekende prestaties in software-engineering, wiskunde en wetenschappelijk probleemoplossen. Het model introduceert drie niveaus van redeneerinspanning - laag, medium en hoog - waardoor gebruikers latentie en redeneerdiepte kunnen afstemmen op basis van taakcomplexiteit. o3 ondersteunt essentiële tools voor ontwikkelaars, inclusief functieaanroepen, gestructureerde uitvoer en systeemberichten. Met ingebouwde visuele mogelijkheden kan o3 afbeeldingen interpreteren en analyseren, waardoor het geschikt is voor multimodale toepassingen. Het is beschikbaar via Chat Completions API, Assistants API en Batch API voor flexibele integratie in bedrijfs- en onderzoeksworkflows.

Llama 3.3 70B Instruct

Llama 3.3 70B Instruct, ontwikkeld door Meta, is een meertalig groot taalmodel dat specifiek is afgestemd op instructiegebaseerde taken en geoptimaliseerd voor conversatietoepassingen. Het kan tekst in meerdere talen verwerken en genereren, met een contextvenster dat tot 128.000 tokens ondersteunt. Gelanceerd op 6 december 2024, overtreft het model talrijke open-source en propriëtaire chatmodellen in verschillende branchebenchmarks. Het maakt gebruik van Grouped-Query Attention (GQA) om de schaalbaarheid te verbeteren en is getraind op een diverse dataset van meer dan 15 biljoen tokens uit openbaar beschikbare bronnen. De kennis van het model is actueel tot december 2023.

o3Llama 3.3 70B Instruct
Website ?
Aanbieder ?
Chat ?
Releasedatum ?
Modaliteiten ?
tekst ?
afbeeldingen ?
tekst ?
API-Aanbieders ?
OpenAI API
Fireworks, Together, DeepInfra, Hyperbolic
Kennisafsluitdatum ?
-
12.2024
Open Source ?
Nee
Ja
Prijzen Invoer ?
$10.00 per miljoen tokens
$0.23 per miljoen tokens
Prijzen Uitvoer ?
$40.00 per miljoen tokens
$0.40 per miljoen tokens
MMLU ?
82.9%
Bron
86%
0-shot, CoT
Bron
MMLU-Pro ?
-
68.9%
5-shot, CoT
Bron
MMMU ?
-
Niet beschikbaar
HellaSwag ?
-
Niet beschikbaar
HumanEval ?
-
88.4%
pass@1
Bron
MATH ?
-
77%
0-shot, CoT
Bron
GPQA ?
83.3%
Diamond, no tools
Bron
50.5%
0-shot, CoT
Bron
IFEval ?
-
92.1%
Bron
SimpleQA ?
-
-
AIME 2024
91.6%
Bron
-
AIME 2025
88.9%
Bron
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobiele applicatie
-

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.