OpenAI o4-mini je nejnovější odlehčený model v řadě o-series, navržený pro efektivní a schopné uvažování napříč textovými a vizuálními úlohami. Optimalizovaný pro rychlost a výkon vyniká v generování kódu a porozumění založeném na obrazech, při zachování rovnováhy mezi latencí a hloubkou uvažování. Model podporuje kontextové okno o velikosti 200 000 tokenů s až 100 000 výstupními tokeny, což jej činí vhodným pro rozsáhlé interakce. Zvládá jak textové, tak obrazové vstupy a produkuje textové výstupy s pokročilými schopnostmi uvažování. Díky své kompaktní architektuře a všestrannému výkonu je o4-mini ideální pro širokou škálu reálných aplikací vyžadujících rychlou a nákladově efektivní inteligenci.
„Llama 3.3 70B Instruct“, vytvořený společností Meta, je vícejazyčný velký jazykový model speciálně vyladěný pro úlohy založené na instrukcích a optimalizovaný pro konverzační aplikace. Je schopen zpracovávat a generovat text v několika jazycích s kontextovým oknem podporujícím až 128 000 tokenů. Uvedený na trh 6. prosince 2024, model překonává řadu open-source i proprietárních chatbotů v různých průmyslových srovnávacích testech. Využívá Grouped-Query Attention (GQA) ke zlepšení škálovatelnosti a byl natrénován na různorodé množině dat obsahující více než 15 bilionů tokenů z veřejně dostupných zdrojů. Znalosti modelu jsou aktuální k prosinci 2023.
o4-mini | Llama 3.3 70B Instruct | |
---|---|---|
Webová stránka
| ||
Poskytovatel
| ||
Chat
| ||
Datum vydání
| ||
Modality
| text obrázky | text |
Poskytovatelé API
| OpenAI API | Fireworks, Together, DeepInfra, Hyperbolic |
Datum uzávěrky znalostí
| - | 12.2024 |
Open Source
| Ne | Ano |
Cena za vstup
| $1.10 na milion tokenů | $0.23 na milion tokenů |
Cena za výstup
| $4.40 na milion tokenů | $0.40 na milion tokenů |
MMLU
| fort | 86% 0-shot, CoT Zdroj |
MMLU-Pro
| - | 68.9% 5-shot, CoT Zdroj |
MMMU
| 81.6% Zdroj | Není k dispozici |
HellaSwag
| - | Není k dispozici |
HumanEval
| 14.28% Zdroj | 88.4% pass@1 Zdroj |
MATH
| - | 77% 0-shot, CoT Zdroj |
GPQA
| 81.4% Zdroj | 50.5% 0-shot, CoT Zdroj |
IFEval
| - | 92.1% Zdroj |
SimpleQA
| - | - |
AIME 2024 | 93.4% Zdroj | - |
AIME 2025 | 92.7% Zdroj | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobilní aplikace | - |
Compare AI. Test. Benchmarks. Mobilní chatboty, Sketch
Copyright © 2025 All Right Reserved.