o4-mini

OpenAI o4-mini to najnowszy lekki model w serii o, zaprojektowany do wydajnego i skutecznego rozumowania w zadaniach tekstowych i wizualnych. Zoptymalizowany pod kątem szybkości i wydajności, wyróżnia się generowaniem kodu i zrozumieniem opartym na obrazach, zachowując równowagę między opóźnieniem a głębią rozumowania. Model obsługuje okno kontekstu o wielkości 200 000 tokenów z maksymalnie 100 000 tokenów wyjściowych, co czyni go odpowiednim do rozbudowanych interakcji o dużej objętości. Przetwarza zarówno dane tekstowe, jak i obrazowe, generując tekstowe wyniki z zaawansowanymi możliwościami rozumowania. Dzięki kompaktowej architekturze i wszechstronnej wydajności o4-mini jest idealny do szerokiego zakresu rzeczywistych zastosowań wymagających szybkiej i opłacalnej inteligencji.

GPT-4.1

GPT-4.1, wprowadzony przez OpenAI 14 kwietnia 2025 roku, oferuje okno kontekstu o rozmiarze 1 miliona tokenów i obsługuje do 32 768 tokenów na żądanie. Wyróżnia się doskonałą wydajnością w zadaniach programistycznych, osiągając 54,6% w benchmarku SWE-Bench Verified i wykazując 10,5% poprawę względem GPT-4o w MultiChallenge pod względem wykonywania instrukcji. Dane modelu są aktualne do czerwca 2024. Cena wynosi 2,00 $ za milion tokenów wejściowych i 8,00 $ za milion tokenów wyjściowych, z 75% zniżką dla buforowanych danych wejściowych, co czyni go wysoce opłacalnym dla powtarzających się zapytań.

o4-miniGPT-4.1
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
obrazy ?
tekst ?
obrazy ?
Dostawcy API ?
OpenAI API
OpenAI API
Data ostatniej aktualizacji wiedzy ?
-
-
Open Source ?
Nie
Nie
Cena za wejście ?
$1.10 za milion tokenów
$2.00 za milion tokenów
Cena za wyjście ?
$4.40 za milion tokenów
$8.00 za milion tokenów
MMLU ?
fort
90.2%
pass@1
Źródło
MMLU-Pro ?
-
-
MMMU ?
81.6%
Źródło
74.8%
Źródło
HellaSwag ?
-
-
HumanEval ?
14.28%
Źródło
-
MATH ?
-
-
GPQA ?
81.4%
Źródło
66.3%
Diamond
Źródło
IFEval ?
-
-
SimpleQA ?
-
-
AIME 2024
93.4%
Źródło
48.1%
Źródło
AIME 2025
92.7%
Źródło
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
87.3%
pass@1
Źródło
MathVista ?
-
-
Aplikacja mobilna

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.