o3

OpenAI o3 to najbardziej zaawansowany model rozumowania od OpenAI, stworzony specjalnie do obsługi złożonych zadań wymagających wysokiej sprawności poznawczej. Wprowadzony w kwietniu 2025 roku, zapewnia wyjątkową wydajność w inżynierii oprogramowania, matematyce i rozwiązywaniu problemów naukowych. Model wprowadza trzy poziomy wysiłku rozumowania — niski, średni i wysoki — pozwalając użytkownikom zrównoważyć opóźnienie i głębię rozumowania w zależności od złożoności zadania. o3 obsługuje niezbędne narzędzia dla deweloperów, w tym wywoływanie funkcji, strukturalne wyniki i komunikaty na poziomie systemu. Dzięki wbudowanym możliwościom wizyjnym o3 może interpretować i analizować obrazy, co czyni go odpowiednim do zastosowań multimodalnych. Jest dostępny przez Chat Completions API, Assistants API i Batch API, umożliwiając elastyczną integrację z przepływami pracy przedsiębiorstw i badań.

GPT-4.1

GPT-4.1, wprowadzony przez OpenAI 14 kwietnia 2025 roku, oferuje okno kontekstu o rozmiarze 1 miliona tokenów i obsługuje do 32 768 tokenów na żądanie. Wyróżnia się doskonałą wydajnością w zadaniach programistycznych, osiągając 54,6% w benchmarku SWE-Bench Verified i wykazując 10,5% poprawę względem GPT-4o w MultiChallenge pod względem wykonywania instrukcji. Dane modelu są aktualne do czerwca 2024. Cena wynosi 2,00 $ za milion tokenów wejściowych i 8,00 $ za milion tokenów wyjściowych, z 75% zniżką dla buforowanych danych wejściowych, co czyni go wysoce opłacalnym dla powtarzających się zapytań.

o3GPT-4.1
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
obrazy ?
tekst ?
obrazy ?
Dostawcy API ?
OpenAI API
OpenAI API
Data ostatniej aktualizacji wiedzy ?
-
-
Open Source ?
Nie
Nie
Cena za wejście ?
$10.00 za milion tokenów
$2.00 za milion tokenów
Cena za wyjście ?
$40.00 za milion tokenów
$8.00 za milion tokenów
MMLU ?
82.9%
Źródło
90.2%
pass@1
Źródło
MMLU-Pro ?
-
-
MMMU ?
-
74.8%
Źródło
HellaSwag ?
-
-
HumanEval ?
-
-
MATH ?
-
-
GPQA ?
83.3%
Diamond, no tools
Źródło
66.3%
Diamond
Źródło
IFEval ?
-
-
SimpleQA ?
-
-
AIME 2024
91.6%
Źródło
48.1%
Źródło
AIME 2025
88.9%
Źródło
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
87.3%
pass@1
Źródło
MathVista ?
-
-
Aplikacja mobilna

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.