o3

OpenAI o3 to najbardziej zaawansowany model rozumowania od OpenAI, stworzony specjalnie do obsługi złożonych zadań wymagających wysokiej sprawności poznawczej. Wprowadzony w kwietniu 2025 roku, zapewnia wyjątkową wydajność w inżynierii oprogramowania, matematyce i rozwiązywaniu problemów naukowych. Model wprowadza trzy poziomy wysiłku rozumowania — niski, średni i wysoki — pozwalając użytkownikom zrównoważyć opóźnienie i głębię rozumowania w zależności od złożoności zadania. o3 obsługuje niezbędne narzędzia dla deweloperów, w tym wywoływanie funkcji, strukturalne wyniki i komunikaty na poziomie systemu. Dzięki wbudowanym możliwościom wizyjnym o3 może interpretować i analizować obrazy, co czyni go odpowiednim do zastosowań multimodalnych. Jest dostępny przez Chat Completions API, Assistants API i Batch API, umożliwiając elastyczną integrację z przepływami pracy przedsiębiorstw i badań.

Claude 3.7 Sonnet

Claude 3.7 Sonnet to najbardziej zaawansowany model Anthropic i pierwsza hybrydowa AI do rozumowania na rynku. Oferuje zarówno standardowy, jak i rozszerzony tryb myślenia, przy czym ten drugi zapewnia przejrzyste, krok po kroku rozumowanie. Model wyróżnia się w kodowaniu i front-endowym tworzeniu stron internetowych, osiągając najnowocześniejsze wyniki w testach SWE-bench Verified i TAU-bench. Dostępny przez Claude.ai, API Anthropic, Amazon Bedrock i Google Cloud Vertex AI, wyznacza nowy standard inteligentnego rozwiązywania problemów napędzanego AI.

o3Claude 3.7 Sonnet
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
obrazy ?
tekst ?
obrazy ?
Dostawcy API ?
OpenAI API
Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
Data ostatniej aktualizacji wiedzy ?
-
-
Open Source ?
Nie
Nie
Cena za wejście ?
$10.00 za milion tokenów
$3.00 za milion tokenów
Cena za wyjście ?
$40.00 za milion tokenów
$15.00 za milion tokenów
MMLU ?
82.9%
Źródło
Niedostępne
MMLU-Pro ?
-
Niedostępne
MMMU ?
-
71.8%
Źródło
HellaSwag ?
-
Niedostępne
HumanEval ?
-
Niedostępne
MATH ?
-
82.2%
Źródło
GPQA ?
83.3%
Diamond, no tools
Źródło
68%
Diamond
Źródło
IFEval ?
-
90.8%
Źródło
SimpleQA ?
-
-
AIME 2024
91.6%
Źródło
-
AIME 2025
88.9%
Źródło
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Aplikacja mobilna

VideoGameBench ?

Łączny wynik
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
0%
Secret Game 2
-
0%
Secret Game 3
-
0%

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.