o3-mini

OpenAI o3-mini to szybki i ekonomiczny model rozumowania zaprojektowany do zastosowań STEM, zapewniający wysoką wydajność w nauce, matematyce i programowaniu. Wprowadzony na rynek w styczniu 2025 roku, zawiera kluczowe funkcje dla programistów, takie jak wywoływanie funkcji, strukturalne wyjścia i wiadomości dla deweloperów. Model oferuje trzy poziomy intensywności rozumowania—niski, średni i wysoki—umożliwiając użytkownikom optymalizację między głębszą analizą a szybszym czasem odpowiedzi. W przeciwieństwie do modelu o3, nie posiada zdolności wizualnych. Początkowo dostępny dla wybranych programistów na poziomach API 3-5, można go używać poprzez Chat Completions API, Assistants API i Batch API.

Claude 3.7 Sonnet

Claude 3.7 Sonnet to najbardziej zaawansowany model Anthropic i pierwsza hybrydowa AI do rozumowania na rynku. Oferuje zarówno standardowy, jak i rozszerzony tryb myślenia, przy czym ten drugi zapewnia przejrzyste, krok po kroku rozumowanie. Model wyróżnia się w kodowaniu i front-endowym tworzeniu stron internetowych, osiągając najnowocześniejsze wyniki w testach SWE-bench Verified i TAU-bench. Dostępny przez Claude.ai, API Anthropic, Amazon Bedrock i Google Cloud Vertex AI, wyznacza nowy standard inteligentnego rozwiązywania problemów napędzanego AI.

o3-miniClaude 3.7 Sonnet
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
tekst ?
obrazy ?
Dostawcy API ?
OpenAI API
Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
Data ostatniej aktualizacji wiedzy ?
Nieznane
-
Open Source ?
Nie
Nie
Cena za wejście ?
$1.10 za milion tokenów
$3.00 za milion tokenów
Cena za wyjście ?
$4.40 za milion tokenów
$15.00 za milion tokenów
MMLU ?
86.9%
pass@1, high effort
Źródło
Niedostępne
MMLU-Pro ?
Niedostępne
Niedostępne
MMMU ?
Niedostępne
71.8%
Źródło
HellaSwag ?
Niedostępne
Niedostępne
HumanEval ?
Niedostępne
Niedostępne
MATH ?
97.9%
pass@1, high effort
Źródło
82.2%
Źródło
GPQA ?
79.7%
0-shot, high effort
Źródło
68%
Diamond
Źródło
IFEval ?
Niedostępne
90.8%
Źródło
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Aplikacja mobilna

VideoGameBench ?

Łączny wynik
-
0%
Doom II
-
0%
Dream DX
-
0%
Awakening DX
-
0%
Civilization I
-
0%
Pokemon Crystal
-
0%
The Need for Speed
-
0%
The Incredible Machine
-
0%
Secret Game 1
-
0%
Secret Game 2
-
0%
Secret Game 3
-
0%

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.