Claude 3.7 Sonnet

Claude 3.7 Sonnet to najbardziej zaawansowany model Anthropic i pierwsza hybrydowa AI do rozumowania na rynku. Oferuje zarówno standardowy, jak i rozszerzony tryb myślenia, przy czym ten drugi zapewnia przejrzyste, krok po kroku rozumowanie. Model wyróżnia się w kodowaniu i front-endowym tworzeniu stron internetowych, osiągając najnowocześniejsze wyniki w testach SWE-bench Verified i TAU-bench. Dostępny przez Claude.ai, API Anthropic, Amazon Bedrock i Google Cloud Vertex AI, wyznacza nowy standard inteligentnego rozwiązywania problemów napędzanego AI.

Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, stworzony przez Meta, to wielojęzyczny duży model językowy, specjalnie dostrojony do zadań opartych na instrukcjach i zoptymalizowany pod kątem aplikacji konwersacyjnych. Jest w stanie przetwarzać i generować tekst w wielu językach, a jego okno kontekstowe obsługuje do 128 000 tokenów. Wprowadzony na rynek 6 grudnia 2024 r., model przewyższa wiele otwartoźródłowych i komercyjnych chatbotów w różnych branżowych testach porównawczych. Wykorzystuje Grouped-Query Attention (GQA) w celu poprawy skalowalności i został wytrenowany na zróżnicowanym zbiorze danych obejmującym ponad 15 bilionów tokenów z publicznie dostępnych źródeł. Wiedza modelu jest aktualna do grudnia 2023 r.

Claude 3.7 SonnetLlama 3.3 70B Instruct
Strona internetowa ?
Dostawca ?
Czat ?
Data wydania ?
Modalności ?
tekst ?
obrazy ?
tekst ?
Dostawcy API ?
Claude.ai, Anthropic API, Amazon Bedrock, Google Cloud Vertex AI
Fireworks, Together, DeepInfra, Hyperbolic
Data ostatniej aktualizacji wiedzy ?
-
12.2024
Open Source ?
Nie
Tak
Cena za wejście ?
$3.00 za milion tokenów
$0.23 za milion tokenów
Cena za wyjście ?
$15.00 za milion tokenów
$0.40 za milion tokenów
MMLU ?
Niedostępne
86%
0-shot, CoT
Źródło
MMLU-Pro ?
Niedostępne
68.9%
5-shot, CoT
Źródło
MMMU ?
71.8%
Źródło
Niedostępne
HellaSwag ?
Niedostępne
Niedostępne
HumanEval ?
Niedostępne
88.4%
pass@1
Źródło
MATH ?
82.2%
Źródło
77%
0-shot, CoT
Źródło
GPQA ?
68%
Diamond
Źródło
50.5%
0-shot, CoT
Źródło
IFEval ?
90.8%
Źródło
92.1%
Źródło
SimpleQA ?
-
-
AIME 2024
-
-
AIME 2025
-
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Aplikacja mobilna
-

VideoGameBench ?

Łączny wynik
0%
-
Doom II
0%
-
Dream DX
0%
-
Awakening DX
0%
-
Civilization I
0%
-
Pokemon Crystal
0%
-
The Need for Speed
0%
-
The Incredible Machine
0%
-
Secret Game 1
0%
-
Secret Game 2
0%
-
Secret Game 3
0%
-

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.