DeepSeek-R1

DeepSeek-R1 to model typu Mixture-of-Experts (MoE) o 671B parametrach, z 37B aktywowanymi parametrami na token, szkolony za pomocą szeroko zakrojonego uczenia ze wzmocnieniem z naciskiem na zdolności rozumowania. Model ten obejmuje dwa etapy RL w celu odkrywania ulepszonych wzorców rozumowania i dostosowania do preferencji ludzkich, a także dwa etapy SFT do rozwijania zdolności rozumowania i innych umiejętności. Model osiąga wydajność porównywalną z OpenAI-o1 w zadaniach matematycznych, programistycznych i związanych z rozumowaniem.

Llama 3.1 Nemotron 70B Instruct

Llama 3.1 Nemotron 70B firmy NVIDIA to potężny model językowy zoptymalizowany do dostarczania dokładnych i informacyjnych odpowiedzi. Zbudowany na architekturze Llama 3.1 70B i ulepszony dzięki uczeniu przez wzmacnianie z ludzkimi opiniami (RLHF),osiąga najlepsze wyniki w benchmarkach automatycznego dostosowania. Zaprojektowany dla aplikacji wymagających wysokiej precyzji w generowaniu odpowiedzi i użyteczności, ten model jest idealny dla szerokiego zakresu zapytań użytkowników w wielu dziedzinach.

DeepSeek-R1Llama 3.1 Nemotron 70B Instruct
Dostawca
Strona internetowa
Data wydania
Jan 21, 2025
3 miesiące ago
Oct 15, 2023
1 rok ago
Modalności
tekst ?
tekst ?
Dostawcy API
DeepSeek, HuggingFace
OpenRouter
Data ostatniej aktualizacji wiedzy
Nieznane
-
Open Source
Tak
Tak
Cena za wejście
$0.55 za milion tokenów
$0.35 za milion tokenów
Cena za wyjście
$2.19 za milion tokenów
$0.40 za milion tokenów
MMLU
90.8%
Pass@1
Źródło
85%
5-shot
Źródło
MMLU Pro
84%
EM
Źródło
Niedostępne
MMMU
-
Niedostępne
HellaSwag
-
Niedostępne
HumanEval
-
75%
Źródło
MATH
-
71%
Źródło
GPQA
71.5%
Pass@1
Źródło
Niedostępne
IFEval
83.3%
Prompt Strict
Źródło
Niedostępne
Aplikacja mobilna
-

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.