DeepSeek-R1

DeepSeek-R1 to model typu Mixture-of-Experts (MoE) o 671B parametrach, z 37B aktywowanymi parametrami na token, szkolony za pomocą szeroko zakrojonego uczenia ze wzmocnieniem z naciskiem na zdolności rozumowania. Model ten obejmuje dwa etapy RL w celu odkrywania ulepszonych wzorców rozumowania i dostosowania do preferencji ludzkich, a także dwa etapy SFT do rozwijania zdolności rozumowania i innych umiejętności. Model osiąga wydajność porównywalną z OpenAI-o1 w zadaniach matematycznych, programistycznych i związanych z rozumowaniem.

Gemini 2.0 Flash Thinking

Gemini 2.0 Flash Thinking to zaawansowany model rozumowania zaprojektowany w celu zwiększenia wydajności i przejrzystości poprzez uwidocznienie swojego procesu myślowego. Doskonale radzi sobie z rozwiązywaniem złożonych problemów, wyzwaniami programistycznymi i rozumowaniem matematycznym, prezentując rozwiązania krok po kroku. Model jest zoptymalizowany pod kątem zadań wymagających szczegółowych wyjaśnień i analizy logicznej, a także posiada natywną integrację narzędzi, w tym wykonywanie kodu i funkcje wyszukiwania Google.

DeepSeek-R1Gemini 2.0 Flash Thinking
Dostawca
Strona internetowa
Data wydania
Jan 21, 2025
3 miesiące ago
Dec 19, 2024
4 miesiące ago
Modalności
tekst ?
tekst ?
obrazy ?
Dostawcy API
DeepSeek, HuggingFace
Google AI Studio, Vertex AI, Gemini API
Data ostatniej aktualizacji wiedzy
Nieznane
04.2024
Open Source
Tak
Nie
Cena za wejście
$0.55 za milion tokenów
Niedostępne
Cena za wyjście
$2.19 za milion tokenów
Niedostępne
MMLU
90.8%
Pass@1
Źródło
Niedostępne
MMLU Pro
84%
EM
Źródło
Niedostępne
MMMU
-
75.4%
Źródło
HellaSwag
-
Niedostępne
HumanEval
-
Niedostępne
MATH
-
Niedostępne
GPQA
71.5%
Pass@1
Źródło
74.2%
Diamond Science
Źródło
IFEval
83.3%
Prompt Strict
Źródło
Niedostępne
Aplikacja mobilna

Porównaj LLM

Dodaj komentarz


10%
Polityka prywatności i ciasteczka

Używamy plików cookies, by ułatwić korzystanie z naszych serwisów. Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku, zmień ustawienia swojej przeglądarki.