DeepSeek-R1

DeepSeek-R1 is een Mixture-of-Experts (MoE)-model met 671B parameters en 37B geactiveerde parameters per token, getraind via grootschalige reinforcement learning met een focus op redeneervaardigheden. Het omvat twee RL-fasen voor het ontdekken van verbeterde redeneerpatronen en afstemming op menselijke voorkeuren, evenals twee SFT-fasen voor het ontwikkelen van redeneer- en niet-redeneervaardigheden. Het model bereikt prestaties die vergelijkbaar zijn met OpenAI-o1 op het gebied van wiskunde, code en redeneertaken.

Qwen2.5-VL-32B

In de afgelopen vijf maanden sinds de release van Qwen2-VL hebben ontwikkelaars nieuwe modellen op basis hiervan gebouwd en waardevolle feedback geleverd. Nu introduceert Qwen2.5-VL verbeterde mogelijkheden, waaronder nauwkeurige analyse van afbeeldingen, tekst en grafieken, evenals objectlokalisatie met gestructureerde JSON-uitvoer. Het model begrijpt lange video's, identificeert belangrijke gebeurtenissen en functioneert als een agent die tools op computers en telefoons bedient. De architectuur van het model bevat dynamische videoprocessing en een geoptimaliseerde ViT-encoder voor verbeterde snelheid en nauwkeurigheid.

DeepSeek-R1Qwen2.5-VL-32B
Aanbieder
Website
Releasedatum
Jan 21, 2025
3 maanden ago
Mar 25, 2025
4 weken ago
Modaliteiten
tekst ?
tekst ?
afbeeldingen ?
video ?
API-Aanbieders
DeepSeek, HuggingFace
-
Kennisafsluitdatum
Onbekend
Onbekend
Open Source
Ja
Ja (Bron)
Prijzen Invoer
$0.55 per miljoen tokens
$0
Prijzen Uitvoer
$2.19 per miljoen tokens
$0
MMLU
90.8%
Pass@1
Bron
78.4%
Bron
MMLU Pro
84%
EM
Bron
49.5%
MMMU
-
70%
HellaSwag
-
Niet beschikbaar
HumanEval
-
Niet beschikbaar
MATH
-
82.2%
GPQA
71.5%
Pass@1
Bron
46.0%
Diamond
IFEval
83.3%
Prompt Strict
Bron
Niet beschikbaar
Mobiele applicatie
-

Vergelijk LLMs

Voeg een reactie toe


10%
Onze site gebruikt cookies.

Privacy- en cookiebeleid: Deze site maakt gebruik van cookies. Door de site te blijven gebruiken, gaat u akkoord met het gebruik ervan.