Llama 4 Scout

LLaMA 4 Scout je model s 17 miliardami parametrů využívající architekturu typu Mixture-of-Experts se 16 aktivními experty, což z něj činí špičkový multimodální model ve své kategorii. Pravidelně překonává konkurenty jako Gemma 3, Gemini 2.0 Flash-Lite a Mistral 3.1 v různých benchmarkových úlohách. Navzdory svému výkonu je LLaMA 4 Scout mimořádně efektivní — dokáže běžet na jediné GPU NVIDIA H100 s kvantizací Int4. Nabízí také špičkové 10milionové kontextové okno a je nativně multimodální, což mu umožňuje bezproblémově zpracovávat text, obrázky i video pro pokročilé aplikace v reálném světě.

Llama 3.1 Nemotron 70B Instruct

NVIDIA Llama 3.1 Nemotron 70B je výkonný jazykový model optimalizovaný pro poskytování přesných a informativních odpovědí. Postavený na architektuře Llama 3.1 70B a vylepšený pomocí učení s posilováním na základě lidské zpětné vazby (RLHF),dosahuje špičkových výsledků v benchmarkech automatického zarovnání. Navržený pro aplikace vyžadující vysokou přesnost při generování odpovědí a užitečnost je tento model vhodný pro širokou škálu uživatelských dotazů napříč různými doménami.

Llama 4 ScoutLlama 3.1 Nemotron 70B Instruct
Poskytovatel
Webová stránka
Datum vydání
Apr 05, 2025
2 týdny ago
Oct 15, 2023
1 rok ago
Modality
text ?
obrázky ?
video ?
text ?
Poskytovatelé API
Meta AI, Hugging Face, Fireworks, Together, DeepInfra
OpenRouter
Datum uzávěrky znalostí
2025-04
-
Open Source
Ano (Zdroj)
Ano
Cena za vstup
Není k dispozici
$0.35 na milion tokenů
Cena za výstup
Není k dispozici
$0.40 na milion tokenů
MMLU
Není k dispozici
85%
5-shot
Zdroj
MMLU Pro
74.3%
Reasoning & Knowledge
Zdroj
Není k dispozici
MMMU
69.4%
Image Reasoning
Zdroj
Není k dispozici
HellaSwag
Není k dispozici
Není k dispozici
HumanEval
Není k dispozici
75%
Zdroj
MATH
Není k dispozici
71%
Zdroj
GPQA
57.2%
Diamond
Zdroj
Není k dispozici
IFEval
Není k dispozici
Není k dispozici
Mobilní aplikace
-
-

Porovnat LLM

Přidat komentář


10%
Naše stránky používají soubory cookie.

Zásady ochrany osobních údajů a souborů cookie: Tento web používá soubory cookie. Dalším používáním webu souhlasíte s jejich používáním.