Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, a Meta által létrehozott többnyelvű, nagyméretű nyelvi modell, amelyet kifejezetten utasításalapú feladatokhoz finomhangoltak és beszélgetési alkalmazásokhoz optimalizáltak. Több nyelven képes szöveget feldolgozni és generálni, kontextusablaka akár 128 000 tokenig terjed. A 2024. december 6-án megjelent modell számos nyílt forráskódú és saját fejlesztésű chatbotot felülmúl az iparági benchmarkokban. A skálázhatóság javítása érdekében Grouped-Query Attention (GQA) technológiát alkalmaz, és több mint 15 billió tokenből álló, nyilvánosan elérhető forrásokból származó változatos adathalmazon tanult. A modell tudása 2023. decemberéig aktuális.

Mistral Large 2

A Mistral által fejlesztett Mistral Large 2 128 000 tokenes kontextusablakot kínál, és a bemeneti tokenek milliójáért 3,00 USD, a kimeneti tokenek milliójáért pedig 9,00 USD az ára. A 2024. július 24-én kiadott modell 84,0 pontot ért el az MMLU benchmarkon egy 5-shot értékelés során, amely erős teljesítményt mutatott különböző feladatokban.

Llama 3.3 70B InstructMistral Large 2
Szolgáltató
Weboldal
Kiadási Dátum
Dec 06, 2024
4 hónapok ago
Jun 24, 2024
9 hónapok ago
Modalitások
szöveg ?
szöveg ?
API Szolgáltatók
Fireworks, Together, DeepInfra, Hyperbolic
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Tudás Befejezési Dátuma
12.2024
Ismeretlen
Nyílt Forráskódú
Igen
Igen
Bemeneti Árazás
$0.23 millió tokenenként
$3.00 millió tokenenként
Kimeneti Árazás
$0.40 millió tokenenként
$9.00 millió tokenenként
MMLU
86%
0-shot, CoT
Forrás
84%
5-shot
Forrás
MMLU Pro
68.9%
5-shot, CoT
Forrás
50.69%
Forrás
MMMU
Nem elérhető
Nem elérhető
HellaSwag
Nem elérhető
Nem elérhető
HumanEval
88.4%
pass@1
Forrás
Nem elérhető
MATH
77%
0-shot, CoT
Forrás
1.13%
Forrás
GPQA
50.5%
0-shot, CoT
Forrás
24.94%
IFEval
92.1%
Forrás
84.01%
Mobilalkalmazás
-
-

LLM-ek Összehasonlítása

Hozzászólás Hozzáadása


10%
Webhelyünk sütiket használ

Ez az oldal sütiket használ. A webhely további használatával Ön elfogadja azok használatát.