Llama 3.3 70B Instruct

„Llama 3.3 70B Instruct“, entwickelt von Meta, ist ein mehrsprachiges großes Sprachmodell, das speziell für auf Anweisungen basierende Aufgaben feinabgestimmt und für Konversationsanwendungen optimiert wurde. Es kann Texte in mehreren Sprachen verarbeiten und generieren, mit einem Kontextfenster, das bis zu 128.000 Token unterstützt. Das Modell wurde am 6. Dezember 2024 veröffentlicht und übertrifft zahlreiche Open-Source- und proprietäre Chatmodelle in verschiedenen Branchenbenchmarks. Es nutzt Grouped-Query Attention (GQA),um die Skalierbarkeit zu verbessern, und wurde mit einem vielfältigen Datensatz trainiert, der über 15 Billionen Token aus öffentlich zugänglichen Quellen umfasst. Das Modellwissen ist auf dem Stand von Dezember 2023.

Mistral Large 2

Mistral Large 2, entwickelt von Mistral, bietet ein Kontextfenster von 128.000 Token und ist zu einem Preis von 3,00 USD pro Million Eingabe-Token und 9,00 USD pro Million Ausgabe-Token erhältlich. Das am 24. Juli 2024 veröffentlichte Modell erzielte im MMLU-Benchmark bei einer 5-Shot-Auswertung eine Punktzahl von 84,0 und zeigt damit eine starke Leistung in verschiedenen Aufgaben.

Llama 3.3 70B InstructMistral Large 2
Anbieter
Webseite
Veröffentlichungsdatum
Dec 06, 2024
4 Monate ago
Jun 24, 2024
9 Monate ago
Modalitäten
Text ?
Text ?
API-Anbieter
Fireworks, Together, DeepInfra, Hyperbolic
Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex
Datum des Wissensstandes
12.2024
Unbekannt
Open Source
Ja
Ja
Preisgestaltung Eingabe
$0.23 pro Million Token
$3.00 pro Million Token
Preisgestaltung Ausgabe
$0.40 pro Million Token
$9.00 pro Million Token
MMLU
86%
0-shot, CoT
Quelle
84%
5-shot
Quelle
MMLU Pro
68.9%
5-shot, CoT
Quelle
50.69%
Quelle
MMMU
Nicht verfügbar
Nicht verfügbar
HellaSwag
Nicht verfügbar
Nicht verfügbar
HumanEval
88.4%
pass@1
Quelle
Nicht verfügbar
MATH
77%
0-shot, CoT
Quelle
1.13%
Quelle
GPQA
50.5%
0-shot, CoT
Quelle
24.94%
IFEval
92.1%
Quelle
84.01%
Mobile Anwendung
-
-

LLMs vergleichen

Kommentar hinzufügen


10%
Unsere Website verwendet Cookies.

Datenschutz und Cookie-Richtlinie: Diese Website verwendet Cookies. Wenn Sie die Seite weiter nutzen, stimmen Sie deren Verwendung zu.