Llama 3.3 70B Instructは、Metaによって作成された多言語大規模言語モデルで、指示ベースのタスクに特化してファインチューニングされ、会話アプリケーション向けに最適化されています。128,000トークンまでのコンテキストウィンドウをサポートし、複数の言語でテキストを処理および生成できます。2024年12月6日にリリースされ、さまざまな業界ベンチマークで数多くのオープンソースおよびプロプライエタリチャットモデルを上回ります。スケーラビリティを向上させるためにGrouped-Query Attention(GQA)を利用し、公開されているソースから15兆トークンを超える多様なデータセットでトレーニングされています。モデルの知識は2023年12月まで最新です。
Mistral Large 2は、Mistralによって開発され、128Kトークンのコンテキストウィンドウを提供し、100万入力トークンあたり3.00ドル、100万出力トークンあたり9.00ドルで価格設定されています。2024年7月24日にリリースされ、5-shot評価でMMLUベンチマークで84.0を記録し、多様なタスクで強力なパフォーマンスを発揮します。
Llama 3.3 70B Instruct | Mistral Large 2 | |
---|---|---|
プロバイダー | ||
ウェブサイト | ||
リリース日 | Dec 06, 2024 4 ヶ月 ago | Jun 24, 2024 9 ヶ月 ago |
モダリティ | テキスト | テキスト |
APIプロバイダー | Fireworks, Together, DeepInfra, Hyperbolic | Azure AI, AWS Bedrock, Google AI Studio, Vertex AI, Snowflake Cortex |
知識のカットオフ日 | 12.2024 | 不明 |
オープンソース | はい | はい |
入力料金 | $0.23 100万トークンあたり | $3.00 100万トークンあたり |
出力料金 | $0.40 100万トークンあたり | $9.00 100万トークンあたり |
MMLU | 86% 0-shot, CoT ソース | 84% 5-shot ソース |
MMLU Pro | 68.9% 5-shot, CoT ソース | 50.69% ソース |
MMMU | 利用不可 | 利用不可 |
HellaSwag | 利用不可 | 利用不可 |
HumanEval | 88.4% pass@1 ソース | 利用不可 |
MATH | 77% 0-shot, CoT ソース | 1.13% ソース |
GPQA | 50.5% 0-shot, CoT ソース | 24.94% |
IFEval | 92.1% ソース | 84.01% |
モバイルアプリケーション | - | - |
Compare AI. Test. Benchmarks. モバイルアプリチャットボット, Sketch
Copyright © 2025 All Right Reserved.