LLaMA 4 Maverick, 17 milyar aktif parametreye sahip olup, 128 uzman içeren Mixture-of-Experts mimarisiyle toplamda 400 milyar parametre barındıran son teknoloji bir çok modlu modeldir. GPT-4o ve Gemini 2.0 Flash gibi modelleri birçok ölçütte geride bırakarak sınıfında lider konuma gelmiştir ve akıl yürütme ile kodlama görevlerinde DeepSeek V3 ile eşleşirken, bunu yarısından daha az aktif parametre kullanarak başarmaktadır. Verimlilik ve ölçeklenebilirlik için tasarlanan Maverick, en iyi performans-maliyet oranını sunarak, deneysel sohbet varyantı LMArena'da 1417 ELO puanı elde etmiştir. Ölçeğine rağmen, tek bir NVIDIA H100 ana sunucusunda çalışarak basit ve pratik bir dağıtım sağlamaktadır.
Meta tarafından geliştirilen Llama 3.3 70B Instruct, özellikle talimat temelli görevler için ince ayar yapılmış çok dilli büyük bir dil modelidir ve sohbet uygulamaları için optimize edilmiştir. 128.000 token’a kadar destekleyen bir bağlam penceresiyle birçok dili işleyip üretebilir. 6 Aralık 2024’te piyasaya sürülen model, çeşitli sektör kıyaslamalarında birçok açık kaynaklı ve özel sohbet modelini geride bırakmıştır. Ölçeklenebilirliği artırmak için Grup Sorgu Dikkati (GQA) kullanır ve 15 trilyon token’dan fazla halka açık verilerden oluşan çeşitli bir veri kümesiyle eğitilmiştir. Modelin bilgi kapsamı Aralık 2023’e kadardır.
Llama 4 Maverick | Llama 3.3 70B Instruct | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller video | metin |
API Sağlayıcıları
| Meta AI, Hugging Face, Fireworks, Together, DeepInfra | Fireworks, Together, DeepInfra, Hyperbolic |
Bilgi Kesim Tarihi
| 2024-08 | 12.2024 |
Açık Kaynak
| Evet (Kaynak) | Evet |
Fiyatlandırma Girdisi
| Mevcut değil | $0.23 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $0.40 milyon belirteç başına |
MMLU
| Mevcut değil | 86% 0-shot, CoT Kaynak |
MMLU-Pro
| 80.5% Kaynak | 68.9% 5-shot, CoT Kaynak |
MMMU
| 73.4% Kaynak | Mevcut değil |
HellaSwag
| Mevcut değil | Mevcut değil |
HumanEval
| Mevcut değil | 88.4% pass@1 Kaynak |
MATH
| Mevcut değil | 77% 0-shot, CoT Kaynak |
GPQA
| 69.8% Diamond Kaynak | 50.5% 0-shot, CoT Kaynak |
IFEval
| Mevcut değil | 92.1% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - | - |
VideoGameBench | ||
Toplam puan | 0% | - |
Doom II | 0% | - |
Dream DX | 0% | - |
Awakening DX | 0% | - |
Civilization I | 0% | - |
Pokemon Crystal | 0% | - |
The Need for Speed | 0% | - |
The Incredible Machine | 0% | - |
Secret Game 1 | %0 | - |
Secret Game 2 | 0% | - |
Secret Game 3 | 0% | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.