OpenAI o4-mini, o-serisinin en yeni hafif modeli olup, metin ve görsel görevlerde verimli ve yetenekli akıl yürütme için tasarlanmıştır. Hız ve performans açısından optimize edilmiş olup, kod üretimi ve görsel tabanlı anlayışta üstün başarı gösterirken gecikme süresi ile akıl yürütme derinliği arasında dengeli bir yapı sunar. Model, 200.000 token bağlam penceresini ve 100.000'e kadar çıktı token desteğini sağlayarak uzun ve yüksek hacimli etkileşimler için uygundur. Hem metin hem de görsel girdileri işleyerek gelişmiş akıl yürütme yetenekleriyle metinsel çıktılar üretir. Kompakt mimarisi ve çok yönlü performansı ile o4-mini, hızlı ve maliyet açısından verimli zekâ gerektiren geniş çaplı gerçek dünya uygulamaları için idealdir.
Meta tarafından geliştirilen Llama 3.3 70B Instruct, özellikle talimat temelli görevler için ince ayar yapılmış çok dilli büyük bir dil modelidir ve sohbet uygulamaları için optimize edilmiştir. 128.000 token’a kadar destekleyen bir bağlam penceresiyle birçok dili işleyip üretebilir. 6 Aralık 2024’te piyasaya sürülen model, çeşitli sektör kıyaslamalarında birçok açık kaynaklı ve özel sohbet modelini geride bırakmıştır. Ölçeklenebilirliği artırmak için Grup Sorgu Dikkati (GQA) kullanır ve 15 trilyon token’dan fazla halka açık verilerden oluşan çeşitli bir veri kümesiyle eğitilmiştir. Modelin bilgi kapsamı Aralık 2023’e kadardır.
o4-mini | Llama 3.3 70B Instruct | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller | metin |
API Sağlayıcıları
| OpenAI API | Fireworks, Together, DeepInfra, Hyperbolic |
Bilgi Kesim Tarihi
| - | 12.2024 |
Açık Kaynak
| Hayır | Evet |
Fiyatlandırma Girdisi
| $1.10 milyon belirteç başına | $0.23 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $4.40 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| fort | 86% 0-shot, CoT Kaynak |
MMLU-Pro
| - | 68.9% 5-shot, CoT Kaynak |
MMMU
| 81.6% Kaynak | Mevcut değil |
HellaSwag
| - | Mevcut değil |
HumanEval
| 14.28% Kaynak | 88.4% pass@1 Kaynak |
MATH
| - | 77% 0-shot, CoT Kaynak |
GPQA
| 81.4% Kaynak | 50.5% 0-shot, CoT Kaynak |
IFEval
| - | 92.1% Kaynak |
SimpleQA
| - | - |
AIME 2024 | 93.4% Kaynak | - |
AIME 2025 | 92.7% Kaynak | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.