OpenAI o3-mini, STEM uygulamaları için tasarlanmış yüksek hızlı ve maliyet etkin bir akıl yürütme modelidir; bilim, matematik ve kodlama alanlarında güçlü performans sergiler. Ocak 2025’te piyasaya sürülen model, fonksiyon çağrısı, yapılandırılmış çıktılar ve geliştirici mesajları gibi temel geliştirici özelliklerini içerir. Kullanıcılar, düşük, orta ve yüksek düzeyde akıl yürütme yoğunluğu arasında seçim yaparak yanıt süresi ile derin analiz arasında denge kurabilir. Görsel yeteneklere sahip olmayan bu model, başlangıçta yalnızca seviye 3-5 API geliştiricilerine sunulmuştur ve Chat Completions API, Assistants API ve Batch API aracılığıyla erişilebilir.
Meta tarafından geliştirilen Llama 3.3 70B Instruct, özellikle talimat temelli görevler için ince ayar yapılmış çok dilli büyük bir dil modelidir ve sohbet uygulamaları için optimize edilmiştir. 128.000 token’a kadar destekleyen bir bağlam penceresiyle birçok dili işleyip üretebilir. 6 Aralık 2024’te piyasaya sürülen model, çeşitli sektör kıyaslamalarında birçok açık kaynaklı ve özel sohbet modelini geride bırakmıştır. Ölçeklenebilirliği artırmak için Grup Sorgu Dikkati (GQA) kullanır ve 15 trilyon token’dan fazla halka açık verilerden oluşan çeşitli bir veri kümesiyle eğitilmiştir. Modelin bilgi kapsamı Aralık 2023’e kadardır.
o3-mini | Llama 3.3 70B Instruct | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin | metin |
API Sağlayıcıları
| OpenAI API | Fireworks, Together, DeepInfra, Hyperbolic |
Bilgi Kesim Tarihi
| Bilinmiyor | 12.2024 |
Açık Kaynak
| Hayır | Evet |
Fiyatlandırma Girdisi
| $1.10 milyon belirteç başına | $0.23 milyon belirteç başına |
Fiyatlandırma Çıktısı
| $4.40 milyon belirteç başına | $0.40 milyon belirteç başına |
MMLU
| 86.9% pass@1, high effort Kaynak | 86% 0-shot, CoT Kaynak |
MMLU-Pro
| Mevcut değil | 68.9% 5-shot, CoT Kaynak |
MMMU
| Mevcut değil | Mevcut değil |
HellaSwag
| Mevcut değil | Mevcut değil |
HumanEval
| Mevcut değil | 88.4% pass@1 Kaynak |
MATH
| 97.9% pass@1, high effort Kaynak | 77% 0-shot, CoT Kaynak |
GPQA
| 79.7% 0-shot, high effort Kaynak | 50.5% 0-shot, CoT Kaynak |
IFEval
| Mevcut değil | 92.1% Kaynak |
SimpleQA
| - | - |
AIME 2024 | - | - |
AIME 2025 | - | - |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama | - |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.