Grok 3, xAI'nin en gelişmiş modeli olup, önceki son teknoloji modellerin hesaplama gücünün 10 katına sahip Colossus süper kümesinde eğitilmiştir. 1M token bağlam penceresi ve gelişmiş akıl yürütme yetenekleri sunar; büyük ölçekli pekiştirmeli öğrenme sayesinde saniyelerden dakikalara uzanan derin düşünme süreçlerini destekleyerek karmaşık problemleri çözme kabiliyetini artırır. Model, akademik ölçütler ve gerçek dünya kullanıcı değerlendirmelerinde en üst seviyede performans göstererek Chatbot Arena'da 1402 Elo puanı kazanmıştır. Grok 3 Mini ile birlikte piyasaya sürülmüştür; bu varyant, optimize edilmiş akıl yürütme süreçleri için maliyet açısından verimli bir seçenektir.
OpenAI o3, OpenAI'nin en gelişmiş akıl yürütme modeli olup, karmaşık ve yüksek bilişsel görevleri ele almak için özel olarak tasarlanmıştır. Nisan 2025'te piyasaya sürülen model, yazılım mühendisliği, matematik ve bilimsel problem çözmede olağanüstü performans göstermektedir. Model, düşük, orta ve yüksek olmak üzere üç akıl yürütme seviyesini sunarak kullanıcıların görev karmaşıklığına göre gecikme süresi ile akıl yürütme derinliği arasında denge kurmasını sağlar. o3, geliştiriciler için işlev çağırma, yapılandırılmış çıktılar ve sistem düzeyinde mesajlaşma gibi temel araçları desteklemektedir. Dahili görsel yetenekleri sayesinde görüntüleri yorumlayıp analiz edebilir ve çok modlu uygulamalar için uygundur. Chat Completions API, Assistants API ve Batch API aracılığıyla sunularak kurumsal ve araştırma iş akışlarına esnek entegrasyon sağlar.
Grok 3 Beta | o3 | |
---|---|---|
Web Sitesi
| ||
Sağlayıcı
| ||
Sohbet
| ||
Yayın Tarihi
| ||
Modallikler
| metin görseller video | metin görseller |
API Sağlayıcıları
| xAI | OpenAI API |
Bilgi Kesim Tarihi
| 2025-01 | - |
Açık Kaynak
| Hayır | Hayır |
Fiyatlandırma Girdisi
| Mevcut değil | $10.00 milyon belirteç başına |
Fiyatlandırma Çıktısı
| Mevcut değil | $40.00 milyon belirteç başına |
MMLU
| Mevcut değil | 82.9% Kaynak |
MMLU-Pro
| 79.9% Base model Kaynak | - |
MMMU
| 78% With Think mode Kaynak | - |
HellaSwag
| Mevcut değil | - |
HumanEval
| Mevcut değil | - |
MATH
| Mevcut değil | - |
GPQA
| 84.6% With Think mode, Diamond Kaynak | 83.3% Diamond, no tools Kaynak |
IFEval
| Mevcut değil | - |
SimpleQA
| - | - |
AIME 2024 | - | 91.6% Kaynak |
AIME 2025 | - | 88.9% Kaynak |
Aider Polyglot
| - | - |
LiveCodeBench v5
| - | - |
Global MMLU (Lite)
| - | - |
MathVista
| - | - |
Mobil Uygulama |
Compare AI. Test. Benchmarks. Mobil Uygulamalar Sohbet Botları, Sketch
Copyright © 2025 All Right Reserved.