o3

OpenAI o3, OpenAI'nin en gelişmiş akıl yürütme modeli olup, karmaşık ve yüksek bilişsel görevleri ele almak için özel olarak tasarlanmıştır. Nisan 2025'te piyasaya sürülen model, yazılım mühendisliği, matematik ve bilimsel problem çözmede olağanüstü performans göstermektedir. Model, düşük, orta ve yüksek olmak üzere üç akıl yürütme seviyesini sunarak kullanıcıların görev karmaşıklığına göre gecikme süresi ile akıl yürütme derinliği arasında denge kurmasını sağlar. o3, geliştiriciler için işlev çağırma, yapılandırılmış çıktılar ve sistem düzeyinde mesajlaşma gibi temel araçları desteklemektedir. Dahili görsel yetenekleri sayesinde görüntüleri yorumlayıp analiz edebilir ve çok modlu uygulamalar için uygundur. Chat Completions API, Assistants API ve Batch API aracılığıyla sunularak kurumsal ve araştırma iş akışlarına esnek entegrasyon sağlar.

Llama 3.3 70B Instruct

Meta tarafından geliştirilen Llama 3.3 70B Instruct, özellikle talimat temelli görevler için ince ayar yapılmış çok dilli büyük bir dil modelidir ve sohbet uygulamaları için optimize edilmiştir. 128.000 token’a kadar destekleyen bir bağlam penceresiyle birçok dili işleyip üretebilir. 6 Aralık 2024’te piyasaya sürülen model, çeşitli sektör kıyaslamalarında birçok açık kaynaklı ve özel sohbet modelini geride bırakmıştır. Ölçeklenebilirliği artırmak için Grup Sorgu Dikkati (GQA) kullanır ve 15 trilyon token’dan fazla halka açık verilerden oluşan çeşitli bir veri kümesiyle eğitilmiştir. Modelin bilgi kapsamı Aralık 2023’e kadardır.

o3Llama 3.3 70B Instruct
Web Sitesi ?
Sağlayıcı ?
Sohbet ?
Yayın Tarihi ?
Modallikler ?
metin ?
görseller ?
metin ?
API Sağlayıcıları ?
OpenAI API
Fireworks, Together, DeepInfra, Hyperbolic
Bilgi Kesim Tarihi ?
-
12.2024
Açık Kaynak ?
Hayır
Evet
Fiyatlandırma Girdisi ?
$10.00 milyon belirteç başına
$0.23 milyon belirteç başına
Fiyatlandırma Çıktısı ?
$40.00 milyon belirteç başına
$0.40 milyon belirteç başına
MMLU ?
82.9%
Kaynak
86%
0-shot, CoT
Kaynak
MMLU-Pro ?
-
68.9%
5-shot, CoT
Kaynak
MMMU ?
-
Mevcut değil
HellaSwag ?
-
Mevcut değil
HumanEval ?
-
88.4%
pass@1
Kaynak
MATH ?
-
77%
0-shot, CoT
Kaynak
GPQA ?
83.3%
Diamond, no tools
Kaynak
50.5%
0-shot, CoT
Kaynak
IFEval ?
-
92.1%
Kaynak
SimpleQA ?
-
-
AIME 2024
91.6%
Kaynak
-
AIME 2025
88.9%
Kaynak
-
Aider Polyglot ?
-
-
LiveCodeBench v5 ?
-
-
Global MMLU (Lite) ?
-
-
MathVista ?
-
-
Mobil Uygulama
-

LLM Karşılaştırması

Yorum Ekle


10%
Sitemiz çerez kullanmaktadır.

Gizlilik ve Çerez Politikası: Bu site çerez kullanır. Siteyi kullanmaya devam ederek, kullanımını kabul etmiş olursunuz.