Gemini 2.5 Pro

Gemini 2.5 Pro는 Google이 개발한 가장 진보된 AI 모델로, 심층 추론과 신중한 응답 생성을 위해 설계되었습니다. 주요 벤치마크에서 탁월한 논리력과 코딩 능력을 보여줍니다. 동적 웹 애플리케이션, 자율 코드 시스템, 코드 적응 구축에 최적화되어 있으며, 뛰어난 성능을 제공합니다. 내장된 멀티모달 기능과 확장된 컨텍스트 윈도우를 통해 대규모 데이터를 효율적으로 처리하고 다양한 정보원을 통합하여 복잡한 문제를 해결합니다.

Command A

Command R+는 Cohere가 개발한 차세대 생성형 AI 모델로, 속도, 보안, 출력 품질이 중요한 엔터프라이즈급 성능을 위해 설계되었습니다. 최소한의 인프라로 효율적으로 실행되며, GPT-4o 및 DeepSeek-V3와 같은 최고 수준 모델보다 성능과 비용 면에서 뛰어납니다. 주요 모델보다 두 배 큰 256K 토큰 컨텍스트 윈도우를 통해 복잡한 다국어 및 에이전트 기반 작업을 처리하며, 단 2개의 GPU에서도 구동 가능할 정도로 접근성이 높습니다. 초당 최대 156토큰 처리 속도를 기록하며, GPT-4o보다 약 1.75배 빠른 처리 속도로 높은 정확도와 깊이를 유지하면서도 탁월한 효율성을 제공합니다.

Gemini 2.5 ProCommand A
웹사이트 ?
제공자 ?
채팅 ?
출시일 ?
모달리티 ?
텍스트 ?
이미지 ?
음성 ?
비디오 ?
텍스트 ?
API 제공자 ?
Google AI Studio, Vertex AI, Gemini app
Cohere, Hugging Face, Major cloud providers
지식 업데이트 종료일 ?
-
-
오픈 소스 ?
아니오
입력 가격 ?
정보 없음
$2.50 100만 토큰당
출력 가격 ?
정보 없음
$10.00 100만 토큰당
MMLU ?
정보 없음
85.5%
출처
MMLU-Pro ?
정보 없음
정보 없음
MMMU ?
81.7%
출처
정보 없음
HellaSwag ?
정보 없음
정보 없음
HumanEval ?
정보 없음
정보 없음
MATH ?
정보 없음
80%
출처
GPQA ?
84.0%
Diamond Science
출처
50.8%
출처
IFEval ?
정보 없음
90.9%
출처
SimpleQA ?
52.9%
-
AIME 2024
92.0%
-
AIME 2025
86.7%
-
Aider Polyglot ?
74.0% / 68.6%
-
LiveCodeBench v5 ?
70.4%
-
Global MMLU (Lite) ?
89.8%
-
MathVista ?
-
-
모바일 앱
-

VideoGameBench ?

총점
0.48%
-
Doom II
0%
-
Dream DX
4.8%
-
Awakening DX
0%
-
Civilization I
0%
-
Pokemon Crystal
0%
-
The Need for Speed
0%
-
The Incredible Machine
0%
-
Secret Game 1
0%
-
Secret Game 2
0%
-
Secret Game 3
0%
-

LLM 비교

댓글 추가


10%
당사 웹사이트는 쿠키를 사용합니다.

개인정보 및 쿠키 정책: 본 사이트는 쿠키를 사용합니다. 사이트를 계속 이용하면 쿠키 사용에 동의하는 것으로 간주됩니다.