Google, OpenAI의 O3 및 O4 모델을 능가하는 Gemini 2.5 Pro Deep Think 공개

Google, OpenAI의 O3 및 O4 모델을 능가하는 Gemini 2.5 Pro Deep Think 공개

Google I/O 2025: Gemini 2.5 모델 시리즈의 주요 개선 사항 공개

최근 Google I/O 2025 행사에서 Google은 Gemini 2.5 모델 시리즈의 괄목할 만한 발전을 선보였으며, 특히 Gemini 2.5 Pro Deep Think 모드의 도입이 두드러졌습니다.이 혁신은 주요 AI 벤치마크에서 OpenAI의 최신 o3 및 o4 모델 시리즈의 성능을 능가하며 인공지능 분야에서 주목할 만한 성과를 달성했습니다.

추론 능력 향상

최근 대대적인 업그레이드를 거친 제미니 2.5 프로 모델에 대한 업데이트는 발표되지 않았지만, 딥 씽크 모드의 출시는 추론 능력의 패러다임 전환을 의미합니다.이 새로운 모드는 고급 연구 기법을 활용하여 여러 가설을 평가한 후 결과를 도출하여 이해와 문제 해결에 더욱 심층적인 접근을 가능하게 합니다.

2.5 Pro Deep Think의 벤치마크 성능

Google은 Gemini 2.5 Pro의 Deep Think 모드에 대한 인상적인 벤치마크 결과를 공개하며 우수성의 새로운 기준을 제시했습니다.

  • 2025년 USAMO 수학 벤치마크에서는 49.4%입니다.
  • LiveCodeBench 경쟁 수준 코딩 벤치마크에서 80.4%를 기록했습니다.
  • MMMU 다중 모드 추론 벤치마크에서 84.0%.

이러한 성과를 통해 2.5 Pro Deep Think 모드는 OpenAI의 기존 기능을 능가하는 최첨단(SOTA) 모델로 자리매김했습니다.이 고급 모델에 대한 접근은 처음에는 Gemini API를 통해 신뢰할 수 있는 테스터에게만 허용됩니다.

Gemini 2.5 플래시 소개

Google은 2.5 Pro 업데이트 외에도 비용 효율적인 사용을 위해 설계된 Gemini 2.5 Flash 모델을 출시했습니다.이 Flash 모델은 모든 주요 벤치마크에서 이전 모델 대비 성능 향상을 보였으며, 개발자는 Google AI Studio, Vertex AI for Enterprise 애플리케이션, 그리고 Gemini 앱에서 미리 체험해 볼 수 있습니다.6월에 더 광범위한 출시가 예정되어 있습니다.

개발자 경험 향상

Google은 개발자를 위한 Gemini 플랫폼을 개선하기 위해 몇 가지 주요 개선 사항도 발표했습니다.

  • 여러 화자를 지원하는 새로운 Live API 미리보기로, 기본 오디오 출력을 통해 이중 음성으로 텍스트-음성 변환 기능을 제공합니다.
  • 오픈 소스 도구와의 원활한 상호 운용성을 위해 Gemini API 내에 MCP(Model Context Protocol) 정의를 통합했습니다.
  • Gemini 2.5 Pro는 합리적인 예산으로 출시되어 곧 안정적인 프로덕션 애플리케이션에 사용될 수 있을 것으로 예상됩니다.
  • Project Mariner의 컴퓨팅 기능은 Gemini API와 Vertex AI에 통합됩니다.
  • 2.5 Pro와 Flash 모델 모두 이제 Gemini API와 Vertex AI를 통해 사고 요약을 제공합니다.

이러한 개발에 대한 자세한 내용은 여기에서 공지사항을 볼 수 있습니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다