
Google I/O 2025:Gemini 2.5 モデルシリーズの主要な機能強化を発表
先日開催されたGoogle I/O 2025イベントにおいて、GoogleはGemini 2.5モデルシリーズの大幅な進化を披露し、特にGemini 2.5 ProのDeep Thinkモードの導入を際立たせました。このイノベーションは、主要なAIベンチマークにおいてOpenAIの最新モデルo3およびo4シリーズを上回る性能を誇り、人工知能分野における注目すべき成果となっています。
推論機能の強化
最近大幅なアップグレードが行われたGemini 2.5 Proモデルについては、アップデートは発表されていませんが、「Deep Think」モードの導入は推論能力におけるパラダイムシフトを象徴しています。この新モードでは、高度な調査手法を用いて複数の仮説を評価した上で応答を生成するため、より深い理解と問題解決が可能になります。
2.5 Pro Deep Thinkのベンチマークパフォーマンス
Google は、Gemini 2.5 Pro の Deep Think モードの印象的なベンチマーク結果を発表し、新たな卓越性の基準を確立しました。
- 2025年のUSAMO数学ベンチマークで49.4% 。
- LiveCodeBench 競技レベルのコーディングベンチマークで80.4% を達成しました。
- MMMU マルチモーダル推論ベンチマークで84.0% を達成しました。
これらの成果により、2.5 ProのDeep Thinkモードは最先端(SOTA)として確立され、OpenAIの現在の提供機能を超えています。この高度なモデルへのアクセスは、当初はGemini APIを通じて信頼できるテスターに限定されます。
Gemini 2.5 Flashの導入
Googleは、2.5 Proアップデートに加え、コスト効率の高い利用を目的としたGemini 2.5 Flashモデルを発表しました。このFlashモデルは、前バージョンと比較して、すべての主要ベンチマークでパフォーマンスの向上が実証されており、開発者はGoogle AI Studio、エンタープライズアプリケーション向けVertex AI、そしてGeminiアプリでプレビューできます。6月にはより広範な展開が予定されています。
開発者エクスペリエンスの強化
開発者向けの Gemini プラットフォームを強化するために、Google はいくつかの重要な改善も発表しました。
- 複数のスピーカーをサポートする新しい Live API プレビュー。ネイティブ オーディオ出力を通じてデュアル音声によるテキスト読み上げ機能を実現します。
- オープンソース ツールとのシームレスな相互運用性を実現するために、Gemini API 内にモデル コンテキスト プロトコル (MCP) 定義を統合します。
- Gemini 2.5 Pro は予算を考慮した上で一般提供が開始され、安定した生産アプリケーションにすぐに対応できるようになります。
- Project Mariner のコンピューティング機能は、Gemini API と Vertex AI に統合されます。
- 2.5 Pro モデルと Flash モデルの両方で、Gemini API と Vertex AI を通じて思考の要約が提供されるようになりました。
これらの開発に関する詳しい情報については、こちらの発表をご覧ください。
コメントを残す ▼