
推論重視の AI の新たな進歩: Google と OpenAI が新しいモデルを発表
9 月、OpenAI は革新的な o1 シリーズの大規模言語モデル (LLM) を導入して基準を引き上げました。これらの高度なモデルは、応答を提供する前に徹底的な推論を優先するため、科学、コーディング、数学などの分野の複雑なタスクに非常に効果的です。
時は流れ、今日、Google はGemini 2.0 Flash Thinkingという独自の推論中心の LLM を発表しました。 と呼ばれるこの実験モデルは、gemini-2.0-flash-thinking-exp-1219
Google AI Studio を通じて開発者が利用できるようになりました。Google は、このモデルがマルチモーダル理解、論理的推論、コーディング アプリケーションに優れていると主張しています。
Google の発表によると、推論中の計算時間を延長することで、有望な結果が得られたとのことです。ただし、これらの主張を裏付ける具体的なパフォーマンス ベンチマークは公開されていません。とはいえ、Chatbot Arenaからの予備的なフィードバックによると、Gemini-2.0-Flash-Thinking は注目すべきランキングを達成し、現在、評価対象のすべてのカテゴリで 1 位となっています。
Chatbot Arena から速報です⚡🤔 @GoogleDeepMindの Gemini-2.0-Flash-Thinking が全カテゴリーで第 1 位に初登場しました! Gemini-2.0-Flash からの躍進: – 全体: #3 → #1 – 全体 (スタイル コントロール): #4 → #1 – 数学: #2 → #1 – クリエイティブ ライティング: #2 → #1 – ハード プロンプト: #1 → #1… https://t.co/lO1DiTiOOj pic.twitter.com/cq2MRMbWZ1
— lmarena.ai (旧 lmsys.org) (@lmarena_ai) 2024年12月19日
Gemini 2.0 Flash の主な使用例
Google は、Gemini 2.0 Flash Thinking モデルの実験に興味のある開発者向けに、いくつかの魅力的な使用例を概説しています。
- 高度な推論で最も複雑な問題に対処する
- モデルの思考プロセスを透明に示す
- 難しいコーディングと数学的な質問を解決する
この最先端のモデルは、128,000 トークンを超えるコンテキスト長を誇り、2024 年 8 月まで延長されたデータ カットオフを備えています。開発者は、Google AI Studioおよび Vertex AI で Gemini API にアクセスすることで、Gemini 推論モデルを利用できます。
Gemini 2.0 Flash Thinking の実際の動作を見たいですか? このデモでは、モデルが物理問題を解決し、その理由を説明します。pic.twitter.com/ Nl0hYj7ZFS
— ジェフ・ディーン(@JeffDean)2024年12月19日
競争優位性: OpenAI の o1 モデルの更新
今週初め、OpenAI は o1 推論モデルの重要な展開も発表しました。このモデルは現在、API フレームワーク内の使用レベル 5 で開発者に提供されています。o1 モデルのこの最新の反復は、広く認められているいくつかの AI ベンチマークで最先端のパフォーマンスを報告しています。開発者はこのモデルを活用して、顧客サービス メカニズムの改善、サプライ チェーン ロジスティクスの最適化、財務予測の精度向上など、さまざまなアプリケーションを強化できます。
Google と OpenAI の両社が推論に重点を置いた LLM を開始したことで、革新的な AI アプリケーションの開発環境は複数の業界にわたってますますダイナミックになっています。
コメントを残す ▼