
OpenAI が o3-mini を発表: 推論モデルの新たなブレークスルー
OpenAI は、最新のコスト効率の高い推論モデルであるo3-mini を正式に導入しました。この新しいモデルは、定評のあるo1モデルと同等の効率でタスクを実行するように設計されており、特に数学、コーディング、科学的推論などの分野で優れています。開発者は、関数呼び出し、構造化出力、ストリーミング、および Chat Completions API、Assistants API、Batch API を介した開発者メッセージングの包括的なサポートを備えた OpenAI の API を通じて o3-mini にアクセスできます。
Microsoft Azureとの統合
同時に、Microsoft は、o3-mini モデルがMicrosoft Azure OpenAI Serviceを通じてもアクセスできるようになると発表しました。この高度なモデルを活用することに興味のある開発者は、Azure AI Foundry にサインアップできます。
ローンチに関する専門家の見解
Microsoft の Core AI 製品担当副社長である Yina Arenas 氏は、o3-mini の導入について次のように述べています。
o3-mini は、推論機能が強化され、推論努力の制御やツールなどの新機能により、o1-mini と比較してコスト効率が大幅に向上するとともに、同等以上の応答性も実現しています。o3-mini の高度な機能と効率性の向上により、AI アプリケーションの最適化を目指す開発者や企業にとって強力なツールとなっています。
GitHub Copilot の機能強化
さらに、Microsoft の GitHub は、開発者向けの GitHub Copilot および GitHub Models 内での o3-mini の展開を確認しました。前身の o1-mini と比較して、開発者は o3-mini からの出力品質の向上を期待できます。このモデルは、Visual Studio Code のモデル ピッカーと github.com チャットを通じて GitHub Copilot Pro、Business、および Enterprise ユーザーがアクセスでき、今後数週間で Visual Studio と JetBrains 向けのさらなるサポートが予定されています。
GitHub Copilot サブスクライバーの場合、新しい o3-mini を使用すると、ユーザーは 12 時間ごとに最大 50 件のメッセージを生成できます。さらに、GitHub Business または Enterprise アカウントの管理者は、それぞれの管理設定を通じて、チーム メンバーが o3-mini モデルにアクセスできるようにすることができます。
GitHub モデル プレイグラウンドでの探索の機会
GitHub は、o3-mini をGitHub Models プレイグラウンドに導入することで開発者エクスペリエンスを充実させ、ユーザーにその機能を調べて、Cohere、DeepSeek、Meta、Mistral の製品と比較する機会を提供します。
結論: AI開発の新時代
o3-mini モデルはさまざまなプラットフォームで広く利用可能であるため、開発者は高度な推論機能をアプリケーションやサービスに効果的に組み込むことができます。この革新的なモデルは、開発における AI 機能の標準を再定義する準備ができています。
詳細については、ソースをご覧ください。
コメントを残す ▼