
OpenAIが高度な推論モデル「o3」と「o4-mini」を発表
本日、OpenAIが最先端の推論モデル「o3」と「o4-mini」を発表し、人工知能(AI)における大きな進歩を記念する年となりました。これらのモデルは、従来の「o1」および「o3-mini」と比べて著しい改善を示し、AIパフォーマンスの新たなベンチマークを確立しました。
在庫状況と価格
Microsoftは、これらの新しいモデルをAzure AI Foundry内のAzure OpenAIサービスを通じてリリースすることを発表しました。価格体系は以下の通りです。
- o3 モデル:入力トークン 100 万個あたり 10 ドル、出力トークン 100 万個あたり 40 ドル。
- o4-mini モデル:入力トークン 100 万個あたり 1.10 ドル、出力トークン 100 万個あたり 4.40 ドル。
本日、Foundry にさらなる大きなアップデートが行われました。OpenAI の o3 と o4-mini が同時にリリースされ、AI 推論の飛躍的な進歩がもたらされます。https ://t.co/gT3rtAhv3i
— サティア ナデラ (@satyanadella) 2025 年 4 月 16 日
強化された機能: ビジョンとツールのサポート
これらのモデルの実装には、強化された視覚機能を含む、エキサイティングな新機能が搭載されています。ユーザーは初めて画像入力を送信できるようになりました。これは、Responses APIとChat Completions APIの両方でサポートされています。さらに、両モデルは包括的なツールをサポートし、ツールの並列呼び出しを容易にすることで、機能性を向上させています。
新しいオーディオモデルとGitHub統合
o3 と o4-mini の導入に合わせて、Azure OpenAI サービスは、Azure AI Foundry の East US2 リージョンに次のような新しいオーディオ モデルを展開しました。
- GPT-4o-転写
- GPT-4o-ミニトランスクリプト
- GPT-4o-ミニTTS
さらに、MicrosoftのGitHubは、両方の推論モデルがGitHub CopilotとGitHub Modelsで一般公開されたことを確認しました。o4-miniモデルはすべてのGitHub Copilot有料プランで利用可能になり、o3モデルはEnterpriseおよびPro+プランで展開される予定です。
開発者向けの実装とアクセス
完全に導入されると、ユーザーはVisual Studio Code内のモデルピッカーまたはGitHubのGitHub Copilot Chatからこれらの新しいモデルを選択できるようになります。また、Copilot Enterpriseをご利用の組織では、管理者がCopilot設定で更新されたポリシーを通じてアクセスを有効にする必要があります。
これらの革新的なモデルは GitHub モデルにも統合されており、開発者は他の Microsoft モデルやサードパーティ モデルと並行して AI 駆動型の機能をシームレスに探索、構築、展開できるようになります。
コメントを残す ▼