
Azure AI Foundry のモデル微調整機能の強化
Microsoftは、Azure AI Foundryの最新アップデートでモデルのファインチューニングにおいて大きな進歩を遂げ、強化学習ファインチューニング(RFT)の高度なサポートを追加しました。この新機能は、思考連鎖推論や様々な分野に特化したタスク指向グレーディングといった革新的な手法を活用し、モデルのパフォーマンスを向上させるように設計されています。
強化微調整の導入
RFTは昨年12月のOpenAIのアルファプログラムで初めて公開され、その後、従来の標準モデルと比較してモデルの有効性が最大40%向上するなど、目覚ましい成果を上げています。マイクロソフトは、RFTがAzureプラットフォーム上のOpenAIのo4-miniモデルとまもなく互換性を持つようになると発表しました。これにより、多様なアプリケーションで組織に大きな力を与えることが期待されます。
強化の微調整を活用するタイミング
マイクロソフトは、意思決定と適応力の向上が不可欠な特定の状況において、RFTの導入を推奨しています。この強力な手法を活用するのに最適な3つのシナリオを以下に示します。
- カスタムルールの実装: RFTは、従来のトレーニングデータや静的なプロンプトでは組織固有の意思決定ロジックを効果的に捉えられない環境で特に有効です。RFTは、現実世界の複雑さを反映した、進化し続ける柔軟なルールにモデルを適応させます。
- ドメイン固有の運用標準:この手法は、社内手順が業界標準の慣行と大きく異なり、成功の鍵がこれらのカスタマイズされた標準への準拠にある場合に最適です。RFTは、これらのニュアンスをモデルの挙動に効果的に統合します。
- 高度な意思決定の複雑さ: RFTは、複雑な決定木と多面的なロジックを特徴とする領域で優れた性能を発揮します。結果を得るために多数のサブケースをナビゲートし、多様な入力を動的に重み付けする必要がある環境において、RFTはモデルの一般化を可能にし、より一貫性と精度の高い意思決定を可能にします。
教師あり微調整の新たなサポート
RFTに加え、マイクロソフトはOpenAIの最新GPT-4.1-nanoモデル向けに、コスト重視のAI実装向けにカスタマイズされた教師ありファインチューニング(SFT)の展開を発表しました。このファインチューニング機能は近日中に利用可能になる予定で、組織にAIモデルの強化のための経済的な選択肢を提供します。
ラマ4スカウトモデルの統合
最後に、MicrosoftはMetaのLlama 4 Scoutモデルのファインチューニングのサポートを発表しました。このモデルは170億のパラメータを誇り、1, 000万トークンのコンテキストウィンドウをサポートします。このファインチューニングオプションは、Azureのマネージドコンピューティングサービスの一部となります。ユーザーはAzure AI FoundryとAzure Machine Learningの両方のコンポーネントを通じて、ファインチューニングされたLlamaモデルにアクセスでき、最先端のAIテクノロジーをより効果的に活用できるようになります。
詳細については、発表ビデオをご覧ください。
ここ
。
こちらの公式ソースにアクセスして、最新のイノベーションの最新情報を入手してください。
コメントを残す