
マイクロソフトがWindows AI Foundryを発表:ローカルAI開発の飛躍的進歩
Microsoft は、Build 2025 で発表された Windows AI Foundry の導入により、Windows 上の AI 機能の強化において大きな進歩を遂げました。既存のWindows Copilot Runtime を活用したこの新しい統合プラットフォームは、ローカル AI アプリの開発を容易にし、Copilot+ PC 上でバックグラウンドでシームレスに動作する Windows AI API と機械学習モデルの使用を通じてさまざまな AI 機能を統合します。
Windows AI Foundry のご紹介
Windows AI Foundry は、Windows Copilot Runtime と開発者向けに設計された革新的なツールスイートを統合します。この強力なプラットフォームは、Microsoft のネイティブ AI モデルを基盤とするすぐに使用可能な AI API を提供するだけでなく、開発者がこれらのモデルをカスタマイズするためのツールも提供します。さらに、Azure AI Foundryから提供されるオープンソース モデルとの統合を可能にするほか、開発者が独自のモデルを組み込むことができる推論ランタイムも提供します。
柔軟なAIモデルの統合
Windows AI Foundryの導入は、AIモデルの汎用性向上に向けたMicrosoftのコミットメントを反映しています。開発者は、Azure Foundry LocalやOllama、NVIDIA NIMといった主要カタログを通じて、多様なモデルにアクセスできます。Microsoft独自のFoundry Localカタログは、CPU、GPU、NPUなど、様々なハードウェア構成においてAIモデルのパフォーマンスが最適化されることを保証しますwinget install Microsoft. FoundryLocal
。開発者は簡単なコマンドで、デバイスと互換性のあるモデルを検索、ダウンロード、評価できます。モデルを選択した後は、Foundry Local SDKを介してFoundry Localをアプリケーションに簡単に統合できます。
Windows ML による効率的なモデル展開
このローカルAIイニシアチブの中核を成すのは、 Windows MLです。これは、様々なハードウェアプラットフォームへの機械学習モデルの展開を効率化する、組み込みの推論ランタイムです。DirectMLを基盤とするWindows MLは、AMD、Intel、NVIDIA、Qualcommといった主要ベンダーのチップセットアーキテクチャをサポートしています。このインフラストラクチャにより、開発者は将来のチップアップデートに煩わされることなく、最先端のアプリケーションの開発に集中できます。Windows MLは依存関係を効果的に管理し、新しいハードウェア要件に自動的に適応するように設計されているからです。
LoRAサポートによる強化された微調整
注目すべき進歩として、MicrosoftはPhi SilicaモデルフレームワークにおけるLoRA (Low-Rank Adaptation)の新たなサポートも発表しました。この機能により、開発者はカスタムデータセットを用いてモデルパラメータの最小限のサブセットを微調整し、特定のタスクにおけるパフォーマンスを向上させることができます。現在、Windows App SDK 1.8 Experimental 2と共にパブリックプレビュー中のLoRAは、まもなくIntelおよびAMD Copilot+搭載PCで利用可能となり、プラットフォーム間の利便性が向上します。
セマンティック検索 API による検索革命
開発者エクスペリエンスをさらに充実させるため、マイクロソフトは、アプリケーション内で高度なAI駆動型検索機能を開発するための新しいセマンティック検索APIを発表しました。これらのAPIはローカル実行を容易にし、 RAG(Retrieval-Augmented Generation)フレームワークをサポートすることで、開発者がアプリケーションの検索機能をより容易に拡張できるようにします。現在、これらのAPIはプライベートプレビュー段階にあり、すべてのCopilot+ PCで利用可能です。
この開発に関する詳細と最新情報については、公式ソースをご覧ください。
コメントを残す