マイクロソフトは、AMD GPUスタックを推論タスクに活用する方法を積極的に検討しています。このテクノロジー大手は、NVIDIA CUDAモデルをROCm互換コードに効率的に変換するツールキットの開発に取り組んでおり、AI分野に大きな変化をもたらしています。
推論ワークロードの需要増加により、AMDのAIチップへの関心が高まっている
NVIDIAは、主に「CUDAロックイン」戦略によって、人工知能(AI)分野におけるリーダーシップを維持してきました。このアプローチは、クラウドサービスプロバイダー(CSP)や大手AI企業に、CUDAソフトウェアエコシステムの有効性を最大限に高めるためにNVIDIAのハードウェアを採用するよう強いています。クロスプラットフォーム互換性の導入は試みられてきましたが、いずれも主流のソリューションとして普及していません。最近、Microsoftの上級社員からの情報によると、同社はCUDAコードをROCm互換フォーマットに変換することで、AMD GPU上で実行を可能にするツールキットを開発していることが明らかになりました。
$MSFTの幹部社員によるデータセンターと現状($NVDA / $AMD、液冷、HHD)に関する必読インタビュー:1.$MSFTが現在直面している課題は、エネルギーと液冷です。自治体との良好な関係を築くため、$MSFTは… pic.twitter.com/jQTfhnxQga
— リチャード・ジャーク (@RihardJarc) 2025 年 11 月 7 日
CUDAの牙城を崩すのは容易ではありません。なぜなら、CUDAのソフトウェアエコシステムは、中国市場を含む世界中のAIアプリケーションに深く組み込まれているからです。しかし、Microsoftが開発したツールキットは、CUDAからROCmへの移行において確立された手法を採用している可能性があります。その一つがランタイム互換レイヤーの実装で、これによりソースコードを完全に書き換えることなく、CUDA API呼び出しをROCmに変換できます。その顕著な例として、CUDA呼び出しをキャプチャし、ROCmで使用できるようにリアルタイムに変換するZLUDAツールが挙げられます。

しかしながら、ROCmソフトウェアスタックの比較的未成熟な性質は課題を伴います。CUDA内の特定のAPI呼び出しは、AMDエコシステムにおける対応するマッピングが不足しており、パフォーマンスの問題につながる可能性があります。これは、特に大規模なデータセンター運用においては重要な要素です。また、このツールキットは、Azure向けにカスタマイズされた包括的なクラウド移行ソリューションとして機能し、AMDとNVIDIAの両方のプラットフォームインスタンスを管理できる可能性も考えられます。大規模な移行には複雑な問題が生じる可能性がありますが、Microsoftのこれらのツールキット開発へのアプローチはまだ初期段階にあるようです。
マイクロソフトがソフトウェア移行に関心を寄せる主な動機は、推論ワークロードの需要の急増です。同社は事業運営におけるコスト効率の向上を目指しており、これは当然のことながら、より高価なNVIDIA GPUの代替としてAMDのAIチップを採用することと合致しています。したがって、既存のCUDAモデルをROCmフレームワークに移行しやすくすることは、マイクロソフトの今後の戦略にとって極めて重要な前進となるでしょう。
コメントを残す