Microsoft explore activement les possibilités d’utiliser sa plateforme GPU AMD pour les tâches d’inférence. Le géant technologique travaille sur des outils permettant de convertir efficacement les modèles NVIDIA CUDA en code compatible ROCm, ce qui représente un tournant majeur dans le domaine de l’IA.
La demande croissante de charges de travail d’inférence alimente l’intérêt pour les puces d’IA d’AMD.
NVIDIA a conservé sa position de leader dans le secteur de l’intelligence artificielle (IA) principalement grâce à sa stratégie de « verrouillage CUDA ».Cette approche contraint les fournisseurs de services cloud (CSP) et les entreprises leaders en IA à utiliser le matériel NVIDIA afin d’optimiser l’efficacité de son écosystème logiciel CUDA. Malgré des tentatives d’introduction de la compatibilité multiplateforme, aucune n’a réussi à s’imposer comme solution grand public. Récemment, les informations fournies par un cadre supérieur de Microsoft ont révélé que l’entreprise a développé des kits d’outils permettant l’exécution de code CUDA sur les GPU AMD en le convertissant dans un format compatible avec ROCm.
Interview incontournable d’un cadre supérieur de Microsoft sur les centres de données et l’actualité ( NVDA / AMD, refroidissement liquide et disques durs domestiques) : 1. Les défis actuels de Microsoft concernent l’énergie et le refroidissement liquide. Afin d’améliorer ses relations avec les municipalités, Microsoft … pic.twitter.com/jQTfhnxQga
– Richard Jarc (@RihardJarc) 7 novembre 2025
Vaincre la domination de CUDA représente un défi de taille, tant son écosystème logiciel est profondément ancré dans les applications d’IA à l’échelle mondiale, y compris sur des marchés comme la Chine. Cependant, le kit d’outils développé par Microsoft utilise potentiellement des méthodes éprouvées pour la transition de CUDA vers ROCm. L’une de ces techniques consiste à implémenter une couche de compatibilité d’exécution, qui facilite la traduction des appels d’API CUDA en ROCm sans nécessiter une réécriture complète du code source. L’outil ZLUDA en est un exemple notable : il capture les appels CUDA et les traduit en temps réel pour une utilisation avec ROCm.

Néanmoins, la relative immaturité de la pile logicielle ROCm pose des défis. Certains appels d’API CUDA ne disposent pas d’équivalents dans l’écosystème AMD, ce qui pourrait engendrer des problèmes de performance, un facteur particulièrement critique pour les opérations de centres de données de grande envergure. Il est également envisageable que cette boîte à outils serve de solution de migration cloud complète et adaptée à Azure, capable de gérer les instances des plateformes AMD et NVIDIA. Bien que les conversions à grande échelle puissent engendrer des complications, l’approche de Microsoft concernant le développement de ces boîtes à outils semble encore à ses débuts.
La principale motivation de Microsoft pour la conversion de logiciels réside dans l’explosion des besoins en matière de calculs d’inférence. L’entreprise cherche à optimiser ses coûts opérationnels, ce qui justifie l’adoption des puces IA d’AMD comme alternative viable aux GPU NVIDIA, plus onéreux. Par conséquent, faciliter la migration des modèles CUDA existants vers le framework ROCm représente un tournant majeur pour la stratégie future de Microsoft.
Laisser un commentaire