Microsoft développe des kits d’outils pour concurrencer la domination de NVIDIA CUDA et réduire les coûts d’inférence avec les GPU IA d’AMD.

Microsoft développe des kits d’outils pour concurrencer la domination de NVIDIA CUDA et réduire les coûts d’inférence avec les GPU IA d’AMD.

Microsoft explore activement les possibilités d’utiliser sa plateforme GPU AMD pour les tâches d’inférence. Le géant technologique travaille sur des outils permettant de convertir efficacement les modèles NVIDIA CUDA en code compatible ROCm, ce qui représente un tournant majeur dans le domaine de l’IA.

La demande croissante de charges de travail d’inférence alimente l’intérêt pour les puces d’IA d’AMD.

NVIDIA a conservé sa position de leader dans le secteur de l’intelligence artificielle (IA) principalement grâce à sa stratégie de « verrouillage CUDA ».Cette approche contraint les fournisseurs de services cloud (CSP) et les entreprises leaders en IA à utiliser le matériel NVIDIA afin d’optimiser l’efficacité de son écosystème logiciel CUDA. Malgré des tentatives d’introduction de la compatibilité multiplateforme, aucune n’a réussi à s’imposer comme solution grand public. Récemment, les informations fournies par un cadre supérieur de Microsoft ont révélé que l’entreprise a développé des kits d’outils permettant l’exécution de code CUDA sur les GPU AMD en le convertissant dans un format compatible avec ROCm.

Vaincre la domination de CUDA représente un défi de taille, tant son écosystème logiciel est profondément ancré dans les applications d’IA à l’échelle mondiale, y compris sur des marchés comme la Chine. Cependant, le kit d’outils développé par Microsoft utilise potentiellement des méthodes éprouvées pour la transition de CUDA vers ROCm. L’une de ces techniques consiste à implémenter une couche de compatibilité d’exécution, qui facilite la traduction des appels d’API CUDA en ROCm sans nécessiter une réécriture complète du code source. L’outil ZLUDA en est un exemple notable : il capture les appels CUDA et les traduit en temps réel pour une utilisation avec ROCm.

NVIDIA CUDA peut désormais s'exécuter directement sur les GPU RDNA d'AMD.

Néanmoins, la relative immaturité de la pile logicielle ROCm pose des défis. Certains appels d’API CUDA ne disposent pas d’équivalents dans l’écosystème AMD, ce qui pourrait engendrer des problèmes de performance, un facteur particulièrement critique pour les opérations de centres de données de grande envergure. Il est également envisageable que cette boîte à outils serve de solution de migration cloud complète et adaptée à Azure, capable de gérer les instances des plateformes AMD et NVIDIA. Bien que les conversions à grande échelle puissent engendrer des complications, l’approche de Microsoft concernant le développement de ces boîtes à outils semble encore à ses débuts.

La principale motivation de Microsoft pour la conversion de logiciels réside dans l’explosion des besoins en matière de calculs d’inférence. L’entreprise cherche à optimiser ses coûts opérationnels, ce qui justifie l’adoption des puces IA d’AMD comme alternative viable aux GPU NVIDIA, plus onéreux. Par conséquent, faciliter la migration des modèles CUDA existants vers le framework ROCm représente un tournant majeur pour la stratégie future de Microsoft.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *