Microsoft desarrolla kits de herramientas para desafiar el dominio de NVIDIA CUDA y reducir los costos de inferencia con las GPU de IA de AMD.

Microsoft desarrolla kits de herramientas para desafiar el dominio de NVIDIA CUDA y reducir los costos de inferencia con las GPU de IA de AMD.

Microsoft está investigando activamente formas de utilizar su plataforma de GPU AMD para tareas de inferencia. El gigante tecnológico está desarrollando herramientas que convierten eficazmente los modelos NVIDIA CUDA en código compatible con ROCm, lo que supone un cambio significativo en el panorama de la IA.

La creciente demanda de cargas de trabajo de inferencia impulsa el interés en los chips de IA de AMD.

NVIDIA ha mantenido su liderazgo en el sector de la inteligencia artificial (IA) principalmente gracias a su estrategia de «dependencia de CUDA».Este enfoque obliga a los proveedores de servicios en la nube (CSP) y a las principales empresas de IA a utilizar el hardware de NVIDIA para maximizar la eficacia de su ecosistema de software CUDA. Si bien se han realizado intentos por introducir compatibilidad multiplataforma, ninguno ha logrado consolidarse como una solución generalizada. Recientemente, información proporcionada por un alto ejecutivo de Microsoft reveló que la compañía ha desarrollado conjuntos de herramientas que permiten la ejecución de código CUDA en GPU de AMD mediante su traducción a un formato compatible con ROCm.

Superar la sólida posición de CUDA representa un desafío formidable, ya que su ecosistema de software está profundamente integrado en las aplicaciones de IA a nivel mundial, incluyendo mercados como China. Sin embargo, el conjunto de herramientas desarrollado por Microsoft emplea métodos bien establecidos para la transición de CUDA a ROCm. Una técnica consiste en la implementación de una capa de compatibilidad en tiempo de ejecución, que facilita la traducción de las llamadas a la API de CUDA a ROCm sin necesidad de reescribir completamente el código fuente. Un ejemplo destacado es la herramienta ZLUDA, que captura las llamadas a CUDA y las traduce en tiempo real para su uso con ROCm.

NVIDIA CUDA ahora puede ejecutarse directamente en las GPU RDNA de AMD utilizando

Sin embargo, la relativa inmadurez de la pila de software ROCm presenta desafíos. Ciertas llamadas a la API de CUDA carecen de correspondencias en el ecosistema de AMD, lo que podría generar problemas de rendimiento, un factor especialmente crítico en operaciones de centros de datos de gran envergadura. También es posible que el conjunto de herramientas sirva como una solución integral de migración a la nube, diseñada para Azure y capaz de gestionar instancias de plataformas AMD y NVIDIA. Si bien las conversiones a gran escala podrían presentar complicaciones, el enfoque de Microsoft para el desarrollo de estos conjuntos de herramientas parece estar en sus etapas iniciales.

La principal motivación que impulsa el interés de Microsoft en las conversiones de software radica en el aumento de las necesidades de procesamiento de inferencias. La empresa busca optimizar la eficiencia de costes en sus operaciones, lo que se alinea naturalmente con la adopción de los chips de IA de AMD como una alternativa viable a las GPU de NVIDIA, más costosas. Por consiguiente, facilitar la transición de los modelos CUDA existentes al marco ROCm se perfila como un avance crucial para la estrategia futura de Microsoft.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *