A Microsoft está investigando ativamente maneiras de utilizar sua plataforma de GPUs AMD para tarefas de inferência. A gigante da tecnologia está trabalhando em kits de ferramentas que convertem modelos NVIDIA CUDA em código compatível com ROCm, marcando uma mudança significativa no cenário da IA.
A crescente demanda por cargas de trabalho de inferência impulsiona o interesse nos chips de IA da AMD.
A NVIDIA manteve sua liderança no setor de inteligência artificial (IA) em grande parte devido à sua estratégia de “exclusão do CUDA”.Essa abordagem força provedores de serviços em nuvem (CSPs) e empresas líderes em IA a utilizarem o hardware da NVIDIA para maximizar a eficácia de seu ecossistema de software CUDA. Embora tenham sido feitas tentativas de introduzir compatibilidade multiplataforma, nenhuma delas ganhou força como solução convencional. Recentemente, informações de um funcionário sênior da Microsoft revelaram que a empresa desenvolveu kits de ferramentas que permitem a execução de código CUDA em GPUs AMD, traduzindo-o para um formato compatível com ROCm.
Uma entrevista IMPERDÍVEL com um funcionário de alto escalão da $MSFT sobre data centers e o que está acontecendo agora ( $NVDA / $AMD, resfriamento líquido e HDDs): 1. Os desafios que a $MSFT está enfrentando agora são energia e resfriamento líquido. Para melhorar sua imagem junto às prefeituras, a $MSFT está… pic.twitter.com/jQTfhnxQga
-Richard Jarc (@RihardJarc) 7 de novembro de 2025
Superar a forte presença do CUDA representa um desafio formidável, visto que o ecossistema de software está profundamente integrado em aplicações de IA globalmente, incluindo mercados como a China. No entanto, o conjunto de ferramentas desenvolvido pela Microsoft emprega métodos já consolidados para a transição do CUDA para o ROCm. Uma dessas técnicas é a implementação de uma camada de compatibilidade em tempo de execução, que facilita a tradução de chamadas da API CUDA para ROCm sem a necessidade de reescrever completamente o código-fonte. Um exemplo notável disso é a ferramenta ZLUDA, que captura chamadas CUDA e as traduz em tempo real para uso com o ROCm.

No entanto, a natureza relativamente imatura da pilha de software ROCm apresenta desafios. Certas chamadas de API dentro do CUDA não possuem mapeamentos correspondentes no ecossistema AMD, o que pode levar a problemas de desempenho — um fator especialmente crítico em operações de data centers de grande porte. Também é possível que o conjunto de ferramentas sirva como uma solução abrangente de migração para a nuvem, personalizada para o Azure, capaz de gerenciar instâncias de plataformas AMD e NVIDIA. Embora conversões em larga escala possam introduzir complicações, a abordagem da Microsoft para o desenvolvimento desses conjuntos de ferramentas parece estar em seus estágios iniciais.
A principal motivação que impulsiona o interesse da Microsoft em conversões de software decorre do aumento nas demandas por cargas de trabalho de inferência. A empresa busca aprimorar a eficiência de custos em suas operações, o que se alinha naturalmente com a adoção dos chips de IA da AMD como uma alternativa viável às GPUs da NVIDIA, mais caras. Consequentemente, facilitar a transição de modelos CUDA existentes para a estrutura ROCm está prestes a se tornar um avanço crucial para a estratégia futura da Microsoft.
Deixe um comentário