Microsoft entwickelt Toolkits, um die CUDA-Dominanz von NVIDIA herauszufordern und die Inferenzkosten mit AMD-KI-GPUs zu senken.

Microsoft entwickelt Toolkits, um die CUDA-Dominanz von NVIDIA herauszufordern und die Inferenzkosten mit AMD-KI-GPUs zu senken.

Microsoft erforscht aktiv Möglichkeiten, seine AMD-GPU-Architektur für Inferenzaufgaben zu nutzen. Der Technologiekonzern arbeitet an Toolkits, die NVIDIA-CUDA-Modelle effizient in ROCm-kompatiblen Code konvertieren und damit einen bedeutenden Wandel in der KI-Landschaft einleiten.

Steigende Nachfrage nach Inferenz-Workloads beflügelt das Interesse an AMDs KI-Chips.

NVIDIA hat seine Führungsposition im Bereich der künstlichen Intelligenz (KI) maßgeblich durch seine „CUDA-Lock-in“-Strategie behauptet. Dieser Ansatz zwingt Cloud-Service-Provider (CSPs) und führende KI-Unternehmen dazu, NVIDIA-Hardware einzusetzen, um die Effizienz des CUDA-Software-Ökosystems zu maximieren. Obwohl Versuche unternommen wurden, plattformübergreifende Kompatibilität einzuführen, konnte sich keine dieser Lösungen als Standard durchsetzen. Kürzlich enthüllte ein hochrangiger Microsoft-Mitarbeiter, dass das Unternehmen Toolkits entwickelt hat, die die Ausführung von CUDA-Code auf AMD-GPUs ermöglichen, indem sie diesen in ein mit ROCm kompatibles Format übersetzen.

Die starke Marktstellung von CUDA zu überwinden, stellt eine große Herausforderung dar, da das Software-Ökosystem weltweit, auch in Märkten wie China, tief in KI-Anwendungen verankert ist. Das von Microsoft entwickelte Toolkit nutzt jedoch potenziell bewährte Methoden für den Übergang von CUDA zu ROCm. Eine dieser Techniken ist die Implementierung einer Laufzeitkompatibilitätsschicht, die die Übersetzung von CUDA-API-Aufrufen in ROCm ermöglicht, ohne dass der Quellcode vollständig neu geschrieben werden muss. Ein bemerkenswertes Beispiel hierfür ist das Tool ZLUDA, das CUDA-Aufrufe erfasst und in Echtzeit für die Verwendung mit ROCm übersetzt.

NVIDIA CUDA kann nun direkt auf AMDs RDNA-GPUs ausgeführt werden.

Dennoch birgt der noch relativ unausgereifte ROCm-Software-Stack Herausforderungen. Bestimmte API-Aufrufe innerhalb von CUDA haben keine entsprechenden Zuordnungen im AMD-Ökosystem, was potenziell zu Leistungsproblemen führen kann – ein besonders kritischer Faktor im Betrieb großer Rechenzentren. Es ist auch denkbar, dass das Toolkit als umfassende Cloud-Migrationslösung speziell für Azure dienen könnte, die sowohl AMD- als auch NVIDIA-Plattforminstanzen verwalten kann. Obwohl groß angelegte Migrationen Komplikationen mit sich bringen könnten, scheint sich Microsofts Ansatz zur Entwicklung dieser Toolkits noch in der Anfangsphase zu befinden.

Microsofts Interesse an Softwarekonvertierungen ist vor allem auf den stark gestiegenen Bedarf an Inferenz-Workloads zurückzuführen. Das Unternehmen strebt eine höhere Kosteneffizienz an, was die Einführung von AMD-KI-Chips als praktikable Alternative zu den teureren NVIDIA-GPUs nahelegt. Die Migration bestehender CUDA-Modelle in das ROCm-Framework dürfte daher ein entscheidender Schritt für Microsofts zukünftige Strategie sein.

Quellen & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert