微软开发工具包,挑战英伟达CUDA的统治地位,并利用AMD AI GPU降低推理成本

微软开发工具包,挑战英伟达CUDA的统治地位,并利用AMD AI GPU降低推理成本

微软正积极探索如何利用其AMD GPU堆栈进行推理任务。这家科技巨头正在开发工具包,以有效地将NVIDIA CUDA模型转换为与ROCm兼容的代码,这标志着人工智能领域的一次重大转变。

推理工作负载需求的增长推动了人们对AMD人工智能芯片的兴趣。

NVIDIA之所以能在人工智能(AI)领域保持领先地位,很大程度上归功于其“CUDA锁定”策略。这种策略迫使云服务提供商(CSP)和领先的AI企业采用NVIDIA的硬件,以最大限度地发挥其CUDA软件生态系统的效用。尽管NVIDIA曾尝试引入跨平台兼容性,但至今仍未有任何方案成为主流。最近,一位微软高管透露,该公司已开发出一些工具包,可以将CUDA代码转换为与ROCm兼容的格式,从而在AMD GPU上执行CUDA代码。

克服 CUDA 的强大优势是一项艰巨的挑战,因为该软件生态系统已深度嵌入全球(包括中国等市场)的 AI 应用中。然而,微软开发的工具包可能采用了成熟的方法来实现从 CUDA 到 ROCm 的过渡。其中一项技术是实现运行时兼容层,该兼容层能够将 CUDA API 调用转换为 ROCm 调用,而无需完全重写源代码。ZLUDA 工具就是一个显著的例子,它可以捕获 CUDA 调用并实时将其转换为 ROCm 可用的格式。

NVIDIA CUDA 现在可以直接在 AMD 的 RDNA GPU 上运行。

然而,ROCm 软件栈相对不成熟,这带来了一些挑战。CUDA 中的某些 API 调用在 AMD 生态系统中缺乏相应的映射,这可能会导致性能问题——对于大型数据中心运营而言,性能问题尤为关键。此外,该工具包还有可能成为专为 Azure 定制的全面云迁移解决方案,能够同时管理 AMD 和 NVIDIA 平台实例。虽然大规模转换可能会带来一些复杂情况,但微软开发这些工具包的方法似乎仍处于初期阶段。

微软对软件转换的主要兴趣源于推理工作负载需求的激增。该公司旨在提高运营成本效益,这自然而然地促使其采用AMD的AI芯片作为价格更高的NVIDIA GPU的可行替代方案。因此,推动现有CUDA模型向ROCm框架的过渡,对于微软未来的战略发展而言至关重要。

图片来源及图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注