微軟開發工具包,挑戰英偉達CUDA的統治地位,並利用AMD AI GPU降低推理成本

微軟開發工具包,挑戰英偉達CUDA的統治地位,並利用AMD AI GPU降低推理成本

微軟正積極探索如何利用其AMD GPU堆疊進行推理任務。這家科技巨頭正在開發工具包,以有效地將NVIDIA CUDA模型轉換為與ROCm相容的程式碼,這標誌著人工智慧領域的重大轉變。

推理工作負載需求的成長推動了人們對AMD人工智慧晶片的興趣。

NVIDIA之所以能在人工智慧(AI)領域保持領先地位,很大程度上歸功於其「CUDA鎖定」策略。這種策略迫使雲端服務供應商(CSP)和領先的AI企業採用NVIDIA的硬件,以最大限度地發揮其CUDA軟體生態系統的效用。儘管NVIDIA曾嘗試引入跨平台相容性,但至今仍未有任何方案成為主流。最近,一位微軟高層透露,該公司已開發出一些工具包,可以將CUDA程式碼轉換為與ROCm相容的格式,從而在AMD GPU上執行CUDA程式碼。

克服 CUDA 的強大優勢是一項艱鉅的挑戰,因為該軟體生態系統已深度嵌入全球(包括中國等市場)的 AI 應用中。然而,微軟開發的工具包可能採用了成熟的方法來實現從 CUDA 到 ROCm 的過渡。其中一項技術是實現運行時相容層,該相容層能夠將 CUDA API 呼叫轉換為 ROCm 調用,而無需完全重寫原始程式碼。 ZLUDA 工具就是一個顯著的例子,它可以捕捉 CUDA 呼叫並將其即時轉換為 ROCm 可用的格式。

NVIDIA CUDA 現在可以直接在 AMD 的 RDNA GPU 上運作。

然而,ROCm 軟體堆疊相對不成熟,這帶來了一些挑戰。 CUDA 中的某些 API 呼叫在 AMD 生態系統中缺乏相應的映射,這可能會導致效能問題——對於大型資料中心營運而言,效能問題尤其關鍵。此外,該工具包還有可能成為專為 Azure 客製化的全面雲端遷移解決方案,能夠同時管理 AMD 和 NVIDIA 平台執行個體。雖然大規模轉換可能會帶來一些複雜情況,但微軟開發這些工具包的方法似乎仍處於初期階段。

微軟對軟體轉換的主要興趣源於推理工作負載需求的激增。該公司旨在提高營運成本效益,這自然促使其採用AMD的AI晶片作為價格更高的NVIDIA GPU的可行替代方案。因此,推動現有CUDA模型向ROCm框架的過渡,對於微軟未來的策略發展至關重要。

圖片來源及圖片

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *