Microsoft는 추론 작업에 AMD GPU 스택을 활용하는 방안을 적극적으로 연구하고 있습니다.이 기술 대기업은 NVIDIA CUDA 모델을 ROCm 호환 코드로 효과적으로 변환하는 툴킷을 개발하고 있으며, 이는 AI 환경에 큰 변화를 가져올 것입니다.
추론 워크로드에 대한 수요 증가로 AMD AI 칩에 대한 관심 증가
엔비디아는 ‘CUDA 록인(lock-in)’ 전략 덕분에 인공지능(AI) 분야에서 선두 자리를 굳건히 지켜왔습니다.이러한 전략은 클라우드 서비스 제공업체(CSP)와 선도적인 AI 기업들이 엔비디아의 하드웨어를 도입하여 CUDA 소프트웨어 생태계의 효율성을 극대화하도록 유도합니다.크로스 플랫폼 호환성을 도입하려는 시도가 있었지만, 주류 솔루션으로 자리매김하지는 못했습니다.최근 마이크로소프트 고위 직원 의 분석 에 따르면, 엔비디아는 ROCm과 호환되는 형식으로 변환하여 AMD GPU에서 CUDA 코드를 실행할 수 있는 툴킷을 개발했습니다.
$MSFT 고위 직원과의 데이터 센터 현황과 현재 상황( $NVDA / $AMD, 수냉, HHD)에 대한 필독 인터뷰: 1.$MSFT가 현재 직면한 과제는 에너지와 수냉입니다.지자체와의 신뢰 관계를 개선하기 위해 $MSFT 는… pic.twitter.com/jQTfhnxQga
— Richard Jarc(@RihardJarc) 2025년 11월 7일
CUDA의 강점을 극복하는 것은 중국과 같은 시장을 포함하여 전 세계적으로 AI 애플리케이션에 소프트웨어 생태계가 깊이 자리 잡고 있기 때문에 어려운 과제입니다.그러나 Microsoft에서 개발한 툴킷은 CUDA에서 ROCm으로의 전환을 위한 기존 방법을 잠재적으로 활용할 수 있습니다.한 가지 방법은 런타임 호환성 계층을 구현하는 것으로, 소스 코드를 완전히 재작성하지 않고도 CUDA API 호출을 ROCm으로 쉽게 변환할 수 있도록 합니다.대표적인 예로 CUDA 호출을 캡처하여 ROCm에서 사용할 수 있도록 실시간으로 변환하는 ZLUDA 도구가 있습니다.

그럼에도 불구하고 ROCm 소프트웨어 스택의 상대적으로 미숙한 특성은 여러 가지 과제를 야기합니다. CUDA 내의 특정 API 호출은 AMD 생태계에서 해당 매핑이 부족하여 성능 문제를 야기할 수 있으며, 이는 대규모 데이터센터 운영에서 특히 중요한 요소입니다.또한 이 툴킷이 AMD와 NVIDIA 플랫폼 인스턴스를 모두 관리할 수 있는 Azure에 최적화된 포괄적인 클라우드 마이그레이션 솔루션 역할을 할 가능성도 있습니다.대규모 전환은 복잡한 문제를 야기할 수 있지만, 이러한 툴킷을 개발하는 Microsoft의 접근 방식은 아직 초기 단계에 있는 것으로 보입니다.
마이크로소프트가 소프트웨어 전환에 관심을 갖는 주된 이유는 추론 워크로드 요구 사항의 급증 때문입니다.마이크로소프트는 운영 비용 효율성을 높이고자 하는데, 이는 고가의 엔비디아 GPU에 대한 실행 가능한 대안으로 AMD의 AI 칩을 도입하는 것과 자연스럽게 부합합니다.따라서 기존 CUDA 모델을 ROCm 프레임워크로 전환하는 것은 마이크로소프트의 향후 전략에 있어 중추적인 진전이 될 것으로 예상됩니다.
답글 남기기