NVIDIA Blackwell GB200, Microsoft Azure에서 A4 가상 머신에 2.25배 더 높은 컴퓨팅 및 HBM 용량 제공

NVIDIA Blackwell GB200, Microsoft Azure에서 A4 가상 머신에 2.25배 더 높은 컴퓨팅 및 HBM 용량 제공

Microsoft Azure는 OpenAI 기능을 강화하기 위해 최초의 NVIDIA Blackwell “GB200 NVL72” 시스템을 통합하여 중요한 이정표에 도달했으며, 이는 AI 교육 및 최적화에 있어 핵심적인 발전을 나타냅니다.

Microsoft, NVIDIA Blackwell 기술로 OpenAI의 컴퓨팅 기능 확장

최첨단 NVIDIA GB200 NVL72 “Blackwell” 시스템의 도입은 OpenAI의 성능과 역량에 있어 상당한 도약을 의미합니다. NVIDIA의 고급 GPU는 지속적으로 OpenAI의 AI 모델을 지원해 왔습니다.그러나 Microsoft Azure 와의 파트너십은 보다 집중적이고 엄격한 교육 프로세스를 통해 이러한 AI 모델의 효과를 극대화하는 것을 목표로 합니다.

최근 X 게시물에서 OpenAI의 CEO인 샘 알트만은 Microsoft Azure에서 GB200 NVL72 시스템을 수용하는 8개의 랙으로 구성된 첫 번째 완전한 세트를 성공적으로 구현했다고 확인했습니다.이 혁신에 대해 Microsoft의 CEO인 사티아 나델라와 NVIDIA의 CEO인 젠슨 황을 인정한 것은 이러한 선도적인 기술 회사의 협력적 강점을 강조합니다.이 파트너십은 Microsoft를 AI 운영을 위한 클라우드 서비스 공급업체 중에서 강력한 플레이어로 자리매김하게 합니다.

Blackwell 시스템의 타의 추종을 불허하는 계산 능력

정교한 NVIDIA Blackwell GB200 NVL72 시스템은 각 랙에 통합된 36개의 Grace CPU와 72개의 Blackwell GPU로 인상적인 아키텍처를 자랑합니다.8개의 랙에 완전히 배포하면 시스템은 총 288개의 Grace CPU와 놀랍게도 576개의 Blackwell GPU를 갖습니다.이 설정은 놀라운 계산 능력을 생성합니다.단일 랙은 최대 6, 480TFLOPS의 FP32 처리 능력과 3, 240TFLOPS의 FP64 성능을 제공할 수 있으며, 이 수치는 전체 시스템에서 약 51, 840TFLOPS 의 FP32와 25, 920TFLOPS 의 FP64로 확장됩니다.

이러한 놀라운 처리 성능 덕분에 Azure OpenAI 서비스는 효율적으로 운영을 확장하려는 기업에 효과적으로 대응할 수 있습니다. NVIDIA “Blackwell”GB200 NVL72 시스템은 광범위한 생성 AI 작업을 처리하도록 맞춤화되어 있으며, 강력한 병렬 처리 기능과 함께 최대 576TB/s의 높은 메모리 대역폭을 제공합니다.

엔비디아 블랙웰 GPU

OpenAI의 현재 GPU 로스터에는 V100, H100, A100과 같은 다양한 NVIDIA 모델이 포함되어 있지만 Blackwell B200은 GPU 기술의 정점을 나타내며 이전 반복에 비해 상당한 성능 향상을 제공합니다. Microsoft가 OpenAI에 약 140억 달러를 투자한 것을 보면, 그들이 고객에게 가장 진보된 컴퓨팅 솔루션을 제공하는 데 앞장서고 있다는 것이 분명합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다