NVIDIA, 올해 AI 제품에 80만 개의 SOCAMM 모듈 배포 계획

NVIDIA, 올해 AI 제품에 80만 개의 SOCAMM 모듈 배포 계획

유명 GPU 제조업체인 엔비디아는 SOCAMM(Scalable On-Demand AI Memory Module)이라는 혁신적인 모듈형 메모리 솔루션의 재고를 확대하는 데 박차를 가하고 있습니다.이러한 발전은 AI 기기 전반의 원활한 메모리 업그레이드를 지원하여 전반적인 성능과 에너지 효율을 향상시킬 것으로 기대됩니다.

NVIDIA의 SOCAMM 메모리 확장: 증가하는 수요에 대한 대응

최근 엔비디아 GTC 행사에서 공개된 SOCAMM 메모리 시스템은 올해 생산량이 눈에 띄게 증가할 것으로 예상됩니다.엔비디아는 인공지능(AI) 제품 라인업에서 최고 수준의 성능을 제공하는 동시에 전력 소비를 최소화하고자 이러한 계획을 추진하고 있습니다.행사 참석자들은 마이크론과 공동 개발한 SOCAMM 메모리를 탑재한 엔비디아 GB300 플랫폼을 직접 확인했습니다.이 솔루션은 AI 서버와 모바일 기기에 널리 사용되는 HBM 및 LPDDR5X 메모리와 차별화됩니다.

소캄

SOCAMM 메모리는 전통적으로 모바일 및 에너지 효율이 높은 기기에 선호되는 LPDDR DRAM을 사용합니다.그러나 SOCAMM의 주요 특징은 모듈식 설계로, 메모리가 PCB에 영구적으로 납땜되는 다른 시스템과 달리 업그레이드가 가능하다는 것입니다.ETNews 의 보도 에 따르면 엔비디아는 올해 SOCAMM을 60만 대에서 80만 대까지 생산할 계획이며, AI 제품군 강화에 대한 의지를 강조하고 있습니다.

SOCAMM 메모리를 조기에 도입한 기업 중에는 GB300 Blackwell 플랫폼의 최신 버전이 있습니다.이러한 개발은 NVIDIA가 AI 기술 생태계 전반에 걸쳐 새로운 메모리 폼팩터를 도입하는 방향으로 전환하고 있음을 보여줍니다.올해 최대 80만 대의 SOCAMM 유닛 생산이 예상되지만, 이는 NVIDIA 파트너사들이 2025년에 공급할 HBM 메모리에 비하면 미미한 수준이지만, 내년에는 SOCAMM 2 메모리 버전이 출시됨에 따라 생산량이 더욱 증가할 것으로 예상됩니다.

SOCAMM 엔비디아 GB300
이미지 출처: servethehome.com

SOCAMM 메모리는 소형 모듈형일 뿐만 아니라 기존 RDIMM 솔루션에 비해 전력 효율을 크게 향상시키는 특수 폼팩터를 제공합니다.전력 효율에 대한 정확한 수치는 아직 공개되지 않았지만, 초기 보고서에 따르면 SOCAMM은 RDIMM보다 더 높은 대역폭을 제공할 뿐만 아니라 모바일 기기에 사용되는 LPDDR5X 및 LPCAMM과 같은 기존 대안보다 우수한 성능을 제공할 것으로 예상됩니다.

예상 메모리 대역폭이 150~250GB/s에 달하는 SOCAMM은 AI PC 및 서버를 위한 유연하고 업그레이드 가능한 솔루션을 제공합니다.이러한 혁신은 사용자에게 손쉬운 성능 향상 가능성을 제공하며, AI 기술 발전을 선도하려는 NVIDIA의 의지를 더욱 확고히 합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다