
知名 GPU 制造商 NVIDIA 正在大力扩展其创新模块化内存解决方案 SOCAMM(可扩展按需 AI 内存模块)的库存。这一进展有望促进 AI 设备内存的无缝升级,从而提升整体性能和能效。
NVIDIA 的 SOCAMM 内存扩展:应对不断增长的需求
SOCAMM内存系统在最近的NVIDIA GTC大会上亮相,预计今年产量将显著提升。这一举措正值NVIDIA致力于在其人工智能(AI)产品系列中提供顶级性能的同时,最大限度地降低功耗之际。活动期间,与会者参观了NVIDIA的GB300平台,该平台搭载了与美光科技合作开发的SOCAMM内存组件。该解决方案与AI服务器和移动设备中常见的HBM和LPDDR5X等广泛使用的内存类型截然不同。

SOCAMM 内存采用 LPDDR DRAM,这种内存传统上常用于移动和节能设备。然而,SOCAMM 的一个关键区别在于其模块化设计,允许升级——这与其他将内存永久焊接到 PCB 上的系统不同。ETNews 的报道显示,NVIDIA 计划今年生产 60 万至 80 万台 SOCAMM,这凸显了其致力于增强 AI 产品系列的决心。
GB300 Blackwell 平台的最新版本是 SOCAMM 内存的早期采用者之一。这一发展标志着 NVIDIA 正转向在其 AI 技术生态系统中采用新的内存形式。尽管今年预计的 80 万个 SOCAMM 单元产量与 NVIDIA 合作伙伴在 2025 年提供的 HBM 内存相比规模不大,但随着 SOCAMM 2 内存版本的推出,预计明年产量将进一步扩大。

SOCAMM内存采用了一种特殊的外形设计,不仅紧凑且模块化,而且与传统的RDIMM解决方案相比,其能效也显著提升。虽然具体的能效指标仍未公布,但早期报告显示,SOCAMM有望提供比RDIMM更高的带宽,并且性能优于移动设备中使用的LPDDR5X和LPCAMM等主流替代方案。
SOCAMM 的预期内存带宽为 150 至 250 GB/s,为 AI PC 和服务器提供了一种灵活且可升级的解决方案。这项创新为用户提供了轻松增强的潜力,进一步巩固了 NVIDIA 引领 AI 技术进步的承诺。
发表回复