
NVIDIA, le célèbre fabricant de GPU, étend progressivement son offre de mémoire modulaire innovante, baptisée SOCAMM (Scalable On-Demand AI Memory Module).Cette avancée devrait faciliter les mises à niveau de mémoire fluides sur les appareils IA, améliorant ainsi les performances globales et l’efficacité énergétique.
Extension de mémoire SOCAMM de NVIDIA : une réponse à la demande croissante
Dévoilé lors du récent événement NVIDIA GTC, le système de mémoire SOCAMM devrait connaître une augmentation notable de sa production tout au long de l’année. Cette initiative s’inscrit dans le cadre de l’objectif de NVIDIA d’offrir des performances de pointe tout en minimisant la consommation d’énergie de sa gamme de produits d’intelligence artificielle (IA).Lors de l’événement, les participants ont pu observer la plateforme GB300 de NVIDIA fonctionner avec la mémoire SOCAMM, un composant développé en collaboration avec Micron. Cette solution se distingue des types de mémoire largement répandus comme HBM et LPDDR5X, couramment utilisés dans les serveurs d’IA et les appareils mobiles.

La mémoire SOCAMM utilise de la DRAM LPDDR, traditionnellement privilégiée pour les appareils mobiles et économes en énergie. Cependant, sa conception modulaire, qui permet des mises à niveau, constitue une caractéristique clé de la SOCAMM, contrairement à d’autres systèmes où la mémoire est soudée de manière permanente au circuit imprimé. Selon ETNews, NVIDIA prévoit de fabriquer entre 600 000 et 800 000 unités SOCAMM cette année, confirmant ainsi son engagement à améliorer sa gamme de produits d’IA.
Parmi les premiers utilisateurs de la mémoire SOCAMM figure la dernière version de la plateforme GB300 Blackwell. Cette évolution marque la transition de NVIDIA vers l’adoption de nouveaux formats de mémoire au sein de son écosystème technologique d’IA. Bien que la production prévue, pouvant atteindre 800 000 unités SOCAMM cette année, soit modeste par rapport à la mémoire HBM fournie par les partenaires de NVIDIA en 2025, une nouvelle montée en puissance est attendue l’année prochaine avec le lancement de la variante de mémoire SOCAMM 2.

La mémoire SOCAMM présente un format spécialisé, non seulement compact et modulaire, mais aussi considérablement plus économe en énergie par rapport aux solutions RDIMM traditionnelles. Bien que les mesures précises d’efficacité énergétique restent confidentielles, les premiers rapports suggèrent que la mémoire SOCAMM promet une bande passante supérieure à celle des RDIMM, ainsi que des performances supérieures à celles des alternatives populaires comme la LPDDR5X et la LPCAMM utilisées dans les appareils mobiles.
Avec une bande passante mémoire attendue comprise entre 150 et 250 Go/s, SOCAMM représente une solution flexible et évolutive pour les PC et serveurs IA. Cette innovation offre aux utilisateurs un potentiel d’améliorations simplifié, confirmant ainsi l’engagement de NVIDIA à être à la pointe des avancées technologiques en IA.
Laisser un commentaire