
NVIDIA, il rinomato produttore di GPU, sta compiendo progressi nell’espansione del suo inventario di soluzioni di memoria modulare innovative note come SOCAMM (Scalable On-Demand AI Memory Module).Questa innovazione è destinata a facilitare l’aggiornamento fluido della memoria sui dispositivi di intelligenza artificiale, migliorando così le prestazioni complessive e l’efficienza energetica.
Espansione di memoria SOCAMM di NVIDIA: una risposta alla crescente domanda
Presentato durante il recente evento NVIDIA GTC, il sistema di memoria SOCAMM è destinato a registrare un notevole aumento di produzione nel corso dell’anno. Questa iniziativa nasce in un contesto in cui NVIDIA punta a offrire prestazioni di alto livello riducendo al minimo il consumo energetico nella sua gamma di prodotti per l’intelligenza artificiale (IA).Durante l’evento, i partecipanti hanno potuto osservare la piattaforma GB300 di NVIDIA in funzione con memoria SOCAMM, un componente sviluppato in collaborazione con Micron. Questa soluzione si differenzia dai tipi di memoria più diffusi come HBM e LPDDR5X, comuni nei server di IA e nei dispositivi mobili.

La memoria SOCAMM utilizza DRAM LPDDR, tradizionalmente preferita per dispositivi mobili e a basso consumo energetico. Tuttavia, una caratteristica distintiva fondamentale della SOCAMM è il suo design modulare, che consente aggiornamenti, a differenza di altri sistemi in cui la memoria è saldata in modo permanente al PCB. Secondo quanto riportato da ETNews, NVIDIA prevede di produrre tra 600.000 e 800.000 unità SOCAMM quest’anno, a conferma del suo impegno nel potenziare la gamma di prodotti AI.
Tra i primi ad adottare la memoria SOCAMM c’è l’ultima iterazione della piattaforma GB300 Blackwell. Questo sviluppo segnala la svolta di NVIDIA verso l’adozione di nuovi fattori di forma della memoria nel suo ecosistema tecnologico di intelligenza artificiale. Sebbene la produzione prevista di 800.000 unità SOCAMM quest’anno sia modesta rispetto alla memoria HBM fornita dai partner di NVIDIA nel 2025, si prevede un’ulteriore espansione il prossimo anno con il lancio della variante di memoria SOCAMM 2.

La memoria SOCAMM introduce un fattore di forma specializzato che non solo è compatto e modulare, ma migliora anche significativamente l’efficienza energetica rispetto alle tradizionali soluzioni RDIMM. Sebbene i dati precisi sull’efficienza energetica siano ancora poco noti, i primi report suggeriscono che SOCAMM promette capacità di larghezza di banda superiori rispetto alle RDIMM, oltre a prestazioni superiori rispetto ad alternative diffuse come LPDDR5X e LPCAMM utilizzate nei dispositivi mobili.
Con una larghezza di banda di memoria prevista compresa tra 150 e 250 GB/s, SOCAMM rappresenta una soluzione flessibile e aggiornabile per PC e server AI. Questa innovazione offre agli utenti la possibilità di apportare semplici miglioramenti, consolidando ulteriormente l’impegno di NVIDIA nel promuovere i progressi nella tecnologia AI.
Lascia un commento