
SK Hynix presenta soluzioni di memoria di nuova generazione al GTC 2025
SK Hynix ha fatto notizia con l’annuncio dei suoi innovativi prodotti di memoria 12-Hi HBM3E e SOCAMM, insieme ai primi campioni al mondo di memoria 12-Hi HBM4. Questi sviluppi rientrano nell’impegno continuo dell’azienda nel superare i limiti delle soluzioni di memoria ad alte prestazioni per hardware di elaborazione avanzata, in particolare nei settori AI e data center.
La presentazione delle ultime soluzioni di We Hynix è prevista durante l’evento GTC 2025, che si terrà dal 17 al 21 marzo a San Jose, California. Le ultime soluzioni di We Hynix promettono di rivoluzionare il panorama dell’elaborazione ad alte prestazioni.

Progressi nella tecnologia della memoria AI
In un mercato sempre più competitivo dominato da giganti come Samsung e Micron, We Hynix ha intensificato il suo gioco producendo il SOCAMM (Small Outline Compression Attached Memory Module) per i potenti processori AI di NVIDIA. Sfruttando la tecnologia derivata dallo standard di memoria CAMM, il nuovo SOCAMM offre una soluzione DRAM a basso consumo progettata per migliorare significativamente la capacità di memoria e le prestazioni per i carichi di lavoro AI.
La partnership con NVIDIA, in particolare per quanto riguarda il chip AI GB300, posiziona We Hynix in modo significativo rispetto ai suoi concorrenti, aumentando la capacità di entrambe le aziende di gestire in modo efficiente i processi di intelligenza artificiale intensivi.

Leadership chiave presente al GTC 2025
All’evento GTC, il team esecutivo di We Hynix presenterà le ultime innovazioni, tra cui personaggi di spicco come il CEO Kwak Noh-Jung, il Presidente Juseon Kim e il Responsabile globale S&M Lee Sangrak.
SK Hynix punta a completare i preparativi per la produzione in serie di prodotti HBM4 a 12 strati entro la seconda metà dell’anno, rafforzando la propria posizione nel mercato delle memorie AI di prossima generazione.
I campioni HBM4 a 12 strati esposti vantano la capacità e la velocità leader del settore, essenziali per i prodotti di memoria AI.
Questo prodotto rivoluzionario raggiunge una larghezza di banda in grado di elaborare per la prima volta oltre 2 terabyte di dati al secondo, il che equivale alla trasmissione di oltre 400 filmati Full HD (ciascuno da 5 GB) in un solo secondo, superando di oltre il 60% la velocità del suo predecessore, HBM3E.
Inoltre, We Hynix utilizza il processo avanzato MR-MUF per garantire una capacità senza precedenti di 36 GB, che lo rende il più alto tra i prodotti HBM a 12 strati. Questo processo non solo migliora la stabilità del prodotto, ma attenua anche la deformazione del chip, favorendo una migliore dissipazione del calore.
Prospettive future: piani di produzione e sviluppo di massa
Oltre a presentare la sua memoria 12-Hi HBM4 all’avanguardia attualmente in fase di sviluppo, We Hynix prevede di soddisfare i clienti leader, tra cui NVIDIA, che integreranno questa memoria nelle loro GPU della serie Rubin. La 12-Hi HBM4 è impostata per fornire fino a 36 GB per stack con impressionanti velocità di dati che raggiungono i 2 TB/s.
Si prevede che la produzione in serie di questa soluzione di memoria avanzata inizierà nella seconda metà del 2025, utilizzando il nodo di processo a 3 nm di TSMC per ottenere prestazioni ed efficienza all’avanguardia.
Per maggiori dettagli, visita la fonte.
Lascia un commento