Outbyte PC Repair

L’industria HBM è destinata a raddoppiare le entrate entro il 2025, per gentile concessione dei chip AI di nuova generazione di NVIDIA e altri

L’industria HBM è destinata a raddoppiare le entrate entro il 2025, per gentile concessione dei chip AI di nuova generazione di NVIDIA e altri

Il mercato HBM, spesso considerato la spina dorsale dell’informatica basata sull’intelligenza artificiale, è destinato a raddoppiare le entrate di mercato entro il 2025 , man mano che il settore si sposta verso i chip di prossima generazione.

I mercati HBM hanno visto una nuova speranza con l’influenza dell’intelligenza artificiale, catalizzando un’enorme crescita delle entrate

Considerando ciò, il ricercatore di mercato Gartner riferisce che il mercato HBM raggiungerà l’enorme cifra di 4,976 miliardi di dollari entro il 2025, che è quasi il doppio se si considerano le cifre raggiunte nel 2023. La stima si basa esclusivamente sulla domanda attuale e prevista dal settore, e nessuna sorpresa qui poiché l’area chiave in cui HBM vende di più è la sua applicazione nelle GPU AI. Come riportato più volte in passato, l’improvviso aumento della domanda di GPU AI ha creato una carenza di HBM nei mercati, poiché HBM è il componente principale nella composizione di un acceleratore AI.

NVIDIA lavora e rispetta pienamente le politiche statunitensi nello sviluppo di nuovi chip IA per la Cina 1

C’è anche un enorme senso di ottimismo riguardo al futuro della HBM, dal momento che, secondo quanto riportato in precedenza, il settore si sta effettivamente spostando verso standard più nuovi, con prodotti come HBM3e e HBM4 destinati a ricevere un’adozione diffusa da parte dei produttori.

NVIDIA ha molto in programma per i suoi clienti nel 2024, dal momento che la società ha già annunciato la GPU H200 Hopper , che dovrebbe vedere l’adozione di massa entro il prossimo anno, seguita dall’introduzione delle GPU AI B100 “Blackwell” , entrambe essere basato sulla tecnologia di memoria HBM3e. Una situazione simile si riscontra anche nel campo di AMD, con il debutto delle GPU AMD Instinct di nuova generazione caratterizzate dal nuovo tipo HBM.

Confronto delle specifiche della memoria HBM

DRAM HBM1 HBM2 HBM2e HBM3 HBM3Gen2 HBMNext (HBM4)
I/O (interfaccia bus) 1024 1024 1024 1024 1024-2048 1024-2048
Prelettura (I/O) 2 2 2 2 2 2
Larghezza di banda massima 128GB/s 256GB/s 460,8 GB/sec 819,2 GB/s 1,2 TB/s 1,5 – 2,0 TB/s
Circuiti integrati DRAM per stack 4 8 8 12 8-12 8-12
Capacità massima 4GB 8GB 16 GB 24 GB 24 – 36GB 36-64GB
tRC 48ns 45ns 45ns Da definire Da definire Da definire
tCCD 2ns (=1tCK) 2ns (=1tCK) 2ns (=1tCK) Da definire Da definire Da definire
VPP VPP esterno VPP esterno VPP esterno VPP esterno VPP esterno Da definire
VDD 1,2 V 1,2 V 1,2 V Da definire Da definire Da definire
Ingresso di comando Doppio comando Doppio comando Doppio comando Doppio comando Doppio comando Doppio comando

L’industria delle memorie ha infatti visto una rinascita con l’avvento dell’intelligenza artificiale sui mercati e, per quanto ci dicono gli indicatori, le cose non sembreranno calmarsi per ora.

Fonte notizia: Ctee

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *