
Le marché des HBM, qui est souvent considéré comme l’épine dorsale de l’informatique IA, devrait doubler ses revenus du marché d’ici 2025 , à mesure que l’industrie s’oriente vers les puces de nouvelle génération.
Les marchés HBM ont vu un nouvel espoir grâce à l’influence de l’IA, catalysant une immense croissance des revenus
Voyant cela, l’étude de marché Gartner rapporte que le marché des HBM atteindra la somme énorme de 4,976 milliards de dollars d’ici 2025, soit presque le double si l’on considère les chiffres obtenus en 2023. L’estimation est uniquement basée sur la demande actuelle et anticipée. de l’industrie, et pas de surprises ici puisque le domaine clé dans lequel HBM vend le plus est son application dans les GPU AI. Comme cela a été signalé à plusieurs reprises dans le passé, l’augmentation soudaine de la demande de GPU pour l’IA a créé une pénurie de HBM sur les marchés, puisque le HBM est le principal composant de la composition d’un accélérateur d’IA.

Il existe également un énorme sentiment d’optimisme quant à l’avenir du HBM, puisque, selon les rapports précédents, l’industrie s’oriente effectivement vers des normes plus récentes, les modèles HBM3e et HBM4 étant sur le point d’être largement adoptés par les fabricants.
NVIDIA a beaucoup de choses prévues pour ses clients en 2024, puisque la société a déjà annoncé le GPU H200 Hopper , qui devrait être adopté massivement d’ici l’année prochaine, suivi de l’introduction des GPU AI B100 « Blackwell » , qui tous deux seront être basé sur la technologie de mémoire HBM3e. Une situation similaire se retrouve également dans le camp d’AMD, avec le lancement de ses GPU AMD Instinct de nouvelle génération dotés du nouveau type HBM.
Comparaison des spécifications de la mémoire HBM
DRACHME | HBM1 | HBM2 | HBM2e | HBM3 | HBM3 Gen2 | HBMNuivant (HBM4) |
---|---|---|---|---|---|---|
E/S (interface bus) | 1024 | 1024 | 1024 | 1024 | 1024-2048 | 1024-2048 |
Prélecture (E/S) | 2 | 2 | 2 | 2 | 2 | 2 |
Bande passante maximale | 128 Go/s | 256 Go/s | 460,8 Go/s | 819,2 Go/s | 1,2 To/s | 1,5 à 2,0 To/s |
CI DRAM par pile | 4 | 8 | 8 | 12 | 8-12 | 8-12 |
Capacité maximale | 4 GO | 8 Go | 16 GB | 24 Go | 24 – 36 Go | 36-64 Go |
tRC | 48ns | 45ns | 45ns | À déterminer | À déterminer | À déterminer |
tCCD | 2ns (=1tCK) | 2ns (=1tCK) | 2ns (=1tCK) | À déterminer | À déterminer | À déterminer |
VPP | VPP externe | VPP externe | VPP externe | VPP externe | VPP externe | À déterminer |
VDD | 1,2 V | 1,2 V | 1,2 V | À déterminer | À déterminer | À déterminer |
Entrée de commande | Double commande | Double commande | Double commande | Double commande | Double commande | Double commande |
L’industrie de la mémoire a en effet connu un renouveau avec l’avènement de l’IA sur les marchés, et d’après ce que nous disent les indicateurs, les choses ne semblent pas se calmer pour l’instant.
Source d’information : Ctee
Laisser un commentaire