La linea di GPU Blackwell AI di NVIDIA includerà due importanti acceleratori, il B100 per il 2024 e il B200 per il 2025, come rivelato da Dell.
Dell spiega tutto sugli acceleratori GPU Blackwell AI di prossima generazione di NVIDIA, B100 nel 2024 seguito da B200 nel 2025
Durante la sua recente conferenza sugli utili, Dell ha rivelato il fatto che la linea Blackwell di prossima generazione di NVIDIA non avrà solo un acceleratore AI B100 ma sarà offerta in seguito una versione aggiornata. A quanto pare, NVIDIA sembra aver già divulgato queste informazioni ai suoi partner più grandi come Dell, che gestirà server e data center utilizzando l’intelligenza artificiale più recente di NVIDIA e l’hardware pronto per il calcolo.
Sappiamo che le GPU Blackwell di NVIDIA saranno lanciate quest’anno e faranno il loro debutto formale al GTC 2024 questo mese , a poche settimane di distanza. Le roadmap attuali indicano NVIDIA B100, GB200 e GB200NVL, dove B100 è il nome in codice della GPU stessa, GB200 è la piattaforma Superchip e GB200NVL è la piattaforma interconnessa per l’uso del supercalcolo.
Attualmente, ci sono rapporti secondo cui le GPU Blackwell di NVIDIA potrebbero utilizzare un design monolitico anche se nulla è ancora concreto. Ciò che è noto è che, come le GPU Hopper H200, il Blackwell B100 nella sua prima generazione sfrutterà le tecnologie di memoria HBM3e. Quindi la variante B200 aggiornata può finire per utilizzare una versione ancora più veloce della memoria HBM insieme a capacità di memoria possibilmente più elevate, specifiche aggiornate e funzionalità migliorate. Si dice che Samsung sia uno dei principali fornitori di memoria per le GPU Blackwell .
Ovviamente, qualunque sia la nostra prospettiva sui cambiamenti, siamo entusiasti di ciò che sta accadendo con l’H200 e del suo miglioramento delle prestazioni. Siamo entusiasti di ciò che accade al B100 e al B200 e pensiamo che sia lì che ci sia effettivamente un’altra opportunità per distinguere la sicurezza ingegneristica. Secondo la nostra caratterizzazione dal punto di vista termico, non è davvero necessario il raffreddamento a liquido diretto per raggiungere la densità energetica di 1.000 watt per GPU.
Ciò accadrà l’anno prossimo con la B200 . L’opportunità per noi di mostrare davvero la nostra ingegneria e la velocità con cui possiamo muoverci e il lavoro che abbiamo svolto come leader del settore per portare la nostra esperienza per far sì che il raffreddamento a liquido funzioni su larga scala, che si tratti di cose nella chimica dei fluidi e nelle prestazioni, la nostra interconnessione lavoro, la telemetria che stiamo facendo, il lavoro di gestione dell’energia che stiamo facendo, ci permette davvero di essere pronti a portarlo sul mercato su larga scala per sfruttare questa incredibile capacità computazionale, intensità o capacità che esisterà sul mercato .
Robert L. Williams – Dell Technologies Inc. – Vicepresidente senior di IR
È interessante notare che l’SVP di Dell sottolinea anche che la densità di potenza di queste GPU di nuova generazione come NVIDIA Blackwell B100 e B200 sarà di 1000 W, un numero enorme ma niente che non ci aspettassimo da alcuni degli acceleratori IA più veloci al mondo . NVIDIA Hopper H200 e AMD Instinct MI300X possono già consumare fino a 800 W al massimo della potenza, quindi considerati gli aumenti di prestazioni che Blackwell dovrebbe apportare , un aumento di potenza di 200 W sarà piuttosto nominale dato il suo aumento di efficienza.
I requisiti energetici sia per CPU che per GPU continueranno ad aumentare in futuro, come sottolineato qualche tempo fa nella roadmap di Gigabyte . Per superare questi problemi, le aziende faranno leva su tecnologie avanzate di processo e confezionamento per garantire che il costo dello sviluppo dei chip rimanga ottimale garantendo al tempo stesso una maggiore efficienza energetica.
Roadmap per data center NVIDIA/GPU AI
Nome in codice GPU | X | Rubino | Blackwell | Tramoggia | Ampere | Volta | Pascal |
---|---|---|---|---|---|---|---|
Famiglia GPU | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | R100 | B100/B200 | H100/H200 | A100 | V100 | P100 |
Memoria | HBM4e? | HBM4? | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
Lancio | 202X | 2025 | 2024 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Fonte notizia: Barron’s
Lascia un commento