GPU NVIDIA Blackwell B100 in arrivo quest’anno e B200 aggiornato per i data center AI del 2025, conferma Dell

GPU NVIDIA Blackwell B100 in arrivo quest’anno e B200 aggiornato per i data center AI del 2025, conferma Dell

La linea di GPU Blackwell AI di NVIDIA includerà due importanti acceleratori, il B100 per il 2024 e il B200 per il 2025, come rivelato da Dell.

Dell spiega tutto sugli acceleratori GPU Blackwell AI di prossima generazione di NVIDIA, B100 nel 2024 seguito da B200 nel 2025

Durante la sua recente conferenza sugli utili, Dell ha rivelato il fatto che la linea Blackwell di prossima generazione di NVIDIA non avrà solo un acceleratore AI B100 ma sarà offerta in seguito una versione aggiornata. A quanto pare, NVIDIA sembra aver già divulgato queste informazioni ai suoi partner più grandi come Dell, che gestirà server e data center utilizzando l’intelligenza artificiale più recente di NVIDIA e l’hardware pronto per il calcolo.

Fonte immagine: NVIDIA

Sappiamo che le GPU Blackwell di NVIDIA saranno lanciate quest’anno e faranno il loro debutto formale al GTC 2024 questo mese , a poche settimane di distanza. Le roadmap attuali indicano NVIDIA B100, GB200 e GB200NVL, dove B100 è il nome in codice della GPU stessa, GB200 è la piattaforma Superchip e GB200NVL è la piattaforma interconnessa per l’uso del supercalcolo.

Attualmente, ci sono rapporti secondo cui le GPU Blackwell di NVIDIA potrebbero utilizzare un design monolitico anche se nulla è ancora concreto. Ciò che è noto è che, come le GPU Hopper H200, il Blackwell B100 nella sua prima generazione sfrutterà le tecnologie di memoria HBM3e. Quindi la variante B200 aggiornata può finire per utilizzare una versione ancora più veloce della memoria HBM insieme a capacità di memoria possibilmente più elevate, specifiche aggiornate e funzionalità migliorate. Si dice che Samsung sia uno dei principali fornitori di memoria per le GPU Blackwell .

Ovviamente, qualunque sia la nostra prospettiva sui cambiamenti, siamo entusiasti di ciò che sta accadendo con l’H200 e del suo miglioramento delle prestazioni. Siamo entusiasti di ciò che accade al B100 e al B200 e pensiamo che sia lì che ci sia effettivamente un’altra opportunità per distinguere la sicurezza ingegneristica. Secondo la nostra caratterizzazione dal punto di vista termico, non è davvero necessario il raffreddamento a liquido diretto per raggiungere la densità energetica di 1.000 watt per GPU.

Ciò accadrà l’anno prossimo con la B200 . L’opportunità per noi di mostrare davvero la nostra ingegneria e la velocità con cui possiamo muoverci e il lavoro che abbiamo svolto come leader del settore per portare la nostra esperienza per far sì che il raffreddamento a liquido funzioni su larga scala, che si tratti di cose nella chimica dei fluidi e nelle prestazioni, la nostra interconnessione lavoro, la telemetria che stiamo facendo, il lavoro di gestione dell’energia che stiamo facendo, ci permette davvero di essere pronti a portarlo sul mercato su larga scala per sfruttare questa incredibile capacità computazionale, intensità o capacità che esisterà sul mercato .

Robert L. Williams – Dell Technologies Inc. – Vicepresidente senior di IR

Fonte immagine: NVIDIA

È interessante notare che l’SVP di Dell sottolinea anche che la densità di potenza di queste GPU di nuova generazione come NVIDIA Blackwell B100 e B200 sarà di 1000 W, un numero enorme ma niente che non ci aspettassimo da alcuni degli acceleratori IA più veloci al mondo . NVIDIA Hopper H200 e AMD Instinct MI300X possono già consumare fino a 800 W al massimo della potenza, quindi considerati gli aumenti di prestazioni che Blackwell dovrebbe apportare , un aumento di potenza di 200 W sarà piuttosto nominale dato il suo aumento di efficienza.

I requisiti energetici sia per CPU che per GPU continueranno ad aumentare in futuro, come sottolineato qualche tempo fa nella roadmap di Gigabyte . Per superare questi problemi, le aziende faranno leva su tecnologie avanzate di processo e confezionamento per garantire che il costo dello sviluppo dei chip rimanga ottimale garantendo al tempo stesso una maggiore efficienza energetica.

Roadmap per data center NVIDIA/GPU AI

Nome in codice GPU X Rubino Blackwell Tramoggia Ampere Volta Pascal
Famiglia GPU GX200 GR100 GB200 GH200/GH100 GA100 GV100 GP100
GPU WeU X100 R100 B100/B200 H100/H200 A100 V100 P100
Memoria HBM4e? HBM4? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Lancio 202X 2025 2024 2022-2024 2020-2022 2018 2016

Fonte notizia: Barron’s

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *