A marzo, NVIDIA ha presentato la sua innovativa piattaforma Blackwell, che vanta una notevole riduzione fino a 25 volte dei costi e del consumo energetico rispetto al suo precedente modello per la formazione di grandi modelli linguistici. L’attesa è alta tra i principali fornitori di servizi cloud e le principali aziende di intelligenza artificiale, come Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla e xAI, che dovrebbero integrare Blackwell nelle loro operazioni al momento del suo rilascio.
Tuttavia, il lancio della piattaforma Blackwell ha dovuto affrontare una battuta d’arresto di circa tre mesi a causa di un problema di progettazione. Di recente, Microsoft ha annunciato su X di aver già iniziato a ricevere i chip GB200 Blackwell di NVIDIA e di stare attualmente ottimizzando i propri server per utilizzare appieno questi nuovi chip. Questa ottimizzazione sfrutta la tecnologia di rete avanzata Infiniband di NVIDIA e gli innovativi sistemi di raffreddamento a liquido a circuito chiuso.
Microsoft Azure è la prima piattaforma cloud a implementare l’architettura Blackwell di @nvidia con server AI basati su GB200. Stiamo migliorando le prestazioni a ogni livello per supportare i principali modelli AI al mondo, utilizzando reti Infiniband e raffreddamento a liquido a circuito chiuso all’avanguardia. Scopri di più su MS Ignite. pic.twitter.com/K1dKbwS2Ew
— Microsoft Azure (@Azure) 8 ottobre 2024
Inoltre, il CEO di Microsoft Satya Nadella ha condiviso un aggiornamento riguardante l’implementazione di GB200:
La nostra duratura collaborazione con NVIDIA e la continua innovazione stanno dettando il ritmo del settore, potenziando i carichi di lavoro di intelligenza artificiale più complessi. https://t.co/qaEoSv8dm5
— Satya Nadella (@satyanadella) 8 ottobre 2024
Inoltre, NVIDIA ha recentemente consegnato una delle versioni ingegneristiche iniziali del DGX B200 anche al team OpenAI:
Date un’occhiata a cosa è appena arrivato nel nostro ufficio. Grazie, @nvidia , per averci inviato una delle prime unità di ingegneria del DGX B200. pic.twitter.com/vy8bWUEwUi
– OpenAI (@OpenAI) 8 ottobre 2024
Dato l’ampio interesse da parte di vari potenziali clienti per la piattaforma Blackwell di NVIDIA, ha senso che Microsoft e OpenAI siano tra i primi a ricevere questi chip. A differenza di altri importanti fornitori di cloud come Google e AWS, che hanno le proprie infrastrutture di training AI (Google con Tensor Processing Unit e AWS sviluppando chip personalizzati), Microsoft e OpenAI dipendono completamente dalla tecnologia di NVIDIA, posizionandosi come alcuni dei più grandi clienti di NVIDIA.
Ulteriori dettagli riguardanti l’implementazione del GB200 di NVIDIA sono attesi da Microsoft durante la conferenza Ignite in programma a novembre.
Lascia un commento