Outbyte PC Repair

Google sfida le GPU Nvidia Blackwell con le ultime TPU Trillium

Google sfida le GPU Nvidia Blackwell con le ultime TPU Trillium

TPU Trillium di Google: una nuova era nell’accelerazione dell’intelligenza artificiale

Dieci anni fa, Google ha intrapreso il suo viaggio per creare acceleratori AI personalizzati noti come Tensor Processing Unit (TPU). All’inizio del 2023, il gigante della tecnologia ha presentato la sua TPU di sesta generazione, denominata Trillium, che stabilisce nuovi parametri di riferimento sia in termini di prestazioni che di efficienza, superando i modelli precedenti. Oggi, Google ha annunciato che le TPU Trillium sono ora universalmente accessibili ai clienti di Google Cloud, rivelando contemporaneamente che queste potenti TPU sono state determinanti nell’addestramento del loro ultimo modello, Gemini 2.0.

Entrare nell’ecosistema degli sviluppatori di intelligenza artificiale

Le GPU di Nvidia sono diventate una scelta dominante tra gli sviluppatori di IA, non solo per il loro hardware eccezionale, ma anche per il robusto supporto software. Per promuovere un simile entusiasmo per le TPU Trillium, Google ha apportato miglioramenti significativi al suo framework software. Ciò include ottimizzazioni al compilatore XLA e a framework di IA popolari come JAX, PyTorch e TensorFlow, consentendo agli sviluppatori di massimizzare l’economicità nell’addestramento, nella messa a punto e nell’implementazione dell’IA.

Miglioramenti chiave nelle TPU Trillium

Le TPU Trillium offrono una serie di miglioramenti sostanziali rispetto alla generazione precedente, tra cui:

  • Le prestazioni di allenamento sono aumentate di oltre 4 volte
  • Capacità di elaborazione dell’inferenza migliorata fino a 3 volte
  • Efficienza energetica aumentata del 67%
  • Prestazioni di elaborazione di picco per chip aumentate di un impressionante 4,7x
  • Capacità della memoria ad alta larghezza di banda (HBM) raddoppiata
  • Anche la larghezza di banda dell’Interchip Interconnect (ICI) è raddoppiata
  • Capacità di distribuire 100.000 chip Trillium in una struttura di rete Jupiter unificata
  • Prestazioni di formazione per dollaro migliorate fino a 2,5 volte e prestazioni di inferenza fino a 1,4 volte

Scalabilità e disponibilità

Google ha segnalato che le TPU Trillium possono raggiungere un’impressionante efficienza di scalabilità del 99% con una configurazione di 12 pod composti da 3.072 chip e un’efficienza del 94% su 24 pod che utilizzano 6.144 chip, rendendole adatte per il pre-addestramento di modelli di grandi dimensioni come GPT-3 da 175 miliardi di parametri.

Attualmente, Trillium è disponibile per l’implementazione in regioni chiave, tra cui Nord America (Stati Uniti orientali), Europa (Occidente) e Asia (Nord-est). Per gli utenti interessati alla valutazione, il costo parte da $ 2,7000 per chip-ora. Inoltre, gli impegni a lungo termine offrono tariffe ridotte di $ 1,8900 per chip-ora per un anno e $ 1,2200 per chip-ora per un impegno di tre anni.

Conclusione

Grazie alla sua scalabilità e alle funzionalità software avanzate, Trillium rappresenta un progresso sostanziale nella strategia infrastrutturale di intelligenza artificiale nel cloud di Google, posizionandola come un concorrente formidabile nel mercato in evoluzione degli acceleratori di intelligenza artificiale.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *