
Google ha presentato il suo rivoluzionario acceleratore di intelligenza artificiale personalizzato di “settima generazione” denominato Ironwood, che segna un traguardo significativo in quanto è il primo chip interno dell’azienda progettato esplicitamente per carichi di lavoro di inferenza.
La svolta del chip AI Ironwood di Google: definizione di nuovi standard per i carichi di lavoro di inferenza
Presentato durante il Google Cloud Next 25, l’acceleratore Ironwood si distingue come il chip più potente ed efficiente di Google fino ad oggi. Grazie alle sue funzionalità di generazione avanzata, dimostra l’impegno dell’azienda nel migliorare i carichi di lavoro di inferenza, che Google ritiene rappresentino la prossima fase cruciale dell’intelligenza artificiale. Questo acceleratore all’avanguardia sarà disponibile in due configurazioni per i clienti Google Cloud: una configurazione a 256 chip e una più robusta da 9.216 chip, progettata per soddisfare diversi requisiti di potenza per carichi di lavoro e inferenza.

Il chip Ironwood AI segna una svolta radicale per i mercati dell’intelligenza artificiale contemporanei. Nella configurazione da 9.216 chip, il sistema raggiunge una potenza di calcolo 24 volte superiore a quella del famoso supercomputer El Capitan, raggiungendo l’impressionante cifra di 42, 5 Exaflop. A ulteriore conferma dei progressi compiuti, Ironwood vanta anche un raddoppio delle prestazioni per watt rispetto al TPU Trillium di precedente generazione, a dimostrazione del significativo incremento delle prestazioni nel corso delle generazioni.
- Aumento sostanziale della capacità della memoria ad alta larghezza di banda (HBM): ogni chip Ironwood offre 192 GB, un aumento di sei volte rispetto a Trillium. Questa espansione consente l’elaborazione di modelli e set di dati più ampi, riducendo al minimo la frequenza di trasferimento dati e migliorando le prestazioni complessive.
- Larghezza di banda HBM notevolmente migliorata: Ironwood raggiunge livelli di larghezza di banda di 7, 2 TBps per chip, segnando un miglioramento di 4, 5 volte rispetto a Trillium. Questo rapido accesso ai dati è essenziale per le attività ad alta intensità di memoria prevalenti nelle moderne applicazioni di intelligenza artificiale.
- Larghezza di banda Inter-Chip Interconnect (ICI) migliorata: la larghezza di banda ICI ha registrato un aumento significativo a 1, 2 Tbps bidirezionali, un miglioramento di 1, 5 volte rispetto a Trillium. Questo miglioramento facilita una comunicazione più rapida tra i chip, consentendo un training e un’inferenza distribuiti ed efficienti su larga scala.
Il lancio di Ironwood sottolinea gli straordinari progressi compiuti nelle soluzioni di intelligenza artificiale personalizzate internamente, posizionando Google come un concorrente formidabile in un mercato tradizionalmente dominato da NVIDIA. I parametri di performance indicano un ampio potenziale di crescita, soprattutto perché concorrenti come Microsoft con il suo Maia 100 e Amazon con i suoi chip Graviton riconoscono e sfruttano le opportunità offerte dalle soluzioni di intelligenza artificiale personalizzate.
Lascia un commento