
Google a présenté son accélérateur d’IA personnalisé révolutionnaire de « 7e génération » nommé Ironwood, marquant une étape importante en tant que première puce interne de l’entreprise explicitement conçue pour les charges de travail d’inférence.
La percée de la puce d’IA Ironwood de Google : établir de nouvelles normes pour les charges de travail d’inférence
Dévoilé lors du Google Cloud Next 25, l’accélérateur Ironwood s’impose comme la puce la plus puissante et la plus performante de Google à ce jour. Doté de capacités générationnelles améliorées, il témoigne de l’engagement de l’entreprise à faire progresser les charges de travail d’inférence, qui, selon Google, représentent la prochaine étape cruciale de l’intelligence artificielle. Cet accélérateur de pointe sera disponible en deux configurations pour les clients Google Cloud : une configuration à 256 puces et une configuration plus robuste à 9 216 puces, conçue pour répondre à divers besoins en charges de travail et en puissance d’inférence.

La puce d’IA Ironwood marque une étape décisive pour les marchés contemporains de l’IA. Avec sa configuration à 9 216 puces, le système atteindrait une puissance de calcul 24 fois supérieure à celle du célèbre supercalculateur El Capitan, atteignant le chiffre impressionnant de 42, 5 exaflops. Soulignant encore davantage les avancées réalisées, Ironwood affiche également un doublement des performances par watt par rapport au Trillium TPU de génération précédente, soulignant ainsi la progression significative des performances au fil des générations.
- Augmentation substantielle de la capacité de mémoire à large bande passante (HBM) : chaque puce Ironwood dispose de 192 Go, soit six fois plus que Trillium. Cette extension permet le traitement de modèles et d’ensembles de données plus volumineux, réduisant ainsi la fréquence des transferts de données et améliorant les performances globales.
- Bande passante HBM considérablement améliorée : Ironwood atteint une bande passante de 7, 2 To/s par puce, soit une amélioration de 4, 5 fois par rapport à celle de Trillium. Cet accès rapide aux données est essentiel pour les tâches gourmandes en mémoire, courantes dans les applications d’IA modernes.
- Bande passante d’interconnexion interpuces (ICI) améliorée : la bande passante ICI a connu une augmentation significative pour atteindre 1, 2 Tbit/s bidirectionnel, soit une amélioration de 1, 5 fois par rapport à Trillium. Cette amélioration accélère la communication entre les puces, permettant un apprentissage distribué et une inférence efficaces à grande échelle.
Le lancement d’Ironwood souligne les progrès impressionnants réalisés dans le domaine des solutions d’IA internes personnalisées, positionnant Google comme un concurrent redoutable sur un marché traditionnellement dominé par NVIDIA. Les indicateurs de performance indiquent un vaste potentiel de croissance, d’autant plus que des concurrents comme Microsoft et son Maia 100, et Amazon et ses puces Graviton, reconnaissent et saisissent les opportunités offertes par les solutions d’IA sur mesure.
Laisser un commentaire