Google uruchamia klaster układów akceleratora AI Ironwood 7. generacji, 24 razy szybszy niż najlepszy superkomputer

Google uruchamia klaster układów akceleratora AI Ironwood 7. generacji, 24 razy szybszy niż najlepszy superkomputer

Firma Google wprowadziła na rynek rewolucyjny niestandardowy akcelerator AI „siódmej generacji” o nazwie Ironwood, co stanowi ważny kamień milowy, gdyż jest to pierwszy wewnętrzny układ firmy zaprojektowany specjalnie do zadań związanych z wnioskowaniem.

Przełom w układzie scalonym Ironwood AI firmy Google: wyznaczanie nowych standardów obciążeń wnioskowania

Zaprezentowany podczas Google Cloud Next 25, akcelerator Ironwood wyróżnia się jako najpotężniejszy i najwydajniejszy chip Google do tej pory. Dzięki ulepszonym możliwościom generacyjnym, pokazuje zaangażowanie firmy w rozwijanie obciążeń wnioskowania, co według Google stanowi kolejną kluczową fazę sztucznej inteligencji. Ten najnowocześniejszy akcelerator będzie dostępny w dwóch konfiguracjach dla klientów Google Cloud: konfiguracji 256-chipowej i bardziej wytrzymałej konfiguracji 9216-chipowej zaprojektowanej tak, aby sprostać różnym wymaganiom dotyczącym obciążenia i mocy wnioskowania.

Układ sztucznej inteligencji Ironwood firmy Google

Chip Ironwood AI oznacza przełomowy krok dla współczesnych rynków AI. W konfiguracji 9216 chipów system osiąga podobno 24-krotnie większą moc obliczeniową niż ceniony superkomputer El Capitan, osiągając imponujące 42, 5 eksaflopsa. Podkreślając dodatkowo poczynione postępy, Ironwood może pochwalić się również podwojeniem wydajności na wat w porównaniu z poprzednią generacją Trillium TPU, podkreślając znaczącą rosnącą trajektorię ulepszeń wydajności w kolejnych generacjach.

  • Znaczny wzrost pojemności pamięci High Bandwidth Memory (HBM): Każdy chip Ironwood ma 192 GB, co stanowi sześciokrotny wzrost w porównaniu do Trillium. To rozszerzenie umożliwia przetwarzanie większych modeli i zestawów danych, minimalizując częstotliwość transferów danych i zwiększając ogólną wydajność.
  • Znacznie ulepszona przepustowość HBM: Ironwood osiąga poziom przepustowości 7, 2 TBps na chip, co oznacza 4, 5-krotną poprawę w stosunku do przepustowości Trillium. Ten szybki dostęp do danych jest niezbędny do zadań intensywnie wykorzystujących pamięć, powszechnych w nowoczesnych aplikacjach AI.
  • Ulepszona przepustowość Inter-Chip Interconnect (ICI): Przepustowość ICI znacznie wzrosła do 1, 2 Tbps dwukierunkowo, co stanowi poprawę o 1, 5 raza w porównaniu z Trillium. To ulepszenie ułatwia szybszą komunikację między chipami, umożliwiając wydajne rozproszone szkolenie i wnioskowanie na dużą skalę.

Wprowadzenie Ironwood podkreśla imponujący postęp osiągnięty w zakresie niestandardowych wewnętrznych rozwiązań AI, pozycjonując Google jako groźnego konkurenta na rynku tradycyjnie zdominowanym przez NVIDIA. Metryki wydajności wskazują na ogromny potencjał wzrostu, zwłaszcza że konkurenci, tacy jak Microsoft i ich Maia 100 oraz Amazon z ich chipami Graviton, rozpoznają i wykorzystują możliwości dostępne dzięki dostosowanym rozwiązaniom AI.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *