Microsoft ogłasza otwarcie nowego centrum danych Azure AI w Atlancie
Tego dnia Microsoft oficjalnie przedstawił plany budowy nowego centrum danych Azure AI w Atlancie w stanie Georgia. Ten najnowocześniejszy obiekt będzie połączony z istniejącym ośrodkiem Fairwater w Wisconsin, a także z kilkoma superkomputerami Azure AI. Celem jest stworzenie kompleksowego, globalnego centrum danych AI, zdolnego do efektywnego zarządzania różnorodnymi zadaniami AI.
Innowacyjny projekt rewolucjonizuje centra danych AI
Wykorzystując wnioski z budowy centrów danych dostosowanych do potrzeb szkoleniowych OpenAI i innych aplikacji AI, Microsoft twierdzi, że zrewolucjonizował architekturę centrów danych AI. Nowa konstrukcja centrum danych AI charakteryzuje się płaską strukturą sieciową, która wykorzystuje moc obliczeniową licznych procesorów graficznych NVIDIA GB200 i GB300, zapewniając niespotykaną dotąd wydajność.
Główne cechy nowego centrum danych
Nowe centrum danych w Atlancie wprowadzi kilka przełomowych funkcji, które wyróżnią je na tle poprzednich modeli:
- Duża gęstość procesorów GPU: Specjalnie zaprojektowane stojaki są optymalnie rozmieszczone, aby zapewnić maksymalne rozmieszczenie procesorów GPU, co minimalizuje opóźnienia i usprawnia komunikację między procesorami GPU.
- Zamknięty obieg chłodzenia cieczą: innowacyjny, uszczelniony ekosystem chłodzenia, który oszczędza wodę, wykorzystując to samo źródło przez ponad sześć lat, przy minimalnym parowaniu, promując zrównoważony rozwój przy jednoczesnym wsparciu obliczeń o dużej gęstości.
- Solidne dostarczanie mocy: Dzięki imponującej mocy ~140 kW na szafę i ~1, 36 MW na rząd, ta konfiguracja jest zaprojektowana tak, aby obsługiwać akceleratory nowej generacji bez napotykania konwencjonalnych ograniczeń mocy.
- Płaska sieć o dużej przepustowości: wykorzystująca dwuwarstwową infrastrukturę Ethernet, która oferuje łączność GPU o przepustowości 800 Gb/s wraz z siecią opartą na SONiC, ta konstrukcja ma na celu minimalizację kosztów, złożoności i zależności od konkretnych dostawców.
- Optymalizacja sieci uwzględniająca aplikacje: Funkcje takie jak zarządzanie pakietami w czasie rzeczywistym i zaawansowane równoważenie obciążenia zapewniają wysokie wykorzystanie dużych klastrów GPU.
- Sieć WAN oparta na sztucznej inteligencji na skalę globalną: połączenie wielu lokalizacji, w tym Atlanty i Wisconsin, za pomocą dedykowanej optycznej sieci szkieletowej o niskim opóźnieniu tworzy spójny „superkomputer” obejmujący regiony.
- Model odporności zasilania: W tym podejściu wykorzystuje się silne lokalne sieci energetyczne w celu zwiększenia niezawodności, a także rozwiązania z zakresu magazynowania energii, które pozwalają dostosować się do zmian w zapotrzebowaniu na energię.
- Wszechstronne wsparcie zadań związanych ze sztuczną inteligencją: Infrastruktura została zaprojektowana tak, aby umożliwić efektywne wykonywanie różnorodnych zadań związanych ze sztuczną inteligencją — od wstępnego szkolenia i dostrajania po uczenie przez wzmacnianie, wnioskowanie i generowanie syntetycznych danych — na ujednoliconej platformie.
Pozycjonowanie na potrzeby przyszłego popytu na obciążenia AI
Tworząc zunifikowany, wieloregionalny superkomputer, Microsoft pozycjonuje się strategicznie, aby sprostać rosnącym wymaganiom związanym z przepływami pracy w zakresie sztucznej inteligencji, których można się spodziewać w nadchodzących latach.
Dodaj komentarz