W marcu NVIDIA zaprezentowała swoją innowacyjną platformę Blackwell, która może pochwalić się znaczącą redukcją kosztów i zużycia energii nawet o 25 razy w porównaniu z poprzednim modelem do trenowania dużych modeli językowych. Oczekiwania są duże wśród głównych dostawców usług w chmurze i prominentnych firm AI, takich jak Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla i xAI, które mają zintegrować Blackwell ze swoimi operacjami po jego wydaniu.
Jednak wprowadzenie platformy Blackwell opóźniło się nawet o trzy miesiące z powodu problemu projektowego. Niedawno Microsoft ogłosił na X, że zaczął już otrzymywać układy GB200 Blackwell firmy NVIDIA i obecnie optymalizuje swoje serwery, aby w pełni wykorzystać te nowe układy. Ta optymalizacja wykorzystuje zaawansowaną technologię sieciową Infiniband firmy NVIDIA i innowacyjne systemy chłodzenia cieczą w obiegu zamkniętym.
Microsoft Azure to pierwsza platforma w chmurze, która wdraża architekturę Blackwell @nvidia z serwerami AI opartymi na GB200. Zwiększamy wydajność na każdym poziomie, aby obsługiwać wiodące na świecie modele AI, wykorzystując sieć Infiniband i najnowocześniejsze chłodzenie cieczą w obiegu zamkniętym. Dowiedz się więcej na MS Ignite. pic.twitter.com/K1dKbwS2Ew
— Microsoft Azure (@Azure) 8 października 2024 r.
Co więcej, dyrektor generalny Microsoftu, Satya Nadella, podzielił się również aktualizacją dotyczącą wdrożenia GB200:
Nasza długotrwała współpraca z firmą NVIDIA i ciągłe innowacje wyznaczają trendy w branży, umożliwiając obsługę najbardziej złożonych obciążeń AI. https://t.co/qaEoSv8dm5
— Satya Nadella (@satyanadella) 8 października 2024 r
Ponadto firma NVIDIA niedawno dostarczyła zespołowi OpenAI jedną z początkowych wersji inżynieryjnych karty DGX B200:
Sprawdź, co właśnie dotarło do naszego biura. Dziękujemy, @nvidia , za przesłanie nam jednej z pierwszych jednostek inżynieryjnych DGX B200. pic.twitter.com/vy8bWUEwUi
— OpenAI (@OpenAI) 8 października 2024 r
Biorąc pod uwagę duże zainteresowanie różnych potencjalnych klientów platformą Blackwell firmy NVIDIA, ma sens, że Microsoft i OpenAI są jednymi z pierwszych, którzy otrzymają te chipy. W przeciwieństwie do innych głównych dostawców usług w chmurze, takich jak Google i AWS, którzy mają własne infrastruktury szkoleniowe AI (Google z Tensor Processing Units i AWS poprzez opracowywanie niestandardowych chipów), Microsoft i OpenAI są w pełni zależne od technologii firmy NVIDIA, co stawia je w gronie największych klientów firmy NVIDIA.
Więcej szczegółów odnośnie wdrożenia GB200 firmy NVIDIA można spodziewać się podczas konferencji Ignite firmy Microsoft zaplanowanej na listopad.
Dodaj komentarz