
Niniejszy artykuł nie stanowi porady finansowej. Autor nie posiada żadnych akcji wymienionych spółek.
Google aktywnie rozwija swoje procesory tensorowe (TPU) AI, pozycjonując się na tle firmy NVIDIA w ewoluującym krajobrazie sprzętu AI. Na rynku toczy się debata, czy inwestować w drogie procesory graficzne NVIDIA do sztucznej inteligencji, czy rozważyć tańsze alternatywy własne. Ostatnie raporty wskazują na gwałtowny spadek wartości akcji Amazon, które spadły o 9, 8% po ogłoszeniu wyników finansowych za drugi kwartał. Spadek ten przypisuje się spadkowi przychodów z przetwarzania w chmurze, co zdaniem analityków wynika z decyzji Amazon o wykorzystaniu własnych układów Trainium AI zamiast rozwiązań firmy NVIDIA. W odpowiedzi Google podobno nawiązuje współpracę z mniejszymi firmami zajmującymi się przetwarzaniem w chmurze, aby zintegrować swoje układy TPU z procesorami graficznymi NVIDIA.
Google stawia na integrację TPU z procesorami graficznymi NVIDIA w centrach danych
W raporcie z czerwca podkreślono, że OpenAI wykorzystuje procesory TPU firmy Google do ulepszania ChatGPT i różnych usług AI. Chociaż twierdzenie to opierało się na pojedynczym źródle, nawet jeśli było prawdziwe, prawdopodobnie oznacza ono marginalny wzrost zależności OpenAI od sprzętu Google. Później, w raporcie „The Information”, opisano inicjatywę, w ramach której Google kontaktuje się z mniejszymi dostawcami infrastruktury chmurowej, proponując włączenie swoich procesorów TPU do szerzej znanych procesorów graficznych NVIDIA. Ten strategiczny ruch wydaje się mieć na celu stymulowanie popytu rynkowego na produkty Google w konkurencyjnym środowisku.

Według The Information, intencja Google’a, aby promować układy TPU, wykracza poza samo podważanie dominacji firmy NVIDIA. Kluczowym czynnikiem mogą być ograniczenia pojemnościowe Google’a; mimo wystarczającej podaży układów scalonych, firma nie jest w stanie szybko rozbudować infrastruktury centrów danych, aby w pełni wykorzystać potencjał procesorów graficznych (GPU).W związku z tym Google może polegać na zewnętrznych centrach danych wyposażonych w układy TPU, aby sprostać wewnętrznym wymaganiom w zakresie obliczeń AI.
Kontrola nad układami GPU NVIDIA do sztucznej inteligencji i strategiami gigantów technologicznych dotyczącymi własnej produkcji układów scalonych nasiliła się po opublikowaniu najnowszego raportu zysków Amazona. Ujawnienie tych informacji początkowo doprowadziło do spadku ceny akcji Amazona o prawie 10%, ponieważ inwestorzy wyrazili obawy dotyczące potencjalnej stagnacji wzrostu chmury obliczeniowej, napędzanej przez uzależnienie od Trainium. Niedawny raport New Street podkreśla, że Amazon Web Services (AWS) nadal boryka się z problemami z adopcją, co wskazuje na preferowanie układów GPU nad Trainium, szczególnie ze strony Anthropic, kluczowego gracza w rozwoju modeli sztucznej inteligencji.
Choć zachęty finansowe związane z zastrzeżonymi układami scalonymi są atrakcyjne dla dużych firm technologicznych, NVIDIA utrzymuje, że jej procesory graficzne zapewniają niezrównaną wydajność i efektywność. Konkurencja w technologii układów AI stale się zaostrza, a każda firma dąży do udowodnienia swojej wyższości w coraz ważniejszej dziedzinie.
Dodaj komentarz