
AMD prognozuje odejście od tradycyjnego przetwarzania danych w centrach danych na rzecz przyszłości, w której urządzenia konsumenckie, takie jak smartfony i laptopy, staną się podstawową platformą dla tych operacji.
Dyrektor ds.technologii w AMD przedstawia kolejną falę sztucznej inteligencji: migrację wnioskowania do urządzeń brzegowych
Początek „szaleństwa AI” początkowo koncentrował się na szkoleniu modeli, a różne firmy gromadziły znaczne zasoby obliczeniowe do szkolenia dużych modeli językowych (LLM).Jednak pojawia się godny uwagi trend, wskazujący na zwrot w stronę możliwości wnioskowania. W niedawnym wywiadzie dla Business Insider, Mark Papermaster, dyrektor ds.technologii w AMD, podzielił się spostrzeżeniami na temat tej transformacji, podkreślając, że wnioskowanie jest coraz częściej kierowane do urządzeń brzegowych. AMD jest przygotowane, aby rzucić wyzwanie firmie NVIDIA w tym rozwijającym się segmencie rynku.
Pytanie: OK, załóżmy, że jest rok 2030 — ile wnioskowań jest przeprowadzanych na brzegu sieci?
CTO AMD: Z czasem będzie to większość. Nie mogę powiedzieć, kiedy nastąpi zmiana, ponieważ jest ona napędzana przez aplikacje — rozwój zabójczych aplikacji, które mogą działać na urządzeniach brzegowych. Teraz widzimy tylko czubek włóczni, ale myślę, że to szybko się rozwija.
Papermaster sugeruje, że rosnące wydatki związane z przetwarzaniem AI w centrach danych zmuszą gigantów technologicznych, takich jak Microsoft, Meta i Google, do ponownego rozważenia swoich strategii, co doprowadzi do szerszego przyjęcia rozwiązań AI na krawędzi. Podkreśla, że AMD traktuje potencjał „PC AI” poważniej niż konkurenci, tacy jak Intel i Qualcomm. Ta perspektywa znajduje odzwierciedlenie w najnowszych liniach APU AMD, w tym Strix Point i Strix Halo, które zostały zaprojektowane tak, aby integrować możliwości AI w kompaktowych systemach, jednocześnie pozostając opłacalnymi.

Omawiając ewolucję zasobów obliczeniowych, Papermaster zauważył znaczenie zwiększenia dokładności i wydajności modeli AI. Wraz z wprowadzeniem DeepSeek, główni gracze technologiczni coraz częściej przyjmują zoptymalizowane alternatywy dla swoich procesów AI. Długoterminowym celem jest, aby urządzenia uruchamiały zaawansowane modele AI lokalnie, maksymalizując w ten sposób doświadczenie użytkownika w zakresie korzystania z AI.
Opinie wyrażone przez CTO AMD odzwierciedlają wcześniejsze stwierdzenia Pata Gelsingera, byłego CEO Intela, dotyczące konieczności skupienia się na wnioskowaniu dla przyszłych postępów. Wskazuje to, że firmy konkurujące z NVIDIA mają trudności z penetracją sektora „szkolenia AI”, w którym NVIDIA wypracowała sobie imponującą przewagę. Zamiast tego AMD wydaje się być gotowe na poczynienie znaczących postępów na rynku AI brzegowej, oferując procesory zaprojektowane specjalnie dla tych nowych zastosowań.
Dodaj komentarz