Qualcomm wprowadza innowacyjne rozwiązanie AI w skali rack z mobilną pamięcią LPDDR, które ma rzucić wyzwanie firmom NVIDIA i AMD

Qualcomm wprowadza innowacyjne rozwiązanie AI w skali rack z mobilną pamięcią LPDDR, które ma rzucić wyzwanie firmom NVIDIA i AMD

Qualcomm zaprezentował swoje układy AI nowej generacji, które zostały strategicznie zaprojektowane z myślą o wnioskowaniu AI na poziomie szafy rack. Cechą wyróżniającą te układy jest wykorzystanie pamięci mobilnej.

Odważna zmiana: układy sztucznej inteligencji firmy Qualcomm odchodzą od HBM na rzecz wydajnego wnioskowania

Historycznie uznawany za lidera w dziedzinie technologii mobilnych, Qualcomm znacząco zdywersyfikował swoje portfolio w ostatnich latach, wkraczając na rynek komputerów konsumenckich i infrastruktury AI. Firma niedawno wprowadziła na rynek układy AI200 i AI250, zaprojektowane specjalnie do zastosowań w szafach rack. To godne uwagi wejście na konkurencyjny rynek, na którym zazwyczaj dominują giganci branży, tacy jak NVIDIA i AMD. Unikalne podejście Qualcomma wykorzystuje pamięć LPDDR, która jest w dużej mierze kojarzona z urządzeniami mobilnymi, aby zwiększyć wydajność tych układów.

Aby zrozumieć znaczenie pamięci LPDDR, należy porównać ją z powszechniej stosowaną pamięcią o dużej przepustowości (HBM).Układy AI200 i AI250 mogą zwiększyć pojemność pamięci LPDDR nawet do 768 GB, co przekracza typową przepustowość oferowaną przez systemy HBM. Strategia ta zmniejsza zarówno zużycie energii, jak i koszty przesyłu danych, zapewniając architekturę „bliską pamięci” (near-memory), którą Qualcomm określa mianem architektury „near-memory”.Główne zalety zastosowania pamięci LPDDR w porównaniu z pamięcią HBM to:

  • Efektywność energetyczna: niższe zużycie energii na bit.
  • Opłacalność: Tańsze w porównaniu do zaawansowanych alternatyw HBM.
  • Zwiększona gęstość pamięci: idealna do zastosowań wnioskowych.
  • Wydajność cieplna: Mniejsza emisja ciepła w porównaniu z rozwiązaniami HBM.

Pomimo tych obiecujących funkcji, układy Qualcomma do montażu w szafie rack mają pewne ograniczenia w porównaniu z uznanymi produktami firm NVIDIA i AMD. Brak HBM skutkuje zmniejszoną przepustowością pamięci i zwiększonymi opóźnieniami ze względu na węższy interfejs. Co więcej, pamięć LPDDR może nie działać optymalnie w wymagających środowiskach serwerowych pracujących 24/7, charakteryzujących się wysokimi temperaturami. Głównym celem Qualcomma wydaje się być zaoferowanie realnej opcji dla wnioskowania AI, choć nacisk ten ogranicza jej zastosowanie do konkretnych zastosowań.

Stojak na serwery Qualcomm z widocznym logo w ciemnym pomieszczeniu.

Dodatkowo, układy AI200 i AI250 są wyposażone w technologię bezpośredniego chłodzenia cieczą, obsługują protokoły PCIe/Ethernet i charakteryzują się stosunkowo niskim poborem mocy na poziomie szafy rack, wynoszącym 160 kW. Co istotne, układy te są zintegrowane z układami NPU Hexagon firmy Qualcomm, które stale zwiększają swoje możliwości wnioskowania, w tym obsługę zaawansowanych formatów danych i funkcji zoptymalizowanych pod kątem wnioskowania.

Konkurencja na rynku sprzętu AI zaostrza się, a główni gracze, tacy jak Intel, wprowadzają na rynek rozwiązanie „Crescent Island”, a NVIDIA wprowadza na rynek układ AI Rubin CPX. Qualcomm dostrzega rosnące znaczenie sektora wnioskowania, dlatego wprowadzenie na rynek rozwiązań AI200 i AI250 jest posunięciem strategicznym. Jednak w przypadku zadań wymagających intensywnego szkolenia lub obciążeń na dużą skalę, te rozwiązania mogą nie być preferowanym wyborem.

Rosnąca rywalizacja na rynku sztucznej inteligencji jest ekscytująca, a pierwsze reakcje sprzedawców detalicznych na zapowiedzi firmy Qualcomm były niezwykle pozytywne.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *