Qualcomm zaprezentował swoje układy AI nowej generacji, które zostały strategicznie zaprojektowane z myślą o wnioskowaniu AI na poziomie szafy rack. Cechą wyróżniającą te układy jest wykorzystanie pamięci mobilnej.
Odważna zmiana: układy sztucznej inteligencji firmy Qualcomm odchodzą od HBM na rzecz wydajnego wnioskowania
Historycznie uznawany za lidera w dziedzinie technologii mobilnych, Qualcomm znacząco zdywersyfikował swoje portfolio w ostatnich latach, wkraczając na rynek komputerów konsumenckich i infrastruktury AI. Firma niedawno wprowadziła na rynek układy AI200 i AI250, zaprojektowane specjalnie do zastosowań w szafach rack. To godne uwagi wejście na konkurencyjny rynek, na którym zazwyczaj dominują giganci branży, tacy jak NVIDIA i AMD. Unikalne podejście Qualcomma wykorzystuje pamięć LPDDR, która jest w dużej mierze kojarzona z urządzeniami mobilnymi, aby zwiększyć wydajność tych układów.
Aby zrozumieć znaczenie pamięci LPDDR, należy porównać ją z powszechniej stosowaną pamięcią o dużej przepustowości (HBM).Układy AI200 i AI250 mogą zwiększyć pojemność pamięci LPDDR nawet do 768 GB, co przekracza typową przepustowość oferowaną przez systemy HBM. Strategia ta zmniejsza zarówno zużycie energii, jak i koszty przesyłu danych, zapewniając architekturę „bliską pamięci” (near-memory), którą Qualcomm określa mianem architektury „near-memory”.Główne zalety zastosowania pamięci LPDDR w porównaniu z pamięcią HBM to:
- Efektywność energetyczna: niższe zużycie energii na bit.
- Opłacalność: Tańsze w porównaniu do zaawansowanych alternatyw HBM.
- Zwiększona gęstość pamięci: idealna do zastosowań wnioskowych.
- Wydajność cieplna: Mniejsza emisja ciepła w porównaniu z rozwiązaniami HBM.
Pomimo tych obiecujących funkcji, układy Qualcomma do montażu w szafie rack mają pewne ograniczenia w porównaniu z uznanymi produktami firm NVIDIA i AMD. Brak HBM skutkuje zmniejszoną przepustowością pamięci i zwiększonymi opóźnieniami ze względu na węższy interfejs. Co więcej, pamięć LPDDR może nie działać optymalnie w wymagających środowiskach serwerowych pracujących 24/7, charakteryzujących się wysokimi temperaturami. Głównym celem Qualcomma wydaje się być zaoferowanie realnej opcji dla wnioskowania AI, choć nacisk ten ogranicza jej zastosowanie do konkretnych zastosowań.

Dodatkowo, układy AI200 i AI250 są wyposażone w technologię bezpośredniego chłodzenia cieczą, obsługują protokoły PCIe/Ethernet i charakteryzują się stosunkowo niskim poborem mocy na poziomie szafy rack, wynoszącym 160 kW. Co istotne, układy te są zintegrowane z układami NPU Hexagon firmy Qualcomm, które stale zwiększają swoje możliwości wnioskowania, w tym obsługę zaawansowanych formatów danych i funkcji zoptymalizowanych pod kątem wnioskowania.
Konkurencja na rynku sprzętu AI zaostrza się, a główni gracze, tacy jak Intel, wprowadzają na rynek rozwiązanie „Crescent Island”, a NVIDIA wprowadza na rynek układ AI Rubin CPX. Qualcomm dostrzega rosnące znaczenie sektora wnioskowania, dlatego wprowadzenie na rynek rozwiązań AI200 i AI250 jest posunięciem strategicznym. Jednak w przypadku zadań wymagających intensywnego szkolenia lub obciążeń na dużą skalę, te rozwiązania mogą nie być preferowanym wyborem.
Rosnąca rywalizacja na rynku sztucznej inteligencji jest ekscytująca, a pierwsze reakcje sprzedawców detalicznych na zapowiedzi firmy Qualcomm były niezwykle pozytywne.
Dodaj komentarz