Qualcomm hat seine KI-Chips der nächsten Generation vorgestellt, die strategisch als Rack-Level-KI-Inferenzlösung konzipiert sind. Das Besondere an diesen Chips ist die Nutzung mobilen Speichers.
Ein mutiger Wandel: Qualcomms KI-Chips entfernen sich von HBM zugunsten effizienter Inferenz
Qualcomm gilt traditionell als führender Anbieter mobiler Technologien und hat sein Portfolio in den letzten Jahren deutlich diversifiziert und sich nun auch auf Consumer Computing und KI-Infrastrukturen spezialisiert. Das Unternehmen hat kürzlich seine Chiplösungen AI200 und AI250 auf den Markt gebracht, die speziell für Rack-Scale-Anwendungen entwickelt wurden. Dies markiert einen bemerkenswerten Einstieg in einen Wettbewerbsbereich, der üblicherweise von Branchenriesen wie NVIDIA und AMD dominiert wird. Qualcomms einzigartiger Ansatz nutzt LPDDR-Speicher, der hauptsächlich in Mobilgeräten verwendet wird, um die Leistung dieser Chips zu verbessern.
Um die Bedeutung des LPDDR-Speichers zu verstehen, ist ein Vergleich mit dem häufiger verwendeten High Bandwidth Memory (HBM) unerlässlich. Die Chips AI200 und AI250 können die Speicherkapazität auf bis zu 768 GB LPDDR steigern und damit die typische Bandbreite von HBM-Systemen übertreffen. Diese Strategie reduziert sowohl den Energieverbrauch als auch die Kosten für die Datenübertragung und ermöglicht eine von Qualcomm als „Near-Memory“-Architektur bezeichnete Architektur. Die wichtigsten Vorteile von LPDDR gegenüber HBM sind:
- Energieeffizienz: Geringerer Energieverbrauch pro Bit.
- Kosteneffizienz: Erschwinglicher im Vergleich zu fortschrittlichen HBM-Alternativen.
- Erhöhte Speicherdichte: Ideal für Inferenzanwendungen.
- Thermische Effizienz: Reduzierte Wärmeabgabe im Vergleich zu HBM-Lösungen.
Trotz dieser vielversprechenden Eigenschaften weisen die Rack-Scale-Chips von Qualcomm im Vergleich zu etablierten Produkten von NVIDIA und AMD Einschränkungen auf. Das Fehlen von HBM führt zu einer reduzierten Speicherbandbreite und einer erhöhten Latenz aufgrund einer schmaleren Schnittstelle. Darüber hinaus ist die Leistung des LPDDR-Speichers in anspruchsvollen, rund um die Uhr betriebenen Serverumgebungen mit hohen Temperaturen möglicherweise nicht optimal. Qualcomms Hauptziel scheint darin zu bestehen, eine praktikable Option für KI-Inferenz anzubieten, obwohl dieser Schwerpunkt den Einsatz auf bestimmte Anwendungen beschränkt.

Darüber hinaus sind die AI200- und AI250-Chips mit direkter Flüssigkeitskühlung ausgestattet, unterstützen PCIe/Ethernet-Protokolle und weisen einen relativ niedrigen Stromverbrauch von 160 kW auf Rack-Ebene auf. Besonders hervorzuheben ist die Integration der Hexagon-NPUs von Qualcomm, deren Inferenzfähigkeiten kontinuierlich verbessert wurden, einschließlich der Unterstützung erweiterter Datenformate und inferenzoptimierter Funktionen.
Der Wettbewerb auf dem KI-Hardwaremarkt verschärft sich. Große Player wie Intel bringen ihre „Crescent Island“-Lösung auf den Markt und NVIDIA den Rubin CPX KI-Chip. Qualcomm erkennt die wachsende Bedeutung des Inferenzsektors an und sieht die Veröffentlichung der Lösungen AI200 und AI250 als strategischen Schachzug. Für Aufgaben mit umfangreichem Training oder großen Workloads sind diese Angebote jedoch möglicherweise nicht die erste Wahl.
Die zunehmende Rivalität in der KI-Landschaft ist spannend und die ersten Reaktionen der Einzelhändler auf die Ankündigungen von Qualcomm waren überwältigend positiv.
Schreibe einen Kommentar