Qualcomm ha presentato i suoi chip AI di nuova generazione, progettati strategicamente per funzionare come soluzione di inferenza AI a livello di rack. Ciò che distingue questi chip è l’utilizzo della memoria mobile.
Un cambiamento audace: i chip AI di Qualcomm abbandonano l’HBM per un’inferenza efficiente
Storicamente riconosciuta come leader nella tecnologia mobile, Qualcomm ha notevolmente diversificato il suo portfolio negli ultimi anni, avventurandosi nel consumer computing e nelle infrastrutture di intelligenza artificiale. L’azienda ha recentemente lanciato le sue soluzioni chip AI200 e AI250, specificamente progettate per applicazioni rack-scale. Questo segna un ingresso degno di nota in un’arena competitiva tipicamente dominata da colossi del settore come NVIDIA e AMD. L’approccio esclusivo di Qualcomm sfrutta la memoria LPDDR, ampiamente associata ai dispositivi mobili, per migliorare le prestazioni di questi chip.
Per comprendere l’importanza dell’utilizzo della memoria LPDDR, è essenziale confrontarla con la più comunemente utilizzata High Bandwidth Memory (HBM).I chip AI200 e AI250 possono aumentare la capacità di memoria LPDDR fino a 768 GB, superando la larghezza di banda tipica offerta dai sistemi HBM. Questa strategia riduce sia l’energia che i costi di trasferimento dei dati, offrendo quella che Qualcomm definisce un’architettura “near-memory”.I principali vantaggi dell’adozione della LPDDR rispetto alla HBM sono:
- Efficienza energetica: consumo energetico inferiore per bit.
- Rapporto costo-efficacia: più conveniente rispetto alle alternative HBM avanzate.
- Maggiore densità di memoria: ideale per applicazioni di inferenza.
- Efficienza termica: riduzione della produzione di calore rispetto alle soluzioni HBM.
Nonostante queste caratteristiche promettenti, i chip rack-scale di Qualcomm presentano alcune limitazioni rispetto ai prodotti consolidati di NVIDIA e AMD. L’assenza di HBM si traduce in una riduzione della larghezza di banda della memoria e in una maggiore latenza a causa di un’interfaccia più stretta. Inoltre, la memoria LPDDR potrebbe non funzionare in modo ottimale in ambienti server impegnativi, attivi 24 ore su 24, 7 giorni su 7 e caratterizzati da temperature elevate. L’obiettivo principale di Qualcomm sembra essere quello di offrire un’opzione praticabile per l’inferenza AI, sebbene questa enfasi ne limiti l’utilizzo ad applicazioni specifiche.

Inoltre, i chip AI200 e AI250 sono dotati di tecnologia di raffreddamento a liquido diretto, supportano i protocolli PCIe/Ethernet e mantengono un consumo energetico a livello di rack relativamente basso, pari a 160 kW. In particolare, questi chip sono integrati con le NPU Hexagon di Qualcomm, che hanno costantemente migliorato le loro capacità di inferenza, incluso il supporto per formati di dati avanzati e funzionalità ottimizzate per l’inferenza.
La concorrenza nel mercato dell’hardware per l’intelligenza artificiale si sta intensificando, con importanti attori come Intel che lanciano la soluzione “Crescent Island” e NVIDIA che lancia il chip AI Rubin CPX. Qualcomm riconosce la crescente importanza del settore dell’inferenza, rendendo il lancio delle soluzioni AI200 e AI250 una mossa strategica. Tuttavia, per attività che richiedono una formazione approfondita o carichi di lavoro su larga scala, queste offerte potrebbero non essere la scelta migliore.
La crescente rivalità nel panorama dell’intelligenza artificiale è entusiasmante e le prime reazioni dei rivenditori agli annunci di Qualcomm sono state estremamente positive.
Lascia un commento