Qualcomm lance une solution innovante d’IA à l’échelle du rack avec mémoire mobile LPDDR, visant à défier NVIDIA et AMD

Qualcomm lance une solution innovante d’IA à l’échelle du rack avec mémoire mobile LPDDR, visant à défier NVIDIA et AMD

Qualcomm a dévoilé ses puces d’IA de nouvelle génération, stratégiquement conçues pour fonctionner comme une solution d’inférence d’IA au niveau du rack. Ces puces se distinguent par leur utilisation de la mémoire mobile.

Un changement audacieux : les puces d’IA de Qualcomm s’éloignent du HBM pour une inférence efficace

Historiquement reconnu comme un leader des technologies mobiles, Qualcomm a considérablement diversifié son portefeuille ces dernières années, se lançant dans l’informatique grand public et les infrastructures d’IA. L’entreprise a récemment lancé ses solutions de puces AI200 et AI250, spécialement conçues pour les applications rack. Il s’agit d’une entrée remarquée dans un secteur concurrentiel généralement dominé par des géants du secteur comme NVIDIA et AMD. L’approche unique de Qualcomm exploite la mémoire LPDDR, largement associée aux appareils mobiles, pour améliorer les performances de ces puces.

Pour comprendre l’importance de la mémoire LPDDR, il est essentiel de la comparer à la mémoire à large bande passante (HBM), plus couramment utilisée. Les puces AI200 et AI250 peuvent augmenter la capacité mémoire jusqu’à 768 Go de LPDDR, ce qui dépasse la bande passante standard des systèmes HBM. Cette stratégie réduit à la fois l’énergie et les coûts de transfert de données, offrant ce que Qualcomm appelle une architecture « near-memory ».Les principaux avantages de l’adoption de la LPDDR par rapport à la HBM sont les suivants :

  • Efficacité énergétique : Consommation d’énergie inférieure par bit.
  • Rapport coût-efficacité : plus abordable par rapport aux alternatives HBM avancées.
  • Densité de mémoire accrue : idéale pour les applications d’inférence.
  • Efficacité thermique : Production de chaleur réduite par rapport aux solutions HBM.

Malgré ces caractéristiques prometteuses, les puces rackables de Qualcomm présentent des limites par rapport aux produits NVIDIA et AMD. L’absence de HBM entraîne une réduction de la bande passante mémoire et une augmentation de la latence en raison d’une interface plus étroite. De plus, la mémoire LPDDR peut ne pas fonctionner de manière optimale dans des environnements de serveurs exigeants fonctionnant 24h/24 et 7j/7 et caractérisés par des températures élevées. L’objectif principal de Qualcomm semble être de proposer une solution viable pour l’inférence d’IA, même si cet objectif limite son utilisation à des applications spécifiques.

Rack de serveur Qualcomm avec logo visible dans une pièce sombre.

De plus, les puces AI200 et AI250 sont équipées d’un refroidissement liquide direct, prennent en charge les protocoles PCIe/Ethernet et conservent une consommation d’énergie en rack relativement faible de 160 kW. Ces puces sont notamment intégrées aux NPU Hexagon de Qualcomm, qui améliorent constamment leurs capacités d’inférence, notamment la prise en charge de formats de données avancés et de fonctionnalités optimisées pour l’inférence.

La concurrence sur le marché du matériel d’IA s’intensifie. Des acteurs majeurs comme Intel lancent leur solution « Crescent Island » et NVIDIA déploie la puce d’IA Rubin CPX. Qualcomm reconnaît l’importance croissante du secteur de l’inférence et fait du lancement des solutions AI200 et AI250 une décision stratégique. Cependant, pour les tâches impliquant un entraînement intensif ou des charges de travail à grande échelle, ces offres pourraient ne pas être le choix idéal.

La rivalité croissante dans le paysage de l’IA est passionnante, et les premières réactions des détaillants aux annonces de Qualcomm ont été extrêmement positives.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *