Qualcomm lanza una innovadora solución de IA a escala de rack con memoria móvil LPDDR, con el objetivo de desafiar a NVIDIA y AMD.

Qualcomm lanza una innovadora solución de IA a escala de rack con memoria móvil LPDDR, con el objetivo de desafiar a NVIDIA y AMD.

Qualcomm ha presentado sus chips de IA de próxima generación, diseñados estratégicamente para funcionar como una solución de inferencia de IA a nivel de rack. Lo que distingue a estos chips es su uso de memoria móvil.

Un cambio audaz: los chips de IA de Qualcomm se alejan de HBM para lograr una inferencia eficiente

Históricamente reconocido como líder en tecnología móvil, Qualcomm ha diversificado significativamente su portafolio en los últimos años, incursionando en la informática de consumo y la infraestructura de IA. La compañía lanzó recientemente sus soluciones de chips AI200 y AI250, diseñadas específicamente para aplicaciones a escala de rack. Esto marca una entrada destacada en un mercado competitivo típicamente dominado por gigantes de la industria como NVIDIA y AMD. El enfoque único de Qualcomm aprovecha la memoria LPDDR, ampliamente asociada a los dispositivos móviles, para mejorar el rendimiento de estos chips.

Para comprender la importancia del uso de la memoria LPDDR, es fundamental compararla con la memoria de alto ancho de banda (HBM), más comúnmente utilizada. Los chips AI200 y AI250 pueden aumentar la capacidad de memoria hasta 768 GB de LPDDR, lo que supera el ancho de banda típico que ofrecen los sistemas HBM. Esta estrategia reduce tanto el consumo de energía como los costes de transferencia de datos, ofreciendo lo que Qualcomm denomina una arquitectura «cercana a la memoria».Las principales ventajas de adoptar LPDDR en lugar de HBM son:

  • Eficiencia energética: menor consumo de energía por bit.
  • Rentabilidad: Más asequible en comparación con las alternativas HBM avanzadas.
  • Mayor densidad de memoria: ideal para aplicaciones de inferencia.
  • Eficiencia térmica: reducción de la producción de calor en comparación con las soluciones HBM.

A pesar de estas prometedoras características, los chips a escala de rack de Qualcomm presentan limitaciones en comparación con los productos consolidados de NVIDIA y AMD. La ausencia de HBM reduce el ancho de banda de la memoria y aumenta la latencia debido a una interfaz más estrecha. Además, la memoria LPDDR podría no rendir al máximo en entornos de servidores exigentes, siempre con alta temperatura, que operan las 24 horas del día. El objetivo principal de Qualcomm parece ser ofrecer una opción viable para la inferencia de IA, aunque este énfasis limita su uso a aplicaciones específicas.

Rack de servidor Qualcomm con logotipo visible en una habitación oscura.

Además, los chips AI200 y AI250 están equipados con tecnología de refrigeración líquida directa, son compatibles con los protocolos PCIe/Ethernet y mantienen un consumo de energía a nivel de rack relativamente bajo de 160 kW. Cabe destacar que estos chips están integrados con las NPU Hexagon de Qualcomm, que han mejorado constantemente sus capacidades de inferencia, incluyendo compatibilidad con formatos de datos avanzados y funciones optimizadas para la inferencia.

La competencia en el mercado de hardware de IA se está intensificando, con importantes empresas como Intel lanzando su solución «Crescent Island» y NVIDIA desplegando el chip Rubin CPX AI. Qualcomm reconoce la creciente importancia del sector de la inferencia, por lo que el lanzamiento de las soluciones AI200 y AI250 es una decisión estratégica. Sin embargo, para tareas que requieren un entrenamiento intensivo o cargas de trabajo a gran escala, estas soluciones podrían no ser la opción preferida.

La creciente rivalidad en el panorama de la IA es emocionante, y las reacciones iniciales de los minoristas a los anuncios de Qualcomm han sido abrumadoramente positivas.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *