
AMD está pronosticando un cambio desde la inferencia del centro de datos tradicional hacia un futuro donde los dispositivos de consumo, como teléfonos inteligentes y computadoras portátiles, se convertirán en las plataformas principales para estas operaciones.
El director de tecnología de AMD describe la próxima ola de IA: la migración de inferencia a dispositivos de borde
El inicio del auge de la IA se centró inicialmente en el entrenamiento de modelos, con varias empresas acumulando importantes recursos computacionales para el entrenamiento de grandes modelos de lenguaje (LLM).Sin embargo, está surgiendo una tendencia notable que indica un giro hacia las capacidades de inferencia. En una entrevista reciente con Business Insider, Mark Papermaster, director de tecnología de AMD, compartió su perspectiva sobre esta transición, destacando que la inferencia se está dirigiendo cada vez más a los dispositivos edge. AMD está preparada para desafiar a NVIDIA en este segmento de mercado en auge.
Pregunta: Bien, digamos que estamos en 2030: ¿cuánta inferencia se realiza en el borde?
Director de Tecnología de AMD: Con el tiempo, será la mayoría. No puedo decir cuándo se producirá la transición, ya que está impulsada por las aplicaciones: el desarrollo de las aplicaciones revolucionarias que pueden ejecutarse en dispositivos periféricos. Apenas estamos viendo la punta de lanza, pero creo que esto avanza rápidamente.
Papermaster sugiere que el aumento de los gastos relacionados con el procesamiento de IA en los centros de datos obligará a gigantes tecnológicos como Microsoft, Meta y Google a reconsiderar sus estrategias, lo que conducirá a una adopción más amplia de soluciones de IA en el borde. Destaca que AMD se toma el potencial de las «PC con IA» más en serio que competidores como Intel y Qualcomm. Esta perspectiva se refleja en las últimas líneas de APU de AMD, como Strix Point y Strix Halo, diseñadas para integrar capacidades de IA en sistemas compactos, manteniendo al mismo tiempo una rentabilidad.

Al analizar la evolución de los recursos informáticos, Papermaster destacó la importancia de mejorar la precisión y la eficiencia de los modelos de IA. Con la introducción de DeepSeek, las principales empresas tecnológicas están adoptando cada vez más alternativas optimizadas para sus procesos de IA. El objetivo a largo plazo es que los dispositivos ejecuten modelos de IA sofisticados localmente, maximizando así la experiencia del usuario al utilizar la IA.
Las opiniones expresadas por el director de tecnología de AMD coinciden con las afirmaciones previas de Pat Gelsinger, exdirector ejecutivo de Intel, sobre la necesidad de centrarse en la inferencia para futuros avances. Esto indica que las empresas que compiten con NVIDIA han tenido dificultades para penetrar en el sector del entrenamiento de IA, donde NVIDIA ha establecido una ventaja formidable. En cambio, AMD parece estar preparada para dar pasos significativos en el mercado de la IA de borde al ofrecer procesadores diseñados específicamente para estas aplicaciones emergentes.
Deja una respuesta