
AMD prévoit un éloignement de l’inférence traditionnelle des centres de données vers un avenir où les appareils grand public, tels que les smartphones et les ordinateurs portables, deviendront les principales plates-formes pour ces opérations.
Le directeur technique d’AMD présente la prochaine vague d’IA : la migration de l’inférence vers les appareils périphériques
L’engouement pour l’IA s’est d’abord concentré sur l’entraînement des modèles, plusieurs entreprises accumulant d’importantes ressources de calcul pour l’entraînement de grands modèles de langage (LLM).Cependant, une tendance notable se dessine, indiquant un virage vers les capacités d’inférence. Dans une récente interview accordée à Business Insider, Mark Papermaster, directeur technique d’AMD, a partagé son analyse de cette transition, soulignant que l’inférence est de plus en plus orientée vers les appareils périphériques. AMD est prêt à concurrencer NVIDIA sur ce segment de marché en plein essor.
Question : OK, disons que nous sommes en 2030 — quelle quantité d’inférence est effectuée à la périphérie ?
CTO d’AMD : Avec le temps, ce sera la majorité. Je ne peux pas dire quand la transition aura lieu, car elle est motivée par les applications, le développement d’applications phares capables de fonctionner sur des appareils de pointe. Nous n’en sommes qu’au début, mais je pense que cela évolue rapidement.
Papermaster suggère que l’augmentation des dépenses liées au traitement de l’IA dans les centres de données obligera les géants de la technologie tels que Microsoft, Meta et Google à revoir leurs stratégies, ce qui favorisera une adoption plus large des solutions d’IA de pointe. Il souligne qu’AMD accorde plus d’importance au potentiel des « PC IA » que ses concurrents comme Intel et Qualcomm. Cette perspective se reflète dans les dernières gammes d’APU d’AMD, notamment Strix Point et Strix Halo, conçues pour intégrer des capacités d’IA dans des systèmes compacts, tout en restant rentables.

En évoquant l’évolution des ressources informatiques, Papermaster a souligné l’importance d’améliorer la précision et l’efficacité des modèles d’IA. Avec l’introduction de DeepSeek, les principaux acteurs technologiques adoptent de plus en plus d’alternatives optimisées pour leurs processus d’IA. L’objectif à long terme est que les appareils puissent exécuter localement des modèles d’IA sophistiqués, optimisant ainsi l’expérience utilisateur.
Les propos du directeur technique d’AMD font écho aux déclarations précédentes de Pat Gelsinger, ancien PDG d’Intel, concernant la nécessité de se concentrer sur l’inférence pour les avancées futures. Cela indique que les entreprises concurrentes de NVIDIA ont du mal à pénétrer le secteur de la formation en IA, où NVIDIA a acquis une avance considérable. AMD semble pourtant bien parti pour progresser significativement sur le marché de l’IA de pointe en proposant des processeurs spécifiquement conçus pour ces applications émergentes.
Laisser un commentaire