AMD voit l’avenir dans l’inférence mobile et portable ; vise à concurrencer le leadership de NVIDIA en matière d’IA

AMD voit l’avenir dans l’inférence mobile et portable ; vise à concurrencer le leadership de NVIDIA en matière d’IA

AMD prévoit un éloignement de l’inférence traditionnelle des centres de données vers un avenir où les appareils grand public, tels que les smartphones et les ordinateurs portables, deviendront les principales plates-formes pour ces opérations.

Le directeur technique d’AMD présente la prochaine vague d’IA : la migration de l’inférence vers les appareils périphériques

L’engouement pour l’IA s’est d’abord concentré sur l’entraînement des modèles, plusieurs entreprises accumulant d’importantes ressources de calcul pour l’entraînement de grands modèles de langage (LLM).Cependant, une tendance notable se dessine, indiquant un virage vers les capacités d’inférence. Dans une récente interview accordée à Business Insider, Mark Papermaster, directeur technique d’AMD, a partagé son analyse de cette transition, soulignant que l’inférence est de plus en plus orientée vers les appareils périphériques. AMD est prêt à concurrencer NVIDIA sur ce segment de marché en plein essor.

Question : OK, disons que nous sommes en 2030 — quelle quantité d’inférence est effectuée à la périphérie ?

CTO d’AMD : Avec le temps, ce sera la majorité. Je ne peux pas dire quand la transition aura lieu, car elle est motivée par les applications, le développement d’applications phares capables de fonctionner sur des appareils de pointe. Nous n’en sommes qu’au début, mais je pense que cela évolue rapidement.

Papermaster suggère que l’augmentation des dépenses liées au traitement de l’IA dans les centres de données obligera les géants de la technologie tels que Microsoft, Meta et Google à revoir leurs stratégies, ce qui favorisera une adoption plus large des solutions d’IA de pointe. Il souligne qu’AMD accorde plus d’importance au potentiel des « PC IA » que ses concurrents comme Intel et Qualcomm. Cette perspective se reflète dans les dernières gammes d’APU d’AMD, notamment Strix Point et Strix Halo, conçues pour intégrer des capacités d’IA dans des systèmes compacts, tout en restant rentables.

Les APU AMD Krackan Point à 8 cœurs « CPU et GPU » sont réservés aux APU Ryzen AI 7, les CPU Strix à 8 cœurs sont uniquement disponibles dans les versions « PRO » avec 12 cœurs GPU.

En évoquant l’évolution des ressources informatiques, Papermaster a souligné l’importance d’améliorer la précision et l’efficacité des modèles d’IA. Avec l’introduction de DeepSeek, les principaux acteurs technologiques adoptent de plus en plus d’alternatives optimisées pour leurs processus d’IA. L’objectif à long terme est que les appareils puissent exécuter localement des modèles d’IA sophistiqués, optimisant ainsi l’expérience utilisateur.

Les propos du directeur technique d’AMD font écho aux déclarations précédentes de Pat Gelsinger, ancien PDG d’Intel, concernant la nécessité de se concentrer sur l’inférence pour les avancées futures. Cela indique que les entreprises concurrentes de NVIDIA ont du mal à pénétrer le secteur de la formation en IA, où NVIDIA a acquis une avance considérable. AMD semble pourtant bien parti pour progresser significativement sur le marché de l’IA de pointe en proposant des processeurs spécifiquement conçus pour ces applications émergentes.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *