Les processeurs AMD Ryzen AI MAX+ libèrent 96 Go de mémoire pour les cartes graphiques grand public, permettant l’exécution locale de LLM à 128 octets de paramètres sur PC.

Les processeurs AMD Ryzen AI MAX+ libèrent 96 Go de mémoire pour les cartes graphiques grand public, permettant l’exécution locale de LLM à 128 octets de paramètres sur PC.

AMD a considérablement amélioré les capacités d’IA de pointe pour les ordinateurs personnels avec sa dernière mise à jour de pilote, permettant la prise en charge de grands modèles de langage (LLM) pour les utilisateurs.

AMD dynamise les innovations en matière d’IA grand public avec la plateforme Strix Halo

Acteur majeur du secteur, AMD a réalisé des progrès remarquables dans l’intégration de l’IA haute performance aux systèmes grand public grâce à ses moteurs XDNA innovants. Les unités de traitement accélérées (APU) de l’entreprise, notamment celles des gammes Strix Point et Strix Halo, affichent des capacités d’IA exceptionnelles. La dernière version du pilote Adrenalin Edition 25.8.1 prend en charge les modèles LLM pouvant atteindre 128 milliards de paramètres, ouvrant ainsi la voie aux appareils grand public pour exploiter des modèles d’IA avancés, notamment le processeur de pointe Llama 4 Scout de Meta.

AMD Ryzen AI : Prise en charge de pointe de Windows LLM, quantification de 4 à 16 bits, déploiement léger et compact

L’une des caractéristiques marquantes de la technologie AMD est sa mémoire graphique variable (VGM), qui permet aux utilisateurs d’allouer jusqu’à 96 Go de mémoire graphique au GPU intégré (iGPU).Cette capacité permet l’exécution locale de modèles d’IA à grande échelle. Par exemple, le modèle Llama fonctionne selon une conception mixte d’experts (MoE) et n’utilise que 17 milliards de paramètres pendant l’exécution. Ainsi, les utilisateurs peuvent atteindre un nombre impressionnant de transactions par seconde (TPS), permettant à la LLM de fonctionner efficacement comme un assistant d’IA sophistiqué.

AMD AI Max+ exécute jusqu'à 128 B de paramètres ; tableau de comparaison de l'utilisation de la mémoire par modèle.

Les avancées d’AMD vont au-delà de la simple puissance de calcul ; elles ont également permis d’améliorer considérablement la taille du contexte. Traditionnellement, les processeurs grand public supportent une longueur de contexte d’environ 4 096 jetons. AMD a désormais atteint une longueur de contexte impressionnante de 256 000 jetons, améliorant considérablement le contrôle des utilisateurs sur les flux de travail et garantissant des performances robustes et constantes. Ces avancées illustrent la progression fulgurante de la technologie de calcul IA dans les ordinateurs personnels, marquant une évolution notable dans le secteur.

Actuellement, la plateforme Strix Halo est disponible sur un nombre limité d’appareils, et son accessibilité reste problématique pour de nombreux consommateurs, certains systèmes coûtant plus de 2 000 $.Malgré ce coût élevé, l’engagement d’AMD à démocratiser la puissance de l’IA est évident, même si l’acquisition de ces appareils de pointe nécessite un investissement financier important.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *