AMD surpasse NVIDIA en matière de calcul quantique en exécutant l’algorithme de correction d’erreurs quantiques d’IBM sur des processeurs standard

AMD surpasse NVIDIA en matière de calcul quantique en exécutant l’algorithme de correction d’erreurs quantiques d’IBM sur des processeurs standard

IBM a fait une annonce révolutionnaire dans le domaine de l’informatique quantique à usage général, soulignant une réalisation notable où les puces standard d’AMD ont exécuté avec succès un algorithme critique de correction d’erreurs quantiques.

Les FPGA d’AMD excellent dans l’exécution des algorithmes de correction d’erreurs de qubits

IBM, acteur majeur de l’innovation en informatique quantique, a récemment franchi une étape décisive qui le distingue de ses concurrents comme Google. Au lieu de poursuivre des approches conventionnelles, IBM semble se concentrer sur des avancées pratiques. Comme l’a rapporté Reuters, l’entreprise a implémenté avec succès un algorithme de correction d’erreurs quantiques sur les FPGA d’AMD, multipliant par dix les performances par rapport à ses attentes initiales.

Jay Gambetta, directeur de la recherche chez IBM, a déclaré que ce développement démontre que l’algorithme d’IBM fonctionne non seulement dans des conditions réelles, mais fonctionne également sur une puce AMD accessible qui n’est pas « ridiculement chère ».- Reuters

Pour mieux comprendre l’importance de cette avancée, explorons ce qu’implique un algorithme de correction d’erreurs quantiques (QEC).En informatique quantique, l’unité fondamentale d’information est le qubit, qui diffère sensiblement des bits binaires classiques. Les qubits sont notoirement fragiles et peuvent être influencés par d’infimes variations environnementales, telles que les vibrations. C’est là que les algorithmes de correction d’erreurs deviennent essentiels ; ils identifient et corrigent les erreurs sans compromettre l’état du qubit. Bien que ce sujet soit complexe, cette brève explication suffit à illustrer l’importance de la QEC en informatique quantique.

Les FPGA d’AMD se sont imposés comme une plateforme de calcul viable pour les algorithmes de correction d’erreurs quantiques grâce à leur reconfigurabilité intrinsèque, leur permettant de gérer efficacement des tâches sur mesure. Dans les applications de correction d’erreurs, une boucle de rétroaction performante est essentielle, nécessitant une latence minimale, caractéristiques que les FPGA d’AMD offrent. Cette approche transfère efficacement une partie de la charge de travail du calcul quantique classique vers du matériel facilement disponible, éliminant ainsi le recours à des solutions silicium personnalisées.

Ordinateur quantique IBM dans une vitrine en verre.
Crédits image : IBM

En revanche, la stratégie d’informatique quantique de NVIDIA ne repose pas sur des puces spécialisées comme les FPGA. L’entreprise a développé une pile technologique complète incluant DGX Quantum avec prise en charge CUDA-Q, qui prend également en charge les algorithmes QEC. Si l’approche de NVIDIA peut offrir des performances supérieures à celles des FPGA, la réussite d’AMD ne réside pas seulement dans l’exécution d’algorithmes QEC, mais aussi dans l’utilisation de matériel standard – un exploit que NVIDIA n’a pas encore réussi à reproduire. L’absence d’un équivalent à l’arsenal Xilinx d’AMD est un facteur contributif.

La montée en puissance de l’informatique quantique coïncide avec un regain d’intérêt pour l’intelligence artificielle. Observer comment des entreprises comme NVIDIA et AMD s’adapteront à cette évolution quantique sera fascinant, d’autant plus que les systèmes quantiques sont appelés à devenir des composants essentiels de la prochaine génération d’infrastructures d’IA.

Source et images

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *