
Introduction
Cette semaine, Microsoft a fait la une des journaux avec le lancement de sa puce d’ordinateur quantique révolutionnaire, Majorana 1. Assez compacte pour tenir dans la paume de votre main, cette puce innovante utilise des qubits topologiques, un concept qui, bien que complexe, offre des avantages significatifs en termes de résistance aux erreurs.
Actuellement, Majorana 1 dispose de 8 qubits, mais Microsoft prévoit d’augmenter ce nombre à un million de qubits dans le futur. Cette avancée redéfinit le calendrier des ordinateurs quantiques pratiques, réduisant l’attente de plusieurs décennies à quelques années seulement.
Dans cet éditorial, nous explorerons le potentiel transformateur de l’informatique quantique, examinerons son contexte historique, approfondirons les spécificités de Majorana 1 et évaluerons les projections de l’industrie sur le calendrier de développement de l’informatique quantique.

Les avantages de l’informatique quantique
L’informatique quantique est un terme à la mode depuis des années, mais beaucoup de gens trouvent le sujet intimidant. Le point essentiel à retenir est qu’une fois pleinement développés, les ordinateurs quantiques surclasseront les systèmes classiques dans la résolution de problèmes spécifiques, accélérant considérablement le traitement de données complexes.
L’informatique classique repose sur des bits, qui représentent des valeurs binaires de 0 ou 1. Ces bits servent d’unités de base pour les calculs au sein des micropuces, qui contiennent souvent des milliards de transistors fonctionnant comme des portes logiques pour des opérations telles que AND, OR et NOT. Ce traitement séquentiel, bien qu’efficace, limite intrinsèquement la vitesse de calcul.
En revanche, les ordinateurs quantiques utilisent des qubits, qui possèdent des propriétés uniques leur permettant de représenter simultanément 0, 1 ou les deux, un phénomène appelé superposition. Cette capacité permet aux systèmes quantiques de traiter des informations en parallèle, ce qui améliore considérablement leur efficacité.
Un autre aspect important de l’informatique quantique est l’intrication, où les qubits sont interconnectés de telle manière que l’état de l’un influence directement l’autre, quelle que soit la distance. Cette relation améliore la vitesse de traitement de l’information et facilite la résolution de problèmes complexes.
L’interférence est un autre principe fondamental de l’informatique quantique, qui permet d’affiner les résultats de calcul. En amplifiant les résultats souhaités tout en minimisant les autres, l’interférence optimise l’efficacité des calculs.
Les ordinateurs quantiques utilisent des portes quantiques, qui viennent compléter les portes logiques utilisées dans les ordinateurs classiques, pour exécuter des algorithmes quantiques tels que l’algorithme de Shor pour la factorisation de grands nombres et l’algorithme de Grover pour accélérer les recherches dans les bases de données. Cette capacité permet aux machines quantiques de résoudre des problèmes que les systèmes classiques ne peuvent pas résoudre efficacement.
La mise en œuvre de l’informatique quantique est vouée à révolutionner de nombreux domaines, notamment la cryptographie, l’industrie pharmaceutique, l’intelligence artificielle, les services financiers, la modélisation climatique et bien d’autres encore. Par exemple, si les ordinateurs quantiques représentent une menace pour les méthodes de chiffrement actuelles, ils pourraient également ouvrir la voie à des systèmes cryptographiques plus sûrs.
De plus, le potentiel des ordinateurs quantiques pour accélérer la découverte de médicaments et améliorer la science des matériaux est considérable, améliorant notre capacité à simuler les interactions moléculaires avec une précision sans précédent.
Dans le domaine financier, l’informatique quantique permettra de mettre en œuvre des stratégies d’investissement plus sophistiquées en évaluant simultanément de nombreux scénarios. Des secteurs allant de la santé aux télécommunications en passant par l’industrie manufacturière, les gains d’efficacité que l’informatique quantique pourrait générer sont considérables, ce qui se traduira probablement par des économies de coûts qui profiteront aux consommateurs.
Un bref aperçu de l’histoire de l’informatique quantique
Les concepts à la base de l’informatique quantique sont apparus dans les années 1980, même si l’histoire de leur origine reste floue. Le physicien américain Paul Benioff a été l’un des premiers à décrire un modèle quantique de l’informatique, tandis que Richard Feynman a suggéré d’exploiter l’informatique quantique pour simuler des systèmes physiques que les ordinateurs classiques avaient du mal à modéliser efficacement.
Le physicien britannique David Deutsch a apporté des contributions marquantes, notamment la machine quantique de Turing et les principes de correction des erreurs quantiques, qui ont ouvert la voie à de futures avancées.
Les années 1990 ont vu l’introduction d’algorithmes quantiques pivots comme ceux de Shor et de Grover, ainsi que des premiers prototypes d’ordinateurs quantiques provenant d’institutions telles qu’IBM et le MIT.
Au début des années 2000, Microsoft a lancé son exploration de la théorie quantique topologique, qui a jeté les bases de la puce Majorana 1. Le D-Wave One a fait l’actualité en 2011 en tant que premier ordinateur quantique commercial, suivi par Sycamore de Google qui a atteint la suprématie quantique en 2019 en résolvant un problème complexe exponentiellement plus rapidement que les systèmes classiques.
À l’aube des années 2020, de grandes entreprises technologiques comme IBM, Google et Microsoft sont apparues comme leaders dans la course aux ordinateurs quantiques pratiques, en fixant des objectifs de développement ambitieux visant à réaliser des percées transformatrices d’ici 2035 environ.
Reconnaissant le besoin crucial de développement de logiciels pour compléter les avancées matérielles, Microsoft a introduit le langage de programmation Q#, qui offre une syntaxe de haut niveau pour l’implémentation d’algorithmes quantiques au sein de son écosystème. De même, OpenQASM d’IBM et le framework Cirq de Google permettent aux développeurs de créer des applications quantiques, en exploitant souvent des simulateurs avant de les déployer sur du matériel quantique.
Feuille de route de l’informatique quantique de Microsoft et Majorana 1
Le 19 février 2025, Microsoft a présenté sa puce quantique Majorana 1, initialement dotée de 8 qubits topologiques mais conçue pour une évolutivité jusqu’à 1 million. Cette innovation se distingue de la concurrence en raison de la résistance supérieure aux erreurs offerte par les qubits topologiques, une caractéristique essentielle pour surmonter les défis courants de l’informatique quantique.
La résistance aux erreurs est primordiale, car les états quantiques sont notoirement fragiles.À mesure que Microsoft augmente progressivement le nombre de qubits, les avantages des qubits topologiques en matière de minimisation des erreurs deviendront de plus en plus évidents.

Le nom de la puce Majorana 1 rend hommage au physicien italien Ettore Majorana, qui a théorisé les particules de Majorana, des entités uniques qui confèrent des propriétés fondamentales aux qubits topologiques. La résilience inhérente aux erreurs de ces qubits provient de la caractéristique unique des particules de Majorana d’être leurs antiparticules, ce qui facilite un codage des données plus stable.
La puce Majorana 1 de Microsoft marque la deuxième phase d’une feuille de route complète en six étapes visant à créer des systèmes quantiques pratiques. Les étapes de la feuille de route comprennent :
ÉTAPE 01 : Créer et contrôler les Majoranas
L’ingénierie de dispositifs permettant d’induire et de manipuler la phase topologique de la matière a permis le développement d’un nouveau type de qubit.
ÉTAPE 02 : Qubit protégé par le matériel
Cette étape introduit un qubit protégé doté d’une protection intégrée contre les erreurs, faisant passer la technologie qubit du contrôle analogique au contrôle numérique.
ÉTAPE 03 : Qubits protégés par du matériel de haute qualité
L’objectif est de faire évoluer les opérations tout en minimisant les erreurs grâce à l’enchevêtrement et au tressage de qubits de haute qualité contrôlés numériquement.
ÉTAPE 04 : Système multi-qubits
Une unité de traitement quantique (QPU) multiforme permet une gamme d’algorithmes quantiques grâce à des opérations de qubits combinées.
ÉTAPE 05 : Système quantique résilient
L’obtention d’une supériorité opérationnelle grâce à de véritables qubits logiques constitue la base d’opérations quantiques fiables et pose les bases du supercalcul quantique.
ÉTAPE 06 : Supercalculateur quantique
Un supercalculateur quantique dépassera les systèmes classiques, en relevant initialement les défis de calcul à 1 million de rQOPS/sec fiables avec un taux d’erreur inférieur à un sur mille milliards, et en passant à 100 millions pour les problèmes scientifiques avancés.
Microsoft a mis 18 mois pour franchir la première étape et s’est engagée à atteindre les étapes suivantes dans un délai similaire. Ces perspectives optimistes suggèrent que Microsoft pourrait atteindre son objectif ultime dès 2031, même si les objectifs pourraient s’étendre jusqu’en 2035 en fonction de la complexité de chaque phase.
Les travaux de Microsoft sur la puce Majorana 1 ont suscité un intérêt considérable, notamment de la part de la Defense Advanced Research Projects Agency (DARPA).Microsoft est l’une des deux seules entreprises à progresser dans l’initiative Underexplored Systems for Utility-Scale Quantum Computing (US2QC) de la DARPA, qui vise à développer le premier ordinateur quantique à grande échelle tolérant aux pannes.
L’avenir de l’informatique quantique : à quel point en sommes-nous proches ?
Il reste difficile de déterminer avec précision le calendrier d’arrivée d’ordinateurs quantiques pleinement fonctionnels. Actuellement, des systèmes comptant des centaines de qubits sont opérationnels, mais atteindre un million de qubits stables est encore un objectif lointain. Des problèmes techniques tels que la réduction des erreurs et la nécessité d’un refroidissement extrême constituent des obstacles persistants.
Suivant un modèle similaire à celui de Microsoft, Google a défini une feuille de route en six étapes, dont les deux premières étapes devraient être respectivement fixées à 2019 et 2023. Au cours de cette dernière étape, Google a dévoilé un ordinateur quantique équipé de 100 qubits physiques, avec pour objectif d’atteindre 1 000, 10 000, 100 000 et finalement 1 million de qubits physiques au fil des étapes suivantes.

Si Google maintient son rythme de développement actuel, les étapes 3, 4, 5 et 6 pourraient être réalisées respectivement d’ici 2027, 2031, 2035 et 2039, ce qui correspond étroitement aux prévisions de Microsoft.
IBM prévoit de disposer d’un ordinateur quantique capable d’exécuter des milliers de qubits logiques d’ici 2033. Cette approche se concentre sur le codage des qubits logiques sur plusieurs qubits physiques afin de minimiser les erreurs. Alors qu’IBM et Google poursuivent des stratégies similaires, l’approche de Microsoft utilisant des qubits topologiques peut offrir un avantage concurrentiel en raison de leur conception intrinsèquement stable.
De nombreux défis doivent être relevés avant que les ordinateurs quantiques pratiques ne deviennent omniprésents, notamment la réduction des taux d’erreur, la résolution des problèmes de décohérence et la résolution des problèmes d’évolutivité. Les systèmes quantiques actuellement opérationnels ont un nombre limité de qubits, et l’augmentation de leur nombre ajoute à la complexité.
Pour que l’informatique quantique passe de la théorie à la pratique, les progrès dans le domaine des matériaux, notamment les semi-conducteurs et les isolants topologiques, sont essentiels. Ces matériaux doivent être stables, abordables et reproductibles pour prendre en charge les systèmes quantiques à grande échelle.
Les coûts opérationnels et les besoins de refroidissement limitent actuellement les déploiements de l’informatique quantique auprès des gouvernements et des grandes entreprises technologiques, ce qui nécessite des innovations permettant la miniaturisation et la fonctionnalité à des températures plus élevées.
Enfin, le manque de normalisation entre les différents systèmes pose un défi à long terme. Les entreprises technologiques adoptant des approches différentes sont nombreuses et il est essentiel de disposer d’une norme unifiée pour élargir les intégrations futures.
Conclusion
Cet éditorial a souligné les nombreux avantages présentés par les ordinateurs quantiques, a fourni un historique succinct de leur évolution et a articulé l’importance de la puce Majorana 1 de Microsoft par rapport aux échéanciers actuels de l’informatique quantique pratique.
L’annonce de Majorana 1 représente une avancée considérable, qui met en évidence les progrès réalisés par Microsoft pour relever les principaux défis liés aux taux d’erreur tout en traçant la voie vers un avenir à millions de qubits. L’affirmation du géant de la technologie selon laquelle l’informatique quantique n’est plus à des décennies de distance est un récit audacieux et passionnant.
Les implications de l’informatique quantique sont vastes et prometteuses dans des secteurs tels que la santé, la science des matériaux et la modélisation climatique. Tout comme les technologies d’intelligence artificielle comme ChatGPT ont ouvert de nouveaux horizons de possibilités, l’avenir de l’informatique quantique recèle sans aucun doute un potentiel de transformation similaire pour la société dans son ensemble.
Laisser un commentaire ▼