En 2019, Google affirme avoir atteint la « suprématie quantique » en résolvant en quelques minutes un calcul que les superordinateurs classiques réaliseraient en plusieurs milliers d’années. Ce jalon soulève une remise en question immédiate : les performances annoncées ne se transposent pas encore dans des applications concrètes, loin d’un bouleversement industriel.
La cryptographie, pilier de la sécurité numérique, se retrouve déjà sous pression. L’arrivée de nouvelles puces quantiques et d’algorithmes adaptés oblige laboratoires et entreprises à réévaluer l’ensemble des protocoles de protection des données. Les annonces se multiplient, tandis que l’écart entre potentiel théorique et usages réels persiste.
Ordinateur quantique : de quoi parle-t-on vraiment ?
Richard Feynman, pionnier du XXe siècle, anticipe dès les années 1980 que les limites du calcul classique entravent la capacité à simuler fidèlement la nature. L’ordinateur quantique naît de cette intuition radicale : ici, fini les bits, place aux états quantiques capables de manipuler des réalités multiples en parallèle. Une bascule conceptuelle qui redistribue toutes les cartes.
Le calcul quantique s’affranchit de la loi de Moore en exploitant la superposition et l’intrication, deux phénomènes qui défient l’intuition. Tandis qu’un classique traite les infos l’une après l’autre, un ordinateur quantique universel explore simultanément une infinité de configurations. Les géants IBM, Microsoft, Intel et des instituts comme le CEA ou le CNRS en France, tout comme la Chine et les États-Unis, s’engagent dans cette course effrénée.
Les ambitions du secteur dépassent largement la simple accélération des calculs. On vise la transformation de l’optimisation industrielle, la chimie moléculaire, le Big Data, l’intelligence artificielle ou encore le cloud computing. Cette dynamique annonce l’avènement d’une deuxième révolution quantique où la puissance de calcul comme les modèles économiques se réinventent. Paris, Washington ou Pékin deviennent les nouveaux champs de bataille de cette montée en puissance, alors que le passage à l’échelle reste un défi de taille.
L’idée même de calculateur quantique suscite fascination et inquiétude. Derrière les prototypes de Google, IBM ou des acteurs asiatiques, toute une industrie s’organise. Les applications, de la recherche fondamentale à la cybersécurité, dessinent déjà les contours d’un futur où l’impossible d’hier devient le possible de demain.
Comment fonctionne un ordinateur quantique et en quoi diffère-t-il des machines classiques ?
La structure d’un ordinateur quantique rompt avec les fondations du numérique traditionnel. Oubliez le bit, ce 0 ou 1 rigide : le qubit entre en scène. Grâce à la superposition, il occupe simultanément plusieurs états. En pratique, un qubit n’est ni 0, ni 1, mais un mix subtil des deux, une étrangeté offerte par la mécanique quantique.
Ce n’est pas une simple curiosité de laboratoire. Quand plusieurs qubits sont mis en relation, ils s’intriquent : l’intrication quantique fait que l’état de l’un dépend instantanément de l’autre, quelle que soit la distance. Cette propriété confère au calculateur quantique une capacité de traitement qu’aucun ordinateur classique ne saurait égaler.
Voici les grands concepts à garder en tête pour comprendre cette nouvelle architecture :
- Superposition : un qubit encode plusieurs états à la fois, multipliant les possibilités de calcul.
- Intrication : les résultats dépendent de chaînes de qubits corrélés, ouvrant la voie à une puissance collective inédite.
- Décohérence : ces états sont d’une fragilité extrême, sensibles à la moindre perturbation externe.
Face à cette instabilité, la correction d’erreurs quantiques, conceptualisée par Peter Shor, s’impose comme un axe de recherche majeur. À la moindre fluctuation, l’information quantique se volatilise : la décohérence écourte la durée des calculs et complique leur fiabilité. De la Nasa à Paris, les ingénieurs peaufinent les codes correcteurs et cherchent à repousser ces limites.
L’arrivée de la mécanique quantique bouleverse les bases de l’informatique. David Deutsch, figure centrale du secteur, a ouvert la voie à l’idée d’un calculateur universel quantique. Aujourd’hui, chaque processeur quantique s’efforce d’incarner ce rêve : remplacer la succession de bits par des opérations globales, directement ancrées dans les lois fondamentales de l’Univers.
Cryptographie post-quantique : quelles menaces et quelles solutions pour la sécurité numérique ?
Le calcul quantique vient bousculer les fondations de la cryptographie moderne. En 1994, l’algorithme de Shor montre qu’un ordinateur quantique suffisamment avancé pourrait factoriser d’immenses nombres entiers en un temps record, mettant à mal les systèmes à clé publique comme RSA. Le risque n’est plus théorique : la confidentialité des échanges, des transactions bancaires aux communications institutionnelles, s’appuie sur des codes désormais vulnérables.
Le scénario du now decrypt later inquiète de plus en plus : certains interceptent des données chiffrées aujourd’hui, dans l’espoir de les déchiffrer demain dès que la puissance quantique le permettra. Même si des standards comme AES pourraient tenir plus longtemps, la prudence s’impose dans tous les milieux concernés.
Pour relever le défi, l’approche dite de la cryptographie post-quantique se développe à grande vitesse, aussi bien dans les laboratoires que dans des agences comme la Nsa. Les chercheurs conçoivent de nouveaux algorithmes s’appuyant sur des problèmes mathématiques jugés résistants aux attaques quantiques, par exemple les réseaux euclidiens ou des codes correcteurs d’erreurs.
Les réponses à cette menace se déclinent en deux axes majeurs :
- Algorithmes post-quantiques : ils servent de bouclier face aux attaques des calculateurs quantiques.
- Migrations de protocoles : la transition s’opère par étapes, en associant progressivement de nouveaux systèmes à ceux déjà en place.
À l’occasion de la campagne présidentielle américaine, Andrew Yang a mis en avant la nécessité d’une adaptation rapide et généralisée. Gouvernements et entreprises se mobilisent, conscients qu’une nouvelle ère du chiffrement s’annonce, où la sécurité numérique mondiale devra se réinventer.
Les dernières avancées de Google : nouvelles puces et perspectives concrètes
Du côté de google quantum, la cadence ne faiblit pas depuis la proclamation de la suprématie quantique en 2019. Hartmut Neven et ses équipes poursuivent un objectif limpide : dépasser définitivement le calcul classique en créant des processeurs quantiques toujours plus avancés, à l’architecture de plus en plus complexe. Après Sycamore, le processeur qui a ouvert la voie avec le random circuit sampling, Google présente Willow, une puce quantique composée de 72 qubits physiques intriqués. À chaque progrès qui réduit la décohérence ou affine la correction d’erreurs, le rêve d’un calculateur quantique universel se rapproche un peu plus.
Transformer ces prototypes en machines capables d’exécuter des algorithmes utiles hors des laboratoires reste le principal obstacle. Les équipes dirigées par Matias Urdampilleta s’attellent à des architectures hybrides, mariant qubits logiques et qubits physiques pour garantir la stabilité nécessaire aux calculs exigeants. Les liens tissés avec des institutions comme le Cea ou le CNRS à Paris soulignent la portée internationale de cette aventure scientifique.
Sur le plan industriel, Google vise des domaines très concrets : optimisation logistique, chimie moléculaire, modélisation de nouveaux matériaux. De nouvelles applications émergent, notamment dans la résonance magnétique nucléaire et l’IRM. Les progrès récents font espérer une convergence entre calcul quantique et calcul haute performance traditionnel, à l’image du projet Frontier de Nvidia. L’avantage quantique ne se limite plus à de simples démonstrations de force, mais vise désormais à répondre aux besoins réels de la recherche et de l’industrie.
Tandis que les frontières entre science-fiction et ingénierie s’estompent, la course au quantique s’intensifie. Le jour où ces machines bouleverseront nos usages quotidiens n’est peut-être plus si lointain. Un nouveau chapitre de l’informatique s’écrit, bousculant nos certitudes et nos imaginaires.


