Si la théorie quantique est centenaire, l’adjectif « quantique » n’est réellement apparu de manière récurrente dans les médias que ces dernières années, associé selon les cas à la théorie, la physique, la mécanique, le calcul, l’ordinateur, l’internet, etc. Si l’on ajoute à cela que le quantique véhicule à la fois l’image d’une théorie complexe limitée à quelques grands scientifiques et celle d’une réalité contre-intuitive (finalement il est vivant ce chat ?), il peut être tentant de renoncer à suivre et tenter de comprendre le sujet.
Or, à l’instar de l’IA, du Big Data, du cloud ou du metavers, même s’il est difficile d’estimer à quel point le quantique impactera nos vies dans quelques années, il est sans doute opportun d’avoir au moins en tête quelques notions structurantes pour nous permettre de suivre les évolutions à venir.
Sans remonter au tableau noir des chercheurs, si l’on s’intéresse à Internet ou à la cybersécurité à l’ère du quantique, il faut toutefois rappeler quelques principes de la théorie d’origine et de son application en calcul quantique.
La physique quantique
Pour estimer à quel point on est éloigné d’un concept simple, rappelons que la théorie quantique est incompatible avec la relativité générale (et plus particulièrement avec le principe de réalisme local) qui régit l’essentiel de notre compréhension du monde. Rappelons qu’Einstein lui-même ne croyait tout simplement pas à la théorie quantique.
Pour éviter de renoncer a priori à comprendre une telle complexité, on gardera juste en mémoire quatre grands principes :
Superposition
Contrairement à la physique classique, où les observables d’un système (e.g. la position, la vitesse, l’énergie) ont des valeurs bien définies, en physique quantique, ces observables peuvent posséder plusieurs valeurs simultanément. On dit ainsi que les états quantiques peuvent être en superposition.
Mesure
Pour connaître la valeur d’une observable, on fait une mesure. Celle-ci ne révèle qu’une valeur.
- En cas de superposition, l’état du système est modifié par la mesure, de sorte que cette observable ne soit plus en superposition, et sa valeur finale est alors connue.
À noter que cette mesure est fondamentalement non-déterministe : on ne sait pas a priori dans quel état l’observable finira, ni a posteriori quel était l’état quantique avant la mesure.
La mesure modifie aussi les autres observables du système, et peut elle-même créer de nouvelles superpositions. Les observables d’un système ne peuvent d’ailleurs pas toutes être connues : c’est le principe d’incertitude d’Heisenberg.
On pourrait être tenté de croire que tout système est dans un état bien défini, mais inconnu, et que la superposition ne représente que notre manque d’information. Mais c’est faux, comme l’a notamment montré l’expérience d’Alain Aspect qui lui a valu le prix Nobel de physique en 2022. La physique quantique comprend bien un indéterminisme fondamental.
Intrication
Plusieurs observables peuvent être intriquées. Cela signifie que l’état du système dans son ensemble ne peut être décrit en décrivant séparément les observables.
Par exemple, le système peut être dans une superposition de deux états : l’un où toutes les observables valent A, l’autre où toutes les observables valent B. Chaque observable peut donc valoir A ou B, mais dire cela ne suffit pas à décrire le système dans son ensemble.
Point important : le fait de mesurer l’une des observables modifie donc immédiatement l’état de toutes les autres observables.
À noter que des observables intriquées ne sont pas forcément colocalisées, et que cette modification se fait donc instantanément à distance, « voyageant » plus vite que la vitesse de la lumière. Einstein parlait de « spooky action at a distance ».
Réversibilité
À part pour la mesure, l’évolution d’un système quantique, régie par l’équation de Schrödinger, est forcément réversible. Cela a une conséquence très importante : il est impossible de cloner un état quantique.
On ne peut notamment pas faire des statistiques sur les valeurs d’une mesure, ce qui aurait permis de contourner les problèmes dus au non-déterminisme de la mesure.
Le calcul quantique
Les ordinateurs quantiques sont nés d’un constat simple : les systèmes quantiques permettent de calculer différemment. Ils ne sont pas plus rapides, comme on le laisse souvent entendre, mais permettent de développer de nouveaux algorithmes que les ordinateurs classiques ne supportent pas.
C’est un peu comme le calcul analogique : les ordinateurs analogiques ont plus ou moins disparu, mais le calcul analogique reste présent pour certains usages où il est nettement plus performant que le calcul numérique, notamment pour certains capteurs (e.g. oscilloscopes) ou en musique (synthétiseurs).
Qubits
La base du calcul quantique repose sur des qubits, des observables à deux états, communément notés |0⟩ et |1⟩. Comme avec des bits classiques, on représente les nombres en binaire. Les principes de superposition et d’intrication permettent cependant des états nouveaux.
Par exemple, avec deux qubits, on peut avoir une superposition de 0, représenté par l’état |00⟩ = |0⟩|0⟩, et de 3, représenté par l’état |11⟩ = |1⟩|1⟩. Il s’agit d’un état intriqué sur lequel on peut ensuite appliquer des portes quantiques, analogues aux portes logiques usuelles.
Algorithmes quantiques
Il est important de comprendre que, même si un algorithme classique peut souvent être transposé en quantique, il ne sera alors pas plus rapide. C’est plutôt lorsque l’on développe de nouveaux algorithmes, sans analogues classiques, que l’on offre de nouvelles possibilités.
En pratique, les nouveaux algorithmes développés mélangent souvent classique et quantique. C’est le cas notamment du plus connu d’entre eux, l’algorithme de Shor, qui permet de factoriser des grands nombres : il s’agit d’un mélange entre un algorithme classique, qui ramène la factorisation à un calcul de logarithme discret, et un algorithme quantique pour justement calculer ce logarithme discret, chose que l’on ne sait pas faire avec un algorithme classique.
De manière générale, les ordinateurs quantiques ont permis de trouver des algorithmes « plus rapides » pour certains problèmes difficiles. Dans le cas de l’algorithme de Shor, on passe d’une complexité exponentielle à une complexité polynomiale. Dans d’autres cas, les algorithmes quantiques ont cependant conservé à une complexité exponentielle, tout en étant nettement plus performante que celle de leurs analogues classiques. En particulier, les ordinateurs quantiques ne devraient a priori par permettre de résoudre des problèmes NP-complets en temps polynomial.
Domaines d’applications
Les algorithmes concernés étant souvent « de bas niveau », servant à résoudre des problèmes élémentaires, il est envisageable de les utiliser comme « briques de base » dans de nombreux contextes pour répondre à des questions très variées. On cite par exemple la chimie, la météo ou le trading, mais il est sans doute trop tôt pour estimer ce que sera la « killer app ».
De manière générale, pour résoudre un problème, dès lors que des approches algorithmiques existent mais qui buttent sur des problèmes de dimensionnement et de complexité calculatoire, il est possible qu’un algorithme quantique puisse offrir une solution viable.
Notons que l’amélioration de la complexité calculatoire n’a rien à voir avec le volume de données traitées. Le calcul quantique ne permet pas de traiter plus vite un grand nombre de données, juste de faire plus vite un calcul complexe sur un ensemble de données fixé.
Difficultés actuelles
Pour terminer sur l’algorithme de Shor, bien qu’il permette de factoriser de grands nombres en temps polynomial, le meilleur résultat à l’heure actuelle est la factorisation de 35 en 7 × 5. En effet, la théorie des calculs quantiques a des décennies d’avance sur les ordinateurs quantiques qui, bien que prometteurs, n’en sont qu’à leurs débuts.
Les deux grandes difficultés à surmonter pour qu’ils deviennent viables sont la perte de fidélité, i.e. l’introduction de bruit dans la superposition des états au cours des opérations, et la décohérence, où l’état d’un qubit est perdu suite à une interaction avec l’environnement.
À titre d’exemple, les mémoires quantiques actuelles ont une durée de vie de l’ordre de 1ms. S’ajoutent à ça d’autres difficultés telles que le coût énergétique très important.
L’internet quantique
L’internet quantique désigne un réseau de transmission de qubits, souvent par fibre optique ou dans le vide via satellites. Ces réseaux ont vocation à permettre la mise en place d’algorithmes quantiques distribués, de clouds quantiques, ou de protocoles de sécurité tels que la distribution de clés quantiques.
Téléportation quantique
L’internet quantique se distingue des réseaux classiques du fait que l’information quantique ne circule pas dans le réseau. En effet, pour peu qu’une source et une destination se partagent une paire de qubits « maximalement intriqués », communément appelée paire de Bell, la source peut transmettre un état quantique |φ⟩ en faisant un calcul localement, puis en transmettant deux bits classiques à la destination ; celle-ci va à son tour faire un calcul localement, et se retrouver avec un qubit dans l’état |φ⟩. Cette opération s’appelle la téléportation quantique, et consomme la paire de Bell.
Soulignons qu’une paire de Bell peut servir à transmettre n’importe quel état |φ⟩, et que les deux bits classiques transmis, bien que donnés par le résultat de l’opération à la source, sont complètement aléatoires et indépendants de |φ⟩.
Distribution
Dès lors, l’internet quantique a pour but de distribuer des paires de Bell entre des sources et des destinations. Les deux qubits d’une paire de Bell doivent être générés en un même lieu, puis distribués dans le réseau.
Là aussi, le fonctionnement diffère fortement d’un réseau classique : plutôt que de transmettre ces qubits de proche en proche, chaque lien dans le réseau génère ses propres paires de Bell, et les nœuds du réseau font des swaps, une opération consistant à détruire localement deux qubits appartenant à deux paires de Bell distinctes, de sorte que les autres deux qubits associés, distants, forment ensuite une nouvelle paire de Bell. Cette opération nécessite elle-aussi de transmettre deux bits classiques dans le réseau.
Le quantique et la cybersécurité
Les technologies quantiques ont un impact important en termes de cybersécurité. Tout d’abord, l’algorithme de Shor pourrait menacer la robustesse de certains algorithmes de chiffrement, notamment le plus utilisé : RSA.
Cryptographie post-quantum
Pour pallier ce problème, des algorithmes classiques contre lesquels aucune attaque classique ou quantique n’est connue ont été élaborés. On parle alors de cryptographie post-quantum.
A noter que parmi les quatre algorithmes de chiffrement asymétrique post-quantum retenus en 2022 par NIST, qui standardise les algorithmes de chiffrement, un a déjà été cassé par des méthodes classiques, et un autre par une attaque par canal auxiliaire. Ces approches, récentes, doivent donc encore être éprouvées.
Clés quantiques
Une autre grosse contribution des technologies quantiques à la cybersécurité vient de l’internet quantique : il s’agit de la distribution de clés quantique. Une source et une destination partageant un ensemble 2n paires de Bell peuvent en extraire n bits aléatoires partagés.
Ces bits ne peuvent pas être récupérés par quiconque intercepterait les communications sans que la source et la destination ne s’en rendent compte, et peuvent ensuite être utilisés pour chiffrer n’importe quel message classique de manière parfaitement sécurisée.
Cloud quantique
Pour conclure cette plongée dans le quantique sur un exemple concret, citons l’un des bénéfices en matière de cybersécurité : on peut demander à un cloud quantique d’effectuer un calcul sans qu’il ne connaisse ni le calcul qu’il effectue, ni la valeur des entrées ou des sorties, et en ayant la preuve qu’il a bien effectué le calcul demandé.
Cela est impossible avec un cloud classique, même en faisant appel à des techniques telles que le chiffrement homomorphe.