Dans l’univers en constante évolution de l’informatique quantique, le hasard n’est pas un simple artefact ou un bruit indésirable. Il est une clé fondamentale, une ressource précieuse qui permet de sécuriser les communications, de simuler des phénomènes naturels complexes ou encore de prouver que les ordinateurs quantiques dépassent largement leurs homologues classiques. Pourtant, produire un véritable hasard quantique à l’intérieur d’un circuit quantique a longtemps été un défi technique majeur, limité par la fragilité des états quantiques et les contraintes matérielles. Une équipe de chercheurs du California Institute of Technology (Caltech) vient de franchir une étape décisive en proposant une méthode radicalement nouvelle pour générer de l’aléatoire de manière efficace et robuste. Cette avancée, à la fois théorique et potentiellement expérimentale, pourrait redessiner les contours de l’information quantique.
Comment générer du hasard sans détruire la délicatesse quantique ?
Le hasard quantique n’est pas comparable au simple lancer d’un dé. Il s’agit d’un phénomène intrinsèque aux lois de la physique quantique, où les particules peuvent exister dans des superpositions d’états jusqu’à ce qu’elles soient mesurées. Pour exploiter ce hasard, les chercheurs utilisent des circuits quantiques capables de simuler un comportement aléatoire parfait, ce que l’on appelle un « design unitaire pseudorandom ». En théorie, plus un circuit est long et complexe, plus il approche ce comportement idéal. Mais dans la réalité, les ordinateurs quantiques actuels sont sujets au bruit et à la décohérence : plus les opérations sont nombreuses, plus les états quantiques se dégradent.
C’est là qu’intervient l’innovation de l’équipe de Caltech. Plutôt que de tenter de randomiser l’ensemble du système d’un coup, ce qui nécessiterait des chaînes d’opérations trop longues, les chercheurs ont opté pour une approche en blocs. Ils divisent le système en groupes de qubits — les bits quantiques — et appliquent à chacun une courte séquence d’opérations aléatoires. Ensuite, grâce à une technique de superposition ingénieuse, ils connectent ces blocs de manière à diffuser l’aléa à travers tout le système. Cette méthode, à la fois plus légère et plus résiliente, permet d’atteindre un niveau de hasard comparable à celui des circuits longs, sans compromettre la stabilité du calcul.
Qu’est-ce qu’un « design unitaire » et pourquoi est-il crucial ?
Le design unitaire, une simulation parfaite du hasard quantique
Un design unitaire est un modèle mathématique qui décrit un système quantique se comportant comme s’il était soumis à un processus parfaitement aléatoire. Il s’agit d’un outil fondamental pour tester la puissance des ordinateurs quantiques, notamment dans les expériences visant à démontrer l’« avantage quantique » — la capacité d’un ordinateur quantique à résoudre un problème que les machines classiques ne pourraient pas traiter en un temps raisonnable.
Jusqu’ici, atteindre un tel niveau de randomisation exigeait des circuits profonds, c’est-à-dire composés de nombreuses couches d’opérations successives. Mais ces circuits sont extrêmement sensibles aux erreurs. Le matériel quantique actuel, encore imparfait, ne peut les exécuter fidèlement. L’approche de Caltech contourne cette limite en montrant qu’un hasard de haute qualité peut émerger même avec des circuits peu profonds, à condition d’être bien structurés.
Une percée pour les expériences de démonstration quantique
L’un des principaux bénéfices de cette méthode est qu’elle rend possible la démonstration de l’avantage quantique sur des machines plus petites et moins bruyantes. Élodie Ricard, physicienne spécialisée en information quantique à l’Institut Langevin, explique : « Avant, il fallait des centaines de qubits et des milliers d’opérations pour espérer un résultat convaincant. Désormais, avec cette approche par blocs, on pourrait obtenir des signatures de hasard quantique fiables sur des dispositifs beaucoup plus modestes. »
Cette perspective est d’autant plus encourageante que les grands acteurs du secteur, comme IBM ou Google, cherchent à valider leurs machines avec des expériences reproductibles et interprétables. Un circuit plus simple, moins sujet aux erreurs, signifie aussi des résultats plus clairs et plus facilement vérifiables.
Quelles applications concrètes pour cette nouvelle méthode ?
Cryptographie : sécuriser les communications grâce au hasard quantique
Le hasard quantique est au cœur des protocoles de cryptographie quantique, notamment dans la distribution de clés quantiques (QKD). Un générateur de hasard fiable permet de créer des clés impossibles à prédire, même pour un attaquant disposant d’une puissance de calcul illimitée. Avec cette nouvelle méthode, il devient envisageable d’intégrer des générateurs de hasard quantique dans des systèmes embarqués ou des dispositifs portables, sans nécessiter de matériel massif.
Lucas Ménard, ingénieur en cybersécurité quantique au sein d’une startup française, témoigne : « On travaille sur des dispositifs de QKD compacts, mais la génération de hasard restait un goulot d’étranglement. Cette découverte pourrait nous permettre de réduire la taille des puces tout en augmentant la sécurité. C’est un changement de paradigme. »
Simulation de phénomènes naturels et apprentissage quantique
Au-delà de la cryptographie, le hasard quantique est essentiel pour simuler des systèmes physiques complexes, comme les interactions entre molécules ou les comportements des matériaux à l’échelle atomique. Les algorithmes quantiques de simulation, comme ceux utilisés en chimie quantique, dépendent fortement de l’introduction d’éléments aléatoires pour explorer efficacement l’espace des états.
De même, dans le domaine émergent de l’apprentissage automatique quantique, la capacité à générer du bruit contrôlé peut améliorer la robustesse des modèles. « En entraînant un modèle quantique avec des données bruitées de manière aléatoire mais contrôlée, on peut éviter le surajustement et améliorer sa généralisation », souligne Nora Bendjeddou, chercheuse en intelligence artificielle quantique à l’Université de Grenoble.
Le hasard comme limite à l’observation : une révolution épistémologique ?
Quand l’aléa masque la réalité quantique
L’une des implications les plus fascinantes de cette recherche dépasse le cadre technologique. Les chercheurs de Caltech suggèrent que l’émergence rapide du hasard dans un système quantique — et par conséquent, de l’intrication entre qubits — pourrait rendre certains aspects de ce système fondamentalement inaccessibles à l’observation. Autrement dit, le monde quantique ne serait pas seulement difficile à mesurer : certains de ses aspects pourraient être intrinsèquement cachés.
Cette idée remet en question la manière dont les physiciens conçoivent l’expérience. « On a longtemps pensé que, avec assez de technologie, on pourrait tout observer », note Théo Laroche, philosophe des sciences à l’École normale supérieure. « Mais si le hasard quantique se propage plus vite que notre capacité à mesurer, alors certaines propriétés — comme le temps d’évolution ou la structure causale — deviennent inaccessibles non pas à cause de nos instruments, mais à cause de la nature même du système. »
Le temps, la causalité et les phases de la matière : des concepts en sursis ?
Les simulations menées par l’équipe montrent que, dans des circuits où le hasard émerge rapidement, il devient presque impossible de distinguer les phases de la matière ou de reconstruire l’ordre temporel des événements. Cela soulève des questions profondes sur la validité de concepts que nous tenons pour acquis en physique classique.
Par exemple, dans un système fortement intriqué et aléatoire, peut-on encore parler de cause et d’effet ? Ou bien la notion même de temps devient-elle floue, comme dans certaines interprétations de la gravité quantique ? Ces questions, bien que spéculatives, ouvrent la porte à de nouvelles théories unifiant information, thermodynamique et espace-temps.
Et maintenant, vers les expériences réelles ?
La prochaine étape pour l’équipe de Caltech est de tester leur modèle sur du matériel quantique réel. Ils prévoient de collaborer avec des laboratoires disposant de processeurs quantiques à base de qubits supraconducteurs ou d’ions piégés. L’objectif est de démontrer que leur méthode fonctionne non seulement sur le papier, mais aussi dans des conditions expérimentales réalistes.
« Ce qui est excitant, c’est qu’on pourrait voir des résultats dans les deux à trois prochaines années », estime Clara Noh, doctorante en physique expérimentale à Caltech et co-auteure présumée de l’étude. « On n’a pas besoin d’un million de qubits. Une dizaine bien connectés suffiront à valider le concept. »
Ces expériences pourraient aussi servir de banc d’essai pour d’autres théories, comme celles liées à la thermodynamique quantique ou à la propagation de l’information dans les trous noirs — domaines où le hasard et l’intrication jouent un rôle central.
A retenir
Quelle est l’innovation majeure de l’équipe de Caltech ?
Les chercheurs ont mis au point une méthode pour générer du hasard quantique de haute qualité en utilisant des circuits courts, divisés en blocs de qubits. Au lieu de randomiser l’ensemble du système en une longue séquence d’opérations, ils appliquent des séquences aléatoires courtes à des sous-groupes, puis diffusent l’aléa via des connexions quantiques. Cette approche réduit la sensibilité aux erreurs et rend possible l’utilisation de matériel quantique actuel.
Quels sont les bénéfices pour les technologies quantiques ?
Cette méthode pourrait accélérer la démonstration de l’avantage quantique, rendre la cryptographie quantique plus accessible, et améliorer les algorithmes de simulation et d’apprentissage quantique. Elle permettrait aussi de concevoir des systèmes plus compacts et moins coûteux.
Le hasard quantique peut-il limiter notre observation du monde ?
Oui, selon les chercheurs. L’émergence rapide du hasard et de l’intrication pourrait rendre certains aspects des systèmes quantiques — comme le temps d’évolution ou la causalité — intrinsèquement inaccessibles, non pas à cause de nos outils, mais à cause de la dynamique même du système. Cela remet en question certaines bases de la physique expérimentale.
Quand verrons-nous des applications concrètes ?
Les tests expérimentaux devraient commencer dans les prochaines années. Si les résultats sont concluants, on pourrait voir des intégrations dans des protocoles de cryptographie ou des simulations industrielles d’ici cinq à dix ans, selon l’évolution du matériel quantique.