Si l’expression « c’est aléatoire » est fréquemment employée pour qualifier des situations imprévisibles, le hasard véritable, en physique comme en mathématiques, demeure depuis longtemps un concept insaisissable. Une équipe de chercheurs en informatique quantique vient pourtant de franchir une étape importante : elle a généré, pour la première fois, un nombre certifié comme étant fondamentalement aléatoire. Publiés dans la revue Nature, les travaux s’appuient sur un ordinateur quantique de 56 qubits et pourraient impacter des domaines concrets comme la cybersécurité.
L’idée même de « véritable hasard » dépasse largement le simple tirage d’un nombre. Pour les physiciens, ce que nous qualifions couramment d’aléatoire obéit souvent à des lois physiques ou mathématiques déterministes. Le véritable enjeu réside dans la capacité à démontrer qu’un nombre est fondamentalement imprévisible. Or, cette certification se révèle aussi ardue que la génération du nombre elle-même, tant il est délicat de garantir l’indépendance absolue du mécanisme de vérification.
C’est précisément là qu’intervient le concept « d’aléatoire certifié » — une notion aux implications importantes pour la sécurité informatique comme pour l’intégrité des processus décisionnels. Ce protocole novateur a été théorisé par Scott Aaronson, professeur d’informatique à l’Université du Texas à Austin. Avec son collègue Shi-Han Hung, il a élaboré le socle théorique permettant de passer du modèle abstrait à l’expérimentation concrète, ouvrant ainsi une nouvelle ère pour l’informatique quantique.
« Lorsque j’ai proposé pour la première fois mon protocole de randomisation certifiée en 2018, j’étais loin d’imaginer combien d’années s’écouleraient avant une démonstration expérimentale », confie Aaronson dans un communiqué. « Développer le protocole originel et le comprendre constitue une première étape vers l’usage d’ordinateurs quantiques pour générer des bits aléatoires certifiés, exploitables dans des applications cryptographiques réelles », ajoute-t-il.
Une démonstration expérimentale réussie
Dans une étude récente, des chercheurs de JPMorgan Chase, Quantinuum, des laboratoires nationaux d’Argonne et d’Oak Ridge, ainsi que de l’Université du Texas à Austin — dont le professeur Aaronson — ont concrétisé expérimentalement ce concept en mobilisant un ordinateur quantique de 56 qubits.
Le principe repose sur la génération de nombres aléatoires par l’ordinateur quantique, suivie d’une validation par un supercalculateur classique afin d’en attester l’imprévisibilité réelle. Cette avancée marque un tournant décisif dans la recherche de solutions à des problèmes que les machines classiques sont incapables de résoudre. « Nous célébrons aujourd’hui une étape charnière qui inscrit l’informatique quantique dans le champ des applications concrètes », souligne, dans un communiqué, le Dr Rajeeb Hazra, directeur général de Quantinuum.
Pour générer ce nombre aléatoire, les chercheurs ont eu recours à une méthode dite d’« échantillonnage aléatoire de circuits ». Exploitant la nature foncièrement indéterministe des systèmes quantiques, cette technique permet de produire une entropie plus élevée que celle accessible par les dispositifs classiques.
L’équipe a mis en œuvre ce procédé sur le système Quantinuum H2, basé sur 56 qubits à ions piégés, produisant ainsi des bits aléatoires certifiés. L’expérimentation s’est déroulée en deux phases : d’abord, l’ordinateur quantique a résolu des problèmes mathématiques complexes dans des délais records, hors de portée des supercalculateurs traditionnels ; ensuite, les résultats obtenus ont été soumis à une certification rigoureuse via un protocole standardisé exécuté par plusieurs supercalculateurs.
Au terme de cette expérimentation, les chercheurs ont démontré qu’un tel degré d’aléatoire ne peut être reproduit par des systèmes classiques. Ils ont mobilisé une puissance de calcul cumulée de 1,1 exaflops — soit plus d’un million de milliards d’opérations en virgule flottante par seconde — pour certifier plus de 71 313 bits d’entropie.
Cette percée s’inscrit dans la continuité des travaux menés en 2023 par Quantinuum, JPMorgan Chase et Google, qui avaient déjà mis en évidence la « suprématie quantique ». Le défi consistait désormais à convertir cette puissance théorique en usages concrets — un seuil désormais franchi.
Les chercheurs soulignent également que le modèle H2, grâce à la précision de ses qubits et à leur connectivité globale, a multiplié par cent les performances précédemment atteintes. Une telle performance n’est pas réalisable avec les architectures classiques.
« Ce travail marque une grande avancée pour l’informatique quantique : il démontre la résolution d’un problème réel par un ordinateur quantique, au-delà des capacités des supercalculateurs actuels », analyse Marco Pistoia, responsable mondial de la recherche technologique appliquée chez JPMorgan Chase. « Le développement de l’aléatoire certifié témoigne à la fois de la maturité du matériel quantique et de son potentiel futur, en matière de recherche, d’échantillonnage statistique, de modélisation numérique et de cryptographie », conclut-il.