Frankreich
Balzan Preis 2013 für Quanteninformatik: Mechanismen und Kommunikation
Dankesrede – Bern, 15.11.2013 (französisch)
Monsieur le Conseiller fédéral,
Mesdames et Messieurs les membres de la Fondation Balzan,
Mesdames et Messieurs,
Recevoir un prix auquel on ne s’attendait pas, quelle merveilleuse surprise!
Surprise d’autant plus grande que ce prix m’est attribué pour des travaux effectuésil y a plus de trente ans, dans le cadre de mon doctorat d’état. « Ces recherches, nous dit le jury du Prix Balzan, ont rendu possible le contrôle experimental des états quantiques intriqués, élément essentiel du traitement quantique de l’information ». De quoi s’agit-il ?
C’est Einstein qui a découvert en 1935 la possibilité théorique de l’intrication quantique entre deux particules éloignées. Certaines prédictions théoriques relatives à ces particules intriquées étaient tellement étonnantes qu’Einstein en tira un argument pour tenter de démontrer une incohérence dans l’interprétation dominante de la mécanique quantique, développée par Niels Bohr et ses élèves, et appelée « interprétation de Copenhague ». L’argument d’Einstein, Podolsky et Rosen, fut publié dans la Physical Review de mai 1935. Dès juillet 1935 Niels Bohr envoya une réponse, publiée en octobre de la même année, réfutant la conclusion de l’article EPR. Pendant près de trente ans, le débat demeura cantonné à une question d’interprétation de la Mécanique Quantique, sans conséquence pratique sur la façon d’utiliser cette théorie dans l’activité habituelle des physiciens. Mais en 1964, un chercheur du CERN trop tôt disparu, John Stuart Bell, montra qu’en fait la position d’Einstein aboutissait à des prévisions concrètes pouvant diverger des prévisions de la Mécanique Quantique. Le débat sortait du cadre de l’épistémologie, pour entrer dans celui de la physique, avec la possibilité de trancher expérimentalement entre la position d’Einstein et celle de Bohr.
Encore fallait-il traduire l’avancée théorique de Bell en schemas expérimentaux réalistes, et ce fut le mérite de John Clauser, Michael Horne, Abner Shimony et Richard Holt, de proposer, en 1969, un schéma pratique mettant en jeu des paires de photons émis par des atomes dans des directions opposées. Les premières expériences, réalisées entre 1971 et 1976, notamment par John Clauser et Ed Fry, donnèrent des résultats majoritairement en faveur de la Mécanique Quantique, mais ces expériences restaient éloignées du schema idéal envisagé par Bell. Ce dernier avait souligné l’importance d’une experience dans laquelle on pourrait modifier au dernier moment la grandeur mesurée sur chacune des particules. On interdirait ainsi toute forme de communication directe entre elles, sauf à accepter une interaction plus rapide que la lumière, ce qui est interdit par le postulat de base de la relativité d’Einstein. Fasciné par l’article de Bell, je proposai en 1975 un schéma expérimental permettant de modifier l’orientation d’un polariseur en quelques milliardièmes de seconde, afin de répondre à cette exigence. Après sept années de développement avec l’aide de deux ingénieurs, Gérard Roger et André Villing, l’expérience aboutit en 1982, alors que nous avions été rejoints par deux brillants étudiants de troisième cycle, Philippe Grangier et Jean Dalibard. Les résultats étaient en accord avec les prédictions de la Mécanique Quantique même dans cette situation extrême.
Il semblait donc, comme on le dit parfois un peu trop vite, que ces experiences avaient clos la question en donnant raison à Bohr contre Einstein. Mais le domaine allait rebondir, suite à une remarque d’une fécondité extraordinaire : la violation des inégalités de Bell montre que l’intrication quantique, découverte par Einstein et Schrödinger, est un concept tellement révolutionnaire que l’on peut penser à l’utiliser pour résoudre de façon inédite des problèmes hors de portée des ordinateurs classiques. Souvenons-nous que le concept de dualité onde-particule, au début du XXe siècle, avait été à la base de la première révolution quantique, en permettant une compréhension profonde de la structure de la matière, et en conduisant à l’invention du transistor, des circuits intégrés, du laser. Avec l’intrication quantique, ne pouvait-on rêver d’une deuxième révolution quantique ? Une discipline nouvelle allait effectivement apparaître à partir de 1983, à partir d’un article fondateur de Richard Feynman, d’abord sous forme d’avancées théoriques à la frontière des mathématiques, de l’informatique, et de la physique. Il apparut qu’il serait en principe possible, grace à l’intrication quantique, de résoudre des problèmes impossibles à traiter sur des ordinateurs classiques. Un exemple de tels problèmes est celui de la factorisation des grands nombres, dont le temps de calcul sur un ordinateur classique croît exponentiellement avec la taille du nombre à factoriser. Cette propriété est à la base des méthodes de sécurisation des informations sur internet. Si l’on disposait d’un ordinateur quantique, comportant de nombreux bits quantiques intriqués, on pourrait accélérer exponentiellement la factorisation des nombres, ce qui remettrait en question la sécurité des communications. Heureusement, l’informatique quantique nous offre la possibilité de restaurer cette sécurité.
Il existe en effet des méthodes de cryptographie quantique, basées sur les bits quantiques et l’intrication, en principe intrinsèquement sûres contre toute attaque.
L’ordinateur quantique semble hors de portée dans un avenir proche, malgré les progrès extraordinaires réalisés par les expérimentateurs mettant en oeuvre les méthodes sophistiquées proposées par les théoriciens. En revanche, la cryptographie quantique est déjà parmi nous, et elle a été utilisée par Nicolas Gisin et ses collègues de l’université de Genève pour la transmission sécurisée des résultats d’une votation du canton de Genève.
Une forme différente de calculateur quantique est déjà à l’oeuvre dans les laboratoires, je parle ici des simulateurs quantiques, proposés dans l’article fondateur de Feynman. Il s’agit d’utiliser des systèmes quantiques que l’on sait parfaitement contrôler, comme les atomes ultra froids, pour simuler et étudier le comportement de systèmes intriqués qui résistent à l’analyse et au calcul numérique standard, et pour lesquels on a peu d’outils d’observation directe.
Un exemple notoire de tels systèmes est celui des électrons fortement corrélés (intriqués), probablement responsables de propriétés mal comprises de certains matériaux, par exemple la supra-conductivité « à haute température critique ».
Avec des atomes ultra-froids on peut étudier expérimentalement des modèles que les théoriciens de la matière condensée pouvaient seulement imaginer pour les électrons. Dans mon laboratoire, et celui de mon collègue Massimo Inguscio à Florence, on s’intéresse ainsi au comportement des particules quantiques dans les matériaux désordonnés, et notamment à la célèbre localisation d’Anderson que personne n’avait observée directement avant nos travaux. De nombreux autres problèmes de matière condensée sont à l’étude dans des simulateurs quantiques à atomes froids, dans des laboratoires du monde entier. On peut penser que la compréhension nouvelle du comportement des électrons dans la matière, acquise grâce à ces simulateurs quantiques, conduira à des avancées peut-être comparables à celles qui ont découlé de la première revolution quantique.
Au nom de tous mes collègues qui travaillent dans le domaine de l’information quantique et des simulateurs quantiques, et des collaborateurs remarquables que j’ai toujours eu la chance d’avoir autour de moi, je remercie le jury du Prix Balzan d’avoir mis à l’honneur ce sujet. J’accepte avec gratitude ce prix, qui aurait pu être décerné à beaucoup d’entre eux. Et je me plais à penser que Eugenio Balzan, journaliste et esprit éclectique, aurait aimé qu’un débat de nature philosophique entre Einstein et Bohr, sur l’interprétation de la physique quantique, débouche un jour sur des applications dans les technologies de l’information.
Alain Aspect