top of page
David Moreno

La fabuleuse histoire de l’intrication quantique

Le prix Nobel de physique 2022 a été décerné à trois spécialistes de l’intrication quantique dont le français Alain Aspect. L’expérience qu'il réalisa avec son équipe à l’Institut d’Optique d’Orsay, en 1982, fut reconnue comme majeure par la communauté scientifique. Elle apporta la preuve que la mécanique quantique, malgré son étrangeté et son formalisme probabiliste, est une théorie complète ; c’est-à-dire une théorie qui rend complètement compte de la réalité telle qu’elle est, donnant ainsi tort à Albert Einstein. Mais la portée de cette expérience ne s’arrête pas là : elle pose les graines de la « seconde révolution quantique ». Plongée dans une aventure intellectuelle à rebondissement !


Dans les années 1930, le débat Bohr-Einstein sur le formalisme de la mécanique quantique donne lieu à l'une des hypothèses les plus déconcertantes de la physique : l'intrication quantique. Celle-ci est expérimentalement validée par Aspect, en 1982.
Dans les années 1930, le débat Bohr-Einstein sur le formalisme de la mécanique quantique donne lieu à l'une des hypothèses les plus déconcertantes de la physique : l'intrication quantique. Celle-ci est expérimentalement validée par Aspect, en 1982.


Les années 1920 voient surgir dans l’étude des atomes et des particules élémentaires un nouveau formalisme, la mécanique quantique, d’une très grande efficacité opératoire mais qui remet en cause la manière d’appréhender le réel.


L’étrangeté fondatrice de cette théorie est le principe de superposition quantique. Il énonce qu’une particule peut se trouver à deux endroits différents à la fois (position 1 ET position 2), avec pour chacun de ces endroits une probabilité de présence ; par exemple, une probabilité de 50% de se trouver sur la position 1 et 50% sur la position 2. Ce n’est que lorsque la particule est observée à travers un instrument de mesure qu’elle « choisit » une position parmi celles possibles (position 1 OU position 2). Avant observation, le corpuscule superposé est dépourvu de localité précise. Lors de la mesure, la particule « se fige » sur une position prédite par la théorie.


C’est une véritable rupture avec la physique classique qui attribue à tout système des propriétés – comme la position, la vitesse,… – qui lui sont propres, indépendamment de leur mesure. Si la voiture d’un automobiliste imprudent est flashée à 140 km/h, on ne doute pas qu’elle aurait eu la même vitesse au même instant s’il n’y avait pas eu de radar. Il en va tout autrement avec la mécanique quantique, où c’est la mesure, plus exactement la perturbation produite par la mesure, qui « force » la particule à sélectionner une valeur parmi celles possibles (calculées par la théorie).


Photo d’un radar jumelle. L’application (évidemment imaginaire) de la superposition quantique au monde macroscopique permet de saisir son étrangeté. En effet, une voiture roulant sur une autoroute n’aurait pas de vitesse bien définie, elle en aurait plusieurs en même temps… avant que le radar jumelle de l’observateur (le gendarme) ne force la voiture à choisir une vitesse (80 km/h). Dans la physique classique, mesurer est beaucoup plus neutre : la voiture possède une vitesse bien à elle (80 km/h) et le radar jumelle ne fait qu’indiquer la vitesse à laquelle elle roule. Mesurer revient à lire une propriété intrinsèque à l’objet observé sans le perturber.
Photo d’un radar jumelle. L’application (évidemment imaginaire) de la superposition quantique au monde macroscopique permet de saisir son étrangeté. En effet, une voiture roulant sur une autoroute n’aurait pas de vitesse bien définie, elle en aurait plusieurs en même temps… avant que le radar jumelle de l’observateur (le gendarme) ne force la voiture à choisir une vitesse (80 km/h). Dans la physique classique, mesurer est beaucoup plus neutre : la voiture possède une vitesse bien à elle (80 km/h) et le radar jumelle ne fait qu’indiquer la vitesse à laquelle elle roule. Mesurer revient à lire une propriété intrinsèque à l’objet observé sans le perturber.

L’interprétation de la mécanique quantique devient une source de débats épistémologiques quant à la manière de considérer la réalité et l’acte d’en prendre connaissance par la mesure. Deux géants de la physique vont s’affronter à ce sujet : l'helvético-américain d’origine allemande Albert Einstein d’un côté, le danois Niels Bohr de l’autre. L’interprétation standard (dite aussi de Copenhague) de la mécanique quantique, établie par Bohr, défend notamment l’idée que l’aléatoire est intrinsèque à l'infiniment petit. Cet aspect probabiliste (« Dieu ne joue pas aux dés »), mais aussi le fait que l'observation modifie autant l'objet observé (« J’aime penser que la lune est la même si je ne la regarde pas »), heurtent intellectuellement Einstein… Le père des relativités restreinte et générale pense que la mécanique quantique, bien que très performante dans ses résultats, est une théorie incomplète.


Einstein reste convaincu qu’une théorie fondamentale en physique ne peut pas être probabiliste et que la mécanique quantique ne donne à voir qu’une partie de la réalité, celle-ci possédant une partie sous-jacente dont la théorie ne fait pas cas. La connaissance de ces éléments de réalité complèterait la théorie et la rendrait déterministe.


Le paradoxe EPR

En mai 1935, alors que la mécanique quantique est bien établie, Einstein et deux collaborateurs de l’université de Princeton, Boris Podolsky et Nathan Rosen publient une expérience de pensée, aujourd’hui connue sous le nom de « paradoxe EPR » (Einstein-Podolsky-Rosen). L’argument EPR sonne comme un véritable coup de tonnerre en soulignant un « paradoxe » dans l’interprétation de Copenhague !


Cet article met en scène deux particules A et B émises d’une même source. Les auteurs considèrent que les particules sont « intriquées », c’est-à-dire préparées dans un état particulier tel qu’à chaque instant leurs vitesses sont égales et leurs positions sont opposées par rapport à la source. Notons que cette liaison (très forte) entre les systèmes A et B ne sort pas du chapeau, elle est permise par le formalisme quantique, l'équation de Schrödinger. Continuons l’expérience… On mesure la position de A. Celle-ci se fixe, conformément à la théorie, sur une position en particulier. Mais comme B est intriquée à A, on peut déterminer la position de B sans avoir à effectuer de mesure : il est exactement opposé à A par rapport à la source. Et c’est là où le paradoxe jaillit, car l’interprétation de Copenhague stipule que B est dans un état superposé avant toute mesure et que sa position n’est donc pas connue, ce qui n’est pas le cas ici !


Le Paradoxe EPR. Deux particules intriquées sont émises depuis une source (S). En mesurant la position de la particule de droite (position 1), on peut déduire immédiatement la position de la particule de gauche (position 2), sans effectuer de mesure. En effet, position 2 = - position 1 (par rapport à S). Or, connaître une propriété d’une particule sans la mesurer est contraire à l’interprétation de Copenhague.
Le Paradoxe EPR. Deux particules intriquées sont émises depuis une source (S). En mesurant la position de la particule de droite (position 1), on peut déduire immédiatement la position de la particule de gauche (position 2), sans effectuer de mesure. En effet, position 2 = - position 1 (par rapport à S). Or, connaître une propriété d’une particule sans la mesurer est contraire à l’interprétation de Copenhague. Crédits : chaîne Youtube « Photons jumeaux »

L’article EPR énonce que si l’on est capable de déterminer avec une certitude absolue la valeur d’une grandeur physique de la particule B sans la mesurer, c’est-à-dire sans la perturber, alors cela signifie qu’il existe des éléments de réalité non connus (« variables cachées ») partagés entre les particules A et B. Einstein, Podolsky et Rosen ajoutent que si une théorie est complète, elle doit prendre en compte toutes les variables cachées liées à la source et portées par A et B.


On sait que toute mesure quantique entraîne une perturbation, mais cela ne veut pas dire pour autant que l’absence de mesure garantit l’absence de perturbation, du moins dans l’expérience EPR. Il pourrait en effet exister un mécanisme inconnu qui perturbe la particule B à distance, à la suite de la mesure effectuée sur A. Dans ce cas, la particule B serait perturbée par la mesure effectuée sur A – de manière instantanée, quel que soit la distance entre A et B, toujours d’après le formalisme quantique. EPR rejettent cette hypothèse, car elle entre en contradiction flagrante avec la relativité restreinte qui postule que rien ne peut se propager plus vite que la lumière.


L’argument EPR est une attaque solide contre l’interprétation de Copenhague. La défense de Niels Bohr consistera à rappeler les postulats de la mécanique quantique et à dire que l’on ne peut pas séparer les deux particules intriquées, qu’il faut les considérer comme faisant partie d’un tout, postulant ainsi la non-localité (ou non-séparabilité) et sauvegardant la relativité restreinte… Comme attendu, la réponse ne satisfait pas Albert Einstein. Ce débat, plus philosophique qu’autre chose et qui ne remet pas en cause les résultats de la mécanique quantique, n’intéresse ni les physiciens ni les ingénieurs et tombe dans l’oubli.


La simplification de Bohm

Au début des années 1950, le physicien David Bohm dépoussière le papier EPR, et simplifie l’expérience de pensée : les particules deviennent des photons (particules de lumière) et ce n’est plus la position que l’on cherche à mesurer mais la polarisation. De quoi s’agit-il ?


Sans rentrer dans les détails, la polarisation est une propriété spécifique au photon. Sa mesure peut prendre deux valeurs opposées, horizontale ou verticale, telles les valeurs pile ou face d’un lancer de pièce. On voit déjà la simplification de l’expérience de pensée initiale : d’une multitude de positions potentielles que peut avoir une particule, on réduit ici à deux le nombre d’états à mesurer, une polarisation horizontale ou une polarisation verticale. La mathématisation de la situation EPR s’en trouve simplifiée et son expérimentation davantage réalisable en laboratoire.


La polarisation est mesurée à l’aide d’un filtre optique appelé : polariseur. L’instrument peut être orienté selon plusieurs angles. Ainsi, un polariseur disposé horizontalement va laisser passer les photons de polarisation horizontale et faire réfléchir les photons de polarisation verticale. Et inversement… On peut noter qu’un polariseur possède deux voies de sorties : la voie de sortie des photons que le polariseur laisse passer sans déviation, et l’autre, la voie de sortie qui laisse passer les photons rebondis. Il suffit de mettre un détecteur de photons en face de chaque voie de sortie pour déterminer si le photon est polarisé horizontalement ou verticalement.


Mesure d’un photon superposé en polarisation : Un photon superposé avec deux polarisations opposées, horizontale ET verticale, se dirige vers un polariseur orienté verticalement (figure 1). Au moment de la rencontre entre le photon et l’instrument de mesure, le photon adopte, selon la mécanique quantique, une valeur précise de polarisation : horizontale OU verticale. Il y a 50% de chance pour que la polarisation soit horizontale et donc la même chance pour qu’elle soit verticale. Le polariseur étant orientée verticalement, si le photon se fixe sur la polarisation verticale il sort par la voie « passante » du polariseur et il sera repéré par le détecteur de droite (figure 2) ; sinon, le photon sort par la voie « non-passante » du polariseur et il sera repéré par le détecteur de gauche (figure 3).
Mesure d’un photon superposé en polarisation : Un photon superposé avec deux polarisations opposées, horizontale ET verticale, se dirige vers un polariseur orienté verticalement (figure 1). Au moment de la rencontre entre le photon et l’instrument de mesure, le photon adopte, selon la mécanique quantique, une valeur précise de polarisation : horizontale OU verticale. Il y a 50% de chance pour que la polarisation soit horizontale et donc la même chance pour qu’elle soit verticale. Le polariseur étant orientée verticalement, si le photon se fixe sur la polarisation verticale il sort par la voie « passante » du polariseur et il sera repéré par le détecteur de droite (figure 2) ; sinon, le photon sort par la voie « non-passante » du polariseur et il sera repéré par le détecteur de gauche (figure 3). Crédits : chaîne Youtube « Photons jumeaux »

Soit une source qui émet des photons superposés. De la même manière que des particules superposées peuvent avoir plusieurs positions distinctes à la fois, des photons superposés peuvent avoir une polarisation horizontale et une polarisation verticale en même temps. Ce n’est que lors de la mesure à travers un polariseur, que les photons adoptent une polarisation précise : soit horizontale, soit verticale. On suppose également que les photons sont dans des états de superposition tels, que le formalisme quantique nous dit que, pour chacun d’eux et lors de leur mesure, il y a 50% de chance d’obtenir une polarisation horizontale et le même pourcentage d’obtenir une polarisation verticale.


Voyons comment, avec tous ces éléments, David Bohm a revisité l’expérience EPR. Imaginons une source émettrice de paires de photons intriqués et superposés horizontalement et verticalement, et dont on cherche à mesurer la polarisation. Sur l’axe d’émission, et de part et d’autre de la source, on installe un polariseur identiquement orienté (par exemple verticalement) à l'autre. Sur chacun des polariseurs, il y a une chance sur deux de mesurer des photons polarisés horizontalement et la même probabilité de mesurer des photons polarisés verticalement.


Par contre, si l’on considère l’ensemble des deux polariseurs, la mécanique quantique prédit l’étrangeté suivante (déjà vue plus haut avec les positions identiques des particules intriquées dans l’expérience EPR originelle) : la mesure des photons réalisée par un polariseur est exactement la même que celle de l’autre polariseur. Bien qu’aléatoire à la sortie de chaque polariseur, les mesures de polarisation des photons sont parfaitement corrélées : soit toutes les deux horizontales, soit verticales. Pour revenir à l’analogie des lancers de pièces, c’est comme si on avait deux expérimentateurs qui lancent, chacun et en même temps, une pièce pile ou face. Au niveau de chaque lanceur, il y a bien une chance sur deux d’obtenir pile ou face. Mais si l’un des expérimentateurs a pile, l’autre a obligatoirement pile aussi – et donc s’il a face, l’autre a face. Bizarre non ?


L’expérience EPR revue et simplifiée par David Bohm : La source émet une paire de photons intriqués et superposés en polarisation horizontale (H) et verticale (V). Les photons se dirigent chacun vers un polariseur orienté verticalement (figure 1). La mécanique quantique prédit un résultat de mesure remarquable : bien qu’aléatoire à la sortie de chaque polariseur (soit H à 50%, soit V à 50%), les mesures de polarisation des photons sont parfaitement corrélées : soit HH (figure 2), soit VV (figure 3). Les mesures HV et VH sont exclues par la théorie. Les mesures EPR sont parfaitement aléatoires localement, mais absolument corrélées globalement.
L’expérience EPR revue et simplifiée par David Bohm : La source émet une paire de photons intriqués et superposés en polarisation horizontale (H) et verticale (V). Les photons se dirigent chacun vers un polariseur orienté verticalement (figure 1). La mécanique quantique prédit un résultat de mesure remarquable : bien qu’aléatoire à la sortie de chaque polariseur (soit H à 50%, soit V à 50%), les mesures de polarisation des photons sont parfaitement corrélées : soit HH (figure 2), soit VV (figure 3). Les mesures HV et VH sont exclues par la théorie. Les mesures EPR sont parfaitement aléatoires localement, mais absolument corrélées globalement. Crédits : chaîne Youtube « Photons jumeaux »

Avec ce remaniement de l’expérience EPR d’origine, David Bohm met davantage en évidence un des résultats les plus surprenants de l’intrication : la corrélation parfaite entre deux mesures distinctes et aléatoires, comme si on ne pouvait pas séparer les objets auxquels elles se rapportent. Mais Bohm ne croit pas à la non-localité de la réalité, il est persuadé que ces corrélations à distance doivent s’expliquer autrement, remettant sur le devant de la scène les variables cachées supposées par Einstein.


Les inégalités de Bell

Il faudra attendre une petite quinzaine d’années encore avant que John Bell, physicien irlandais au CERN, ne se penche sur la version simplifiée du paradoxe EPR. A l’instar d’Einstein et de Bohm, Bell est lui aussi convaincu que le formalisme de la mécanique quantique est incomplet. Il est persuadé qu’il existe un jeu de variables cachées partagées à la source par les deux photons intriqués, que chacun emporte avec lui quand il s’éloigne. Ainsi, les propriétés de polarisation des deux photons seraient établies dès le départ de l’expérience, et non au moment de leur mesure.


Pour comprendre le point de vue des partisans des variables cachées, imaginons deux vrais jumeaux que personne ne connaît. Personne ne sait qu’ils partagent le même ADN (les variables cachées). Un des jumeaux habite à Paris et l’autre à Bruxelles… La prise de connaissance de la couleur des yeux du jumeau parisien par un observateur local ne se transmet pas à distance et instantanément sur les yeux du jumeau bruxellois…


Sauf qu’en 1964, à son grand étonnement, Bell démontre le résultat inverse. Plus précisément, il prouve mathématiquement que toute théorie à variables cachées est inconciliable avec les résultats de la mécanique quantique, donnant ainsi raison à Bohr et à son interprétation de Copenhague face à Einstein. Le théorème de Bell, dont les inégalités de Bell vont découler, clôt le débat théorique entre les deux physiciens : la physique quantique est bel et bien une théorie complète et non-locale (on ne peut pas séparer les 2 photons intriqués aussi distants soient-ils). Comment s’y prend-il ?


John Bell au CERN en 1982. Son célèbre théorème démontre l’un des résultats les plus spectaculaires de la physique du XXe siècle : la non-localité (ou non-séparabilité) quantique qui dit que si deux particules sont intriquées, alors toute action sur l’une (par exemple une mesure) agit instantanément sur l’autre. Même si les deux particules sont séparées par une distance astronomique, comme plusieurs millions d’années lumières... Le théorème sème aussi les graines de l’informatique quantique. Image : CERN
John Bell au CERN en 1982. Son célèbre théorème démontre l’un des résultats les plus spectaculaires de la physique du XXe siècle : la non-localité (ou non-séparabilité) quantique qui dit que si deux particules sont intriquées, alors toute action sur l’une (par exemple une mesure) agit instantanément sur l’autre. Même si les deux particules sont séparées par une distance astronomique, comme plusieurs millions d’années lumières... Le théorème sème aussi les graines de l’informatique quantique. Image : CERN

L’idée de Bell est de considérer le problème par une approche statistique : il reprend l’expérience de David Bohm en s’intéressant au taux de coïncidence entre les détecteurs. Il y a coïncidence quand les deux photons intriqués sortent du même côté des polariseurs. Les photons ayant la même polarité lors leur mesure, quand les deux polariseurs sont orientés horizontalement, le taux de coïncidence est égal à 100%. Même chose, quand ils sont orientés verticalement. Et pour la même raison, si un polariseur est orienté verticalement et l’autre horizontalement, le taux de coïncidence va tomber à 0%. Bell calcule de cette manière une certaine quantité, qui dépend d’un ensemble de taux de coïncidence obtenus pour différents angles d’inclinaison d’un polariseur par rapport à l’autre.


Dans un modèle à variables cachées (le plus général possible), il démontre que cette quantité est forcément inférieure ou égale à 2 (une des fameuses inégalités de Bell). Or, la mécanique quantique en donne une valeur proche de 2,8 ! C’est pourquoi on dit que la mécanique quantique viole les inégalités de Bell. Il prouve de cette manière l’incompatibilité entre modèle à variables cachées et mécanique quantique. Cette dernière ayant solidement fait ses preuves sur le terrain, l’hypothèse des variables cachées s’en trouve quelque peu affaiblie, pour ne pas dire invalidée.


Mais la physique est avant tout une science expérimentale. On se doit donc de monter l’expérience EPR en laboratoire – selon le schéma imaginé par Bell, proche de celui de Bohm – et observer ce qu’il se passe : violation (très probable) des inégalités de Bell. Le physicien irlandais ne fera pas cette expérience, car les moyens technologiques de la fin des années 1960 ne sont pas suffisants pour réaliser ce type d’expérimentation.


L’expérience d’Aspect

En 1974, Alain Aspect, jeune physicien français de l’Institut d’Optique d’Orsay, passionné par le sujet, décide de se lancer dans l’aventure. Disposant de peu de moyens, il va mettre près de huit ans pour pouvoir réaliser, en 1982, une expérience reproduisant le schéma de principe de Bell. Aux côtés de ses collègues, Philippe Grangier, Jean Dalibard et de Gérard Roger, il observe (comme prédit par John Bell) la violation des inégalités éponymes. Il prouve expérimentalement, de manière irréfutable, la non-séparabilité des paires de photons intriqués, au détriment de l’hypothèse des variables cachées chère à Albert Einstein.


Alain Aspect dans son laboratoire à l’Institut d’Optique à Orsay en 1984. Alain Aspect et son équipe sont les premiers à mener une expérience proche de celle imaginée par John Bell. Il met en évidence la violation des inégalités de Bell, prouvant que la physique quantique est une théorie complète et non-locale (on ne peut pas séparer des particules intriquées aussi distantes soient-elles), contrairement à ce que pensait Albert Einstein. Image : SCIENCES ET AVENIR
Alain Aspect dans son laboratoire à l’Institut d’Optique à Orsay en 1984. Alain Aspect et son équipe sont les premiers à mener une expérience proche de celle imaginée par John Bell. Il met en évidence la violation des inégalités de Bell, prouvant que la physique quantique est une théorie complète et non-locale (on ne peut pas séparer des particules intriquées aussi distantes soient-elles), contrairement à ce que pensait Albert Einstein. Image : SCIENCES ET AVENIR

Focus sur une des expériences de physique théorique les plus célèbres du XXe siècle !


D’abord, la fabrication d’une source fiable capable d’émettre des paires de photons intriqués… L’équipe d’Orsay utilise pour cela des atomes de calcium excités par deux lasers différents à krypton. Par un effet connu sous le nom de « cascade atomique », l’atome de calcium se désexcite en émettant une paire de photons intriqués. Aspect et ses collègues mettront près de cinq ans à mettre au point cette source ! Le système d’émission de photons est un véritable bijou technologique permettant un taux de détection de 100 photons à la seconde, pour un temps maximal d’expérience de 100 secondes seulement – il est en effet important que l’expérience soit brève pour réduire au maximum les phénomènes susceptibles de fausser les résultats.


Ensuite, pour être au plus proche de l’expérience « idéale » imaginée par Bell, c’est-à-dire pour évacuer au maximum les corrélations possibles entre la source de photons intriqués et les polariseurs, il fallait que ceux-ci tournent au dernier moment. En tous cas, après l’émission des photons et avant leur mesure de polarisation. Les polariseurs de l’expérience d’Orsay étaient distants de 6 mètres de la source. Le temps mis par un photon pour parcourir 6 mètres (à la vitesse de la lumière) est environ 20 nanosecondes. Comment changer l’orientation d’un appareillage de verre et de métal (les polariseurs de l’époque) dans ce tout petit laps de temps de 20 milliardièmes de seconde ? Impossible !...


C’est sans compter sur l’astucieux Alain Aspect, qui trouve alors l’idée d’utiliser un mécanisme d’aiguillage qui envoie alternativement les photons de lumière sur deux polariseurs orientés différemment, l’ensemble du dispositif revenant bien à un seul polariseur qui tourne. Pour réaliser cet aiguillage, Aspect imagine, fait construire et breveter des aiguilleurs à eau dotés de transducteurs piézoélectriques, déviant les photons les traversant soit vers un polariseur, soit vers l’autre.


Schéma (très simplifié) du montage de l’expérience d’Aspect menée en 1982 se rapprochant de l’expérience « idéale » imaginée par John Bell en 1964. Sont représentés ici : les deux canons à laser générant (au centre) la paire de photons intriqués, les aiguilleurs à eau et leurs deux polariseurs orientés différemment, et enfin les détecteurs de photons.
Schéma (très simplifié) du montage de l’expérience d’Aspect menée en 1982 se rapprochant de l’expérience « idéale » imaginée par John Bell en 1964. Sont représentés ici : les deux canons à laser générant (au centre) la paire de photons intriqués, les aiguilleurs à eau et leurs deux polariseurs orientés différemment, et enfin les détecteurs de photons. Crédits : chaîne Youtube « Photons jumeaux »

Après plusieurs mois de réglages et d’ajustements de tous les dispositifs du montage, l’expérience est enfin lancée. Les résultats dépassent les attentes d’Aspect et de son équipe : la quantité de Bell issue de la manip. est égale à 2,7 – violant très nettement l’inégalité de Bell et s’approchant de la valeur de 2,8 donnée par la mécanique quantique.


La communauté scientifique salue la qualité technique et la rigueur de l’expérience. Elle érige l’expérience d’Aspect, la première du genre, en preuve irrécusable des hypothèses de non-localité à l’œuvre au sein de particules intriquées, conformément à la prédiction théorique de John Bell de 1964. L’expérience d’Aspect prouve, par la même occasion, que la physique quantique est une théorie complète, comme le supposait Niels Bohr dans son débat avec Albert Einstein pendant les années 1930 (elle rend bien compte de l'infiniment petit tel qu'il est).


En termes d’histoire des sciences, l’intrication quantique est vraiment unique. Elle a commencé avec une expérience de pensée remarquable (Einstein-Podolsky-Rosen), a conduit à une théorisation mathématique géniale (Bell) et s'est concrétisée dans une expérience de physique de haut niveau (Aspect). Et l’aventure ne fait peut-être que commencer… car l’intrication et la superposition quantiques sont les briques de base des ordinateurs quantiques, pour l’instant conceptuels ou à l'état embryonnaire, mais que certains pronostiquent opérationnels d'ici quelques années.


Un prochain article se penchera sur les principes de fonctionnement de ces ordinateurs spéciaux.




Sources :

Le chat de Schrödinger, prélude à l’ordinateur quantique https://www.chroniquesplurielles.info/post/le-chat-de-schr%C3%B6dinger-superstar


Intrication Quantique (1/4) : Le débat Bohr-Einstein


Intrication Quantique (2/4) : Les inégalités de Bell


Intrication Quantique (3/4) : Les expériences d’Aspect


Le prix Nobel de physique 2022 pour l’intrication quantique https://theconversation.com/le-prix-nobel-de-physique-2022-pour-lintrication-quantique-133000


Les cinquante ans du théorème de Bell



Expérience d’Aspect


Le prix Nobel de physique 2022répond à nos questions https://www.youtube.com/watch?v=e-tD6n4aOgg




bottom of page