CHAPITRE I

 

La non-localisation :
des particules élémentaires au cosmos

Des expériences de pensée et d’autres menées en laboratoire ont inexorablement prouvé que nos conceptions de la réalité ne sont pas du tout adaptées au monde de la mécanique quantique, c’est-à-dire au règne de l’infiniment petit. Il ne s’agit pas ici de balles de tennis ni de ballons de football, mais de particules vraiment minuscules qui vont du photon à l’électron en passant par les atomes1. Décrire la trajectoire de ces particules n’est pas une procédure déterministe comme dans le cas de la trajectoire d’un satellite dans l’espace ou d’une grenade à fusil, mais nécessite l’usage d’une fonction mathématique particulière appelée « fonction d’onde », dont le but est d’établir la probabilité qu’a une particule de se trouver dans un endroit plutôt qu’un autre. Par exemple, nous ne pouvons par déterminer simultanément la position et la vitesse d’un électron – en vertu du principe d’incertitude d’Heisenberg – dès lors que la précision de la mesure de l’une infirme celle de l’autre. Le processus de la mesure de laboratoire perturbe en effet les particules : il en résulte une interaction indissoluble entre l’observateur et la réalité observée. Lorsqu’une mesure est réalisée, on ne trouve naturellement la particule que dans un endroit donné, mais si l’on suppose que la fonction d’onde fournit une description complète et littérale d’un système quantique, cela signifie qu’entre une mesure et l’autre, la particule se dissout dans une « superposition d’ondes de probabilité » et qu’elle est potentiellement présente dans de nombreux lieux différents en même temps. Lorsque l’observation a lieu, la fonction d’onde « s’effondre » et à cet instant précis, la particule se trouve dans un endroit déterminé. Mais avant l’effondrement, la situation est en suspens. C’est justement pour décrire de façon intuitive cette situation que le grand physicien Erwin Schrödinger inventa un paradoxe qui la décrit très bien. Imaginons une boîte avec un chat dedans, puis supposons qu’un photon entre dans la boîte avec une demi-probabilité d’être transmis et une autre demi de ne pas l’être. S’il est transmis, il déclenche un mécanisme par lequel un coup de fusil tue le chat, tandis que s’il ne l’est pas, le chat reste en vie. Mais comme le chat est dans la boîte, nous ne pouvons pas savoir s’il est vivant ou mort. Il existe en effet une superposition d’états où le chat est à la fois vivant et mort. Ce célèbre cas de figure, connu sous le nom de « paradoxe du chat de Schrödinger », représente de façon intuitive le concept de « superposition » des états quantiques, telle que la décrit la fonction d’onde. Nous ne saurons si le chat est vivant ou mort qu’au moment précis où nous ouvrons la boîte. Ouvrir la boîte est l’exact équivalent du processus de la mesure et correspond à l’effondrement de la fonction d’onde. Une autre façon de faire, pour mieux comprendre, consiste à utiliser une monnaie. Si je suis, par exemple, dans une pièce sombre et que je lance une pièce de monnaie en l’air et qu’elle retombe sur le sol, je ne peux pas savoir si la partie visible est pile ou face, car tant que je n’allume pas la lumière, il y a superposition de pile et face. À l’instant précis où j’allume, la superposition s’effondre, car je suis enfin capable de voir quelle face montre la pièce. Mesurer quelque chose détruit donc la superposition, en forçant l’état quantique décrit par la fonction d’onde à passer à un « état classique » où l’identité des différents états est décidée. C’est ce qui se passe dans le monde des particules élémentaires où le rôle perturbateur de l’observateur est absolument fondamental, étant donné qu’en interagissant avec une réalité quantique faite de superpositions d’états, il pousse ces états à jouer un rôle bien défini. Ce qu’explique assez bien la célèbre phrase du grand physicien théoricien allemand Pascual Jordan :

Non seulement les observations dérangent ce qui doit être mesuré, mais elles le produisent… Nous contraignons un électron à assumer une position définie… Mais nous produisons nous-mêmes les résultats de la mesure.

Et d’une manière plus profonde et philosophique, le physicien théoricien britannique Basil Hiley :

Nous sommes partie intégrante de la nature, ce qui signifie nécessairement que nous sommes incapables d’avoir une vision de la nature pour ce qu’elle est effectivement en dehors de nous ; nous ne disposons pas d’un « troisième œil » nous permettant d’avoir une vision intellectuelle de la réalité dans son ensemble.

Il en découle que ce que nous savons sur la particule avant qu’ait lieu la mesure n’est pas exactement une information sur la particule, mais sur une espèce de « nuage de probabilités » dans lequel la particule pourrait se trouver. Lorsque nous effectuons la mesure, nous trouvons soudainement la particule à un endroit précis : le fait même de l’avoir observée lui a fait prendre cette position. Ces déductions renversantes dérivent d’études mathématiques rigoureuses, dont l’équation de Schrödinger est sûrement l’expression de pointe dans le domaine de la mécanique quantique, laquelle ne considère toutefois pas les événements subatomiques non élucidés comme des événements réels, mais comme une espèce de « moyenne statistique » de toutes les possibilités. Il s’agit là de l’« interprétation de Copenhague » de la mécanique quantique, théorisée pour la première fois par le physicien danois Niels Bohr, qui nous avait ouvert les portes d’un monde profond et mystérieux que l’être humain ne peut appréhender directement. La mécanique quantique a prouvé qu’elle ne se limite pas à une simple élaboration mathématique et abstraite de la réalité, mais qu’elle conduit à de véritables expériences qui s’avèrent plus troublantes que la théorie.

1.1.  LA MYSTÉRIEUSE EXPÉRIENCE DE LA DOUBLE FENTE

En 1800, à l’aide d’une célèbre expérience, le physicien britannique Thomas Young démontra que la lumière était constituée d’ondes en raison des figures d’interférence2 qu’un faisceau de lumière produit lorsqu’il passe à travers un écran percé de deux fentes. En 1905, le physicien allemand Albert Einstein démontra également, en découvrant l’effet photoélectrique, que la lumière était composée de particules. Il ne restait dès lors qu’à conclure que la lumière possédait à la fois des propriétés ondulatoires et corpusculaires. Nous observons l’une plutôt que l’autre en fonction du type d’expérience réalisée. Nous en déduisons donc que le rayonnement électromagnétique a une espèce de « double vie », puisqu’il est représenté aussi bien par des ondes (c’est-à-dire de l’énergie pure) que par des particules (c’est-à-dire de la matière pure), qui ne peuvent toutefois jamais être révélées simultanément : il est possible d’observer l’une ou l’autre, mais pas les deux à la fois. Cette dualité peut justement s’expliquer par le principe d’incertitude d’Heisenberg qui affirme qu’il est impossible de déterminer simultanément la composante énergétique et la composante matérielle d’un événement quantique donné. Au vu de cette théorie, matière et énergie, position et vitesse deviennent des « variables conjuguées » (ou complémentaires) et constituent dans leur ensemble la caractéristique d’incertitude permanente des événements qui se vérifient en mécanique quantique.

Image

Figure 1. Représentation intuitive de l’expérience de la double fente, avec formation de franges claires et sombres d’interférence.

Extrait de « Molecular Expressions » :

http://micro.magnet.fsu.edu/primer/java/interference/doubleslist/

Il est facile de vérifier cette dualité onde-particule en analysant l’expérience de la double fente de Thomas Young dans le détail et à la lumière des connaissances actuelles. Supposons une source lumineuse monochromatique placée derrière un écran percé de deux fentes. Si nous occultons l’une des deux fentes, la lumière se comporte comme une particule (c’est aussi le cas lorsque les photons heurtent un point quelconque de l’écran), tandis que si les deux fentes restent libres, la lumière se comporte comme une onde. Le deuxième cas est vraiment le plus spectaculaire si on l’étudie de près : à l’époque, Young ne savait rien de mécanique quantique, il s’est simplement borné à vérifier la formation de franges d’interférence – l’une des propriétés de la lumière, qui se comporte de façon tout à fait identique aux ondes qui se forment à la surface d’un étang lorsque l’on y jette une pierre – derrière l’écran avec les deux fentes. Si, au contraire, nous lançons deux cailloux dans l’eau, nous obtenons deux fronts d’onde qui interfèrent entre eux. De la même façon, nous obtenons deux fronts d’onde – dans ce cas, électromagnétiques – produits par la lumière lorsqu’elle passe par les deux fentes, lesquelles interfèrent comme dans le cas des deux pierres jetées dans l’eau.

Jusque-là, la chose ne présente aucune anomalie particulière, si ce n’est qu’une singulière bizarrerie se manifeste lorsque, au lieu de lancer quantité de photons tous ensemble, nous ne lançons qu’un photon à la fois contre l’écran à fentes : il va de soi que nous pouvons le faire, car, grâce à Einstein, nous connaissons également la nature corpusculaire du photon. Le bon sens nous dirait que le photon simple – étant donné que sa nature corpusculaire (ou rayonnement) fut en son temps vérifiée par Einstein – ne devrait passer qu’à travers une seule des deux fentes. D’ailleurs, si nous lançons une balle de tennis contre un mur avec deux fenêtres, elle ne pourra clairement passer qu’à travers l’une d’elles. Cependant, nous découvrons que le comportement du photon est absolument déconcertant : il passe à travers les deux fentes en même temps, puis crée des franges d’interférence, en n’interagissant qu’avec lui-même ! Ce qui est troublant, ce n’est pas tant ce mystérieux dédoublement de la particule que l’absolue simultanéité avec laquelle se forment les franges d’interférence, nées d’un seul photon. En résumé, le photon n’interagit qu’avec lui-même en se trouvant à deux endroits différents en même temps au point de créer l’interférence, et les physiciens sont obligés de reconnaître que c’est comme si le photon « connaissait » les points et les moments exacts où il doit se dédoubler pour donner lieu aux franges d’interférence. Mais cet événement incroyable s’oppose violemment à tout ce que nous croyons savoir sur la réalité quotidienne, dès l’instant où le fait qu’une même particule puisse se trouver simultanément en deux endroits différents anéantit le principe de causalité pour le remplacer par un principe de synchronicité. Les résultats de l’expérience de la double fente nous prouvent qu’en mécanique quantique – c’est-à-dire dans le règne des particules élémentaires – le principe de causalité est effectivement violé en raison de très étranges effets de superposition qui sont eux-mêmes une conséquence directe du principe d’incertitude de Heisenberg, selon lequel nous ne pouvons jamais savoir à travers quelle fente le photon voyage : le photon semble en effet avoir voyagé à travers les deux fentes simultanément. Dans le domaine quantique, cette phénoménologie prend le nom d’« intrication », entanglement en anglais. Dans le cas spécifique de l’expérience de la double fente, ce sont les dédoublements d’un même photon qui s’intriquent dans l’espace et le temps, et la structure la plus intime de la mécanique quantique – celle élaborée avec maestria par le physicien théoricien américain David Bohm – nous indique que le photon atteint des positions bien précises derrière les fentes parce qu’il est littéralement informé de façon « non locale » (c’est-à-dire de façon totalement indépendante de l’espace et du temps) par un « potentiel quantique » qui fonctionne comme un instrument de pilotage de la particule. Les particules agissent donc en synchronie avec un potentiel quantique, dont la structure n’est pas évidente dans le monde newtonien dans lequel nous vivons, mais qui existe sur un plan invisible en influençant de façon non manifeste notre réalité. En substance, l’univers fonctionnerait à travers deux champs croisés, de la même manière que le champ électromagnétique décrit par les équations de Maxwell qui comporte un champ électrique et un champ magnétique orthogonaux. Domaine quantique et domaine classique seraient accouplés pareillement, le premier opérant de façon non locale et le second de façon causale. La manière dont les deux domaines s’harmonisent est bien décrite dans la version de Bohm de l’équation de Schrödinger.

La mécanique quantique étudie justement ce mystère de la réalité qui conduit les particules, comme dans le cas de l’expérience de la double fente, à adopter un comportement apparemment insensé.

Cette expérience déconcertante de la mécanique quantique démontre donc qu’un photon se comporte comme une particule si nous occultons l’une des deux fentes ou lorsque nous tentons de l’observer avec un détecteur ou un filtre polarisant, tandis qu’il se comporte comme une onde quand il interfère avec lui-même en passant par les deux fentes en même temps. Mais le phénomène de l’interférence n’est autre qu’une forme expérimentalement établie du principe de superposition de la mécanique quantique. Le phénomène de l’interférence disparaît immédiatement si nous tentons de mettre un détecteur derrière l’une des deux fentes pour essayer de comprendre à travers quelle fente passe la particule : la figure d’interférence n’apparaît que lorsque le chemin de la particule est inconnu ! Cela nous montre que l’observateur en personne interagit avec l’observé (le photon) en détruisant la superposition quantique. Le type d’expérience menée peut nous permettre de vérifier la nature d’onde ou de particule d’un photon donné : par exemple, si nous projetons un photon sur un cliché photographique sans fentes, nous obtenons la nature de particule, mais si nous le faisons passer à travers deux fentes, nous obtenons la nature d’onde. Dans les deux cas, la fonction d’onde d’un état quantique donné s’est effondrée, dans le sens où selon le type d’expérience menée, la nature d’onde ou de particule s’est concrétisée. Mais si nous n’effectuons aucune mesure, la lumière existe en tant que superposition d’onde ou de particule : elle est les deux choses à la fois.

David Deutsch, physicien théoricien israélien et l’un des plus grands experts d’informatique quantique, a donné une autre interprétation de l’expérience de la double fente. Deutsch – dans la lignée de l’« interprétation des mondes multiples » de la mécanique quantique, attribue l’effet d’« auto-intrication » de la particule lorsqu’elle se dédouble pour former les figures d’interférence, non pas à une seule particule (photon, électron ou neutron), mais à un effet d’interférence réelle que la particule de notre univers subit avec une particule jumelle d’un autre univers. Selon Deutsch, l’expérience de la double fente révèle – même si ce n’est que pour un instant – l’interférence d’univers parallèles. La théorie des mondes multiples, imaginée par le physicien américain Hugh Everett et soutenue par d’autres éminents physiciens quantiques comme, par exemple, l’Américain John Archibald Wheeler et l’Israélien Lev Vaidman, n’est pas une interprétation farfelue de la mécanique quantique, mais une construction théorique riche et fascinante. D’après cette théorie, probablement la plus intéressante après l’interprétation standard de Copenhague, la nature n’opère aucun choix entre « oui » et « non » au moment de l’effondrement de la fonction d’onde ; au contraire, les deux possibilités se vérifient, mais simultanément, dans des univers séparés qui en certaines occasions peuvent interférer, comme dans le cas de l’expérience de la double fente. Dans ce cas, l’effondrement de la fonction d’onde ne détruit pas toutes les autres possibilités prévues par la superposition quantique, mais les distribue simultanément sur des univers (ou des « histoires ») parallèles et séparés. L’interprétation canonique de Copenhague affirme en revanche qu’il n’existe qu’un seul monde, et que les mondes virtuels de la fonction d’onde s’effondrent en une seule réalité quand on les mesure. Everett, Wheeler, Vaidman et Deutsch vont même jusqu’à affirmer qu’aucun effondrement de la fonction d’onde n’a véritablement lieu, mais que l’univers, au moment de la mesure, se partage en autant de possibilités réelles que le nombre potentiel de superpositions quantiques : chaque fois qu’un effondrement quantique se produit dans notre univers, un ou plusieurs effondrements alternatifs se produisent dans des univers parallèles. Ainsi, tous les univers possibles existent vraiment, même si nous ne parvenons pas à les percevoir.

Dans les années 70 et 80, il a été prouvé que le comportement manifesté dans l’expérience de la double fente n’est pas seulement une prérogative de particules énergétiques comme les photons, mais aussi de particules de matière comme les électrons et les neutrons. Les particules de matière témoignent donc parfois de phénomènes ondulatoires, tout comme les particules d’énergie témoignent parfois de phénomènes particulaires. Par ailleurs, les particules de matière, si on les fait passer à travers un écran avec une double fente, puis qu’on les étudie une par une, produisent exactement les mêmes franges d’interférence, justement parce qu’elles interfèrent avec elles-mêmes. Ces particules aussi ont le don d’ubiquité : elles se trouvent simultanément dans le même espace. Il s’agit là d’une énième situation où se manifeste de façon mystérieuse l’intrication qui, lorsqu’elle comporte l’interférence entre ondes, présente cette caractéristique qui en mécanique quantique est connue sous le nom de « cohérence ».

On en arrive même à penser à une espèce d’« intelligence » des particules, car lorsqu’une particule traverse simultanément les fentes, elle semble avoir une parfaite conscience du passé et du futur afin de créer la bonne figure d’interférence. Leur apparente intelligence se manifeste également lorsque nous tentons de les observer, puisqu’à cet instant précis elles changent de comportement en passant d’une nature ondulatoire – celle qui permettait la formation de la figure d’interférence – à une nature particulaire, celle où la figure d’interférence est détruite par l’interaction avec l’observateur quand il effectue la mesure en plaçant des détecteurs contre chacune des deux fentes. À cet instant précis, les entités quantiques qui avaient toujours voyagé, puis interféré comme des ondes – c’est-à-dire comme de l’énergie pure – solidifient soudainement leur énergie en matière particulaire.

1.2.  LA BOULEVERSANTE EXPÉRIENCE DE PENSÉE EPR

En quoi consiste exactement la nature de l’intrication, d’où tire-telle son origine et pour quelle raison se vérifie-t-elle dans le monde quantique ? Voici sûrement la question la plus difficile, à laquelle il est vraiment dur de répondre. La physique des quanta nous explique que l’intrication se vérifie vraiment dans la nature et nous savons assez bien comment cela se passe, aussi bien en termes de théorie mathématique qu’en termes d’expérimentation, mais nous ne savons pas pourquoi. Nous pouvons juste prendre acte que ce phénomène anéantit toutes les conceptions de la réalité que nous avons adoptées pour expliquer le monde où nous vivons. Toutefois, la mécanique quantique nous prouve que la physique ne décrit pas seulement le monde de notre expérience sensorielle : elle peut aussi pénétrer dans les méandres d’un monde qui nous est invisible, lequel semble soutenir à lui seul la structure de la réalité tout entière. Les notions de réalité acquises en quelques siècles de science galiléenne sont tellement enracinées dans notre psychisme et font l’objet d’un tel consensus que même Albert Einstein, au XXe siècle, s’est laissé influencer par le sens commun, à tel point que pendant toute sa vie il a pensé que la théorie de la mécanique quantique (qu’il avait lui-même contribué à créer avec la découverte de la loi de l’effet photoélectrique) n’était pas complète. D’après Einstein, il devait forcément exister des « variables cachées » permettant d’expliquer de façon causale et non synchrone – comme c’était au contraire le cas – la structure réelle de la mécanique quantique. Einstein pensait que la découverte de variables cachées aurait ôté tout caractère probabiliste à la mécanique quantique en le remplaçant par un formalisme déterministe, pour aboutir à une théorie complète où, comme pour Newton, il est possible de connaître et de prédire les variables et les quantités selon un degré de précision arbitraire. Le mécanisme de l’intrication quantique représentait une véritable gageure. Qui donc à cette époque, parmi les scientifiques de pointe, aurait été disposé à vérifier que nos conceptions de la réalité et de l’univers étaient totalement inadaptées ?

C’est justement sur ce point que s’affrontèrent Einstein et le grand physicien théoricien danois Niels Bohr, qui était alors le principal partisan de la mécanique quantique, à travers ce qu’aujourd’hui encore nous appelons une « expérience de pensée ». À l’époque, la première expérience de pensée qui s’attaqua directement à la théorie de la mécanique quantique avait justement pour objet le mécanisme de l’intrication. Einstein et ses collaborateurs, l’Israélien Nathan Rosen et le Russe Boris Podolsky, posèrent le problème en ces termes : si des événements synchrones – ou « non locaux » pour nous exprimer en termes techniques – ont vraiment lieu en physique quantique alors, deux solutions sont possibles : quelque chose ne fonctionne pas dans la mécanique quantique et il faut trouver les variables cachées qui empêchent de traiter le problème de façon causale et déterministe, ou bien la théorie de la relativité, limitée par la valeur finie de la vitesse de la lumière, est fortement mise en doute.

L’expérience de pensée organisée pour défier leur adversaire par Einstein, Podolsky et Rosen – par la suite désignée sous le nom de « paradoxe EPR » – peut être formulée de façon plus simple et directe comme le fit ensuite avec bon sens leur collègue David Bohm. Si nous prenons deux particules qui pour une raison ou une autre ont interagi au moins une fois et que nous les séparons, même par des distances très grandes, à l’instant où nous effectuons une mesure sur l’une des deux particules, nous déterminons l’effondrement de la fonction d’onde qui en décrit l’état quantique, en rendant manifeste l’une de ses priorités comme, par exemple, le spin3, mais au même moment, la mesure sur la première particule influencera instantanément l’autre particule dont la fonction d’onde s’effondrera elle aussi en révélant l’une de ses propriétés, et ce quelle que soit la distance qui la sépare de la première. Pour être concret, si nous adoptons le spin des deux particules comme propriété, une loi de conservation nous dit que la somme des spins des deux particules doit donner zéro, tandis que les deux spins ne peuvent équivaloir qu’à + ou – 1/2. Nous ne pourrons évidemment le savoir qu’au moment de la mesure, car avant, les deux possibilités – pour chacune des deux particules – sont superposées. Si la mesure de la première particule est égale à + 1/2, alors afin que soit respectée la loi de conservation du spin total (pour les deux particules), la seconde particule pendant la mesure de la première devra simultanément subir le processus de la mesure, pour nécessairement donner une valeur de – 1/2 pour le spin. Qu’est-ce que cela signifie ? Que lorsque deux particules sont liées, ou intriquées, leurs états respectifs ne sont pas décrits par deux fonctions d’onde, mais par une seule, qui s’effondre simultanément pour les deux particules à l’instant même où nous en observons une. Évidemment, cela viole non seulement le principe de causalité, mais engendre aussi forcément un mécanisme qui détermine apparemment la propagation instantanée de signaux. En cas contraire, comment la seconde particule peut-elle savoir instantanément ce qui est arrivé à la première ? S’agit-il vraiment de signaux superluminaux, comme de nombreuses personnes ont encore, à tort, tendance à penser ? Ou bien est-ce vraiment comme si les deux particules n’étaient absolument pas séparées par l’espace ? Tout cela est vraiment étonnant, mais réel, si par « réel » nous entendons une description plus complète de l’univers, qui va au-delà de ce que nos sens perçoivent dans le monde de la causalité. Il ne s’agit pas de signaux superluminaux, mais simplement de la structure la plus intime de l’univers, où tout est étroitement lié au-delà de l’espace et du temps.

En résumé, si nous séparons deux particules qui ont d’une certaine façon interagi, et tant que nous n’effectuons aucune mesure sur l’une d’elles, elles sont dans une espèce de limbes communs, c’est-à-dire dans un état de superposition quantique descriptible par une seule fonction d’onde qui contient simultanément aussi bien l’état de spin positif que l’état de spin négatif. La valeur exacte du spin ne sera décidée qu’au moment où nous effectuons une mesure sur l’une des deux particules. Mais rappelons-nous qu’il ne s’agit pas ici d’une seule particule, mais de deux particules intriquées qu’il est possible de décrire par une seule fonction d’onde. Nous voyons donc que le principe de superposition et le phénomène de l’intrication sont intimement liés. Décrire deux ou plusieurs particules intriquées revient à décrire un seul état quantique. C’est comme si les particules intriquées n’étaient qu’une seule et même particule !

Nous pouvons à ce sujet rapporter directement les paroles de Schrödinger en personne :

Lorsque deux systèmes, dont nous connaissons les états sur la base de leur représentation respective, subissent une interaction physique temporaire due à des forces connues qui agissent entre elles, et lorsque, après une certaine période d’interaction, les systèmes se séparent à nouveau, nous ne pouvons plus les décrire comme avant l’interaction, c’est-à-dire en les dotant chacun de leur propre représentation.

Tirons donc une première conclusion qui nous ramène aux thèses fondamentales de la mécanique quantique, laquelle décrit les étranges propriétés de la matière et de l’énergie à l’échelle de l’infiniment petit. Ces propriétés sont les suivantes : la cohérence quantique, où les particules sont unies en une entité collective décrite par une seule fonction d’onde ; l’intrication quantique non locale, où les états quantiques décrivant des particules séparées sont étroitement liés par une seule fonction d’onde ; la superposition quantique où les particules existent en deux ou plusieurs états (ou lieux) simultanément ; et l’ effondrement quantique d’un état décrit par une fonction d’onde donnée, où les particules qui se trouvent dans des états superposés sont sujettes à une réduction selon des choix bien spécifiques, déterminés par le processus de mesure.

1.3.  Confirmations expérimentales
De l’intrication particulaire

Ce qui ne fut qu’une expérience de pensée – le célèbre paradoxe EPR – finit par correspondre au fils du temps à quelque chose de réel au niveau expérimental. L’une des expériences qui prouvèrent l’existence de l’intrication fut justement celle de la double fente testée dans les années 70 et 80. Mais d’autres expériences non moins importantes témoignèrent que l’intrication se dessinait comme une démonstration littérale du paradoxe EPR, c’est-à-dire non pas comme un lien entre les fonctions d’onde dédoublées d’une particule simple après qu’elle a traversé simultanément une double fente, mais entre deux particules bien distinctes et séparées par une grande distance qui, d’une certaine façon, avaient eu l’occasion d’interagir entre elles. Le mathématicien Amir Aczel (voir bibliographie) présente dans le détail les principales étapes chronologiques des expériences sur l’intrication quantique. Les plus importantes sont rapportées ci-après.

En 1949, une première expérience sur l’intrication fut effectuée par les physiciens américains Chien-Shiung-Wu et Irving Shaknov, sur les conseils du célèbre John Wheeler. Ils produisirent le positronium, un élément artificiel composé d’électrons et de positrons4 se déplaçant les uns autour des autres. Cet élément survit pendant une fraction de seconde, puis les électrons et les positrons s’effondrent le long d’une spirale, en s’annihilant et en dégageant deux photons. Ils utilisèrent des cristaux d’anthracène pour analyser la direction de polarisation5 de ces photons. Le résultat confirma la prédiction de Wheeler : les deux photons avaient des polarisations contraires et une mesure effectuée sur l’un déterminait simultanément l’effondrement de la fonction d’onde des deux, de sorte que lorsque l’on en mesurait un avec une polarisation horizontale, l’autre présentait automatiquement une polarisation verticale. Ce fut la première expérience au monde d’intrication de photons. La route serait toutefois encore longue avant de pouvoir démontrer l’existence réelle de l’intrication. D’autres points mathématiques de référence et des expériences moins simples que celle-ci auraient été nécessaires pour parvenir à convaincre la récalcitrante communauté des physiciens de l’époque, pour lesquels la violation du principe de localité d’Einstein en faveur d’« effets quantiques non locaux » signifiait pratiquement que le sol, sur lequel reposaient si solidement leurs pieds, se dérobait.

En 1959, un phénomène mystérieux connu sous le nom d’« effet Aharonov-Bohm » fut découvert par le physicien théoricien israélien Yakir Aharonov et par David Bohm. Ce phénomène présente, comme l’intrication quantique, un aspect non local, c’est-à-dire complètement indépendant de la distance. Ils découvrirent en effet que dans certaines circonstances, les électrons semblent en mesure de « sentir » la présence d’un champ magnétique6, même s’ils sont en train de voyager dans des régions de l’espace où l’intensité du champ équivaut à zéro. C’est comme si la distance entre les électrons et le champ magnétique avait été mystérieusement annulée, ce qui revient quasiment à dire qu’électrons et champ sont étroitement intriqués.

Finalement, en 1964, le physicien irlandais John Bell se pencha sur le paradoxe EPR et démontra de façon mathématiquement rigoureuse que les thèses de la mécanique quantique sur les variables cachées, qui seraient en mesure de transporter d’une manière ou d’une autre de l’information pouvant justifier le principe de localité défendu bec et ongle par Einstein, étaient complètement erronées. Il ne s’agissait pas d’une expérience de laboratoire, mais de la mise au point d’un véritable théorème (le « théorème de Bell ») qui démontrait que la mécanique quantique était une théorie cohérente et complète, prouvant ainsi la réalité du phénomène de l’intrication et, par conséquent, l’inhérente caractéristique d’interconnexion de l’univers dont elle découle. Les calculs de Bell constituèrent aussi une référence mathématique fondamentale – une sorte de vade-mecum – permettant aux physiciens de réaliser correctement les expériences qui devaient prouver ou réfuter le phénomène de l’intrication, car le théorème de Bell démontrait qu’il existe des tests expérimentaux bien précis qui permettent de distinguer les prévisions de la mécanique quantique de celles de n’importe quelle mystérieuse théorie à variables cachées. En effet, à partir de ce moment, des expériences sur l’intrication quantique furent menées de plus en plus fréquemment et avec des résultats de plus en plus convaincants.

La première expérience réellement concluante et cruciale sur l’effet EPR fut effectuée en 1972 par les physiciens américains John Clauser et Stuart Freedman, qui s’inspirèrent entièrement des idées innovantes et rigoureuses divulguées quelques années auparavant par Bell. Les deux physiciens utilisèrent une méthode tout à fait particulière pour produire des photons intriqués. Il s’agissait de la « cascade atomique ». Ce système consiste à exciter l’atome qui, en retournant à son état d’équilibre (c’est-à-dire l’état fondamental de l’atome, l’énergie de point zéro), émet deux photons qui sont intriqués. Pour réaliser l’expérience, la source des photons est fournie par un faisceau d’atomes de calcium émis par un four bouillant. Ces atomes sont bombardés avec une forte radiation ultraviolette, hautement énergétique. En réponse, les électrons qui constituent les atomes de calcium s’excitent à des niveaux énergétiques élevés et lorsqu’ils reviennent au niveau fondamental, ils libèrent des couples de photons intriqués. Ce processus de production de particules intriquées prend le nom de « cascade atomique », car les électrons tombent directement d’un niveau énergétique élevé à un niveau faible, en passant par un niveau intermédiaire et en libérant à chaque saut un photon. Clauser et Freedman mirent donc au point une source de photons où les atomes de calcium étaient excités jusqu’à des niveaux élevés d’énergie. Dans des conditions normales, lorsque l’électron d’un atome de calcium retourne à son niveau fondamental, il émet un seul photon. Mais il peut au contraire parfois arriver que se vérifie l’émission de deux photons d’énergie différente (l’un vert, l’autre violet), dont les polarisations sont corrélées, donnant ainsi lieu à la production de photons intriqués dont la propriété d’intrication n’est cette fois pas le spin, mais la polarisation. Bien qu’il ne soit pas facile de produire un grand nombre de couples intriqués, les deux physiciens parvinrent à en produire suffisamment pour démontrer l’incontestable réalité de l’intrication. Ce fut la première confirmation décisive de la nature intimement non locale de la mécanique quantique.

L’expérience la plus sophistiquée et la plus convaincante jamais réalisée sur la production de couples intriqués, fut réalisée par le physicien expérimental français Alain Aspect en 1982. Ce dernier utilisa un faisceau atomique de calcium comme source de photons intriqués. Les atomes étaient excités par un laser. Ceci obligeait un électron de chaque atome à sauter deux niveaux énergétiques en delà de son état fondamental (comme c’était le cas dans les expériences précédentes). Lorsqu’il tombait de deux niveaux énergétiques, l’électron émettait parfois une paire de photons intriqués. Les deux photons étaient alors séparés et lancés dans des directions contraires vers des détecteurs éloignés. Les détecteurs servaient à vérifier la façon dont se comportaient les photons lorsque le long de la trajectoire de l’un d’eux était introduit au hasard une sorte de filtre qui en modifiait la direction. Ce test prouva que chaque fois qu’un des deux photons déviait de sa trajectoire à cause du filtre placé sur son parcours, l’autre aussi (qui voyageait dans la direction contraire) effectuait instantanément une déviation, bien qu’il soit séparé du premier. De cette façon, l’existence du mécanisme de l’intrication quantique, c’est-à-dire d’un phénomène non local où deux particules s’influencent l’une l’autre instantanément, fut sans équivoque démontrée. Le taux de coïncidences obtenu était de loin supérieur aux expériences précédentes.

Les expériences suivantes se révélèrent de plus en plus fécondes et raffinées jusqu’à ce que finalement, en 1997, le physicien suisse Nicolas Gisin et son équipe réalisent avec succès une version de l’expérience d’Aspect avec des détecteurs éloignés l’un de l’autre de 11 kilomètres. On était en train d’apprendre à éviter le problème de la « décohérence », c’est-à-dire de cet effet délétère qui détruit les liens quantiques à la suite de l’interaction des particules avec l’environnement externe. Entre-temps, des méthodes de plus en plus fiables et sophistiquées, permettant de créer des paires de particules intriquées, étaient utilisées. La méthode actuellement la plus employée est la technique de conversion paramétrique « vers le bas ». Cette méthode consiste à projeter un rayon laser de lumière ultraviolette contre un type particulier de cristal, appelé « cristal non linéaire » constitué de borate de baryum. Dans ce cas, la plus grande partie de la lumière entre dans le cristal en le traversant complètement pour sortir du côté opposé. Toutefois, un pourcentage infime des photons incidents ne parvient plus à en sortir : et ce sont justement ces photons qui nous intéressent, car ils ont chacun la propriété de se scinder en deux photons supplémentaires. En effet, un photon laser d’énergie élevé a des probabilités, en passant à travers le cristal, de se scinder en deux photons, chacun d’énergie plus faible que le photon d’origine. L’énergie totale des deux photons doit être égale à l’énergie du premier photon. Ce qui est intéressant ici, c’est que les deux photons d’énergie plus faible présentent des polarisations contraires et sont intriqués, et que n’importe quelle mesure de l’un détermine inexorablement une réaction instantanée de l’autre.

Une fois la pleine faisabilité des expériences sur l’intrication particulaire démontrée, on a commencé à utiliser cette propriété pour réaliser les premières expériences de téléportation quantique7. C’est l’équipe du physicien autrichien Anton Zeilinger qui a lancé le mouvement, et à l’heure actuelle de nombreuses autres expériences de ce genre, mais de plus en plus sophistiquées et réalisées par différents chercheurs, ont eu lieu. On est parti de la téléportation de photons pour arriver à celle d’ions et de regroupements d’atomes. L’idée théorique qui est à la base de la téléportation fut mise au point par le physicien et informaticien américain Charles Bennet en 1993. Sur le plan conceptuel, pour réaliser la téléportation en utilisant la méthode quantique, il faut avant tout disposer d’un système constitué d’une paire de particules intriquées d’un certain type. Il faut ensuite unir le système que l’on souhaite téléporter avec l’une des parties du couple intriqué, préparée comme il se doit. Il devient alors nécessaire d’effectuer une mesure sur l’association des deux systèmes. Cette mesure en incluant l’une des parties du système intriqué permettra qu’une mesure effectuée sur l’autre partie génère un double parfait de l’objet original que l’on entend téléporter, justement parce que la partie qui reste du système intriqué – en vertu de sa nature même – en arrive à acquérir instantanément les informations qui servent pour construire l’objet original. Les étapes sûrement les plus importantes de l’expérience nécessitent donc la disponibilité d’un couple intriqué qui ne doit pas interagir avec d’autres objets, ce qui détruirait l’information quantique à cause du processus de décohérence.

Parallèlement aux expériences de téléportation, plusieurs groupes de chercheurs parvinrent à mettre en condition d’intrication non plus deux, mais cinq particules. Simultanément aux expériences de téléportation, on a aussi commencé à poser les bases des ordinateurs quantiques, qui en se basant sur le mécanisme de l’intrication et sur la superposition quantique des nombres binaires 0 et 1 sous la forme de q-bit, consentent d’effectuer conjointement des calculs multiples et infiniment plus rapides et complexes que ceux des ordinateurs actuels basés sur la physique classique.

Einstein déclara que si la mécanique quantique était vraiment correcte, alors le monde devrait être fou. Et nous avons en effet les preuves que le monde est vraiment fou ! Tout ce qui paraît dans la réalité classique où nous vivons n’est que le fruit de l’effondrement des fonctions d’onde de l’univers à la suite de notre observation du monde. Comme nous le verrons par la suite, l’interaction avec la fonction d’onde des différents états quantiques va bien au-delà du simple processus technique de la mesure avec des instruments de laboratoire.

1.4.  L’ORIGINE DE L’INTRICATION

Comme nous l’avons vu, le mécanisme de l’intrication est une caractéristique éminemment quantique des particules élémentaires, en particulier des particules qui ont eu l’occasion d’interagir entre elles au moins une fois, à travers des mécanismes différents (parmi ceux déjà décrits). Dans le cas contraire, doit-on vraiment considérer toutes les autres particules de l’univers comme non corrélées ? Même si à l’heure actuelle, il n’existe aucune preuve certaine du contraire, nous pouvons en douter pour toute une série de raisons fondamentales : tout d’abord, la modalité avec laquelle serait né l’univers et deuxièmement, la présence de particules virtuelles dans le vide quantique.

En ce qui concerne le premier point, on se demande justement quelle est l’ampleur de ce lien entre particules, indépendamment du fait que certaines particules, opportunément choisies et traitées, sont mises localement en conditions artificielles d’interaction. De nombreux scientifiques, dont le physicien théoricien américain Brian Greene, pensent que l’univers est un tout intrinsèquement intriqué et cohérent, sans perte d’information. Le problème de la décohérence qui, nous croyons, limite nos expériences sur l’intrication et la téléportation particulaire ne naîtrait que de notre incapacité à voir le problème dans son ensemble. C’est justement pour cette raison que de nombreux scientifiques, dont le physicien théoricien et prix Nobel britannique Brian Josephson, pensent que notre vision de la mécanique quantique n’est que la pointe de l’iceberg d’une théorie plus vaste.

Si nous acceptons la véracité de la théorie cosmologique du bigbang, et si nous analysons les thèses, nous découvrons qu’elle se base sur une très grande « explosion » née d’une singularité cosmique, dont tout aurait été créé à la suite de l’expansion de l’univers. Mais si l’univers était – il y a plus ou moins 15 milliards d’années – concentré en un point de densité asymptote, il y a de bonnes raisons de croire qu’au cours de cette période, toutes les particules qui composent l’univers étaient intriquées, étant donné l’interaction très étroite à laquelle elles étaient toutes soumises8, et qu’une espèce de fantôme de cet antique lien a survécu jusqu’à nos jours, à certains niveaux que nous ne connaissons pas encore très bien. Nous pourrions alors penser à une espèce d’« intrication universelle » au niveau plus fondamental des particules, et à la possibilité d’une véritable conservation des niveaux originaux de l’intrication malgré l’expansion de l’univers, ou à la création de différents sousensembles d’intrication – apparemment inaccessibles – peut-être nés au moment où se développa la vie dans l’univers. Il conviendrait alors d’envisager que d’une façon ou l’autre, toutes les particules de l’univers maintiennent une espèce de « mémoire » de chacune des autres particules que ce dernier contient, et que la séparation qui partage les choses dans notre univers quotidien, même s’il est réel sur le plan de la physique classique newtonienne et relativiste, n’est qu’une illusion si on la considère du point de vue d’autres réalités possibles où l’univers resterait uni, au-delà de l’espace et du temps. Si l’on envisage les choses sous cet angle, et si nous réussissons à découvrir les bases physiques du « fantôme de l’univers », alors nous pourrions découvrir que, pris dans notre globalité, nous existons tous dans une réalité holistique, à l’instar de chaque chose qui vit sur Terre. Mais quelle partie de nous ? Et même si nous voulions exclure la partie métaphysique de ce raisonnement, sommes-nous capables de trouver une trace de cet antique lien au niveau des particules de matière et d’énergie ? Des interrogations de ce genre ne sont pas le fruit de déclamations à la saveur un peu New Age, mais surgissent de l’esprit de scientifiques officiels comme, par exemple, le physicien quantique britannique John Gribbin. De manière plus explicite, citons le physicien américain Menas Kafatos et l’historien des sciences canadien Robert Nadeau qui écrivent dans leur ouvrage intitulé The Nonlocal Universe (« L’Univers non local ») :

Toutes les particules dans l’histoire du cosmos ont interagi avec d’autres particules comme l’ont décrit les expériences d’Aspect. Virtuellement, tout dans notre environnement physique immédiat est fait de quanta qui ont interagi de cette façon avec d’autres quanta, du big-bang à aujourd’hui… Il faut aussi prendre en compte que l’intrication quantique croît de façon exponentielle avec le nombre des particules de l’état quantique original et qu’il n’existe aucune limite théorique au nombre de ces particules intriquées. Si c’est le cas, l’univers, à un niveau très basique, pourrait être un vaste réseau de particules qui restent en contact sur n’importée quelle distance et en temps zéro, et en l’absence de transfert d’énergie ou d’information. Cela laisse sous-entendre, pour autant que la chose puisse paraître étrange ou bizarre, que la réalité physique est un seul système quantique qui répond de façon chorale à d’ultérieures interactions.

Cette affirmation est assurément éclairante. Et il est tout à fait probable que la réalité que nous ne connaissons pas encore d’un point de vue scientifique dépasse l’imagination. Actuellement, l’establishment de la physique quantique ne reconnaît la réalité de l’intrication que pour les particules élémentaires, tandis que les objets macroscopiques, comme les gros regroupements de molécules, ou des objets plus grands comme une pomme, une planète ou une galaxie, n’auraient aucune possibilité de maintenir l’intrication en raison du mécanisme de la décohérence qui détruirait immédiatement tous les phénomènes de cohérence quantique. Rappelons en effet que le mécanisme de la décohérence a lieu lorsque l’on passe du monde quantique au monde classique macroscopique, dès lors que lorsqu’un objet quantique interagit avec l’environnement externe, ces interactions agissent comme des « mesures » qui provoquent l’écroulement de l’état quantique dans la réalité standard. Imaginons alors que deux ou plusieurs galaxies sont intriquées… Et que dire de l’état de la matière au moment du big-bang lorsque toutes les galaxies étaient englobées dans un objet infiniment plus petit qu’un atome ? À cette époque, les galaxies étaient solidifiées en particules, et si l’univers était un tout uni, il est raisonnable d’envisager qu’au moins les « graines » de ces galaxies étaient en état d’intrication. De plus, la physicienne théoricienne italienne Paola Zizzi a calculé qu’au cours de l’inflation cosmique, l’univers était même un « multivers » qui se trouvait dans un état de superposition quantique d’univers multiples, jusqu’à ce que quelque chose – un mystérieux « observateur externe » – ait déterminé l’effondrement de la fonction d’onde du multivers en provoquant, à travers un processus de « mesure » sûrement très sophistiqué, un choix conscient parmi d’infinies possibilités : l’univers dans lequel nous vivons actuellement. Non seulement les galaxies qui composent notre univers pouvaient donc s’intriquer, mais plusieurs univers auraient dû l’être aussi. Par exemple, l’une des variantes les plus récentes de la théorie du big-bang suppose que l’inflation (qui au cours des 10-35 premières secondes avait également conduit à l’expansion de l’espace-temps ) ne conduisit pas à la formation d’un seul univers, mais d’un multivers constitué de nombreuses bulles, ou univers-îles, qui s’éloignèrent rapidement l’une de l’autre jusqu’à sortir de leur horizon respectif.

On se demande alors : est-il resté quelque chose de l’intrication initiale ? Pour le moment, en admettant que l’univers possède à un certain niveau un état d’intrication permanent, limitons-nous aux particules élémentaires. À la lumière de cela et de nos connaissances en matière de physique quantique, quelles considérations pouvons-nous faire en ce sens ? D’après le physicien théoricien israélien Benni Reznik, les propriétés de l’intrication se trouveraient à l’état libre dans la nature, notamment dans le vide quantique qui sous-tend notre réalité, c’est-à-dire dans un règne invisible où si l’on descend dans une dimension de 10-33 cm (la célèbre « longueur de Planck »)9, on découvre que le néant n’existe pas, mais que le « néant » serait en réalité un bouillonnement d’énergie sous forme de particules et d’antiparticules virtuelles qui interagissent sans cesse avec notre univers sous la forme de fluctuations, dont la plus importante est celle qui aurait fait naître l’univers actuel. L’une des raisons d’être du célèbre principe d’incertitude de Heisenberg est que justement au niveau de l’échelle de Planck, les particules élémentaires sont liées avec toutes les autres particules de l’univers. L’existence des particules virtuelles est donc rendue possible par le principe d’incertitude de Heisenberg, qui ne s’applique pas seulement aux particules, mais aussi, justement, au « vide ». Ce vide bouillonnant de particules d’énergie ne représenterait rien d’autre que la structure géométrique de l’espace-temps, laquelle sur des échelles très petites comme celle de Planck, n’est pas un plan lisse, mais possède une structure totalement quantisée. C’est justement dans ce règne, celui de Planck, que l’électrodynamique quantique prévoit l’existence de particules virtuelles (lesquelles, évidemment, en raison de leur nature quantique intrinsèque, auraient aussi la caractéristique duale d’ondes), sous forme de photons qui en naissant et en mourant sans cesse à l’instar des vagues de la mer créeraient une « onde quantique », également connue sous le nom désormais célèbre de « champ de point zéro ». Il n’est pas du tout insensé de penser que, du point de vue physique, les particules virtuelles pourraient être intriquées avec les particules de notre univers et fonctionner comme des médiateurs de l’intrication d’ensemble de l’univers dans sa totalité. Cependant, n’oublions pas que le lien constitué par l’intrication n’est pas de l’énergie, mais de l’« information ». Cette information voyagerait instantanément d’un point à l’autre de l’univers, grâce à la médiation des particules virtuelles. Lorsque ces particules énergétiques entrent en interaction avec notre univers de matière, elles réagissent au moment magnétique10 de n’importe quelle particule de matière qu’elles approchent. Celle-ci devient alors de l’information que les particules virtuelles restituent au vide quantique. Mais comme la dimension quantique n’a ni temps, ni espace, l’information sur une particule donnée en un point donné de l’univers serait alors disponible n’importe où dans l’univers et simultanément. Évidemment, par symétrie, le contraire est également vrai : du moment où une particule virtuelle établit une connexion avec toute l’information présente dans le règne quantique, lorsque’elle pénètre dans une région pleine de particules, celles-ci ont accès à cette information quantique. Les particules virtuelles ont donc un accès instantané à l’information n’importe où et n’importe quand. Parce que l’intrication n’unit pas seulement des points plus ou moins éloignés dans l’espace, mais aussi dans le temps !

Si l’intrication était vraiment omniprésente dans la nature, elle unirait non seulement les particules de matière comme les quarks et les électrons, ou celles d’énergie comme les photons, mais les particules de matière et celles d’énergie pourraient aussi être intimement liées entre elles. Quand nous regardons la lumière d’une étoile, nous observons donc simplement ses photons qui pourraient être intriqués avec les atomes qui composent la matière de l’étoile et avec les atomes que ces mêmes photons rencontreraient dans l’espace interstellaire le long du chemin jusqu’à nous, et, comme le dit le physicien belge Thomas Durt, les électrons qui composent les atomes de notre corps ne feraient sûrement pas exception. Ne l’oublions pas : il ne s’agit pas d’un lien fait de signaux transmis par relais, mais vraisemblablement d’une seule entité synchrone, où la communication d’information dépasse le temps et l’espace.

Cette énorme masse de probable communication quantique doit être née avant que le big-bang ne se manifeste comme univers en expansion, avant même la naissance de la matière, de l’énergie, de l’espace et du temps. Du moment où cette communication n’est pas de l’énergie dans le sens conventionnel du terme, mais de l’information, quelqu’un comme, par exemple, le physicien et informaticien américain Doug Matzke, a envisagé, à juste titre, de remplacer le terme big-bang par « bit-bang ». Et ce n’est pas du tout une définition pittoresque. Au contraire, c’est une définition rationnelle dès lors qu’il s’agirait de ce bang informatique parallèle au bang thermodynamique de l’univers en expansion violente, déterminé par l’effondrement d’une fonction d’onde – appelons-la « fonction d’onde divine » – contenant un nombre infini de mondes en superposition, jusqu’à ce qu’un mystérieux observateur conscient fasse un choix bien précis. De fait, nous sommes tous en train d’y réfléchir. Le grand physicien théoricien John Archibald Wheeler, dans la seconde partie de sa vie (après des études canoniques sur la relativité, la mécanique quantique, les trous noirs et la cosmologie) s’est lui-même rendu compte que l’univers semble être fait de « bit » d’information plutôt que de bit de matière ou d’énergie. Wheeler a alors émis l’hypothèse que nous vivions dans un « univers participatif » dans lequel nous participions – en posant des questions sur la nature – à la création du monde observé.

1.5.  L’INTRICATION TEMPORELLE

Comme nous l’évoquions auparavant, l’intrication quantique est un phénomène qui peut survenir aussi bien dans l’espace que dans le temps. Lorsque nous portons notre regard très loin comme, par exemple, quand nous utilisons les plus puissants télescopes, nous ne nous limitons pas à regarder l’univers dans l’espace, mais aussi dans le temps, car plus loin nous allons dans l’espace, plus loin nous allons dans le passé. Tout cela est une conséquence de la finitude de la vitesse de la lumière, laquelle, comme nous le savons, n’est pas instantanée, mais voyage à 300 000 km/sec. Cette énorme limite nous empêche de percevoir l’univers dans sa totalité dans le sens holistique du terme, du moins avec nos cinq sens et avec les instruments de mesure qui en dépendent. Mais quelqu’un, à commencer par John Archibald Wheeler, a décidé d’analyser cette situation plus précisément et à la lumière du mécanisme quantique de l’intrication. Si nous supposons que toutes les particules de l’univers sont liées pour les raisons dont nous avons parlé précédemment, notamment les particules de matière et celles d’énergie, alors rien n’exclut que l’acte d’observer un objet astronomique éloigné aussi bien dans l’espace que dans le temps comme, par exemple, une très belle nébuleuse planétaire, puisse influencer les événements quantiques dans un lointain passé, au point de donner lieu à ce qu’on définit comme une « causalité inverse ». Si l’intrication quantique existe vraiment, alors les particules du « présent, maintenant et ici » pourraient interagir de façon instantanée avec les particules du « passé, autrefois et là-bas », non seulement en les perturbant, mais aussi en modifiant la structure des objets (comme la nébuleuse planétaire) qu’elles constituent. Évidemment, nous ne pouvons en avoir la preuve expérimentale, dès lors que tout survient instantanément, et nous pensons que tout ce que nous voyons et enregistrons est l’exact reflet de ce que voit un observateur externe qui n’interagit pas. Mais il s’agit de la version newtonienne de la réalité, tandis que la réalité quantique ouvre des horizons beaucoup plus vastes, et extraordinairement inconcevables. Si tout ceci est vrai – bien qu’avec les théories physiques dont nous disposons aujourd’hui, nous ne le démontrerons jamais – alors lorsque, par exemple, nous mesurons la radiation de fond à 2.7 °K, le résidu visible du big- bang compris dans le sens classique du terme, nous interagissons de façon non locale avec les photons qui constituent cette radiation fossile bien connue. Le big-bang serait alors un événement situé dans un passé très malléable et ce de façon continue. En d’autres termes, nous pourrions sans cesse transmettre de l’information de façon non locale à notre passé pour le transformer. Alors que reste- t-il du big-bang comme « seul événement créatif » s’il est sans cesse manipulé par notre présent ? Si tout cela était vrai, la matière de notre domaine spatial et temporel et nous, en tant qu’observateurs, pourrions interagir avec le passé en le modifiant à travers des effets de causalité inverse. De cette façon, il n’existerait pas d’observateurs privilégiés, détachés de la réalité, si ce n’est Dieu en personne, si tant est qu’il existe.

Tout ceci n’est pas pure spéculation, mais possède également un équivalent dans les expériences de pensée les plus récentes de physiciens théoriciens comme, par exemple, l’Autrichien Caslav Brukner et le Slave Vlatko Vedral, qui ont démontré de façon logico-mathématique qu’il est également possible de mettre en condition d’intrication des moments de temps. À travers cette expérience de pensée particulière, on a examiné la façon dont la théorie quantique mettait en relation des mesures successives d’un seul état quantique. On a, par exemple, mesuré la polarisation d’un photon pour obtenir un résultat particulier, puis on a répété la mesure quelque temps après en obtenant un second résultat. Brukner et Vedral ont découvert un lien étrange entre passé et futur, dans le sens où la mesure de la polarisation d’un photon à un moment donné peut influencer la façon dont il était polarisé l’instant d’avant ! Les physiciens sont abasourdis, mais la logique ne fait pas un pli. La formulation de cette expérience de pensée ne comporte pas l’envoi de message dans le passé ; la théorie de la relativité est donc pleinement respectée, mais montre juste que les lois mêmes de la mécanique quantique semblent plier la loi de cause et d’effet. À travers cette expérience de pensée, il a été définitivement prouvé que si l’on raisonne en termes quantiques, l’espace et le temps sont à la même enseigne. Si le temps peut donc être mis dans des conditions d’intrication, alors on doit aussi le considérer comme un paramètre observable (comme, par exemple, le spin ou la polarisation). Il est en outre impossible d’insérer ce facteur dans les complexes équations de la mécanique quantique ; si cela devenait possible, ce ne le serait qu’en vertu de la violation de quelque chose dans la structure formelle de la mécanique quantique. D’ailleurs, à part l’ossature mathématique de la théorie des quanta qui se base fondamentalement sur l’« interprétation de Copenhague » (et le phénomène de l’effondrement de la fonction d’onde), d’autres interprétations de la mécanique quantique11, dont certaines sont même parfois très bien considérées au niveau officiel, se développent. Le fait que les différentes interprétations de la mécanique quantique divergent prouve que ce que nous savons de la théorie quantique n’est que la pointe d’un immense iceberg que nous n’avons pas encore bien exploré. Nous pouvons toutefois affirmer sans détour, sans même nous demander quelle est la meilleure interprétation de la théorie des quanta, que l’existence même du vide quantique12, comme structure fondamentale de l’espace-temps, et des relatives particules virtuelles qui y jaillissent, sous-tend nécessairement qu’une pleine compréhension du monde quantique ne sera possible que lorsque la théorie des quanta sera unie, dans un contexte d’unification totale, à la théorie de la relativité générale (celle qui s’occupe justement de l’effet des masses sur le tissu géométrique de l’espace-temps). Une nouvelle version de la théorie des supercordes13 ou une version de la théorie des « réseaux de spins », promue depuis longtemps par le physicien et mathématicien britannique Roger Penrose, pourrait peut-être y parvenir.

1.6.  LES RACINES COSMIQUES DE L’INTRICATION

Nous avons fait allusion précédemment à cette réalité invisible, dénommée « potentiel quantique », qui guiderait de façon non locale les particules du monde quantique. Il s’agit d’une création du physicien théoricien britannique d’origine américaine David Bohm14, afin de donner à la mécanique quantique un caractère déterministe et non pas probabiliste comme le prévoyait le modèle standard de Copenhague. Tout cela eut lieu en 1951, lorsque Bohm rouvrit le débat pour chercher une théorie en mesure d’expliquer la nature ontologique – et non pas épistémologique – des « variables cachées ». C’est justement pour cette raison que Bohm pensait que ces quantités inconnues auraient fait de la mécanique quantique une « théorie complète », comme le demandait Einstein lorsqu’il formula avec Rosen et Podolsky le célèbre paradoxe EPR. Ce fut ainsi que David Bohm, en plus de simplifier les thèses du paradoxe et de permettre qu’on puisse les tester d’un point de vue expérimental, reformula complètement la mécanique quantique en donnant naissance à celle que l’on reconnaît universellement comme la « mécanique bohmienne ». C’est dans ce contexte que voit le jour le concept de « potentiel quantique ». Il se base sur la notion d’« onde pilote » déjà proposée en 1927 par le physicien théoricien français Louis de Broglie, entendu comme mécanisme d’« information active » en mesure de guider constamment l’état quantique des particules. Il ne s’agit de rien d’autre qu’une fonction d’onde universelle aux caractéristiques non locales, en mesure de permettre aux particules d’interagir instantanément quelle que soit la distance qui les sépare. Cette fonction d’onde guide le mouvement des particules et évolue d’après l’équation de Schrödinger. L’interprétation de Bohm de la mécanique quantique se différencie aussi bien de l’interprétation de Copenhague que de celle des mondes multiples d’Everett : dans le premier cas, en raison de sa nature nettement déterministe et pour ne pas provoquer l’effondrement de la fonction d’onde à la suite d’une mesure ; dans le second cas, pour supposer l’existence d’un seul univers. Afin de parvenir à cette reformulation de la théorie des quanta, il doit donc exister, selon Bohm, un nouveau type de champ capable d’opérer au niveau quantique de la réalité, en mesure d’expliquer de manière complète les phénomènes quantiques. Ce champ n’est rien d’autre que le potentiel quantique, dont la caractéristique est d’envahir tout l’espace, mais surtout d’influencer – comme structure purement informative et non énergétique – tous les objets du monde quantique indépendamment de la distance et de l’intensité. En somme, l’information fournie par le potentiel quantique n’a rien à voir avec celle fournie par un signal électromagnétique lequel, comme le sait bien l’électrodynamique classique de l’Écossais James Clerk Maxwell ainsi que la physique relativiste d’Einstein, dépend aussi bien de la distance (en raison de l’inverse de son carré) que de son amplitude (ou intensité). Le champ qui se vérifie dans le potentiel quantique a une valeur purement informative, et il est également défini comme un « champ de forme », de telle manière que seule la forme ou le sens fonctionnent comme un liant entre les différentes entités quantiques : ainsi s’expliquerait la connexion non locale qui unit les particules par le biais du phénomène de l’intrication, en éclairant ainsi la nature d’expériences déconcertantes comme celle de la double fente ou les applications expérimentales de l’effet EPR (comme, par exemple, celle d’Aspect) à plusieurs particules contenant des paramètres liés comme le spin ou la polarisation. Tout cela semble violer les plus communes lois de la nature – et cela avait en effet fortement troublé Einstein – mais constitue en réalité une espèce de « structure subliminale » ou de substructure du continuum spatio-temporel, en mesure de regrouper les racines les plus intimes de l’univers. Mais la caractéristique la plus déconcertante du potentiel quantique suppose qu’en substance la réalité objective, malgré son apparente solidité, n’existe pas. La réalité, comme Bohm l’expliquait en personne dans l’une de ses plus célèbres métaphores, serait une espèce de fantôme ou plutôt un gigantesque hologramme15 qui change sans cesse à travers ce qu’il appelle l’« holomouvement ». Et, comme il subsiste dans la structure même d’un hologramme, cela signifie que si nous morcelons une pellicule holographique en éléments plus petits, nous obtenons toujours la même figure d’ensemble : en résumé, le petit contient le grand dans chacune de ses parties. De cette façon, un lien indissoluble subsiste au sein de l’univers, ce qui explique la raison ontologique de l’intrication. Et donc la séparation entre les objets quantiques n’est qu’une illusion : les particules ne communiquent pas à travers des signaux, mais coexistent en un seul hologramme qui les informe de manière instantanée où qu’elles se trouvent dans l’univers. À un niveau plus profond de la réalité, les particules ne sont pas des entités individuelles, mais des extensions de la même réalité fondamentale qui a ses racines dans le potentiel quantique, l’hologramme universel.

Que devient donc la mécanique quantique après la reformulation de Bohm ? La mécanique bohmienne établit qu’une particule est une unité qui contient en soi la particule et l’onde. À la différence de ce qu’établit l’interprétation de Copenhague, la fonction d’onde est une entité objective et pas un artifice mathématique ayant trait à ce que nous croyons savoir sur la réalité. C’est la raison pour laquelle le modèle de Bohm est entièrement ontologique16, et pas épistémologique17. D’un point de vue technique, Bohm, pour atteindre ce résultat, modifia de façon radicale l’équation de Schrödinger. Comme nous le savons, cette dernière constitue le pilier de la mécanique quantique et a pour but de décrire la façon dont la fonction d’onde évolue dans le temps. Bohm la divise en deux termes bien précis : un terme classique, où une particule élémentaire comme un électron est traitée comme une particule ordinaire, et un terme non classique où entre en scène le potentiel quantique qui se comporte comme une véritable onde en mesure d’« informer » l’électron de manière non locale, en le liant ainsi au reste de l’univers. De cette façon, l’électron n’est plus à la merci du hasard comme le prévoyait l’interprétation de Copenhague, mais il est une quantité bien définie et qui existe réellement, sujette à un ordre supérieur non newtonien qui l’informe constamment sur l’univers qui l’entoure. Il s’agit ici de déterminisme, mais d’un type bien différent de celui de Newton où les causes doivent toujours précéder les effets : dans ce contexte, les causes et les effets coïncident et le déterminisme en question n’est pas un mécanisme à retardement, mais un ordre synchrone des choses, très semblable à un organisme vivant où toutes les parties agissent en parfaite harmonie et où la « forme » est le caractère unifiant de tous les éléments intimes qui composent l’univers.

Dans ce contexte, la fonction d’onde contient donc une information active avec des caractéristiques non locales, tandis que les équations deviennent complètement déterministes et qu’a lieu une transition sans solution de continuité entre le niveau quantique, qui fournit au monde de la matière l’information sur la façon de bouger, et le niveau classique, qui représente la structure des forces qui gouvernent la matière. Bohm appela le premier niveau l’« ordre impliqué » et le second l’« ordre expliqué ». L’ordre impliqué est le règne du potentiel quantique, tandis que l’ordre expliqué représente la réalité normale du monde de la matière. Ce qui rend la théorie de Bohm innovante par rapport à la physique classique, c’est qu’en présentant l’ordre impliqué comme l’initiateur de ce qui est à tous les égards une véritable réalité holographique, la physique prend une valeur intrinsèquement ontologique, c’est-à-dire non pas relative à ce que nous croyons savoir de la réalité, mais à ce que les choses « sont » effectivement dans la réalité. De cette façon, la mécanique quantique de Bohm s’occupe des propriétés qu’une particule donnée possède indépendamment de nos mesures. Le même concept est confirmé par le physicien britannique Basil Hiley, qui poursuit aujourd’hui encore les recherches commencées par Bohm.

Il s’agit d’une réalité qui ne se limite pas seulement aux choses que nous expérimentons dans notre vie quotidienne, mais qui est surtout enracinée dans un règne pouvant sans aucun doute représenter l’esprit (ou l’intelligence) qui gouverne la matière. Nous n’entendons pas par là affirmer que la vieille interprétation épistémologique de la mécanique quantique (celle de Copenhague) est en soi erronée, mais plutôt réitérer que la vieille interprétation relative au seul niveau des simples observables (d’ailleurs uniquement sur le plan statistique et probabiliste) est très limitée dès lors qu’elle ne suppose l’existence de rien au-delà de ce que nous pouvons observer. L’ajout fondamental du potentiel quantique et de l’ordre impliqué auquel il est constamment soumis fait ainsi de la mécanique quantique une théorie vraiment complète du moment où elle comprend une couche plus profonde de la réalité, ce qui permet de la décrire de façon complètement indépendante de l’observateur. En somme, cela revient un peu à décrire l’univers non pas à travers l’œil de l’homme, mais à travers l’œil de Dieu. Tel était le vaste génie de David Bohm ! Mais ce n’est que la forme la plus simple de ce principe, car par la suite, en compagnie de son collègue français Jean-Pierre Vigier, Bohm théorisa un niveau encore plus profond, le niveau subquantique, qui d’après la récente interprétation du physicien grec Dimitri Nanopoulos, tire son origine des trous noirs virtuels et de la théorie des supercordes propres à l’« écume quantique » qui caractérise l’échelle de Planck à 10-33 cm. En termes plus simples, la couche la plus profonde qui gouvernerait l’univers sur le plan d’une non-localisation totale serait justement le vide quantique, où subsiste la base de tout le vivant. Comme nous le verrons par la suite, Bohm et son proche collaborateur Basil Hiley désignèrent le vide quantique par le terme « préespace ».

Quel sens prend donc une particule donnée comme, par exemple, un électron, dans l’interprétation ontologique de Bohm ? L’électron est une particule régie par le potentiel quantique. Au niveau le plus profond, l’électron est une particule qui existe vraiment dans l’univers et non pas une simple déduction probabiliste obtenue par la fonction d’onde : c’est une particule en constante transformation dans un processus incessant d’effondrement et d’expansion. Dans la première phase, l’électron est une particule de matière, dans la seconde, c’est une onde, c’est-à-dire une entité faite de pure énergie. De cette façon, énergie et matière se confondent sans cesse, tandis que toutes les entités quantiques d’énergie/ matière sont liées entre elles de façon non locale, sous la conduite du potentiel quantique, où les processus surviennent à un niveau très profond : ils n’ont pas lieu dans l’espace ni dans le temps, mais dans le « préespace » – siège de l’ordre impliqué de l’univers – une sorte d’espace abstrait qui ne peut être décrit que par des méthodes algébriques (comme, par exemple, les algèbres de Grassmann et de Clifford) et topologiques particulières, où les normales coordonnées cartésiennes sont entièrement remplacées par de spéciales coordonnées abstraites et non numériques. Le physicien théoricien Basil Hiley du Birbeck College de Londres tente aujourd’hui de transformer le modèle de Bohm – qui revêt un caractère quantitatif seulement dans la phase initiale de la formulation du potentiel quantique, pour maintenir ensuite un caractère qualitatif métaphysique lorsque Bohm passe à l’ordre impliqué comme entité supérieure qui régit l’univers – en un modèle entièrement quantitatif. Hiley essaie de créer une représentation mathématique du préespace et des phénomènes d’intrication et de non-localisation qui s’y produisent, apte à fournir un cadre pleinement mathématique de la mécanique quantique de Bohm, tout en maintenant sa nature éminemment ontologique et le caractère non purement énergétique, mais informatif, des interactions qui – en tant qu’« information active » – surviennent dans l’univers quantique dans son ensemble. Il s’efforce ainsi d’expliquer dans le contexte d’une structure mathématique, exactement comme on l’avait fait dans le cas de la formulation de la théorie de la relativité, le mystère central de la mécanique quantique : l’intrication et ses manifestations les plus diverses comme, par exemple, l’expérience de la double fente. Il ne fait aucun doute que de cette manière, on essaie de construire l’ultime cosmologie. Ou pour utiliser les paroles de Hiley :

Nous devons être prêts à considérer de nouvelles visions de la réalité.

Mais nous ne nous sommes pas encore penchés sur les conséquences les plus importantes de la théorie de Bohm, celles qui constituent le pilier physico-philosophique le plus solide et le plus élaboré qui sous-tend le phénomène de l’intrication.

1.7.  L’INTRICATION QUANTIQUE NAÎT D’UN ESPRIT UNIVERSEL

La particularité du travail de Bohm consiste tout d’abord dans la création du potentiel quantique, puis dans sa mise en contexte dans un règne abstrait dénommé ordre impliqué et enfin dans sa localisation dans un espace fantôme appelé préespace, qui à la lumière des études les plus récentes pourrait trouver origine dans l’écume quantique, autrement connue sous le nom de « champ du point zéro ». Ces curieuses entités ne sont pas séparées du monde classique de la matière/énergie : elles ne cessent d’interagir avec lui. Il est alors facile de les faire correspondre aux différentes ramifications des termes « conscience » ou « esprit ». Lorsque l’on déclare, par exemple, que le potentiel quantique (qui appartient à l’ordre impliqué) en interagissant constamment avec la matière (qui appartient à l’ordre expliqué), génère un holomouvement dans l’univers, cela revient à dire que l’esprit de l’univers régit la matière à chaque instant, en l’informant de façon tellement parfaite que chacune de ses parties, même la plus petite, contient en soi les éléments de l’ensemble. Exactement comme dans un hologramme. La nature réelle de l’intrication particulaire, que nous avons entrevue avec la célèbre expérience EPR et vérifiée ensuite expérimentalement, prend sa source dans un Grand Esprit qui gouverne l’univers à un niveau subliminal. Cette entité ressemble forcément à cet inconscient collectif largement étudié par le psychologue analytique suisse Carl Gustav Jung et par le physicien quantique autrichien Wolfgang Pauli. L’inconscient collectif18, le règne des archétypes qui selon Jung sont à l’origine des phénomènes de synchronicité19 que l’on observe souvent dans la vie de tous les jours, pourrait être le véritable esprit de l’univers. Il ne s’agit pas de l’esprit rationnel, celui que nous utilisons tous les jours et qui en substance n’est qu’un muscle du cerveau remplissant des fonctions purement mécaniques, mais de l’ esprit cosmique. Un esprit qui opère de façon non locale et qui unit en un seul ensemble chaque élément de l’univers. La chose stupéfiante, c’est que l’être humain, comme probablement tous les autres êtres évolués de la création, ressemble justement à un univers en miniature, dans le sens bohmien du terme. D’un côté, nous avons le corps et ses fonctions, intimement liés à l’esprit mécanique qui nous aide à résoudre les problèmes matériels, de l’autre, le monde intérieur fait de rêves, d’intuitions soudaines et parfois aussi de synchronicités qui surviennent de façon très particulière au cours de notre existence. Il ne s’agit là que du reflet de l’ordre expliqué et de l’ordre impliqué de Bohm !

La seule grande différence entre l’univers et l’homme – l’homme de la société rationnelle et scientifique d’aujourd’hui –, c’est que tandis que le corps de l’univers – ses particules – semble saisir à chaque instant les informations envoyées par le potentiel quantique universel, l’homme tout en les comprenant n’est pas capable d’en déchiffrer le sens profond. La raison en est que la société contemporaine, notamment la société occidentale, est guidée par l’esprit rationnel/analytique – associé à l’hémisphère gauche du cerveau – tandis que l’autre côté – intuitif et associé à l’hémisphère droit – est isolé et presque inutile. Il n’y a pas de réelle interaction entre la partie rationnelle et la partie intuitive : cela n’arrive que chez les grands génies de la science et de l’art. L’humanité dans son ensemble est comme « monochromatique » (ou mieux, monomaniaque) : l’utilisation exclusive de l’esprit analytique porte inévitablement à la recherche quasiment absolue des biens matériels. Au contraire, les choses qui ont un « sens » perdent aujourd’hui de plus en plus d’importance, au bénéfice d’un matérialisme effréné qui nous éloigne de la source réelle dans laquelle nous sommes immergés. Nous ne savons simplement pas que nous sommes nous aussi des électrons ! Et que nous faisons partie d’un plan grandiose dont les racines se trouvent au-delà du temps et de l’espace. Rêves, intuitions, synchronicités ou même certains événements paranormaux nous apparaissent comme des phénomènes mystérieux et incompréhensibles qui, si nous nous concentrons trop sur eux, peuvent nous conduire à la folie. Et c’est absolument vrai ! Vivre dans une seule dimension – la rationalité ou le côté intuitif –, c’est vivre de façon incomplète et cela conduit à la folie, parfois collective.

Il y a moins d’un siècle, comme par une très étrange synchronicité, le « phénomène Bohm » a vu inopinément le jour, en même temps que les « phénomènes Jung et Pauli », comme si la conscience collective de l’humanité avait brusquement besoin de s’intégrer à l’univers. Pas avec les pinceaux du peintre ni la virtuosité mathématique du scientifique, mais avec les deux ! Bohm, Jung et Pauli ont représenté une sorte de « réaction physiologique » de l’humanité à la perte de sens. Ils sont en effet apparus parce que l’organisme humain dans son ensemble en ressentait soudainement le besoin. L’humanité réclamait, et réclame toujours, de nouveaux outils scientifiques, pas chamaniques, pour comprendre l’univers. C’est ce que nous enseigne le modèle de Bohm. Il nous donne à penser que le potentiel et l’intrication quantiques ne se manifestent pas seulement dans le monde des particules élémentaires, mais aussi dans un coin secret de notre psychisme. Nous montrerons dans les chapitres suivants qu’il existe des raisons scientifiques plus que valables de croire qu’il en est vraiment ainsi, aussi bien lorsque nous parlons d’agrégats moléculaires complexes comme, par exemple, l’appareil cellulaire de la biologie, que de l’esprit au sens propre du terme.

1.8.  L’INTERPRÉTATION HOLOGRAPHIQUE DE L’INTRICATION QUANTIQUE

À la même époque où Bohm élaborait cette nouvelle vision de l’univers – tâche que poursuit désormais Basil Hiley – le psychologue et neurophysiologiste austriaco-américain Karl Pribram développait la théorie holographique de l’esprit humain, selon laquelle le cerveau se comporterait comme un hologramme en mesure de décoder toutes les fréquences provenant de l’univers, tandis que l’esprit ne serait pas situé dans le cerveau, mais dans une sorte de matrice résidant dans un règne au-delà du temps et de l’espace. Cet hologramme quantique consisterait en substance dans le fait que l’histoire des événements, relative à la matière à l’échelle macroscopique, est sans cesse émise de façon non locale, puis reçue par une autre matière à travers un subtil processus d’échange d’information quantique : il s’agirait un peu d’une extension du processus quantique d’émission et d’absorption de photons. Ce processus est tout à fait analogue au phénomène d’intrication qui se vérifie dans les particules, mais dans ce cas, il concerne la matière à toutes les échelles.

Le concept ou, mieux encore, le paradigme – d’« univers holographique » est justement né lorsque, grâce aux études de Bohm et de Pribram, la matière et l’esprit ont pu être unifiés en un seul hologramme. Cette nouvelle vision à la fois fascinante et bouleversante de la réalité, née de la synthèse de la pensée de Bohm et de Pribram, est en train d’avoir une influence grandissante sur des scientifiques de différents domaines – qu’ils fassent partie du monde des sciences exactes ou de celui des sciences biologiques ou cognitives – à tel point que le paradigme holographique est désormais gravé dans l’imaginaire collectif, grâce aussi à des auteurs de divulgation, qui ont su saisir le cœur de la question comme l’Américain Michael Talbot, et à des films récents comme Que sait-on vraiment de la réalité ? qui a remporté un énorme succès chez nos amis anglo-saxons, mais qui s’est heurté à une indifférence quasi totale chez nous.

Pribram se convainquit de la nature holographique de l’univers lorsqu’il s’aperçut que les théories actuelles sur le fonctionnement du cerveau n’étaient pas en mesure d’expliquer où siège effectivement la mémoire. Il réalisa bien vite qu’elle ne réside ni dans les neurones ni dans le cerveau. Selon Pribram, le cerveau ne serait qu’un outil, en tout point identique à une pellicule holographique, capable d’extraire de l’information à travers les impulsions nerveuses qui se croisent justement dans le cerveau, de la même façon que les dessins d’interférence de lumière laser se croisent sur la surface d’une pellicule contenant une image holographique. En résumé, selon Pribram, le cerveau serait un hologramme, qui s’activerait une fois qu’il est « illuminé » par des faisceaux de fréquence différente provenant de l’extérieur. Ce modèle explique aussi comment le cerveau est en mesure de traduire l’avalanche de fréquences qu’il reçoit à travers les cinq sens, provenant du monde concret de nos perceptions. En effet, la tâche d’un hologramme consiste justement à coder et à décoder les fréquences les plus disparates. Un hologramme cérébral fonctionnerait un peu comme une « lentille » capable de convertir mathématiquement – en utilisant la « transformée de Fourier » 20 – les fréquences qu’elle reçoit à travers les sens dans le monde interne de nos perceptions, en transformant cette avalanche d’informations apparemment sans aucune signification en une image cohérente. Un hologramme est donc le système le plus efficace pour emmagasiner de l’information. Par exemple, dans un hologramme réel, en changeant simplement l’angle avec lequel les deux faisceaux laser frappent un morceau de pellicule holographique, il est possible d’enregistrer de nombreuses images différentes sur la même surface et il a été démontré qu’un seul centimètre cube de pellicule (holographique) peut contenir jusqu’à 10 milliards de bits. Le cerveau, avec les impulsions nerveuses qu’il produit, ne serait donc qu’un intermédiaire pour obtenir de l’information provenant d’ailleurs, notamment d’une « région » qui se trouve au-delà de l’espace et du temps, capable de recevoir et de transmettre de l’information de façon non locale. Dans le cas spécifique de l’hologramme, chaque fragment d’information semble instantanément lié à tous les autres. Si une portion donnée de pellicule holographique peut contenir toute l’information nécessaire pour créer une image complète, alors il paraît probable que chaque partie du cerveau contienne tout le bagage informatif nécessaire pour reconstruire un souvenir complet : en résumé, il s’agirait là de la base physique de la mémoire. Plus précisément, en 1991, Pribram avait suggéré que les images perceptives que nous recevons étaient représentées par un « hologramme neural », créé par un mécanisme non local de résonance qui aurait lieu dans la région des dendrites.21 Nous l’appelons « résonance » parce qu’il s’agit en effet de transfert d’énergie entre formes semblables qui vibrent à la même énergie. On rencontre normalement le phénomène classique de la résonance dans les domaines de l’acoustique et de l’électromagnétisme, mais dans le domaine holographique, il possède des caractéristiques purement non locales.

Ce serait donc un stimulus sensoriel qui induirait la résonance dans cette région, jusqu’à produire des changements physiques dans les structures dendritiques cérébrales d’une façon tout à fait identique au mécanisme d’un faisceau de lumière laser qui frappe la pellicule d’un hologramme optique : la véritable figure holographique serait ainsi produite et visualisée. Toutes ces formes de résonance, que Pribram appelle « holopaysage », fourniraient les bases de la mémoire, laquelle ne serait pas localisée dans des secteurs particuliers du cerveau, mais diffuse dans chacune de ses parties. Comme le commente fort à propos le chercheur italien Riccardo Tristano Tuis, un holopaysage se forme donc entre les choses que nous observons et nos neurones. Le mécanisme fonctionne de telle façon qu’ensuite ces groupes de neurones envoient à un autre groupe de neurones l’information relative aux fréquences dont sont faites les choses que nous avons enregistrées à travers nos sens. Le second groupe de neurones effectue une transformée de Fourier de ces fréquences, qui est ensuite envoyée à un troisième groupe de neurones, lequel à son tour utilise le fruit de la reformulation mathématique de ces fréquences pour créer une espèce de schémaimage, en superposant aux fréquences observées une image-symbole. Nous obtenons alors un faisceau de fréquences spécifiques qui, grâce au travail synergique des trois groupes de neurones, se transforme en un objet tridimensionnel avec sa propre signification. Ce n’est autre qu’un hologramme : ce sont les objets et les personnes que nous voyons à tout moment autour de nous.

L’hologramme cérébral contient sous tous ses aspects une forme globale d’intrication. Mais comme le dit Michael Talbot, si l’aspect concret que nous percevons du monde n’est qu’une réalité secondaire (même si évidente et manifeste), alors que la réalité primaire – celle dont provient l’information non locale et sous forme holographique – est de fait une représentation confuse de fréquences et d’ondes électromagnétiques qui se croisent en des figures d’interférence, et si le cerveau est lui aussi un hologramme ne sélectionnant que certaines de ces fréquences parmi l’avalanche de fréquences qu’il reçoit pour les transformer mathématiquement en perceptions sensorielles, alors que reste-t-il de la « réalité objective » ? Celle-ci cesse d’exister ! Parce qu’à la fin, la réalité matérielle (ou le monde expliqué, pour reprendre les termes de la théorie de Bohm) n’est qu’une illusion ou une réalité virtuelle créée par un monde abstrait. Nous vivrions dans une espèce de matrice, très semblable au film éponyme Matrix réalisé en 1999. Citons à ce sujet les mots de Talbot, qui avait analysé avec une grande finesse les similitudes entre la théorie de Bohm et celle de Pribram :

Considérées ensemble, les théories de Bohm et de Pribram sont une façon profondément nouvelle de regarder le monde : nos cerveaux construisent mathématiquement la réalité objective en interprétant les fréquences qui ne sont autres que des projections d’une autre dimension, un ordre plus profond de l’existence qui réside au-delà de l'espace et du temps. Le cerveau est un hologramme enveloppé dans un univers holographique.

Récemment, le concept d’univers holographique a également connu un développement, même si de nature spéculative seulement, dans le domaine de la cosmologie. En unissant l’existence possible d’un « multivers » – constitué par de nombreux univers parallèles – à une conception holographique, des astronomes comme le Britannique Martin Rees et des physiciens épistémologues comme le célèbre écrivain australien Paul Davies, ont réfléchi sur la façon dont l’univers semble avoir été conçu. Tous considèrent que l’univers semble avoir été créé de façon non fortuite, mais intelligente, et expressément construit non pas par le hasard, mais en fonction de la vie intelligente qui s’y niche. Il semble que quelque chose derrière les coulisses du cosmos conspire afin de faire émerger la vie et l’intelligence. En réfléchissant sur tout ceci est née l’hypothèse que l’univers lui-même est une gigantesque simulation. La théorie du multivers prévoit en particulier que notre univers ne soit qu’une partie infinitésimale d’un système cosmique beaucoup plus grand et élaboré où notre région, notre univers, ne représenterait qu’une unique boule d’espace au milieu d’un nombre incalculable d’autres bulles, ou univers-îles, éparpillés dans un immense océan d’espace. Cette hypothèse est d’ailleurs envisagée par les versions les plus récentes de la théorie du big-bang, qui au début aurait créé un nombre d’univers initialement intriqués, dont les horizons se seraient ensuite séparés tout de suite après l’inflation cosmique (la grande expansion qui aurait donné naissance à l’espace et au temps). Une partie de ces univers parallèles pourrait contenir des civilisations extrêmement avancées en mesure de maîtriser une technologie capable de créer des formes de conscience artificielle, en utilisant le calcul quantique à des niveaux très avancés. Une technologie de ce genre pourrait avoir permis la création de machines capables de simuler des « mondes virtuels » et les créatures qui y vivent. Nous-mêmes – êtres de la Terre – pourrions être le résultat d’une simulation créée par des « super-intelligences ». Cette simulation pourrait expliquer la conception holographique telle qu’elle a émergé de la pensée de Bohm et de Pribram en particulier. Martin Rees se demande même si l’univers physique ne serait pas qu’un pur et simple exercice de réalité virtuelle conçu par des êtres supérieurs. Dans ce cas, nous vivrions dans une matrice plutôt que dans un monde réellement physique. Nous serions les victimes d’une illusion, comme si nous étions les acteurs d’un film qui, à un certain moment, se sont tellement identifiés à leur personnage qu’ils finissent par ne faire qu’un avec lui. Que se passerait-il si nous nous apercevions que nous sommes le fruit d’une simulation ? Que feraient les créateurs de notre virtualité ? Éteindraient-ils l’écran holographique qui nous représente ou le changeraient-ils pour ne pas être découverts ?

Image

Figure 2. Quatre des plus grands esprits qui ont étudié la non-localisation. De gauche à droite : David Bohm, Basil Hiley, Alain Aspect et Karl Pribram.

Comme nous pouvons le voir, l’idée de faire partie d’un univers holographique soulève indubitablement toute une série d’interrogations, parfois très troublantes, qui nous conduisent inévitablement à nous demander qui nous sommes exactement et en quoi consiste la nature de Dieu.

Indépendamment des spéculations, et comme nous le verrons bientôt, il semble toutefois que certaines données expérimentales de nature purement biophysique soient en mesure de confirmer que la structure intime de notre corps fonctionne vraiment de manière holographique et grâce à de très sophistiqués mécanismes d’intrication.