Scotomes : l’oubli et la négligence en science
Il peut nous arriver de porter un regard rétrospectif ou prospectif sur l’histoire des idées : il est ainsi possible de retracer les étapes précédentes, les prémices et les anticipations de ce qu’on pense de nos jours ; à moins que l’on ne préfère se concentrer sur l’évolution pour cerner les effets et les influences de ce qu’on pensait autrefois. Dans un cas comme dans l’autre, nous sommes enclins à imaginer que l’histoire qui nous sera révélée constituera un continuum, une avancée ou une ouverture comparables à l’arbre de vie de Darwin, même s’il s’avère le plus souvent qu’elle est très loin de ressembler à un majestueux panorama sans solution de continuité, quel que soit le sens que l’on donne à cette expression.
J’ai commencé à comprendre à quel point l’histoire de la science peut être insaisissable lorsque je me suis intéressé à la chimie, mon premier amour. Je me souviens très clairement d’avoir appris dès l’enfance en lisant une histoire de cette discipline écrite par F. P. Armitage que John Mayow avait failli découvrir le gaz aujourd’hui nommé « oxygène » dès les années 1670, soit un siècle avant que Scheele et Priestley ne l’eussent identifié. Bien que des expérimentations minutieuses aient permis à Mayow de démontrer qu’un cinquième environ de l’air que nous inhalons consiste en une substance nécessaire à la fois à la combustion et à la respiration (il l’appela « esprit nitreux-aérien »), ses écrits prescients et si lus en son temps sombrèrent plus ou moins dans l’oubli et l’obscurité sitôt que surgit la théorie rivale du phlogistique1, laquelle prévalut de la fin du XVIIe siècle jusqu’à ces années 1780 où Lavoisier finit par la réfuter. Mayow était mort en 1679 à l’âge de trente-neuf ans : « S’il avait vécu un peu plus longtemps, écrivit à son endroit Armitage, il ne fait guère de doute qu’il aurait devancé l’œuvre révolutionnaire de Lavoisier en étouffant dans l’œuf la théorie du phlogistique. » Cet éloge de John Mayow tenait-il à l’exaltation romantique d’Armitage, attestait-il que le romantisme de cet historien lui avait interdit d’appréhender la structure de l’entreprise scientifique, ou bien l’histoire de la chimie aurait-elle pu être totalement différente, comme Armitage le laissait entendre2 ?
Je sais depuis le début de ma carrière de neurologue que ces genres d’oubli ou de négligence ne sont pas rares en science : je l’ai constaté dès 1966 dans le centre antimigraineux du Bronx où j’ai travaillé après m’être installé à New York. Il m’incombait d’établir un diagnostic (de migraine, de céphalée de tension ou d’autre chose encore) puis de prescrire un traitement, mais je ne pouvais pas me contenter de jouer le rôle qui m’était imparti, pas plus que mes patients ne se bornaient toujours à se conduire comme on s’y serait attendu : ils évoquaient fréquemment, ou j’observais moi-même, d’autres phénomènes tantôt stressants, tantôt fascinants, qui, à strictement parler, ne faisaient pas partie de leur tableau clinique – ou qu’il n’était du moins pas indispensable de connaître pour diagnostiquer quoi que ce soit.
La migraine visuelle classique débute souvent par une aura, épisode durant lequel mes patients me disaient voir des zigzags très scintillants qui traversaient lentement leur champ visuel. Si tout cela était bien décrit et convenablement compris, d’autres migraineux m’apprenaient plus rarement que des motifs géométriques complexes remplaçaient ces zigzags ou s’y ajoutaient : des treillis, des spires, des toiles d’araignée et des entonnoirs continuellement changeants, tournoyants et modulés. M’étonnant de ce qu’aucune de ces figures ne soit mentionnée dans les articles contemporains et sachant que les comptes rendus du XIXe siècle contenaient souvent des descriptions beaucoup plus complètes, hautes en couleur et riches que celles de leurs homologues modernes, je décidai de parcourir ces vieilles publications.
Je fis ma première découverte dans la section des livres rares (tout ce qui avait été écrit avant 1900 était dit « rare ») de notre bibliothèque universitaire : c’est là que je trouvai le superbe traité, intitulé On Megrim, Sick-Headache, and Some Allied Disorders : A Contribution to the Pathology of Nerve-Storms [Sur la migraine, le mal de tête et quelques troubles associés : Contribution à la pathologie des orages nerveux], que le médecin victorien Edward Liveing avait rédigé dans les années 1860. Même si ce volumineux ouvrage, au titre si merveilleusement long et au plan si méandreux (il avait été manifestement publié à une époque plus paisible que la nôtre et soumise à des contraintes moins rigides que celles qui pèsent sur nous), ne traitait que brièvement des motifs géométriques complexes que tant de mes patients me décrivaient, il renvoyait aux recherches de l’éminent astronome John Frederick Herschel, auteur en 1858 d’un article intitulé « On Sensorial Vision ». Je viens enfin de toucher le gros lot, songeai-je lisant cet article, car non seulement Herschel avait dépeint par le menu des phénomènes exactement similaires à ceux dont mes patients me parlaient et l’avait fait après les avoir observés au cours de ses propres auras migraineuses, mais il osait même se livrer à de profondes spéculations relatives à leur nature et à leur origine : il supposait que notre sensorium les engendre grâce à « une sorte d’aptitude kaléidoscopique » ou de faculté mentale primitive et prépersonnelle remontant aux premiers stades de la perception, voire à ses précurseurs.
Je me rendis compte par la suite que ces « spectres géométriques », pour parler comme Herschel, ne furent jamais correctement décrits durant tout le siècle qui sépara ses observations des miennes – cela, alors que je savais qu’environ un cinquième des individus atteints de troubles visuels d’origine migraineuse les voient de temps à autre. Comment des phénomènes aussi étonnants, hautement caractéristiques et aisément reconnaissables que ces figures hallucinatoires avaient-ils pu si longtemps échapper à l’attention des chercheurs ?
En premier lieu, il faut que quelqu’un observe et fasse état de ce dont il a été témoin. En 1858, l’année même où Herschel dépeignit ses « spectres », le neurologue français Guillaume-Benjamin Duchenne publia une description détaillée des symptômes d’un enfant atteint de la maladie désignée de nos jours sous l’appellation de dystrophie musculaire3, article suivi un an plus tard de la présentation de treize autres cas : ses observations ayant été rapidement intégrées à la neurologie clinique en tant que pathologie de la plus haute importance, les médecins se mirent à « voir » tant de dystrophies partout que des vingtaines de descriptions de cas supplémentaires parurent dans la littérature médicale dès les années suivantes – bien que cette dégénérescence des fibres musculaires si facile à reconnaître eût toujours sévi, très peu de neurologues avaient signalé son existence omniprésente avant que Duchenne ne l’eût identifiée4 !
En revanche, l’article de Herschel traitant des motifs géométriques hallucinatoires sombra corps et biens, peut-être parce que les faits en question avaient été consignés par un simple observateur indépendant d’une grande curiosité plutôt que par un médecin. Quoique subodorant que ses constats étaient scientifiquement importants – les phénomènes concernés auraient pu révolutionner la connaissance du cerveau ! –, Herschel n’avait pas mis l’accent sur leur importance clinique, et son article avait paru non pas dans une revue médicale, mais dans un périodique scientifique s’adressant à un large public : puisque la migraine était le plus souvent définie comme un trouble « médical », on estima que les remarques de cet astronome n’étaient pas pertinentes, puis les médecins les oublièrent ou les ignorèrent après que Liveing y eut fait laconiquement allusion dans son livre. Ces observations étaient prématurées, en un sens : elles ne parvinrent pas à rénover les conceptions scientifiques du cerveau et de l’esprit parce qu’il n’était pas encore possible de relier ces deux entités dans les années 1850 – les concepts pour cela nécessaires seraient forgés plus d’un siècle plus tard, dans ces années 1970 et 1980 où la théorie du chaos fut élaborée.
Selon cette théorie du chaos, l’impossibilité de prévoir le comportement individuel de chaque composante d’un système dynamique complexe (des neurones isolés ou des groupes neuronaux du cortex visuel primaire, par exemple) n’interdit pas de discerner des schémas à un niveau supérieur pour peu qu’on recoure en même temps à des modèles mathématiques et à des analyses informatiques. Autrement dit, il existe bien des « comportements universels » qui reflètent les modalités d’auto-organisation de tous ces systèmes dynamiques non linéaires : ils ont tendance à former des structures spatio-temporelles à la fois complexes et réitératives, c’est-à-dire les genres mêmes de réseaux, de volutes, de spirales et de toiles d’araignée que les hallucinations géométriques de la migraine font apercevoir.
On sait aujourd’hui que des comportements chaotiques auto-organisateurs sont à l’œuvre dans toutes sortes de systèmes naturels, qu’ils consistent dans l’orbite excentrée de Pluton, les évolutions si remarquables de certaines réactions chimiques, la multiplication des myxomycètes ou les caprices climatiques. C’est pourquoi un phénomène auparavant tenu pour aussi indigne d’intérêt ou peu significatif que les motifs géométriques de l’aura migraineuse est soudain devenu si important : on a compris que les manifestations hallucinatoires dont ce type de migraine s’accompagne non seulement permettent de contempler une activité élémentaire du cortex cérébral, mais montrent en outre comment toutes les composantes d’un système auto-organisateur peuvent concourir à engendrer un comportement universel5.
*
* *
Pour ce qui est de la migraine, déjà, j’avais dû dépouiller une littérature médicale depuis longtemps oubliée que la plupart de mes confrères jugeaient dépassée, si ce n’est carrément obsolète, et il en alla de même pour le syndrome de Gilles de La Tourette. Ce qui m’amena à m’intéresser à ce syndrome, c’est la rapidité avec laquelle j’avais vu en 1969 tant de postencéphalitiques « éveillés » par la L-dopa sous laquelle je venais de les placer osciller entre la « normalité » désespérément brève qui s’était substituée à leur sorte d’immobilité transie et l’extrême opposé : beaucoup n’avaient pas tardé à être en proie à des tics violemment hyperkinésiques en tout point semblables à ceux qu’était censé induire ce tourettisme à demi mythique – j’emploie cet adjectif car on débattait fort peu de cette affection dans les années 1960 : on la tenait alors pour extrêmement rare, voire pour imaginaire, et je n’en avais moi-même que vaguement entendu parler.
Le fait est que, quand je commençai à réfléchir à cette question en 1969 pour mieux cerner les symptômes de plus en plus tourettiques de mes propres patients, je découvris si peu d’ouvrages de référence contemporains que je dus une fois encore consulter les écrits médicaux du siècle précédent : les premiers articles que Georges Gilles de La Tourette avait rédigés en 1885 et 1886, ainsi que la douzaine environ de comptes rendus qui les avaient suivis ; je pus ajouter à ces lectures Les Tics et leur traitement6 d’Henry Meige et Eugène Feindel, point culminant de ces décennies génératrices de tant de superbes descriptions, françaises surtout, des diverses catégories de tics nerveux, mais cette liste cessa ensuite de grossir – le syndrome tourettique en tant que tel semblait avoir presque disparu entre 1907, année où sortit des presses la traduction anglaise de cet ouvrage publié en 1902, et 1970 !
Pourquoi ? Force est d’envisager la possibilité que cette négligence se soit instaurée sous la pression croissante des tentatives d’explication scientifique qui, à partir du début du XXe siècle, ont succédé aux descriptions somme toute assez simples à établir de la période précédente. Cette pression fut en effet d’autant plus insupportable que le syndrome de Gilles de La Tourette est particulièrement difficile à expliquer dans ses formes les plus complexes : il se manifeste dans ce cas non seulement par des mouvements convulsifs et des bruits, mais aussi par des compulsions, des obsessions et des tics doublés d’une propension à faire des blagues et des calembours, à transgresser facétieusement les frontières, à se livrer à des provocations sociales et à nourrir des fantasmes compliqués.
Même si elles ont jeté un éclairage utile sur plusieurs de ces phénomènes, les interprétations psychanalytiques de ce syndrome se sont révélées incapables d’en expliquer d’autres, cet échec attestant que les composantes organiques ne sauraient être ignorées : dès qu’on s’aperçut en 1960 que l’administration régulière d’halopéridol (neuroleptique contrant les effets de la dopamine) à des tourettiens parvenait parfois à prévenir l’apparition de nombre de manifestations de leur syndrome, on postula que le tourettisme serait pour l’essentiel une maladie chimique due ou bien à un excès de dopamine, ou bien à une hypersensibilité à ce neurotransmetteur, hypothèse beaucoup plus commode que celles avancées par les psychanalystes.
Il a suffi que l’on s’en remette à cette confortable explication réductionniste pour que ce syndrome non seulement revienne tout à coup sur le devant de la scène, mais voie son incidence se multiplier par mille. (Une personne sur cent pourrait en être atteinte !) Mais, si intense soit-elle de nos jours, il n’en reste pas moins que l’étude actuelle du syndrome de Gilles de La Tourette porte surtout sur ses aspects moléculaires et génétiques ; et, bien que ces aspects expliquent une part de l’excitabilité généralisée des tourettiens, ils n’éclairent guère les formes particulières de la tendance tourettique à jouer la comédie, à fantasmer, à imiter, à se moquer, à rêver, à s’exhiber, à provoquer et à jouer. On a beau être passé d’une ère de pure description à un temps d’investigation et d’explication actives, le tourettisme proprement dit a été si fragmenté de ce fait même qu’on a cessé de le tenir pour un tout indivisible.
Cette sorte de fragmentation est peut-être typique d’un certain stade de la science – de celui qui a succédé à la pure description, en l’occurrence. Mais, de quelque façon qu’on s’y prenne et à quelque moment qu’on s’y emploie, on ne saurait se dispenser pour autant de rassembler ces fragments pour les présenter une fois de plus comme un tout cohérent, ce qui impose de comprendre des déterminants de tout niveau (neurophysiologiques, psychologiques et sociologiques) ainsi que leur interaction aussi continue que complexe7.
*
* *
En 1974, après avoir observé pendant quinze ans en tant que médecin les troubles neurologiques d’un grand nombre de malades, je vécus moi-même une expérience neuropsychologique : m’étant grièvement blessé en chutant sur la pente glissante d’une lointaine montagne norvégienne, je dus à la fois me faire opérer pour qu’on répare les tendons du quadriceps de ma jambe gauche et attendre ensuite que mes nerfs guérissent. Pendant les deux semaines postérieures à cette opération durant lesquelles cette jambe désormais inerte et insensible fut emprisonnée dans un plâtre, ce membre me parut s’être transformé en un objet inanimé si incroyablement étranger que j’avais l’impression qu’il ne m’appartenait plus réellement, mais le chirurgien auquel je tentai d’expliquer ce que j’éprouvais ne trouva rien d’autre à me dire que : « Sacks, vous êtes unique ; avant de vous connaître, je n’avais encore rien entendu de tel venant d’un patient8 ! »
Absurde ! pensai-je. Comment aurais-je pu être « unique » ? Il y avait forcément d’autres cas de ce genre, même si ce chirurgien n’en avait jamais entendu parler, et, dès que la récupération d’un minimum de mobilité me permit de m’entretenir avec les autres pensionnaires de mon hôpital, j’appris effectivement que beaucoup avaient eu comme moi la sensation qu’un de leurs membres leur était devenu « étranger » – certains avaient trouvé cette expérience si bizarre et si effrayante qu’ils s’étaient efforcés de la chasser de leur esprit, d’autres s’inquiétant en secret sans tenter d’exprimer ce qu’ils ressentaient.
Une fois sorti de l’hôpital, je me rendis dans une bibliothèque pour y lire tout ce qui avait trait à ce thème, mais, cherchant d’abord en vain, ce ne fut que trois ans plus tard que je découvris l’existence des Injuries of Nerves and Their Consequences9 de Silas Weir Mitchell, neurologue américain qui avait exercé durant la guerre de Sécession dans un établissement militaire de Philadelphie baptisé « Hôpital des Moignons » : en plus d’établir une description exhaustive des « membres fantômes » (qu’il appelait « fantômes sensoriels ») que les soldats amputés percevaient à la place de leurs jambes ou de leurs bras perdus, cet auteur avait parlé de surcroît des « fantômes négatifs », c’est-à-dire de l’annihilation et de l’aliénation subjectives des membres antérieurs ou inférieurs qui peuvent faire suite à l’opération d’une grave blessure – ces phénomènes l’avaient tant frappé qu’il avait rédigé à leur propos une circulaire diffusée en 1864 par le Surgeon General Office des États-Unis.
On s’était brièvement intéressé au témoignage de Mitchell, après quoi il était passé à la trappe : plus de cinquante ans s’écoulèrent avant que les milliers de nouveaux cas de traumatismes neurologiques traités au cours de la Première Guerre mondiale eussent fait redécouvrir le syndrome en question. En 1917, le neurologue français Joseph Babinski cosigna avec Jules Froment une monographie10 dans laquelle, sans paraître connaître le compte rendu de Mitchell, il évoqua un syndrome identique à celui que ma propre blessure à la jambe avait induit, mais, comme ceux de Weir Mitchell, ses constats furent jetés aux oubliettes sans laisser la moindre trace. (Lorsque, en 1975, je finis par dénicher ce texte de Babinski dans notre bibliothèque, je remarquai avec surprise que j’étais le premier à l’emprunter depuis 1918 !) Puis les deux neurologues soviétiques Aleksej N. Leont’ev et Alexander V. Zaporozhets décrivirent intégralement ce syndrome pour la troisième fois pendant la Seconde Guerre mondiale dans leur formidable ouvrage intitulé Vosstanovlenie dvizheniia, mais, même après que ce texte eut été traduit en anglais en 1960 sous le titre Rehabilitation of Hand Function, ni les neurologues ni les spécialistes de la rééducation ne tinrent compte de leurs observations11.
Les travaux de Weir Mitchell, de Babinski, de Leont’ev et de Zaporozhets avaient été engloutis par un scotome historique et culturel, exactement comme s’ils avaient été précipités dans l’un des « trous de mémoire12 » d’Orwell !
Sitôt que j’eus réuni les bribes éparses de cette histoire incroyable, si ce n’est extravagante, je compris mieux pourquoi mon chirurgien m’avait dit n’avoir jamais entendu parler de symptômes comparables aux miens. Ce syndrome n’est pas rarissime : il se déclare chaque fois que l’immobilité ou la détérioration d’un nerf altère massivement la proprioception et d’autres sortes de rétroactions sensorielles. Alors, pourquoi est-il si difficile de mentionner son existence ? Qu’est-ce qui interdit de lui rendre la place qu’il mérite dans le savoir et la conscience neurologiques ?
Quand il est employé par un neurologue, le vocable « scotome » (du grec scotôma, qui signifie « obscurcissement ») désigne une déconnexion ou un hiatus perceptuel : une lacune de la conscience engendrée par une lésion neurologique, en substance. Que le niveau lésé soit celui des nerfs périphériques, comme dans mon propre cas, ou des aires sensorielles du cortex cérébral, les patients en proie à un scotome de ce type ont le plus grand mal à faire part de ce qui leur arrive : ils scotomisent eux-mêmes cette expérience parce que le membre affecté ne fait plus partie de leur image corporelle intérieure. Ayant constaté que ces scotomes sont inimaginables, au sens le plus littéral du terme, si l’on n’en fait pas réellement l’expérience, j’ai suggéré en ne plaisantant qu’à moitié de lire Sur une jambe sous anesthésie rachidienne afin de pouvoir comprendre ce que j’avais décrit en l’éprouvant dans sa chair13.
*
* *
Passons maintenant de ce domaine si mystérieux des membres étrangers à un phénomène plus positif, quoique toujours étrangement négligé et scotomisé : celui de l’achromatopsie cérébrale acquise, c’est-à-dire de la cécité totale aux couleurs consécutive à une lésion ou à un traumatisme cérébraux (pathologie qui diffère totalement de la plus banale cécité aux couleurs due au dysfonctionnement d’un au moins des récepteurs rétiniens de la couleur). Je choisis cet exemple car je l’ai exploré en détail après avoir découvert son existence tout à fait par hasard en lisant la lettre d’un peintre atteint de cette affection14.
Lorsque je me suis plongé dans l’histoire de l’achromatopsie, j’ai été confronté de nouveau à une lacune ou à un anachronisme remarquables. L’achromatopsie cérébrale acquise (et même, plus spectaculairement encore, l’hémi-achromatopsie, perte de la perception colorée dans une moitié seulement du champ visuel qu’une attaque peut soudain provoquer) avait été décrite d’une manière exemplaire en 1888 par le neurologue suisse Louis Verrey : en autopsiant l’une de ses patientes qui s’était mise à voir tout en gris dans son hémichamp visuel droit après avoir eu une attaque d’apoplexie, il avait réussi à localiser exactement l’aire du cortex visuel que cette hémorragie cérébrale avait endommagée15. C’est dans cette région, prédit-il, que « le centre de la sensation chromatique » devrait être découvert, et d’autres observations aussi soigneuses de problèmes similaires de perception des couleurs et des lésions qui les avaient causés furent publiées dans les années 1890 ; l’achromatopsie et son soubassement neuronal auraient donc pu sembler définitivement reconnus, mais la littérature médicale se réfugia ensuite dans un curieux silence – aucune des très rares descriptions de cas comparables qui parurent au cours des soixante-quinze années suivantes ne fut aussi complète que celle de Verrey.
Antonio Damasio puis Semir Zeki ont raconté tous les deux cette histoire en déployant beaucoup d’érudition et de perspicacité16 : pour Zeki, les conclusions de Verrey avaient été si vigoureusement niées et rejetées dès leur publication que seule une attitude philosophique des plus profondes (et inconsciente, peut-être) pouvait être à l’origine de cette résistance : la croyance alors prévalente en la continuité de la vision.
Non seulement il paraissait naturel et intuitif de supposer, conformément à l’optique newtonienne et au sensationnisme de Locke, que le monde visuel constitue un datum ou une image dont la couleur, la forme, la profondeur et le mouvement sont complets d’emblée, mais l’invention de la chambre claire17 en 1806 puis de la photographie une trentaine d’années plus tard avait semblé venir à l’appui de cette conception mécanique de la perception. Pourquoi le cerveau se comporterait-il différemment ? La couleur, c’était évident, faisait partie intégrante d’une image visuelle dont elle ne devait pas être dissociée : partant du principe que l’hypothèse d’une perte isolée de la perception colorée ou d’un centre cérébral de la sensation chromatique était un non-sens, on en déduisit que Verrey s’était fourvoyé et qu’il fallait par conséquent balayer ces absurdités sans autre forme de procès – c’est ainsi que l’achromatopsie « disparut ».
D’autres facteurs jouèrent aussi, bien sûr. Damasio a expliqué pourquoi, quand il décrivit en 1902 dans un article deux cents cas d’atteintes du cortex visuel dues à des blessures de guerre, Gordon Holmes assura trop vite qu’aucune déficience isolée n’était repérable dans les couleurs perçues par ces blessés : ce personnage faisait tellement autorité dans le milieu neurologique et y détenait tant de pouvoir que son refus empiriquement fondé de la notion de centre cérébral de la couleur (il s’y opposa avec de plus en plus de force pendant plus de trente ans !) concourut puissamment à dissuader ses confrères de reconnaître l’existence du syndrome concerné.
Les fondements mêmes de l’assimilation de la perception à l’appréhension d’un « donné » globalement homogène finirent par vaciller lorsque, à la fin des années 1950 et au début des années 1960, David Hubel et Torsten Wiesel démontrèrent que certaines cellules du cortex visuel isolées ou organisées en colonnes fonctionnent comme des « détecteurs de traits » spécifiquement sensibles aux lignes horizontales, aux verticales, aux bordures, aux alignements ou à d’autres éléments du champ visuel : on commença alors à se dire que, parce que la vision a des composantes, les représentations visuelles ne sont « données » à aucun égard comme des images optiques ou des photographies, mais construites au contraire par la corrélation extraordinairement subtile de processus différents – la perception étant dorénavant définie comme l’interaction composite et modulaire d’une multitude de constituants, on comprit qu’elle est intégrée et homogénéisée par le cerveau.
On se rendit donc compte dès les années 1960 que la vision est un processus analytique qui dépend des sensibilités différentes d’un grand nombre de systèmes cérébraux et rétiniens, chacun réceptif à telle ou telle composante de la perception. C’est dans ce contexte désormais favorable à la reconnaissance et à l’intégration de ces divers sous-systèmes que Zeki a découvert des cellules spécifiquement sensibles à la longueur d’onde et à la couleur dans une aire du cortex visuel de singes anesthésiés très proche de celle où, quatre-vingt-cinq ans auparavant, Verrey avait localisé le « centre de la sensation chromatique » : il semblerait bien que cette découverte permit aux neurologues cliniciens de surmonter leur inhibition presque centenaire, puisque des dizaines de nouveaux cas d’achromatopsie furent décrits par la suite en quelques années à peine, ces publications conférant enfin une légitimité à cette affection neurologique.
La dépréciation puis la « disparition » précédentes de l’achromatopsie étaient-elles dues à ce biais conceptuel ? C’est ce qu’a confirmé l’histoire totalement dissemblable de la cécité centrale au mouvement, pathologie encore plus rare que Josef Zihl et ses collaborateurs ont décrite en 1983 chez une seule patiente18 : quoique capable de voir les êtres humains et les véhicules quand ils étaient immobiles, la femme concernée perdait toute conscience de leur présence dès qu’ils commençaient à bouger – ils réapparaissaient ailleurs un peu plus tard, immobiles. Ce cas, a commenté Zeki, « fut instantanément accepté par le milieu neurologique […] et neurobiologique, sans murmure ni contestation, […] contrairement à l’histoire plus turbulente de l’achromatopsie ». Cette différence ô combien frappante tenait au profond changement de climat intellectuel qui venait de se produire : parce qu’on savait depuis le début des années 1970 qu’une aire spécialisée du cortex préstrié des singes contient des cellules sensibles au mouvement, la notion de spécialisation fonctionnelle avait été pleinement acceptée dès cette décennie et il n’y avait par conséquent plus de raison conceptuelle de rejeter les constatations de Zihl – tout au contraire, on accueillit avec ravissement ces superbes matériaux cliniques si conformes à cette nouvelle orientation.
Comme Wolfgang Köhler l’avait remarqué dans le premier article, intitulé « Über unbemerkte Empfindungen und Urteilstaüschungen » [« Sur les sensations inaperçues et les erreurs de jugement »] qu’il avait rédigé en 1913 avant de devenir l’un des fondateurs de la psychologie de la forme, il est toujours capital de s’intéresser aux exceptions – et de ne pas les oublier ni les écarter en méprisant leur prétendue trivialité. Tout en traitant dans ce texte des simplifications et des systématisations scientifiques (psychologiques, en particulier) prématurées qui risquent d’ossifier la science au point de brider sa croissance vitale, ce psychologue affirma que « [c]haque discipline dispose d’une sorte de mansarde dans laquelle tout ce qui est inutilisable sur le moment et ne s’insère dans aucun modèle est presque automatiquement remisé » : « Les tonnes de matériaux précieux que nous mettons constamment de côté sans en faire bon usage, ajouta-t-il, […] [finissent par] entraver le progrès scientifique19 ».
Köhler avait écrit ces lignes à une époque où les illusions visuelles étaient tenues pour des « erreurs de jugement » – pour des manifestations triviales qui n’avaient rien à voir avec les fonctionnements du cerveau-esprit. Mais il n’avait pas tardé à montrer qu’il n’en allait pas du tout de la sorte, ces illusions attestant au contraire très clairement que, loin de se contenter de « dépouiller » passivement des stimuli sensoriels, la perception crée activement de vastes configurations ou Gestalts qui organisent tout le champ perceptuel. Même si ces idées sont désormais au cœur de notre conception actuelle du cerveau comme un système dynamique et constructif, il fut nécessaire au préalable de repérer une « anomalie » – un phénomène qui contredisait le cadre de référence accepté – puis de lui prêter suffisamment d’attention pour que ce cadre pût être radicalement élargi.
*
* *
Les exemples que je viens de passer en revue nous enseignent-ils quoi que ce soit ? Je crois que oui ! Évoquant d’abord le concept de prématurité, on pourrait se rappeler que, au XIXe siècle, les observations de Herschel, Weir Mitchell, Gilles de La Tourette et Verrey devancèrent tellement les conceptions de cette époque que leurs contemporains les rejetèrent. « Une découverte est prématurée si aucune série d’étapes simples et logiques ne permet d’associer ses implications à un savoir canonique ou majoritairement admis », écrivit Gunther Stent en 1972 à propos de la « prématurité » des découvertes scientifiques : il traita de ce sujet en se penchant sur l’exemple classique de Gregor Mendel, moine dont les expériences afférentes à la génétique des plantes étaient très en avance sur leur temps, aussi bien que sur le cas moins connu mais fascinant d’Oswald Avery, médecin qui découvrit l’ADN dès 1944 – découverte d’autant plus occultée sur le moment que personne ne pouvait encore mesurer à quel point elle était importante20.
Si Stent avait été généticien plutôt que biologiste moléculaire, il aurait pu se souvenir de l’histoire de Barbara McClintock, cytogénéticienne pionnière, dont la théorie des « gènes sauteurs21 » parut presque inintelligible à ses contemporains des années 1940. Lorsque, trente ans après, cette notion commença à être avalisée par la biologie, on reconnut tardivement que McClintock avait jeté un éclairage fondamental sur l’expression des informations génétiques.
Si Stent avait été géologue, il aurait pu donner un autre fameux (ou infâme) exemple de prématurité : celui de la théorie de la dérive des continents élaborée en 1915 par Alfred Wegener, climatologue dont les idées furent oubliées et raillées pendant plus de quatre décennies avant que la validation de la tectonique des plaques eût fini par les faire redécouvrir.
Si Stent avait été mathématicien, il aurait pu citer un exemple de « prématurité » encore plus surprenant : celui du calcul infinitésimal, qu’Archimède inventa deux mille ans avant que Newton et Leibniz ne le découvrent de nouveau.
Et s’il avait été astronome, il aurait pu parler non seulement d’un oubli, mais même d’une régression qui influa considérablement sur l’histoire de l’astronomie : cinq cents ans après qu’Aristarque eut brossé dès le troisième siècle avant notre ère un tableau nettement héliocentrique du système solaire qui fut bien compris et accepté par les Grecs (ce fut aussi l’hypothèse d’Archimède, d’Hipparque et d’Ératosthène), Ptolémée mit tout sens dessus dessous en proposant une théorie géocentrique d’une complexité presque babylonienne puis ces ténèbres ptoléméennes ne se dissipèrent que mille quatre cents ans plus tard, quand Copernic remit la théorie héliocentrique en vigueur.
Le scotome, phénomène étonnamment commun à toutes les disciplines scientifiques, renvoie à plus qu’à de la prématurité : il procède d’une perte de connaissances ou de l’oubli de découvertes qui paraissaient autrefois incontestables, ainsi, parfois, que d’un retour régressif à des explications moins pénétrantes. Pourquoi une observation ou une idée neuves sont-elles tenues pour dignes d’être acceptées, discutées et mémorisées ? Qu’est-ce qui les empêche d’être regardées comme telles, si évidentes que soient leur importance ou leur valeur ?
Freud aurait répondu à cette question en insistant sur la force de la résistance : il aurait certainement remarqué qu’aucune nouvelle idée profondément menaçante ou répugnante ne saurait devenir pleinement consciente. Si exact soit-il le plus souvent, ce point de vue réduit tout à la psychodynamique et à la motivation, conception insuffisante même en psychiatrie.
Il ne suffit pas d’appréhender ou de « saisir » quelque chose en un rien de temps : l’intellect ne retiendra cette nouveauté que s’il parvient à s’y accommoder. Il faut déjà franchir une première barrière pour s’autoriser à accueillir de nouvelles idées en se créant un espace mental où les ranger et en forgeant une catégorie à laquelle elles seront susceptibles d’être associées – c’est à cette condition seulement que ces idées pourront ensuite s’ancrer assez durablement et solidement dans la conscience pour revêtir une forme conceptuelle qui survivra même si elle va à l’encontre de croyances, de catégories ou de notions déjà existantes.
Selon que ce processus d’accommodation ou de création d’un espace mental aura été accompli ou non, il sera possible de déterminer si une idée ou une découverte perdurera et portera des fruits, ou si elle finira à l’inverse par être oubliée, par s’estomper puis par mourir sans descendance.
*
* *
Les découvertes ou les idées dont il vient d’être question étaient si prématurées que la quasi-impossibilité de les rattacher à quoi que ce soit ou de les inscrire dans un contexte les rendit inintelligibles ou incita à les ignorer sur le moment, alors même que d’autres idées furent au contraire passionnément sinon férocement contestées en raison de l’affrontement souvent brutal que la science nécessite. Force est de constater en effet que l’histoire de la science ou de la médecine s’est largement coulée dans le moule des rivalités intellectuelles qui contraignent les chercheurs à se confronter à la fois à des anomalies et à des idéologies bien arrêtées : quand elle prend la forme de débats et de tests francs et ouverts, cette compétition est essentielle au progrès scientifique22 – elle participe de la science « propre » parce que la concurrence amicale ou collégiale encourage à mieux comprendre ; mais il existe également une science « sale » dans laquelle l’esprit de compétition et les rivalités personnelles deviennent un obstacle pernicieux.
Si un aspect de la science implique d’entrer en compétition et de rivaliser, un autre, souvent tout à fait fondamental, tient aux méprises épistémologiques et aux schismes qu’elle occasionne. Edward O. Wilson a précisé dans son autobiographie intitulée Naturaliste que, aux yeux de James Watson, les recherches précédentes qu’il avait effectuées dans le domaine de l’entomologie et de la taxonomie n’étaient rien d’autre qu’une « œuvre de collectionneurs de timbres, incapables de faire entrer leur discipline dans la modernité23 » : cette attitude dédaigneuse fut presque commune à tous les biologistes moléculaires des années 1960. (L’écologie, de même, ne se vit guère conférer le statut de science « véritable » à cette époque, et elle continue à être tenue pour une discipline beaucoup plus « molle » que la biologie moléculaire, par exemple – cet état d’esprit n’a commencé à changer que depuis peu.)
Darwin fit souvent valoir qu’on ne saurait être un bon observateur sans être un théoricien actif – « c’était comme s’il était chargé d’une puissance théorisante prête à se ruer dans n’importe quelle ouverture à la moindre perturbation, de sorte qu’aucun fait, aussi minime soit-il, ne pouvait éviter de déclencher un flot de théorie, prenant ainsi beaucoup d’importance24 », écrivit son fils Francis. Mais la théorie peut être également la plus grande ennemie de l’observation et de la pensée honnêtes, notamment quand elle se rigidifie au point de devenir un dogme ou un présupposé informulés, si ce n’est inconscients.
L’ébranlement des croyances et des théories dominantes peut être un processus très pénible, voire terrifiant – d’autant plus douloureux que des théorisations parfois soumises à la force de l’idéologie et de l’illusion alimentent consciemment ou inconsciemment notre vie mentale.
À l’extrême, les discussions scientifiques risquent de menacer ou de détruire les systèmes de croyances de l’un ou l’autre des adversaires en présence aussi bien, peut-être, que les convictions de toute une culture. Dès qu’elle sortit des presses en 1858, L’Origine des espèces de Darwin suscita d’âpres débats entre les tenants de la science et ceux de la religion : en plus de la fameuse joute verbale qui opposa Thomas Huxley et l’évêque Samuel Wilberforce à Oxford en 1860, elle incita Agassiz à mener un farouche mais pathétique combat d’arrière-garde pour éviter que la théorie darwinienne n’anéantisse à la fois l’œuvre de sa vie et sa foi chrétienne – son angoisse de l’oblitération était si intense qu’il finit même par se rendre à son tour dans l’archipel des Galápagos dans l’espoir que la reproduction des expériences de Darwin lui permette de réfuter les conclusions de ce dernier25.
Philip Henry Gosse, grand naturaliste qui était aussi très croyant, fut si perturbé par la discussion de l’évolution par sélection naturelle qu’il décida de publier Omphalos, livre extraordinaire dans lequel il maintint que, ne correspondant à aucune créature passée, les fossiles avaient été simplement introduits dans les roches par le Créateur à seule fin de nous punir de notre curiosité – argument qui eut l’insigne honneur d’exaspérer autant les zoologistes que les théologiens.
Il m’est arrivé de m’étonner de ce que la théorie du chaos n’ait pas été découverte ou inventée par Newton ou Galilée, qui devaient parfaitement connaître les phénomènes quotidiens de turbulences et de remous qui se produisent constamment dans les baignoires et les éviers (et que Léonard de Vinci dessina à merveille). Peut-être préférèrent-ils ne pas réfléchir à leurs implications, pressentant plus ou moins qu’elles risquaient de violer l’ordonnancement rationnel et légitime de la Nature.
Henri Poincaré dut éprouver à peu près la même émotion lorsque, plus de deux siècles plus tard, il fut le premier physicien à explorer les conséquences mathématiques du chaos : « Ces choses-là, remarqua-t-il, sont trop bizarres pour que je supporte de les contempler. » Les profils chaotiques ont beau nous paraître splendides aujourd’hui – nous sommes au contraire ravis de découvrir une nouvelle dimension de la splendeur de la nature ! –, il est certain que tel ne fut pas l’avis de Poincaré à l’origine.
Au XXe siècle, le plus célèbre exemple de cette sorte de répugnance consiste bien entendu dans le violent dégoût que le caractère apparemment irrationnel de la mécanique quantique inspira à Einstein : en dépit de sa démonstration pionnière de l’existence des processus quantiques, il refusa d’envisager la possibilité que la physique quantique soit quoi que ce soit de plus qu’une représentation superficielle de processus naturels à laquelle une conception plus harmonieuse et ordonnée se substituerait pour peu que la compréhension scientifique s’approfondisse.
*
* *
La fortuité et l’inévitabilité à la fois sont souvent inhérentes aux grands progrès scientifiques. Si Watson et Crick n’avaient pas décrypté la double structure hélicoïdale de l’acide désoxyribonucléique en 1953, Linus Pauling l’aurait fait à coup sûr ou presque : la structure de l’ADN était en quelque sorte prête à être découverte, quand bien même l’auteur, les modalités et la date exacte de cet événement restaient imprévisibles.
Les réalisations les plus créatives tiennent non seulement aux dons d’hommes et de femmes extraordinaires, mais aussi à l’universalité et à l’ampleur des problèmes qu’on s’efforce de résoudre. Le XVIe siècle fut une période géniale non pas en raison du plus grand nombre de génies qui naquirent alors, mais parce que la compréhension des lois du monde physique plus ou moins pétrifiée depuis l’époque d’Aristote commença à rendre les armes au profit des intuitions de Galilée et d’autres savants qui croyaient que le langage de la Nature était mathématique ; au XVIIe siècle, de même, l’heure était venue d’inventer le calcul infinitésimal, tâche à laquelle Newton et Leibniz s’attelèrent presque simultanément, si différentes que fussent leurs démarches.
Au siècle d’Einstein, il est devenu de plus en plus évident que l’ancienne vision du monde issue de la mécanique newtonienne ne suffisait pas à expliquer des phénomènes tels que l’effet photoélectrique, le mouvement brownien et les modifications mécaniques qui se produisent à l’approche de la vitesse de la lumière, entre autres : elle ne pouvait que s’effondrer puis laisser un vide intellectuel plutôt effrayant avant qu’une conception radicalement novatrice ne finisse par voir le jour.
Il n’en reste pas moins qu’Einstein veilla également à préciser que, loin d’invalider ou de supplanter celle qui l’a précédée, toute nouvelle théorie « nous permet de retrouver nos anciens concepts d’un point de vue plus élevé26 », idée qu’il développa en établissant le célèbre parallèle que voici :
En nous servant d’une comparaison nous pouvons dire que la création d’une nouvelle théorie ne ressemble pas à la démolition d’une grange et à la construction, à sa place, d’un gratte-ciel. Elle ressemble plutôt à l’ascension d’une montagne, où l’on atteint des points de vue toujours nouveaux et toujours plus étendus, où l’on découvre des connexions inattendues entre le point de départ et les nombreux lieux qui l’environnent. Mais le point de départ existe toujours et peut être vu, bien qu’il paraisse plus petit et forme une partie insignifiante dans notre vaste vue, que nous avons gagnée en vainquant les obstacles dans notre ascension aventureuse27.
Quand il avait recouru également à l’image de l’ascension d’une montagne dans son mémoire intitulé Das Denken in der Medizin [Sur la pensée en médecine], Hermann von Helmholtz avait précisé que cette activité n’a rien de linéaire. Parce qu’on ne peut jamais prévoir comment on gravira une pente, avait-il écrit, on ne peut que procéder par essai et erreur : prenant de faux départs, s’engageant dans des impasses et se retrouvant dans des positions intenables, le montagnard intellectuel doit fréquemment revenir sur ses pas, descendre puis monter à nouveau ; lentement et péniblement, en commettant d’innombrables bévues puis en les corrigeant, il zigzague jusqu’au sommet, et c’est seulement après l’avoir atteint qu’il s’apercevra qu’une route directe – une « voie royale » – aurait pu l’y conduire plus aisément. Quand on présente ses idées par écrit, avait ajouté ce physiologiste qui était aussi un brillant alpiniste, on fait emprunter cette voie royale à ses lecteurs, leur cheminement ne ressemblant pas du tout aux processus compliqués et tortueux de la progression du chercheur.
On visualise souvent intuitivement ce qu’il convient de faire, et c’est cette vague image qui, sitôt entrevue, pousse l’intellect à aller de l’avant. Einstein, par exemple, s’imagina à seize ans en train de chevaucher un rayon lumineux avant de transformer dix ans plus tard ce rêve de jeunesse en une théorie aussi grandiose que celle de la relativité restreinte. L’élaboration des théories de la relativité restreinte, d’abord, et de la relativité générale, ensuite, fit-elle partie intégrante de l’inévitable déroulement d’un processus historique, ou bien résulta-t-elle plutôt de la singularité que constitue l’avènement d’un génie à nul autre pareil ? La relativité aurait-elle été conçue en l’absence d’Einstein ? Et eût-elle été acceptée aussi vite si l’observation minutieuse de l’effet que la gravitation exerce sur la lumière effectuée par le plus grand des hasards au cours de l’éclipse solaire du 29 mai 1919 ne l’avait pas confirmée ? On sent bien que la fortuité (pas le simple accès au niveau de technologie indispensable à la mesure précise de l’orbite de Mercure) fut ici à l’œuvre : ni le « processus historique » ni le « génie » ne sont une explication satisfaisante, chacune escamotant la nature complexe et aléatoire de la réalité.
Comme Louis Pasteur le déclara, « [l]e hasard ne favorise que les esprits préparés », et Einstein en était bien sûr intensément conscient : il était prêt à percevoir et à saisir tout qui pourrait lui être utile ; mais, si Riemann et d’autres mathématiciens n’avaient pas conçu des géométries non euclidiennes (qu’ils avaient élaborées comme de pures abstractions, sans savoir si elles parviendraient ou non à modéliser le monde physique), Einstein aurait été incapable de transformer une vague vision en une théorie pleinement aboutie, faute de disposer des techniques intellectuelles pour cela nécessaires.
Divers facteurs individuels, isolés et autonomes doivent converger avant que s’accomplisse l’acte au premier abord magique d’apport créatif, opération que l’absence (ou le développement insuffisant) de n’importe lequel de ces facteurs peut suffire à enrayer. Si certains sont matériels – l’obtention du financement approprié dans des circonstances favorables, la santé et le soutien social, l’époque à laquelle on naît, etc. –, d’autres ont inévitablement quelque chose à voir avec la personnalité innée et les faiblesses ou les forces intellectuelles.
Au XIXe siècle, ère par excellence de la description naturaliste et de la passion phénoménologique du détail, les tournures d’esprit concrètes paraîtraient avoir été hautement prisées, l’abstraction ou la ratiocination étant au contraire tenues pour suspectes – attitude magnifiquement dépeinte par William James dans le célèbre essai qu’il consacra à l’éminent biologiste et professeur d’histoire naturelle Louis Agassiz :
Il n’aimait réellement que ceux qui pouvaient lui apporter des faits. Pour lui, vivre signifiait constater des faits, et non pas argumenter et ratiociner ; et je crois qu’il abominait positivement le type d’esprit ratiocinant. […] L’extrême rigueur avec laquelle il resta fidèle à cette méthode concrète d’enseignement était le résultat naturel de son genre particulier d’intellect, beaucoup moins fait pour raisonner dans l’abstrait, spéculer sur les causes, imaginer des hypothèses et en déduire des chaînes de conséquences que pour embrasser d’énormes masses de détails et y saisir les analogies ou les rapports les plus prochains et concrets28.
James a décrit comment, une fois devenu professeur de l’université Harvard en 1847, le jeune Agassiz « étudia la géologie et la faune d’un continent, forma une génération de zoologues, créa l’un des principaux muséums du monde et rénova l’éducation scientifique dans nombre d’écoles américaines » – tout cela, grâce à l’amour passionné qu’il portait aux phénomènes et aux faits, qu’il observât des fossiles ou des êtres vivants, à son esprit aussi lyrique que concret et à sa conviction mi-scientifique, mi-religieuse, qu’il existait un système divin qui constituait un tout. Mais une transformation survint par la suite : cessant de se concentrer sur des catégories aussi vastes que celles des espèces, des formes et de leurs relations taxonomiques comme l’histoire naturelle l’avait fait jusqu’alors, la zoologie proprement dite s’intéressa de plus en plus à la physiologie, à l’histologie, à la chimie et à la pharmacologie, devenant par là même une nouvelle science des mécanismes et des parties microscopiques dont la perception de l’organisme et de son organisation comme un grand tout permettait de subsumer l’existence. Si captivante et prometteuse que fût cette science moderne, on ne tarda pourtant pas à s’apercevoir que quelque chose était perdu en même temps que ce changement s’opérait : incapable de s’adapter à cette transformation intellectuelle, Agassiz finit par être relégué à la périphérie de la pensée scientifique, puis ce décentrement le métamorphosa en un personnage excentrique et tragique au soir de sa vie29.
*
* *
Le rôle immense de la contingence – du pur hasard, qu’il soit heureux ou malheureux – me semble encore plus évident en médecine qu’en science, car il est souvent médicalement capital que des cas rares ou inhabituels, sinon uniques en leur genre, soient étudiés par la bonne personne au bon moment.
Les exemples de mémoire extraordinaire sont rares, naturellement, et l’un des plus remarquables fut celui du journaliste russe Cherechevski ; mais il ne serait rien de plus aujourd’hui (si tant est qu’on en eût conservé le moindre souvenir) qu’« un autre cas de mémoire prodigieuse » si ce journaliste n’avait pas eu la chance de rencontrer Alexandre R. Luria, qui était lui-même un observateur clinique prodigieusement perspicace. Seule la conjugaison du génie de Luria et de la durée exceptionnelle (trente ans !) de son exploration des processus mentaux de Cherechevski pouvait produire des analyses aussi éblouissantes que celles qui figurent dans Une prodigieuse mémoire30, l’un des plus grands livres de ce neuropsychologue.
L’hystérie, en revanche, n’est pas rare, et elle est correctement décrite depuis le XVIIIe siècle ; mais la psychodynamique de l’inconscient ne commença à être sondée qu’à partir du moment où une brillante hystérique capable de s’exprimer clairement fut présentée à un génie aussi original que le jeune Freud et à son ami Breuer. La psychanalyse aurait-elle pu voir le jour si Anna O. n’avait pas croisé la route d’esprits aussi réceptifs et convenablement « préparés » que ceux de Freud et de Breuer ? Je suis certain qu’elle serait apparue malgré tout, mais plus tard et autrement.
L’histoire de la science – comme celle de la vie – différerait-elle complètement si elle se déroulait à nouveau ? L’évolution des idées ressemble-t-elle à l’évolution des êtres vivants ? De soudaines explosions d’activité sont certes observables chaque fois que d’énormes progrès sont accomplis en très peu de temps : ceux dus à la physique quantique dès les années 1920 puis à la biologie moléculaire dans les années 1950 et 1960 ont eu cet effet avant que, depuis quelques décennies, les neurosciences n’aient fini par bénéficier à leur tour d’une salve comparable de recherches fondamentales. À ces brusques vagues de découvertes qui modifient le visage de la science succèdent fréquemment de longues périodes de consolidation et de stabilité relative – tout cela me faisant repenser au tableau de l’« équilibre ponctué31 » que brossent Niles Eldredge et Stephen Jay Gould, je me demande si un processus analogue, au moins, à celui de l’évolution naturelle ne pourrait pas être à l’œuvre ici également.
Comme les créatures vivantes, les idées peuvent surgir, fleurir puis essaimer dans toutes les directions aussi bien qu’avorter ou s’éteindre d’une façon totalement imprévisible. Gould se plaisait à dire que, si l’évolution de la vie terrestre pouvait se rejouer, elle différerait du tout au tout la seconde fois. Supposons que John Mayow eût bel et bien découvert l’oxygène dès les années 1670 ou que la « machine à différences » (une sorte d’ordinateur) théorisée par Babbage ait été fabriquée quand il proposa de le faire en 1822 : la science aurait-elle alors pu s’engager dans une voie tout à fait différente ? Si fantasmatique que soit cette question, le fantasme dont elle relève ne laisse pas moins entrevoir que, loin de constituer un processus inéluctable, la science est extrêmement contingente.