12.

Éternelle Ada

L’objection de lady Lovelace

Ada Lovelace aurait été contente. Dans la mesure où nous pouvons nous permettre de présumer des pensées d’une personne morte depuis plus de cent cinquante ans, nous pouvons l’imaginer en train d’écrire une missive arrogante où elle se vante d’avoir eu l’intuition que les calculatrices deviendraient un jour des ordinateurs multitâches, de belles machines qui peuvent non seulement manipuler des nombres, mais aussi faire de la musique, traiter des textes et « combiner ensemble des symboles généraux en successions d’une infinie variété ».

De telles machines apparurent dans les années 1950 et, au cours des trente années suivantes, elles profitèrent de deux innovations historiques pour révolutionner notre façon de vivre : les circuits intégrés permirent aux ordinateurs de devenir assez petits pour être portables et individuels, et les réseaux à commutation par paquets leur permirent d’être connectés en tant que nœuds dans un réseau. Cette fusion de l’ordinateur individuel et d’Internet permit à la créativité numérique, au partage des contenus, à la formation de communautés et au réseautage social de s’épanouir à grande échelle. Elle réalisa ce qu’Ada appelait « la science poétique », dans laquelle la créativité et la technologie étaient la chaîne et la trame, comme une tapisserie produite par le métier Jacquard.

Ada pourrait aussi se vanter avec raison d’avoir vu juste, du moins jusqu’ici, dans son affirmation plus controversée que nul calculateur, si puissant soit-il, ne serait jamais véritablement une machine « pensante ». Un siècle après la mort d’Ada, Alan Turing évoqua cette « objection de lady Lovelace » et tenta de la réfuter en fournissant la définition opérationnelle d’une machine pensante – via un test où l’interrogateur humain ne pourrait distinguer la machine de l’humain – et en prédisant qu’un ordinateur réussirait le test dans quelques dizaines d’années. Or il s’est écoulé plus de soixante ans depuis, et les machines qui tentent de tromper les humains lors du test sont au mieux engagées dans des procédés de conversation boiteux et non dans un authentique processus de pensée. Et, assurément, aucune n’est parvenue à l’étape supérieure fixée par Ada, celle de pouvoir « générer » la moindre pensée personnelle.

 

Depuis que Mary Shelley imagina l’histoire de Frankenstein pendant des vacances en compagnie du père d’Ada, lord Byron, la perspective qu’une machine créée par l’homme puisse avoir ses propres pensées n’a cessé de troubler les générations suivantes. Le thème « Frankenstein » est devenu un cliché de science-fiction. Un exemple frappant en est le film de 1968 signé par Stanley Kubrick, 2001, L’Odyssée de l’espace, dont la vedette, l’ordinateur HAL, est doté d’une intelligence inquiétante et funeste. Avec sa voix calme, HAL affiche les attributs d’un humain : l’aptitude à parler, à raisonner, à reconnaître les visages, à apprécier la beauté, à montrer de l’émotion et (évidemment) à jouer aux échecs. Lorsque HAL semble avoir un dysfonctionnement, les astronautes humains décident de le désactiver. HAL prend conscience de ce projet et les assassine tous sauf un. Après une lutte héroïque, l’astronaute survivant accède aux circuits cognitifs de HAL et les déconnecte un par un. HAL régresse jusqu’à ce qu’à la fin il entonne « Daisy Bell » – hommage à la première chanson générée par ordinateur et chantée par un IBM 704 aux laboratoires Bell en 1961.

Depuis longtemps, les fanatiques de l’intelligence artificielle nous promettent (à moins que ce soit une mise en garde) que des machines comme HAL ne tarderont pas à apparaître et à donner tort à Ada. Telle était la prémisse du colloque organisé au Dartmouth College en 1956 par John McCarthy et Marvin Minsky, où l’intelligence artificielle fut lancée en tant que domaine scientifique. Les participants conclurent qu’il y aurait une percée dans une vingtaine d’années. Il n’y en eut pas. Décennie après décennie, de nouvelles vagues d’experts ont soutenu que l’intelligence artificielle était à l’horizon visible, dans une vingtaine d’années seulement. Or elle est restée un mirage, et toujours attendue dans une vingtaine d’années.

John von Neumann travaillait sur le défi présenté par l’intelligence artificielle peu avant sa mort en 1957. Comme il avait contribué à élaborer l’architecture des calculateurs numériques modernes, il se rendit compte que l’architecture du cerveau humain est fondamentalement différente. Les ordinateurs numériques traitent d’unités précises, tandis que le cerveau, dans la mesure où nous le comprenons, est aussi un système partiellement analogique, qui traite d’un continuum de possibilités. Autrement dit, le processus mental d’un humain implique de nombreuses impulsions de communication et ondes analogiques, émises à partir de différents nerfs, dont les flux se mélangent pour produire non seulement des données binaires du type oui/non, mais aussi des réponses telles que « peut-être », « probablement » et une infinité d’autres nuances, y compris la perplexité occasionnelle. Von Neumann suggéra que l’avenir de l’informatique intelligente exigerait peut-être d’abandonner la démarche purement numérique et de créer des « procédures mixtes » comprenant une combinaison de méthodes numériques et analogiques. « La logique devra subir une pseudomorphose vers la neurologie », déclara-t-il, ce qui, grossièrement traduit, signifiait que les ordinateurs allaient être obligés de ressembler plus au cerveau humain1.

En 1958, un professeur de l’université Cornell, Frank Rosenblatt, tenta d’y parvenir en élaborant une démarche mathématique pour créer un réseau neural artificiel à l’image de celui du cerveau, qu’il appela Perceptron. En utilisant des données statistiques pondérées, il pouvait théoriquement traiter des données visuelles. Lorsque la Marine, qui finançait ces travaux, dévoila ce système, elle déchaîna les hyperboles médiatiques qui accompagneraient les nombreuses pseudo-découvertes ultérieures d’une intelligence artificielle. « La Marine a révélé aujourd’hui l’embryon d’un calculateur électronique dont elle espère qu’il pourra parler, marcher, voir, écrire, se reproduire et être conscient de sa propre existence », lisait-on dans le New York Times. Le New Yorker était pareillement enthousiasmé : « Le Perceptron, […] comme son nom l’indique, est capable de ce qui équivaut à une pensée originale […] Nous avons nettement l’impression qu’il s’agit là du premier rival sérieux du cerveau humain qui ait jamais été conçu2. »

C’était il y a presque soixante ans. Le Perceptron n’existe toujours pas3. Néanmoins, depuis cette date, il y a presque chaque année des informations haletantes sur quelque merveille annoncée qui copierait et surpasserait le cerveau humain ; beaucoup utilisent presque mot à mot les mêmes expressions que les articles de 1958 sur le Perceptron.

 

Le débat sur l’intelligence artificielle se ranima un peu, du moins dans la grande presse, quand Deep Blue, ordinateur joueur d’échecs d’IBM, eut battu le champion du monde Garry Kasparov en 1997, et ensuite quand Watson, ordinateur IBM répondant aux questions en langage naturel, gagna à Jeopardy ! contre les champions Brad Rutter et Ken Jennings en 2011. « Je crois que ça a secoué toute la communauté de l’intelligence artificielle », dit Virginia Rometty, dite Ginni, directrice générale d’IBM4. Mais, comme elle fut la première à l’admettre, il ne s’agissait pas de véritables percées d’une intelligence artificielle anthropomorphe. Deep Blue a gagné sa partie d’échecs par la force brute : il pouvait évaluer deux cent millions de positions par seconde et les comparer à sept cent mille parties de grands maîtres mémorisées. Les calculs de Deep Blue étaient fondamentalement différents – et la plupart d’entre nous en conviendraient – de ce que nous entendons par de la vraie pensée. « Deep Blue était aussi intelligent que votre réveil programmable, commenta Kasparov. Mais le fait d’avoir été battu par un réveil à dix millions de dollars n’a été qu’une maigre consolation5. »

De même, Watson a gagné à Jeopardy! en utilisant des méga-doses de puissance de calcul : il disposait de deux cent millions de pages d’informations dans ses quatre téraoctets de mémoire, dont Wikipedia tout entière n’occupait que 0,2 pour cent. Il pouvait faire des recherches sur l’équivalent d’un million de livres par seconde. Il était aussi passablement compétent dans le traitement de l’anglais parlé. Il n’empêche que personne parmi les spectateurs n’aurait escompté qu’il réussisse le test de Turing. En fait, les responsables de l’équipe IBM craignaient que les rédacteurs de l’épreuve essaient de transformer le jeu en une sorte de test de Turing en composant des questions conçues pour faire trébucher une machine, aussi insistèrent-ils pour que soient exclusivement utilisées des questions déjà posées lors de compétitions qui n’avaient jamais été diffusées. Néanmoins, la machine eut des ratés qui prouvèrent qu’elle n’était pas humaine. Par exemple, une question portait sur la « bizarrerie anatomique » de l’ex-gymnaste olympique George Eyser. Watson répondit : « Qu’est-ce qu’une jambe ? » La réponse correcte était qu’Eyser avait une jambe en moins. Le problème, c’était l’interprétation de bizarrerie, expliqua David Ferruci, directeur du projet Watson chez IBM. « L’ordinateur ne pouvait pas savoir qu’une jambe manquante est plus bizarre que n’importe quelle autre chose6. »

John Searle, le professeur de philosophie de Berkeley qui élabora la réfutation dite « chambre chinoise » du test de Turing, se gaussa de l’idée que Waston puisse avoir ne serait-ce qu’une lueur d’intelligence artificielle. « Watson ne comprenait ni les questions, ni ses propres réponses, ni que certaines de ses réponses étaient correctes et d’autres erronées, ni qu’il était en train de s’adonner à un jeu, ni qu’il avait gagné, soutenait Searle. Au contraire, il avait été conçu pour simuler la compréhension, pour faire comme s’il comprenait7. »

Même les gens d’IBM étaient d’accord avec cette analyse. Ils n’avaient jamais tenu Watson pour une machine « intelligente ». « Les ordinateurs actuels sont des idiots surdoués, expliqua John E. Kelly III, directeur de la recherche chez IBM, après les victoires de Deep Blue et de Watson. Ils disposent de capacités gigantesques – et très supérieures à celles des humains – pour stocker de l’information et accomplir des calculs. Mais quand il s’agit d’une autre classe d’aptitudes, la capacité de comprendre, d’apprendre, de s’adapter et d’interagir, les ordinateurs sont désespérément inférieurs aux humains8. »

Au lieu de prouver que les machines se rapprochent du stade de l’intelligence artificielle, Deep Blue et Watson indiquèrent en fait le contraire. « Ces exploits récents ont paradoxalement souligné les limitations de l’informatique et de l’intelligence artificielle, affirme le professeur Tomaso Poggio, directeur du Centre cerveaux-esprits-machines au MIT. Nous ne savons toujours pas comment construire des machines qui soient aussi universellement intelligentes que nous9. »

Douglas Hofstadter, professeur à l’université d’Indiana, combina les arts et les sciences en 1979 dans son best-seller inattendu Gödel, Escher, Bach : les brins d’une guirlande éternelle. Il pensait que le seul moyen d’aboutir à une intelligence artificielle significative serait de comprendre comment fonctionne l’imagination humaine. Sa démarche fut pratiquement abandonnée dans les années 1990, quand les chercheurs trouvèrent qu’il était plus rentable de s’attaquer à des tâches complexes en lançant une puissance de traitement massive à l’assaut de gigantesques quantités de données, à l’instar de Deep Blue jouant aux échecs10.

Cette démarche mit en relief une singularité : les ordinateurs peuvent accomplir certaines des tâches les plus ardues qui soient (évaluer des milliards de positions possibles aux échecs, trouver des corrélations dans des centaines de réservoirs d’informations de la taille de Wikipedia), mais ils ne peuvent accomplir certaines des tâches qui paraissent très simples aux simples humains que nous sommes. Si vous posez à Google une question factuelle pointue comme « Quelle est la profondeur de la mer Rouge ? », il vous répondra instantanément, « 2 211 mètres », information que même vos amis les plus intelligents ignorent. Si vous lui posez une question facile comme « Est-ce qu’un crocodile peut jouer au basket ? », il séchera, alors que même un enfant en bas âge pourrait vous répondre, après avoir ri un peu11.

Chez Applied Minds, à Los Angeles, vous pouvez observer le spectacle passionnant d’un robot qu’on programme pour manœuvrer, mais vous vous apercevrez rapidement qu’il a encore du mal à se repérer dans une pièce qu’il ne connaît pas, à ramasser un crayon et à écrire son nom. Une visite chez Nuance Communications, près de Boston, vous fera découvrir les prodigieuses avancées dans les technologies de reconnaissance de la parole qui sont à la base de Siri et d’autres systèmes, mais il est aussi apparent pour quiconque utilise Siri qu’on ne peut pas encore avoir une conversation sensée avec un ordinateur, sauf dans un film de science-fiction. Au Laboratoire d’informatique et d’intelligence artificielle du MIT, un travail intéressant est en cours pour apprendre aux ordinateurs à percevoir les objets visuellement, mais bien que la machine distingue les images d’une fille avec une tasse, d’un garçon devant une fontaine et d’un chat en train de laper du lait, elle ne peut pas faire le raisonnement abstrait rudimentaire exigé pour découvrir qu’ils sont tous les trois engagés dans la même occupation : boire. Une visite au système de commandement central de la police de New York à Manhattan révèle comment les ordinateurs scrutent des milliers d’informations captées par des caméras de surveillance du Domain Awareness System, mais le système ne peut pas encore identifier de manière fiable le visage de votre mère dans une foule.

Toutes ces tâches ont un point commun : elles sont à la portée d’un enfant de quatre ans. « La principale leçon de trente-cinq ans de recherche en intelligence artificielle est que les problèmes difficiles sont faciles et que les problèmes faciles sont difficiles », résume Steven Pinker, chercheur en sciences cognitives à Harvard12. Comme le futurologue Hans Moravec et d’autres l’ont remarqué, ce paradoxe vient du fait que les ressources informatiques nécessaires pour reconnaître un schéma visuel ou verbal sont démesurées.

 

Le paradoxe de Moravec renforce les observations de von Neumann, datant d’un demi-siècle, sur la manière dont la chimie fondée sur le carbone du cerveau humain fonctionne différemment des circuits logiques binaires à base de silicium d’un ordinateur. Le biogiciel est différent du matériel. Non seulement le cerveau humain combine des processus analogiques et digitaux, mais c’est aussi un système délocalisé, comme Internet, plutôt qu’un système centralisé, comme un ordinateur. L’unité centrale d’un ordinateur peut exécuter des instructions beaucoup plus vite qu’un neurone cérébral qui décharge son influx nerveux. « Le cerveau fait plus que compenser ce handicap, parce que tous les neurones et toutes les synapses sont actifs simultanément, alors que la plupart des ordinateurs actuels n’ont qu’une ou tout au plus quatre ou cinq unités centrales », d’après Stuart Russell et Peter Nordvig, auteurs du manuel le plus avancé sur l’intelligence artificielle13.

Alors pourquoi ne pas faire un ordinateur qui imite les processus du cerveau humain ? « Nous finirons un jour par séquencer le génome humain et reproduire la méthode par laquelle la nature a créé l’intelligence dans un système à base carbone », imagine Bill Gates. C’est comme lorsqu’on pratique l’ingénierie inverse sur le produit de quelqu’un d’autre afin de résoudre un défi14. » La tâche ne sera pas facile. Il a fallu aux scientifiques quarante ans pour cartographier l’activité neurologique de l’ascaride, un ver d’un millimètre de long, qui possède 302 neurones et 8 000 synapses*1. Le cerveau humain possède 86 milliards de neurones et jusqu’à 150 billions (15 x 1013) de synapses15.

Fin 2013, le New York Times signala « un développement qui est sur le point de bouleverser l’univers numérique » et de « rendre possible une nouvelle génération de systèmes d’intelligence artificielle qui accompliront certaines des fonctions que les humains font aisément : voir, parler, écouter, s’orienter, manipuler et contrôler. » Ces expressions rappelaient celles employées dans l’article de 1958 sur le Perceptron (« il pourra parler, marcher, voir, écrire, se reproduire et être conscient de sa propre existence »). Une fois de plus, la stratégie a consisté à copier la manière dont fonctionnent les réseaux neuraux du cerveau humain. Comme l’expliqua le New York Times, « la nouvelle démarche informatique se fonde sur le système nerveux biologique, plus particulièrement sur la manière dont les neurones réagissent aux stimuli et se connectent avec d’autres neurones pour interpréter les informations16 ». IBM et Qualcomm révélèrent chacun de leur côté des projets visant à construire des processeurs informatiques « neuromorphiques » (à l’image du cerveau), et le Human Brain Project, un consortium de recherche européen, annonça qu’il avait fabriqué un microprocesseur neuromorphique comprenant « cinquante millions de synapses en plastique et deux cent mille modèles réalistes de neurones sur une seule gaufre de silicium de vingt centimètres17 ».

Cette toute dernière salve de dépêches signifie peut-être qu’il y aura, dans quelques décennies, des machines qui penseront comme les humains. « Nous examinons en permanence la liste des choses que les machines ne peuvent pas faire – jouer aux échecs, conduire une voiture, traduire d’une langue à l’autre – et les éliminons ensuite de la liste quand les machines en sont capables, explique Tim Berners-Lee. Un jour, nous arriverons au bout de la liste18. »

Ces toutes dernières avancées peuvent même aboutir à la singularité, terme qui, inventé par von Neumann et popularisé par le futurologue Ray Kurzweil et l’écrivain de science-fiction Vernor Vinge, est parfois employé pour décrire le moment où les ordinateurs ne seront pas seulement plus intelligents que les humains, mais pourront aussi se transformer tout seuls pour être encore plus super intelligents, et donc n’auront plus besoin de nous autres mortels. Vinge disait en 1993 que cela arriverait en 2030 au plus tard19.

D’un autre côté, ces ultimes révélations pourraient s’avérer être comme celles, formulées de manière similaire, des années 1950 : des aperçus fugitifs d’un mirage en recul permanent. Une véritable intelligence artificielle peut exiger quelques générations, voire plusieurs siècles de plus. Nous pouvons laisser ce débat aux futurologues. Et, de fait, selon la définition que l’on aura de la conscience, l’IA peut ne jamais se produire. Nous pouvons laisser ce débat-là aux philosophes et aux théologiens. « L’ingéniosité humaine, écrivait Léonard de Vinci, dont l’Homme vitruvien est devenu le symbole ultime de l’intersection de l’art et de la science, ne concevra jamais d’inventions plus belles, ni plus simples, ni plus adaptées au dessein que celles de la Nature. »

Il existe toutefois une autre possibilité – et qui plairait à Ada –, fondée sur un demi-siècle de développement de l’informatique dans la tradition de Vannevar Bush, J. C. R. Licklider et Doug Engelbart.

La symbiose humain-ordinateur

« La machine analytique n’a pas la moindre prétention à générer quoi que ce soit, déclarait Ada Lovelace. Elle peut faire tout ce que nous savons lui commander de faire. » Dans son esprit, les machines ne remplaceraient pas les humains, mais deviendraient leurs partenaires. Ce que les humains apporteraient à cette relation, disait-elle, serait l’originalité et la créativité.

Telle était l’idée derrière la solution de rechange à la quête de l’intelligence artificielle pure : rechercher à la place l’intelligence augmentée qui naît lorsque les machines deviennent les associées des humains. La stratégie d’une combinaison des capacités informatiques et humaines visant à créer une symbiose humain-ordinateur se révéla plus fructueuse que la recherche de machines capables de penser par elles-mêmes.

Licklider contribua à baliser ce parcours dès 1960 dans son article « La symbiose homme-ordinateur », qui proclamait : « Les cerveaux humains et les calculateurs seront très étroitement accouplés, et le partenariat résultant pensera comme jamais cerveau humain n’a pensé et traitera des données d’une manière dont sont encore loin les machines de gestion de l’information telles que nous les connaissons aujourd’hui20. » Ses idées remontaient au memex, l’ordinateur individuel imaginé par Vannevar Bush dans son essai de 1945 « Comme nous pouvons le penser ». Licklider s’inspirait aussi de ses propres travaux pour l’élaboration du système de défense anti-aérienne SAGE, qui exigeait une étroite collaboration entre humains et machines.

En 1968, Douglas Engelbart donna une interface conviviale à la démarche de Bush-Licklider quand il fit la démonstration d’un système informatique réseauté comportant un affichage graphique intuitif et une souris. Dans un manifeste intitulé « Augmenter l’intellect humain », il reprenait l’argument de Licklider. L’objectif, écrivait Engelbart, serait de créer « un domaine humain intégré où les pressentiments, les tâtonnements, les impondérables et le “pifomètre” coexistent utilement avec […] des moyens électroniques très performants. » Richard Brautigan, dans son poème « All Watched Over by Machines of Loving Grace », avait exprimé ce rêve sur un mode un peu plus lyrique : « une prairie cybernétique / où mammifères et ordinateurs / vivent ensemble dans une harmonie / mutuellement programmatrice. »

 

Les équipes qui construisirent Deep Blue et Watson ont adopté cette démarche symbiotique au lieu de viser l’objectif des puristes de l’intelligence artificielle. « Le but n’est pas de reproduire le cerveau humain », déclare John Kelly, directeur de la recherche chez IBM. Reprenant le credo de Licklider, il ajoute : « Il ne s’agit pas de remplacer la pensée humaine par la pensée machinique. À l’ère des systèmes cognitifs, humains et machines collaboreront pour produire de meilleurs résultats, chacun apportant au partenariat les aptitudes où il est supérieur21. »

Un exemple de la puissance de cette symbiose humain-ordinateur a été donné par la révélation qui frappa Kasparov quand il fut battu par Deep Blue : même dans un jeu défini par des règles tels que les échecs, « les ordinateurs sont performants là où les humains sont faibles, et vice versa ». Ce qui lui donna l’idée d’une expérience : « Et si au lieu de jouer homme contre machine nous jouions en tant que partenaires ? » Quand lui-même et un autre grand maître en firent l’essai, il se créa la symbiose imaginée par Licklider : « Nous pouvions nous concentrer sur la stratégie au lieu de passer tout ce temps en calculs. La créativité humaine était encore plus essentielle en pareilles circonstances. »

Un tournoi d’échecs fut organisé sur ces bases en 2005. Les joueurs pouvaient jouer en équipe avec le ou les ordinateurs de leur choix. De nombreux grands maîtres entrèrent en lice, de même que les ordinateurs les plus perfectionnés. Mais ni le meilleur grand maître ni le plus puissant ordinateur ne gagnèrent. Ce fut la symbiose qui gagna. « Les équipes homme-machine ont dominé même les ordinateurs les plus puissants, nota Kasparov. La direction stratégique humaine alliée à l’acuité tactique d’un ordinateur a été écrasante. » Le vainqueur final n’était ni un grand maître, ni un ordinateur dernier cri, ni même une combinaison des deux, mais deux amateurs américains qui utilisaient trois ordinateurs en même temps et savaient gérer le processus de collaboration avec leurs machines. D’après Kasparov, « leur talent dans la manipulation de leurs ordinateurs, qu’ils ont entraînés à examiner les positions très en profondeur, a contrebalancé efficacement la compréhension supérieure des échecs des grands maîtres qui leur étaient opposés et la plus grande puissance de calcul à la disposition d’autres participants22. »

Autrement dit, il se pourrait que l’avenir appartienne aux gens qui sauront le mieux s’associer et collaborer avec des ordinateurs.

Sur un mode similaire, IBM décida que le meilleur emploi de Watson, l’ordinateur qui jouait à Jeopardy!, consisterait à collaborer avec les humains au lieu d’essayer de les dépasser. Un projet impliquait d’utiliser la machine pour travailler en association avec des médecins sur des plans de traitement du cancer. « Le défi Jeopardy! opposait l’homme à la machine, dit John Kelly de chez IBM. Avec Watson et la médecine, l’homme et la machine relèvent ensemble un défi – et vont ainsi au-delà de ce que l’un ou l’autre pourrait faire isolément23. » Le système Watson a mémorisé plus de deux millions de pages de revues médicales et six cent mille résultats cliniques ; il peut faire des recherches sur un million et demi de dossiers médicaux. Lorsqu’un médecin entrait les symptômes et les informations vitales d’un patient, l’ordinateur fournissait une liste de recommandations classées selon le degré de confiance qu’il leur accordait24.

L’équipe IBM se rendit compte que, pour être efficace, la machine avait besoin d’interagir avec des médecins humains d’une manière qui rende la collaboration agréable. David McQueeney, vice-président du logiciel à la division Recherche, raconte qu’il a programmé une humilité simulée dans la machine : « Au début, nous avons eu des cas de praticiens soupçonneux qui faisaient de la résistance en disant : “Je suis habilité à exercer la médecine, ce n’est pas un ordinateur qui va me dire ce que je dois faire.” Nous avons donc reprogrammé le système pour qu’il introduise une impression d’humilité dans la machine et dise : “Ici vous avez la probabilité en pourcentage que cela puisse vous être utile, et là vous pouvez chercher par vous-même.” » Les médecins furent enchantés et dirent qu’ils avaient l’impression d’une conversation avec un collègue compétent. « Notre but, dit McQueeney, c’est de combiner des talents humains, tels que l’intuition, aux forces de la machine, comme sa capacité infinie à gérer des données. Cette combinaison est magique, car chacun des deux partenaires offre un élément que l’autre ne possède pas25. »

C’était là l’un des aspects de Watson qui impressionnèrent Ginni Rometty, une ingénieure avec une formation en intelligence artificielle qui devint directrice générale d’IBM au début de l’année 2012 : « J’ai vu comment Watson interagissait d’une manière collégiale avec les médecins. C’était la preuve la plus claire que les machines peuvent être de véritables partenaires pour les humains au lieu d’essayer de les remplacer. J’ai des idées très arrêtées là-dessus26. » Elle fut tellement impressionnée qu’elle décida de créer une nouvelle division IBM centrée sur Watson, qui reçut un investissement d’un milliard de dollars et un nouveau siège dans la zone « Silicon Valley » en bordure de Greenwich Village à Manhattan. Sa mission était de commercialiser « l’informatique cognitive », c’est-à-dire des systèmes informatiques qui peuvent porter l’analyse des données à un niveau supérieur en s’apprenant eux-mêmes à compléter les aptitudes pensantes du cerveau humain. Au lieu de donner à la nouvelle division un nom technique, Ginni Rometty l’appela simplement Watson. C’était en l’honneur de Thomas Watson Sr, le fondateur d’IBM qui dirigea la société pendant plus de quarante ans, mais ce nom évoquait aussi le compagnon de Sherlock Holmes, le Dr John Watson (« Élémentaire, mon cher Watson ») et Thomas Watson, l’assistant d’Alexander Graham Bell (« Venez ici, je veux vous voir »). Ainsi ce nom suggérait-il que Watson l’ordinateur devait être considéré comme un collaborateur et un compagnon, et non comme une menace à l’instar du HAL de 2001.

 

Watson était le signe avant-coureur d’une troisième vague informatique, celle qui estomperait la frontière entre l’intelligence humaine augmentée et l’intelligence artificielle. « La première génération d’ordinateurs était des machines qui comptaient et classaient », dit Ginni Rometty en évoquant les origines d’IBM dans les tabulatrices à cartes perforées d’Herman Hollerith utilisées pour le recensement de 1890. « La deuxième génération impliquait des machines programmables utilisant l’architecture de von Neumann. Il fallait leur dire ce qu’elles avaient à faire. » Avec Ada Lovelace comme pionnière, des gens écrivaient des algorithmes fournissant à ces ordinateurs des instructions pas à pas qui leur permettaient d’accomplir des tâches. « Vu la prolifération des données, ajoute Ginni Rometty, il n’y a pas d’autre choix qu’une troisième génération, dont les systèmes ne sont pas programmés – ils apprennent27. »

Mais au moment même où cela se produit, le processus pourrait rester au stade du partenariat et de la symbiose avec les humains plutôt qu’un processus conçu pour reléguer les humains à la poubelle de l’Histoire. Larry Norton, spécialiste du cancer du sein au centre oncologique Sloan-Kettering de New York, a fait partie de l’équipe qui a travaillé avec Watson : « L’informatique va évoluer rapidement, et la médecine évoluera avec elle. C’est la coévolution. Nous nous entraiderons28. »

Cette conviction que les machines et les humains deviendront plus intelligents ensemble est un processus que Doug Engelbart désignait par « autoamorçage » (bootstrapping) et « coévolution29 ». Elle présente une perspective intéressante : quelle que soit la vitesse à laquelle les ordinateurs progresseront, il se peut que l’intelligence artificielle ne dépasse jamais l’intelligence du partenariat humain-machine.

Supposons par exemple qu’un jour une machine présente toutes les capacités mentales d’un humain : donner l’impression de reconnaître des schémas, percevoir des émotions, apprécier la beauté, créer de l’art, avoir des désirs, former des valeurs morales et poursuivre des objectifs. Pareille machine pourrait peut-être réussir un test de Turing. Il se pourrait qu’elle réussisse aussi ce que nous pourrions appeler le test Ada : elle pourrait donner l’impression de « générer » ses propres pensées au-delà de ce pour quoi les humains l’ont programmée.

Il y aurait toutefois encore un obstacle à franchir avant que nous puissions dire que l’intelligence artificielle a triomphé de l’intelligence augmentée. Nous pouvons l’appeler le test Licklider. Il dépasserait la question de savoir si une machine pourrait reproduire à l’identique toutes les composantes de l’intelligence humaine pour demander si la machine accomplit mieux ces tâches quand elle fonctionne tranquillement d’une manière complètement autonome, ou quand elle travaille conjointement avec des humains. En d’autres termes, est-il possible que des humains et des machines travaillant en association demeurent indéfiniment plus puissants qu’une machine à intelligence artificielle travaillant seule ?

Si c’est le cas, alors la « symbiose homme-ordinateur », comme l’appelait Licklider, continuera de triompher. L’intelligence artificielle ne doit pas être le Saint Graal de l’informatique. Au lieu de quoi l’objectif pourrait être de trouver des manières d’optimiser la collaboration entre les potentiels humain et machinique – de forger un partenariat dans lequel nous laissons les machines faire ce qu’elles savent le mieux faire, et où elles nous laissent faire ce que nous savons le mieux faire.

Les leçons de ce voyage

Comme toutes les narrations historiques, l’histoire des innovations qui ont créé l’ère numérique a de nombreux fils conducteurs. Alors, quelles leçons, outre le pouvoir de la symbiose humain-machine abordée ci-dessus, pourrait-on tirer de ce récit ?

La toute première est que la créativité est un processus collaboratif. L’innovation provient plus souvent d’un travail d’équipe que de moments où l’ampoule s’allume dans la tête de génies solitaires. C’est vrai pour toutes les époques riches en ferments créatifs. La révolution scientifique, le siècle des Lumières et la Révolution industrielle ont tous eu leurs institutions facilitant le travail collaboratif et leurs réseaux pour partager des idées. Mais, à un degré encore plus grand, ce fut le cas de l’ère numérique – et ça l’est encore. Si brillants soient-ils, les nombreux inventeurs d’Internet ont réussi la plupart de leurs percées grâce au travail d’équipe. Comme Robert Noyce, certains des meilleurs d’entre eux avaient tendance à ressembler à des pasteurs congrégationalistes plutôt qu’à des prophètes dans le désert, à des chanteurs de madrigaux plutôt qu’à des solistes.

Twitter, par exemple, fut inventé par une équipe de gens qui étaient collaboratifs, mais aussi très querelleurs. Lorsque l’un des cofondateurs, Jack Dorsey, commença à accumuler les honneurs dans les interviews des divers médias, un autre cofondateur, Evan Williams, un entrepreneur en série qui avait précédemment créé Blogger, lui dit de se calmer, si l’on en croit Nick Bilton du New York Times. « Mais j’ai inventé Twitter », dit Dorsey.

— Non, tu n’as pas inventé Twitter, répliqua Williams. Je n’ai pas inventé Twitter moi non plus, et Biz [Isaac Stone, un autre cofondateur] non plus. Les gens n’inventent pas des trucs sur Internet. Ils développent simplement une idée qui existe déjà30. »

Et là réside une autre leçon : l’ère numérique peut paraître révolutionnaire, mais elle était fondée sur le développement d’idées transmises par les générations précédentes. La collaboration ne se faisait pas seulement entre contemporains, mais aussi entre générations. Les meilleurs innovateurs furent ceux qui appréhendèrent la trajectoire du changement technologique et prirent le relais des innovateurs qui les avaient précédés. Steve Jobs a prolongé les travaux d’Alan Kay, qui a prolongé ceux de Doug Engelbart, qui a prolongé ceux de J. C. R. Licklider et de Vannevar Bush. Lorsque Howard Aiken conçut son ordinateur numérique, il s’inspira d’un fragment de la machine à différences de Babbage découvert sur place à Harvard, et il obligea les membres de son équipage à lire les « Notes » d’Ada Lovelace.

Les équipes les plus productives furent celles qui rassemblèrent des gens présentant une large gamme de spécialités. Les laboratoires Bell en sont un exemple classique. Dans les longs couloirs de cet établissement dans une banlieue verte du New Jersey, on rencontrait des physiciens théoriciens, des expérimentateurs, des chercheurs en sciences des matériaux, quelques hommes d’affaires et même quelques monteurs de lignes avec de la graisse sous les ongles. Walter Brattain, un expérimentateur, et John Bardeen, un théoricien, se partageaient un bureau comme un librettiste et un compositeur assis côte à côte devant un piano, de façon à pouvoir enchaîner toute la journée questions et réponses pour mettre au point ce qui deviendrait le premier transistor.

Même si Internet a fourni un outil pour des collaborations virtuelles et éloignées, une autre leçon de l’innovation à l’ère numérique est que, maintenant comme par le passé, la proximité physique est bénéfique. Il y a quelque chose de particulier, comme on le voit aux laboratoires Bell, dans les rencontres en chair et en os qu’on ne peut reproduire numériquement. Les fondateurs d’Intel créèrent un vaste espace de travail collaboratif où tout le monde se côtoyait, depuis Robert Noyce jusqu’aux employés subalternes. Ce fut un modèle qui se généralisa à Silicon Valley. Les prédictions d’après lesquelles les outils numériques déboucheraient sur le télétravail ne se réalisèrent jamais complètement. L’un des premiers gestes de Marissa Mayer en tant que directrice générale de Yahoo! fut de décourager la pratique du télétravail à domicile, en soulignant avec raison que « les gens collaborent mieux et sont plus innovateurs quand ils sont ensemble ». Lorsque Steve Jobs conçut les plans d’un nouveau siège pour Pixar, il étudia de manière obsessionnelle les manières de configurer l’atrium et même l’emplacement des toilettes, de façon à favoriser des rencontres personnelles imprévues. L’une de ses dernières créations fut le plan caractéristique du nouveau siège d’Apple, en forme de cercle avec des anneaux d’espaces de travail non cloisonnés entourant une cour centrale.

Tout au long de l’Histoire, la meilleure aptitude à diriger a été l’apanage d’équipes combinant des gens aux styles complémentaires. Tel fut le cas de la fondation des États-Unis. On trouve parmi les dirigeants une icône de rectitude, George Washington, de brillants penseurs comme Thomas Jefferson et James Madison, des visionnaires et des passionnés, notamment Samuel et John Adams, et un sage conciliateur, Benjamin Franklin. De même, les fondateurs d’ARPANET comprenaient des visionnaires comme Licklider, des ingénieurs décideurs comme Larry Roberts, des manipulateurs politiquement habiles comme Bob Taylor, et des équipiers collaboratifs tels que Steve Crocker et Vinton Cerf.

Un autre secret de la formation d’une bonne équipe est l’appariement de visionnaires, qui peuvent générer des idées, avec des gestionnaires, qui peuvent les mettre en application. « Des visions sans applications sont des hallucinations31. » Robert Noyce et Gordon Moore étaient deux visionnaires, il était donc important que la première personne qu’ils aient recrutée chez Intel soit Andy Grove, qui savait comment imposer des procédures de gestion strictes, forcer les collaborateurs à ne pas dévier des objectifs, et faire tourner l’entreprise.

Des visionnaires privés de cette ambiance collégiale, la postérité ne retiendra souvent qu’une note de bas de page. Un débat historique se poursuit sur la question de savoir qui mérite le plus d’être considéré comme l’inventeur du calculateur électronique numérique : John Atanasoff, un professeur qui travaillait pratiquement seul à l’université d’État de l’Iowa, ou l’équipe conduite par John Mauchly et Presper Eckert à l’université de Pennsylvanie ? Dans le présent ouvrage, j’attribue plus de mérite aux seconds, d’abord parce qu’ils réussirent à construire une machine, l’ENIAC, qui fonctionnait et résolvait des problèmes. Ils y parvinrent avec le concours de dizaines d’ingénieurs et de mécaniciens plus une brigade de femmes chargées de la programmation. La machine d’Atanasoff, en revanche, ne marcha jamais vraiment, en partie faute d’une équipe pour aider son créateur à trouver comment faire fonctionner son graveur thermique de cartes perforées. La machine fut reléguée dans un sous-sol, puis mise au rebut quand personne ne put se rappeler exactement à quoi elle servait.

Comme l’ordinateur, ARPANET et Internet ont été conçus par des équipes collaboratives. Les décisions furent prises au travers d’un processus initié par un étudiant de troisième cycle respectueux qui diffusait des propositions sous forme de « Demandes de commentaire ». Ce qui conduisit à un réseau maillé à commutation de paquets sans autorité centrale ni plaque tournante, dans lequel le pouvoir était entièrement délocalisé sur chacun des points nodaux, tous ayant la capacité de créer et de partager du contenu et de circonvenir les tentatives d’imposition d’un contrôle. C’est ainsi qu’un processus collaboratif a produit un système conçu pour faciliter la collaboration. Internet portait la marque de ses créateurs.

Internet a facilité la collaboration non seulement à l’intérieur d’équipes, mais aussi entre des foules de gens qui ne se connaissaient pas. Des réseaux collaboratifs existaient depuis que les Perses et les Assyriens avaient inventé le système postal. Mais il n’a jamais été facile de solliciter et de collationner des contributions issues de milliers ou de millions de collaborateurs inconnus. Ce qui conduisit à des systèmes innovants – les classements de pages de Google, les articles de Wikipedia, le navigateur Firefox, le logiciel GNU/Linux –, fondés sur la sagesse collective des foules.

 

À l’ère numérique, les équipes furent constituées de trois manières. Il y avait d’abord le financement et la coordination gouvernementaux. C’est ainsi que furent organisés les groupes qui construisirent les ordinateurs (Colossus, ENIAC) et les réseaux (ARPANET) originels. Ce qui reflétait le consensus, plus fort dans les lointaines années 1950 sous la présidence Eisenhower, voulant que le gouvernement entreprenne des projets, tels que le programme spatial et les autoroutes, qui profitaient au bien commun. Il le fit souvent en collaboration avec les universités et le secteur privé, à l’intérieur du triangle gouvernement-université-industrie encouragé par, entre autres, Vannevar Bush. Des bureaucrates fédéraux talentueux (ce qui n’est pas toujours un oxymore) tels que Licklider, Taylor et Roberts supervisèrent les programmes et leur allouèrent des fonds publics.

L’entreprise privée fut une autre manière de former des équipes collaboratives. Cela se passa dans les centres de recherche de grandes sociétés, comme les laboratoires Bell et le Xerox PARC, et dans des sociétés fondées par de nouveaux entrepreneurs, telles que Texas Instruments et Intel, Atari et Google, Microsoft et Apple. L’une des principales motivations était le profit, à la fois comme récompense pour les protagonistes et comme moyen d’attirer les investisseurs. Ce qui exigeait une attitude possessive (dite « propriétaire ») envers l’innovation, qui conduisit à des brevets et à des mesures de protection de la propriété intellectuelle. Les théoriciens du numérique et les hackers ont souvent méprisé cette démarche, mais un système fondé sur l’entreprise privée et récompensant financièrement l’invention a été l’une des composantes du mouvement qui a conduit à des innovations stupéfiantes dans le domaine des transistors, des circuits intégrés, des ordinateurs, des téléphones, des périphériques et des services en ligne.

Tout au long de l’Histoire, il y a eu une troisième façon, en plus de l’action gouvernementale et du secteur privé, d’organiser la créativité collaborative : via des pairs partageant librement des idées et apportant leur contribution dans le cadre d’une entreprise bénévole commune. Bien des avancées qui créèrent Internet et ses services se sont concrétisées de cette façon, qualifiée par le juriste de Harvard Yochai Benkler de « production par les pairs fondée sur un terrain commun32». Internet a permis à ce type de collaboration de se pratiquer à une bien plus grande échelle qu’auparavant. L’édification de Wikipedia et du Web en étaient de bons exemples, de même que la création de logiciels libres et gratuits en open source tels que Linux et GNU, OpenOffice et Firefox. Comme le fait remarquer le chroniqueur technologique Steven Johnson, « leur architecture ouverte permet à d’autres de bâtir plus facilement sur des idées existantes, tout comme Berners-Lee a bâti le Web par-dessus Internet33 ». Cette production collaborative par des réseaux de pairs n’était pas impulsée par des incitations commerciales, mais par d’autres formes de récompense et de satisfaction.

Les valeurs du partage collaboratif et l’entreprise privée entrent souvent en conflit, surtout quand il s’agit de définir jusqu’à quel point les innovations devraient être protégées par des brevets. L’esprit collaboratif a ses racines dans l’éthique hacker émanant du Tech Model Railroad Club du MIT et du Homebrew Computer Club. Steve Wozniak en était l’illustration. Il se rendait à des réunions du Homebrew Club pour exhiber les circuits d’ordinateur qu’il avait construits, et il en distribuait gratuitement les schémas afin que d’autres puissent les utiliser et les améliorer. Mais son voisin Steve Jobs, qui se mit à l’accompagner à ces réunions, le convainquit qu’ils devraient cesser de partager leur invention et, au contraire, la mettre en production et la vendre. Ainsi naquit la société Apple, et depuis quarante ans elle est en première ligne dans une politique agressive de brevets qui lui permet de rentabiliser ses innovations. Les instincts des deux Steve ont été utiles dans la création de l’ère numérique. L’innovation est la plus remuante dans les domaines où s’affrontent systèmes en open source et systèmes propriétaires.

D’aucuns préconisent parfois l’un de ces modes de production au détriment des autres en invoquant des justifications idéologiques. Ils préfèrent une plus grande implication du gouvernement, ou alors ils exaltent l’entreprise privée, ou idéalisent le partage collaboratif. Lors des élections de 2012, le président Barack Obama suscita une controverse en disant aux gens qui possédaient des entreprises : « Vous n’avez pas fait ça tout seul. » Ses critiques virent là un dénigrement du rôle de l’entreprise privée. Obama voulait dire que toute entreprise profite du soutien du gouvernement et de la communauté collaborative : « Si vous avez réussi, c’est que quelqu’un, quelque part, vous avait aidé. Il y avait eu un grand enseignant à un point quelconque de votre vie. Quelqu’un a contribué à créer l’incroyable système américain que nous avons et qui vous a permis de prospérer. Quelqu’un a investi dans les routes et les ponts. » Ce n’était pas la manière la plus élégante de dissiper le fantasme qu’il était un crypto-communiste, mais cela allait dans le sens d’une leçon d’économie moderne qui s’applique à l’innovation numérique : une combinaison de toutes ces manières d’organiser la production – au travers du gouvernement, du marché, du partage collaboratif – est plus performante que le recours exclusif à une seule.

Rien de cela n’est nouveau. Babbage obtint la majeure partie de son financement du gouvernement britannique, qui se montrait généreux en soutenant ainsi une recherche qui pouvait renforcer son économie et son empire. Il adopta des idées venant de l’industrie privée, au premier chef les cartes perforées développées par les firmes textiles pour les métiers à tisser automatisés. Ses amis et lui étaient les fondateurs d’une poignée de nouveaux clubs reposant sur les réseaux de collègues, dont l’Association britannique pour l’avancement de la science, et bien qu’il paraisse exagéré de voir dans cette vénérable institution le précurseur en costumes d’époque du Homebrew Computer Club, ils existaient tous les deux pour faciliter « la collaboration des pairs sur un terrain commun » et le partage des idées.

 

Les projets les plus réussis de l’ère numérique furent ceux menés par des chefs d’entreprise qui encouragèrent la collaboration tout en imposant également une vision claire des objectifs. Trop souvent, ces traits sont considérés comme antagonistes : un chef est soit concentré sur la réussite, soit un visionnaire passionné. Mais les meilleurs combinent les deux. Robert Noyce en était un bon exemple. Gordon Moore et lui ont fait progresser Intel avec leur définition précise de l’objectif visé par la technologie des semi-conducteurs, et ils avaient tous les deux – et jusqu’à l’excès – l’esprit collégial et anti-autoritaire. Même Steve Jobs et Bill Gates, malgré toute leur ombrageuse intensité, savaient comment rassembler autour d’eux des équipes performantes et inspirer leur loyauté.

Des individus brillants incapables de collaborer avaient tendance à échouer. Shockley Semiconductor se désintégra. De même, des groupes collaboratifs dépourvus de visionnaires passionnés et énergiques échouèrent aussi. Après l’invention du transistor, les laboratoires Bell partirent à la dérive. Il en fut de même pour Apple après l’éviction de Jobs en 1985.

La plupart des innovateurs et entrepreneurs couronnés de succès qui figurent dans le présent ouvrage avaient un point commun : ils travaillaient sur le produit. Ils avaient une compréhension profonde de l’ingénierie, de la conception et du design. Ils n’étaient pas à la base des gens du marketing, des vendeurs ou des financiers ; quand pareils personnages se retrouvaient à la tête d’entreprises, c’était souvent au détriment de l’innovation durable. « Quand les mecs des ventes dirigent la boîte, les mecs du produit ne comptent plus tellement, et il y en a pas mal qui décrochent », disait Jobs. Larry Page pensait de même : « Les meilleurs chefs d’entreprise sont ceux qui ont la compréhension la plus profonde de l’ingénierie et de la conception du produit34. »

Une autre leçon de l’ère numérique est aussi vieille qu’Aristote : « L’homme est un animal social. » Sinon, comment expliquer la radio amateur, la CB ou leurs successeurs, tels que WhatsApp et Twitter ? Presque tous les outils numériques, qu’ils soient ou non conçus à cette fin, ont été réquisitionnés par les humains dans un but social : pour créer des communautés, faciliter la communication, collaborer à des projets et permettre le réseautage social. Même l’ordinateur individuel, accueilli à l’origine comme un outil pour la créativité personnelle, a conduit irrésistiblement à l’essor des modems, des services en ligne et, finalement, de Facebook, Flickr et Foursquare.

Les machines, en revanche, ne sont pas des animaux sociaux. Elles ne rejoignent pas Facebook de leur propre gré ni ne cherchent de la compagnie pour elle-même. Lorsqu’Alan Turing affirma qu’un jour les machines se comporteraient comme des humains, ses critiques répliquèrent qu’elles ne pourraient jamais montrer de l’affection ni rechercher une relation intime. Pour faire plaisir à Turing, peut-être pourrions-nous programmer une machine pour qu’elle simule l’affection et feigne de rechercher une relation intime, tout comme les humains le font quelquefois. Mais Turing, et surtout lui, détecterait probablement la différence.

D’après la deuxième partie de la citation d’Aristote, la nature non sociale des ordinateurs suggère qu’ils sont « soit une bête soit un dieu ». En réalité, ils ne sont ni l’un ni l’autre. Malgré toutes les proclamations des ingénieurs en intelligence artificielle et sociologues d’Internet, les outils numériques n’ont ni personnalité, ni intentions, ni désirs. Ils sont ce que nous faisons d’eux.

La leçon durable d’Ada : la science poétique

Tout cela nous conduit à une ultime leçon qui nous ramène à Ada Lovelace. Comme elle l’a fait remarquer, dans notre symbiose avec les machines, nous autres humains avons apporté un élément crucial à ce partenariat : la créativité. L’histoire de l’ère numérique – de Bush à Licklider et d’Engelbart à Jobs, de SAGE à Google et de Wikipedia à Watson – a renforcé cette idée. Et tant que nous demeurerons une espèce créative, cela restera vraisemblablement vrai. « Les machines seront plus rationnelles et analytiques, dit John Kelly, directeur de la recherche chez IBM. Les humains fourniront le jugement, l’intuition, l’empathie, une boussole morale et la créativité humaine35. »

Si nous, les humains, pouvons rester pertinents à l’ère de l’informatique cognitive, c’est que nous pouvons penser différemment, aptitude qu’un algorithme, presque par définition, ne peut maîtriser. Nous possédons une imagination qui, comme l’écrivait Ada, « rassemble des choses, des faits, des idées, des conceptions en des combinaisons nouvelles, originales, infinies, sans cesse changeantes ». Nous discernons motifs et schémas et apprécions leur beauté. Nous tissons l’information en récits. Nous sommes des animaux sociaux, mais aussi des narrateurs.

La créativité humaine implique des valeurs, des intentions, des jugements esthétiques, des émotions, une conscience personnelle et un sens moral. C’est ce que nous enseignent les arts et les lettres – et c’est pourquoi ces domaines sont des éléments de notre instruction aussi précieux que la science, la technologie, l’ingénierie et les mathématiques. Si nous autres mortels devons défendre notre côté de la symbiose humain-ordinateur, si nous devons conserver un rôle de partenaires créatifs de nos machines, il nous faut continuer d’alimenter les sources de notre imagination, de notre originalité, de notre humanité. C’est ce que nous apportons en partage.

Steve Jobs concluait ses lancements de produit par une diapositive projetée sur l’écran derrière lui et montrant les panneaux indicateurs de l’intersection entre les sciences humaines et la technologie. Lors de sa dernière apparition, pour présenter l’iPad 2 en 2011, il se plaça devant cette image et déclara : « Il est inscrit dans les gènes d’Apple que la technologie seule ne suffit pas – que c’est la technologie mariée aux sciences humaines, mariée aux humanités, qui produit le résultat qui fait chanter notre cœur. » C’est ce qui fit de lui le plus créatif des innovateurs technologiques de notre époque.

L’inverse de cet hymne aux humanités est toutefois vrai lui aussi. Les gens qui aiment les beaux-arts et les sciences humaines devraient essayer d’apprécier comme Ada les beautés des maths et de la physique. Faute de quoi ils ne seront plus que des passants échoués à l’intersection des lettres et des sciences, là où se produit l’essentiel de la créativité de l’ère numérique. Ils abandonneront le contrôle de ce territoire aux ingénieurs.

Bien des gens qui célèbrent les lettres et les sciences humaines et applaudissent vigoureusement les témoignages de leur importance dans nos écoles proclament sans vergogne (et parfois même en plaisantant) qu’ils ne comprennent pas les maths ou la physique. Ils portent aux nues les vertus de l’apprentissage du latin, mais ils sont perdus dès qu’il s’agit d’écrire un simple algorithme ou de distinguer le BASIC de C++, Python de Pascal. Ils traitent de béotiens les gens qui confondent Hamlet et Macbeth, mais peuvent allègrement avouer qu’ils ne savent pas la différence entre un gène et un chromosome, un transistor et un condensateur, une équation intégrale et une équation différentielle. Ces concepts peuvent paraître difficiles. Certes, mais Hamlet l’est aussi. Et, comme Hamlet, chacun de ces concepts a sa beauté. Telle une élégante équation mathématique, ils sont l’expression des splendeurs de l’univers.

Le scientifique, romancier et haut fonctionnaire britannique C. P. Snow avait raison quand il soulignait le besoin de respecter en même temps « les deux cultures » – les sciences et les humanités. Mais la manière dont elles se croisent est plus importante aujourd’hui. Ceux qui ont contribué à guider la révolution technologique étaient des gens qui pouvaient combiner les sciences et les humanités, comme Ada. Elle tenait de son père la tendance poétique et de sa mère la tendance mathématique de sa personnalité, ce qui lui inspira l’amour de qu’elle appelait la « science poétique ». Son père défendit les luddites qui brisaient les métiers à tisser mécaniques, mais Ada aimait les cartes perforées qui ordonnaient à ces métiers de tisser de si beaux motifs, et elle imagina comment cette prodigieuse combinaison de l’art et de la technologie pourrait se manifester dans les calculateurs.

La prochaine phase de la révolution numérique apportera encore plus de nouvelles méthodes pour marier la technologie aux industries créatives telles que les médias, la mode, la musique, le divertissement, l’enseignement, la littérature et les arts. Une bonne partie du premier round de l’innovation a consisté à habiller de vieux contenus – les livres, la presse, les éditoriaux, les revues scientifiques, les chansons, les émissions de télévision et les films –, sous des couvertures numériques toutes neuves. Mais, de plus en plus, des plates-formes, services et réseaux sociaux nouveaux offrent des possibilités inédites à l’imagination individuelle et à la créativité collaborative. Les jeux de rôle et le théâtre interactif fusionnent avec des formes collaboratives de narration et de réalités augmentées. Cette interaction entre la technologie et les arts finira par produire des formes d’expression et des formats médiatiques totalement nouveaux.

Cette innovation viendra de gens capables d’associer la beauté à l’ingénierie, l’humanisme à la technologie et la poésie aux processeurs. Autrement dit, elle viendra des héritiers spirituels d’Ada Lovelace, de créateurs aptes à s’épanouir là où les arts et lettres rencontrent les sciences, et dotés d’un sens de l’émerveillement rebelle ouvert à la beauté des uns et des autres.

image

*1. Un neurone est une cellule nerveuse qui émet des informations sous forme de signaux électriques ou chimiques. Une synapse est une structure ou une voie qui transmet un signal d’un neurone à un autre neurone ou une autre cellule.