Hybrots, robots et la théorie d’Uncanny Valley

À l’heure actuelle, notre corps bénéficie davantage de greffes physiques de machines que de liens virtuels avec elles. Dans son livre Flesh and Machines, Rodney A. Brooks mentionne quelques exemples[1] : les implantations cochléaires qui lient les neurones directement à la chair, l’implantation de puces dans les rétines, et à l’avenir : la possibilité de liaisons neurales avec Internet, qui irrigueront notre cerveau de connaissances afin de réussir un examen ou de décrocher un nouvel emploi. Apparemment, il suffira d’allumer un interrupteur lié au cerveau pour devenir immédiatement un génie. J’espère que, si on s’en fatigue (cela demande beaucoup d’énergie d’être intelligent), on pourra éteindre l’interrupteur et redescendre à un QI assez bas pour regarder un feuilleton mélo ringard à la télé.

Je viens de décrire deux exemples réels et un exemple hypothétique de l’interface physique de l’électronique et du tissu humain. Mais au cas où vous auriez du mal à croire que la technologie se développe dans cette direction, je dois vous signaler certaines expériences qui se déroulent depuis plusieurs décennies dans différents laboratoires du monde. Sous le nom de fabrication de « réseaux neuronaux désincarnés[2] », ces expériences consistent à relier un réseau de neurones vivants en culture à un périphérique entrée-sortie, afin de permettre aux chercheurs de communiquer avec ce réseau. Autrement dit, ils ont créé de l’intelligence désincarnée. Normalement, les cellules utilisées dans ces expériences proviennent des tissus nerveux d’un rat (et dans un cas seulement, elles ont été obtenues à partir d’un embryon humain avorté). On utilise ces « morceaux vivants » pour étudier dans un environnement contrôlé des aspects du fonctionnement du système nerveux central, ce qui nous fait progresser, je suppose, sur la voie de la séparation de l’intelligence et du corps humain ; en attendant l’expansion de l’intelligence en dehors de celui-ci. Les électrodes attachées à cette petite masse de neurones peuvent transmettre des messages électrophysiques, qui sont enregistrés par les chercheurs[3]. Ce système permet d’obtenir des données concernant les réactions à l’environnement de ces masses de cellules désincarnées.

Mais quel est l’« être » ou l’ « objet » qui ressent cette expérience sensorielle ? Quelques cellules de tissu nerveux vivant peuvent-elles équivaloir à un organisme ? Ressentent-elles de la douleur ? Les chercheurs baptisent-ils chacune de ces cellules d’un prénom comme « Jacques » ou « Zizi » ?

Mes anthropomorphismes cherchent, encore une fois, à provoquer et mettre en scène un mélodrame. En réalité, il ne s’agit que de minces couches de neurones de l’épaisseur d’une seule cellule. On ne peut les voir qu’au microscope. Cependant, il est tout à fait vrai que des cellules de fœtus humain avorté ont été employées dans une expérience de contrôle d’un appareil robotique.

De plus, il est possible que ces patchs de neurones, obtenus à partir de cellules souches neurales, soient des individus « déséquilibrés ». Parce qu’ils n’ont pas de corps, ils sont coupés de la plupart des stimulus sensoriels et ne sont pas capables non plus d’exprimer leurs réactions physiologiquement (ils ne peuvent même pas dénigrer leurs tortionnaires). Ils sont pris au piège à l’intérieur d’eux-mêmes. (Je sais que je continue d’anthropomorphiser, mais je ne peux pas m’en empêcher.) Rappelons qu’il est bien connu que la privation sensorielle engendre des modes de comportement « anormaux ». Ainsi les chercheurs doivent-ils parfois utiliser des bloquants synaptiques comme tranquillisants pour calmer ce réseau troublé.

La controverse théorique actuelle à propos de ces expériences concerne la question de la capacité de ces tissus à « apprendre ». Essentiellement, cela suppose la faculté de faire la différence entre l’apprentissage du savoir et la « plasticité ». La plasticité est simplement le remaniement de la configuration des liens entre les neurones, effectués par des stimulus électrophysiques. Elle joue un rôle dans le savoir, mais l’éducation permet aussi «l’acquisition de comportements originaux par le biais de l’expérience[4] », ce qui suppose des interactions (bilatérales, j’imagine) avec l’environnement qui sont, pour les neurones en culture, assez difficiles.

Incarner ces neurones dans un animai, ou animal artificiel, peut les mettre dans un meilleur contexte d’apprentissage du savoir. On pourrait, par exemple, produire un hybrot (robot hybride[5]), un cyberorganisme qui serait une fusion d’éléments électroniques et biologiques contrôlée par un ordinateur. Steve Potter[6], un professeur d’ingénierie biomédicale de l’Institut de technologie de Géorgie, a déjà réussi cette expérience. La « créature » consiste en une gouttelette de solution de neurones de rat placée sur une puce électronique de silicium dans laquelle sont enchâssées des électrodes liées à un amplificateur. Quand les cellules commencent à lancer des impulsions électriques les unes vers les autres, les électrodes envoient ces signaux à l’ordinateur. Ce processus de capture de « conversations » électroniques entre neurones peut même permettre d’actionner un robot. Et parce que ce robot externe est muni de détecteurs de lumière, il peut accumuler des renseignements relatifs à son emplacement dans l’espace et renvoyer ces données aux cellules. Mais les inventeurs de ce monstre Frankenstein nous mettent en garde : Ne nous emballons pas, leur hybrot n’est pas vivant, il est « semi-vivant ».

Personnellement, cet état de chose me suffit. J’ai l’intention de créer mon premier cyborg, et même s’il n’est que « semi-disponible », ce ne sera pas la première fois que je me trouverais dans une telle situation. Je me contenterais aussi du fait que mon mec ait le cerveau d’un rat, encore une situation qui ne serait pas tout à fait nouvelle pour moi.

Qu’avons-nous obtenu jusqu’à présent ? « Un peu » du système nerveux d’un rat, qui peut être relié à quelques animations robotiques et également communiquer, ou former un réseau, avec des objets situés en dehors de son « corps ». Mais cette « semi-créature » et son « cerveau » ne sont pas très séduisants : j’en ai vu une photo, et un hybrot ressemble essentiellement à la carte mère d’un ordinateur. Ne mérite-t-il pas d’être doté d’un peu de chair ? Heureusement, Disney a trouvé une solution. Peut-être vous souvenez-vous du film The Absent-Minded Professor[7], le récit d’un chercheur distrait mais adorable qui invente une substance hyperélastique appelée Flubber. En fait, dans l’esprit de ce film, des professeurs dans les écoles américaines avaient donné à leurs élèves des recettes de Flubber afin de démontrer la nature d’un solide qui possède aussi quelques propriétés liquides. Il suffit d’avoir de la colle blanche, de l’eau tiède, des colorants alimentaires et un peu de borax. Le résultat est viscoplastique, ou gélatineux comme... de la peau humaine !

Profitant de cette riche tradition Disney, l’un des laboratoires de robotique les plus audacieux, Hanson Robotics, a inventé le Frubber[8] (« face » + «rubber »), un polymère élastique qui exige un courant beaucoup plus faible que celui nécessaire à actionner les substances utilisées à l’heure actuelle dans la fabrication de la chair artificielle des robots. Les propriétés du Frubber sont incroyablement similaires à celles de la vraie peau. Il est assez flexible pour simuler toutes les expressions humaines, au point qu’il est théoriquement possible de l’utiliser dans les sculptures prosthétiques servant à la reconstruction des visages de soldats presque totalement défigurés au combat[9].

David Hanson, le dessinateur et chercheur en chef de Hanson Robotics, a expliqué la démarche qu’il privilégie. La difficulté, évidemment, est d’intégrer le Frubber et ces moteurs miniatures avec les tissus, les organes et les conduits sollicités par le visage pour les processus biologiques, la parole et les expressions humaines. Comme Hanson l’a expliqué : « On doit maintenir non seulement l’intégrité des sinus, de l’appareil digestif et des voies respiratoires, mais on doit aussi assurer les fonctions esthétiques du visage. »[10] On commence avec une structure de Frubber qui, au toucher, rappelle exactement l’épiderme. Elle doit être capable de s’étirer et de se comprimer, comme la peau souple du visage. Des pores et des cavités creusées dans le Frubber parachèvent la ressemblance. Puis on attache des tissus plus profonds à cette chair artificielle et on lie les points de jonction aux moteurs insérés dans le Frubber, qui servent de « muscles » pour tirer la « peau » et former des expressions. Finalement, cette prothèse de Frubber, avec ses moteurs et ses détecteurs, doit être attachée chirurgicalement au visage humain et la chair doit accepter la greffe. Peut-être faudra-t-il enfin ajouter dans la prothèse un système de microrobots qui s’occupera d’entretenir les tissus du vrai visage blessé, en le nettoyant et en l’hydratant avec des émollients chaque fois que les détecteurs de ce mini système en détermineront le besoin. Et tout cela sera alimenté par des batteries longue durée de petite taille.

J’hésite à imaginer des situations qui passeraient du sublime au ridicule si ce système hypothétique si complexe avait des ratés ; elles sont trop horrifiantes : écroulement des muscles artificiels en une flaque grotesque, ou des lèvres qui se mettent à bouger beaucoup plus vite que les mots ne jailliraient de la bouche, etc. Mais je veux évoquer ces problèmes possibles pour soulever la question  – déjà longuement examinée plus haut  – de l’identité humaine. Si on réfléchit sans préjugé à la nature du visage humain, on finit par se confronter au portrait grotesque de notre humanité dépeint dans le film d’horreur classique Les yeux sans visage[11]. Notre visage n’est qu’une cage rigide contenant nos organes (y compris le cerveau), voilée par une nappe relativement mince de peau. Autrement dit, quand on s’entretient avec un autre individu de notre espèce, on réfléchit rarement à la composition de son visage, à ce qui est caché sous sa surface cosmétique ; en fait, les individus dont le squelette du visage a les contours les plus saillants  – surtout les pommettes  – à moins qu’ils ne soient malades, sont, en général, considérés comme les plus beaux (Delon, Deneuve, Dietrich, par exemple). Cette exagération de l’ossature du visage ne le gâche pas à nos yeux ; il reste intact, et nous ne l’analysons pas de façon morbide. Mais que penserions-nous d’un visage artificiel, tel que je viens de le décrire, quel que soit le degré de perfection de l’exécution ? Notre réaction serait de frémir, de considérer ce visage comme un objet construit de toutes pièces. En théorie, la différence ne s’explique que par notre connaissance des méthodes utilisées. Si Dieu a créé le visage, il reste intact, mais si c’est l’homme qui l’a fabriqué, il s’écroule en lambeaux monstrueux dans notre esprit. Peut-être que je simplifie, parce que dans le film Les yeux sans visage, nous sommes étrangement attirés par ce masque classique et le « rien » macabre qu’il cache, et il nous faut admettre que le rapport entre les deux n’est pas exempt d’une espèce de beauté.

Est-ce notre instruction religieuse et la notion de « naturel » léguée par notre éducation qui sont responsables de notre peur du mélange entre l’humain et l’artificiel ? Je ne sais pas. Mais je ne suis pas le premier à dire qu’il y a un certain degré de ressemblance humaine qu’un robot ne doit pas dépasser pour que la technologie soit acceptée. Dans la science des robots sociaux, il y a même un terme pour désigner ce principe : c’est « la théorie du Uncanny Valley. »[12] Le valley (vallon) est une déclivité sur un graphique représentant la réaction affective d’un être humain devant un robot, lorsque le robot semble trop vivant ; et l’être humain ressent une aversion devant cet objet « troublant » (troublant = uncanny). À mon avis, c’est l’idée qu’on puisse mesurer la répugnance à l’aide d’un graphique qui est la plus troublante.

Par contre, dois-je répéter que nos jugements sont influencés par des variables culturelles ? Les expériences qui approchent le mieux la simulation de l’apparence de l’être humain se déroulent semble-t-il au Japon. Est-ce dû à une mentalité malsaine ou superficielle qui confond l’artificiel avec le réel ? Beaucoup d’Occidentaux le pensent. Moi qui ai vécu plusieurs mois au Japon au début des années 1980, je suis convaincu du contraire. C’est un pays qui a, pendant des siècles, respecté les moindres détails de la nature. Leurs habitudes reflétaient une fluidité de vie imitant la nature, et leur architecture traditionnelle, bien sûr, était ouverte aux saisons et n’élevait pas de barrière contre les variations climatiques saisonnières, à l’inverse de l’architecture occidentale. Je crois que, de la même façon, leurs robots hypernaturalistes sont un hommage au naturel. Peut-être est-ce une vision déformée par la vie moderne, mais ce n’était pas voulu dans la mesure où la dualité entre l’humain et la nature n’a jamais existé là-bas. Nous, les Occidentaux, nous essayons de respecter la nature en mettant des limites à l’imitation. Autrement dit, nous préservons les barrières traditionnelles entre elle et nous. Nous définissons le naturel par la séparation.

Au Japon, le célèbre dessinateur de robots Hiroshi Ishiguro vient d’inaugurer son nouveau « robot souriant », Geminold F[13]. Cet androïde est la copie exacte d’une vraie femme très jolie, vingt ans, les cheveux longs ; elle peut rire, sourire et faire d’autres gestes agréables avec une authenticité plus naturelle que tous les autres androïdes d’Ishiguro, y compris une copie exacte de lui-même qui ne sourit pas du tout. Geminold F a fait son entrée dans le monde avec sa «jumelle », la femme qui lui a servi de modèle et qui était vêtue exactement comme elle, puis Geminold F s’est mis à imiter tous les gestes de la véritable jeune fille d’une façon extraordinairement exacte. «J’avais l’impression d’avoir une jumelle », s’est émerveillée la jeune fille au cours d’un entretien avec des journalistes qui assistaient à la démonstration. Geminold F fait partie d’une nouvelle vogue qui consiste à commercialiser des clones robotiques. En janvier 2010, le magasin Sogo & Seibu a passé commande d’« Actroïds », des sosies qui seront programmés pour imiter l’apparence, les expressions, les mouvements et les voix de leurs acheteurs[14].

Hanson Robotics, en poursuivant son projet de simuler la vie humaine de façon sensorielle (à mon avis, c’est tout ce dont il s’agit ; ce ne sont pas des expériences d’intelligence artificielle mais de simulation sensorielle de la réalité), a créé plusieurs « robots sociaux » couverts de Frubber qui semblent très vivants. Chaque fois que ces « êtres » sont exhibés, les médias semblent réagir avec un mélange de fascination, d’enthousiasme, d’espoir et de malaise.

Pour moi, le robot Albert-Hubo d’Hanson Robotics est l’un des plus grotesques. C’est un corps qui ressemble à un robot mais qui peut marcher de façon indépendante, alimenté par des batteries. Le corps est surmonté d’une tête qui a été conçue de façon réaliste sur le modèle d’Albert Einstein. Personnellement, cela me fait peur d’apprendre que les gens qui composent l’avant-garde de notre technologie robotique ont des mentalités à ce point « bande dessinée », sans originalité ni imagination. Évidemment, choisir comme modèle pour un robot à l’esprit si limité l’un des grands génies du vingtième siècle peut sembler fanfaron. Il serait plus pertinent, je crois, de choisir, par exemple, une tête de boxeur légèrement atteint de lésions cérébrales ; Mike Tyson, peut-être. ; on aurait ainsi plus de chance d’arriver à un personnage crédible.

Mais il y a pire. Avec un état d’esprit qui ne peut être qualifié que de morbide, ils ont aussi déterré un de leurs héros morts : Philip K. Dick[15]. On peut parler avec monsieur Dick et discuter de ses livres tandis que ses yeux vous suivent du regard. Cela est rendu possible par des appareils photos placés derrière les yeux et reliés à un logiciel d’« identification biométrique » qui peut percevoir les expressions du visage humain et reconnaître dans une foule un individu qui aurait auparavant participé à un entretien avec monsieur Dick. De toute évidence, ils n’ont pas réussi à trouver un emploi très digne pour le pauvre cadavre de monsieur Dick. Comme le reporter l’a remarqué : « À l’avenir, ils pourront peut-être servir d’agents de sécurité. »

Et les émotions dans tout ça ? Aaron Saenz, sur le site singularityhub.com[16], décrit des replicants[17]d’une « vraisemblance inquiétante », qui parlent et réagissent comme des humains. Et leur vraisemblance semble d’autant plus inquiétante quand on voit une photo de leur créateur, Hanson, en train de déjeuner avec leurs têtes désincarnées, avec lesquelles il poursuit des conversations amusantes. La question de l’acquisition de « l’intelligence émotionnelle », comme l’appelle Saenz, est bien sûr très controversée. Mais pour Hansen et d’autres chercheurs technologistes, la faculté de suivre le visage humain et d’imiter les expressions humaines est le signe d’une espèce d’empathie. Saenz compare l’apprentissage des émotions par les robots à travers l’imitation avec l’éducation reçue par les enfants immergés dans leur environnement. « Quand des parents donnent naissance à un enfant, dit-il, il serait assez ridicule de s’attendre que l’enfant vive et se comporte immédiatement en adulte[18]. » Pour lui, il est plus logique d’élever des robots comme s’ils étaient des enfants. Ils mûriront comme le font tes enfants en observant et en imitant leurs « parents », les chercheurs.

La Commission européenne est du même avis[19] : elle a alloué 8,5 millions d’euros à des savants affiliés à onze universités européennes afin de développer le projet RobotCub, dirigé par l’Italien Giulio Sandini[20]. Normalement, les robots actuels sont programmés avec les logiciels les plus sophistiqués, dans le but de créer, un jour, un cerveau robotique égal à un cerveau humain. Mais les chercheurs du projet RobotCub ne s’intéressent guère aux robots capables de remporter une partie d’échecs contre un champion humain ou de réaliser des opérations chirurgicales. Ils ont décidé de suivre une approche qui recourt à l’éducation pour développer peu à peu la complexité du cerveau d’un robot. Parce qu’au début de leur vie les nouveau-nés sont des créatures complètement dépendantes, incapables même de saisir des objets, les chercheurs ont décidé de donner naissance à un « robot enfant » un peu plus âgé, et de munir leur « fils » de mains et de jambes de la taille d’un bambin qui aurait appris à marcher depuis seulement quelques mois et doté d’un cerveau au niveau de connaissances équivalent. Il faut donc créer un ordinateur capable d’exécuter un ensemble d’algorithmes, mais pas davantage, sauf en ce qui concerne les logiciels pour la vue et la capacité à reconnaître un visage de forme humaine.

Les recherches scientifiques les plus avancées concernant l’assimilation du comportement social et même de la parole se focalisent souvent sur le traitement visuel-moteur et la manipulation des objets. Autrement dit, le bambin doit faire l’expérience de son environnement d’une façon qui, normalement, rend les mères folles. «Nous avons voulu fabriquer un robot possédant suffisamment de mobilité pour reproduire l’apprentissage éducatif vécu par un enfant », affirme Sandini. Il voudrait aussi, j’imagine, que ces étapes soient vécues à peu près dans le même ordre. Comme Sandini l’a expliqué, avant qu’un enfant puisse attraper un ballon en mouvement, il doit apprendre comment mettre et garder le ballon dans son champ de vision, comment déterminer la trajectoire probable de ce ballon et finalement comment entourer le ballon de ses doigts et exercer suffisamment de pression pour le tenir (et pas le détruire comme le font beaucoup d’enfants humains). En fait, pour fabriquer ce robot, ils ont commencé avec les mains et ont construit le reste du robot autour de celles-ci. Ces mains ont des proportions qui en font l’une des plus belles représentations de mains que j’aie vue sur un robot. Il possède aussi un joli masque d’enfant attaché par les chercheurs à la structure de la tête. Globalement, ce robot, ou « RobotCub », ressemble à un Petit Prince hébété, mais à la tête rasée (un Petit Prince skinhead ?), tandis qu’il explore et touche avec hésitation les objets de son royaume contrôlé par ses parents les chercheurs[21].

La vision stéréoscopique du RobotCub vient de deux caméras et d’ampoules oculaires mobiles. Pour ajouter un soupçon d’humanité (pas trop ; on ne veut pas tomber dans l’« Uncanny Valley », ce qui est de toute façon improbable parce que ce garçon ressemble bien davantage à Mlle Yeux Sans Visage), on lui a donné des paupières capables de cligner. Sa bouche est composée de petites lumières qui peuvent sourire ou faire la moue. Pour le sens du toucher, il est doté de détecteurs qui répondent à la pression externe, et l’on est en train d’élaborer une « peau » électronique qui lui permettra de discerner la forme d’un objet et ses autres caractéristiques.

Cependant, ce n’est pas un enfant prodige, et son cerveau ne possède que trois niveaux d’aptitudes correspondant à l’âge de deux ans : un premier niveau permettant de rassembler et de filtrer les données collectées par ses sens, qui représente sa faculté à « être attentif » ; un second niveau fondé sur la fonction de l’hippocampe humain et qui l’amène à prendre des décisions relatives à ses actions ; et un troisième niveau qui utilise, avec un peu de chance, la mémoire pour faire des hypothèses relatives au présent. Le système d’exploitation du RobotCub est «open source », ce qui signifie qu’il n’a pas de marque déposée. Il a été offert aux laboratoires technologiques du monde entier afin qu’ils puissent développer leurs propres logiciels et leurs propres expériences. Son prix ou celui d’un de ses vingt « frères » : de 180 000 à 200 000 euros.

Mais si notre enfant peut grandir comme de vrais enfants, sera-t-il capable trois ans plus tard de parler avec des phrases complètes ? Certains savants disent que non. Le chercheur Oliviero Stock[22], un spécialiste de l’étude de l’intelligence artificielle et de la linguistique, est convaincu que les vrais humains naissent avec une aptitude innée pour le langage. On ne peut pas partir de zéro. Et Alfonso Caramazza, le directeur du Laboratoire de neuropsychologie cognitive d’Harvard, pense qu’il n’est pas possible de créer de la pensée symbolique uniquement à partir de processus sensori-moteurs.

Personnellement, j’estime que l’expérience RobotCub fait avancer le projet de créer un vrai cyborg  – un robot humain. Elle relie deux fonctions humaines qui donnent le jour à une troisième : (1) le mouvement et la cognition permettent de reproduire l’expérience de l’éducation et (2) la capacité à apprendre de façon autonome, en commençant en bas de l’échelle et en accumulant une banque de connaissances personnelles, comme le font les êtres humains. Cette expérience se situe dans le cadre de l’esprit antimécanique et humaniste de Pierre Lévy.

Cependant, comme tous les projets relatifs aux robots que nous avons étudiés jusqu’à présent, il s’agit seulement d’une question de cognition, de mouvement ou d’imitation des caractéristiques humaines dépourvues, en réalité, des expériences affectives intérieures, vécues, qui y correspondraient. Et ce qui m’étonne, c’est que bon nombre de chercheurs semblent juger que ces imitations sont l’équivalent d’expériences authentiques ; ou en tout cas relativement significatives. Bien sûr, il existe très peu d’études sur les émotions ou l’imagination humaines parce que les mécanismes qui expliquent ces états sont encore très mystérieux ; ce sont des interactions multilatérales que l’on comprend mal entre les hormones, les systèmes neuromusculaires et certains aspects de la cognition.

Néanmoins, les savants qui réalisent ces expériences, et surtout les journalistes qui les décrivent au grand public, ont toujours tendance à anthropomorphiser leurs sujets, c’est-à-dire leurs machines, et à projeter sur elles des émotions kitsch, alors même qu’ils évoquent un avenir peuplé de non-humains. De toute évidence, ils ont besoin de ces petites béquilles, de ces assurances enfantines quand, par exemple, ils fabriquent un RobotCub aux traits gracieux de golem idéalisé  – mais pas de manière trop réaliste quand même, pour éviter l’effet «Uncanny Valley ». Malgré l’objectivité dont se réclament tous les savants, le sombre royaume des nombres n’est jamais suffisant pour eux. Et si je pouvais, dans ce texte qui est loin d’être scientifique, trouver un moyen de mesurer les impulsions sentimentales de ces chercheurs, et d’interpréter leurs gestes un peu grotesques dans leur quête simultanée des faits, peut-être vous et moi comprendrions-nous aussi les curieux échanges mutuels de conceptualisation affective entre l’homme et la machine.

Je viens peut-être de mettre le doigt sur une idée troublante, mais aussi fascinante, concernant la manière dont nous abordons la Singularité. Nous n’avons aucune intention de couper la poire en deux. Qu’il s’agisse de créer une machine qui nous ressemble, qu’il s’agisse de sacrifier une partie de notre chair à notre matos, nous contrôlons toujours les conditions. Des chercheurs comme Kurzweil chantent les louanges d’ordinateurs qui peuvent cogiter mille fois plus vite que nous, des ordinateurs qui forment des réseaux mondiaux où la communication est instantanée, mais le moment futur où ces objets seront davantage «branchés » que nous, indépendants de nous, et feront en même temps partie de nous, est voilé dans un obscurantisme romantique, voire, d’une certaine manière, purement humain.

Cela explique une chose : pourquoi les chercheurs de RobotCub ne sont pas capables d’« élever » leurs fils robotiques sans les doter de petits souvenirs de notre identité humaine classique  – par exemple, des yeux qui clignent et des lèvres qui sourient. Cela explique en partie, aussi, l’angoisse de l’« Uncanny Valley », qui n’est pas de l’angoisse éprouvée face à des machines sur le point de devenir plus humaines mais face à des humains sur le point de devenir plus « machiniques ».

L’étude de notre avenir possible se perd dans une espèce de tautologie bizarre. La méthode scientifique, l’utilisation des nombres et des données pour comprendre tous les phénomènes, est elle-même très « machinique », et, pour rester toujours soi-disant objectifs, nous l’appliquons à l’étude de tous les phénomènes : aux machines et aux humains. Mais parce que nous craignons qu’un élément ne soit perdu en cours de route, nous repoussons toujours notre réalité matérielle et nous essayons de conserver de petites bribes d’humanité.

Ainsi, une somme de données apparaissant dans ces expériences et ces projets n’est pas consignée. On évoque le jour où les machines ressentiront des émotions, mais l’on ne parle pas, ou l’on n’a aucune idée, de nos propres sentiments lorsque nous travaillerons avec un être qui sera notre frère, et peut-être même notre maître, ce qui arrivera dans un avenir relativement proche. Pourquoi n’est-il pas évident  – si nous avons la moindre chance de créer un objet doté d’une conscience affective  – que nous devrons nous aussi nous préparer à l’idée de nous engager complètement vis-à-vis de cette conscience ? C’est un peu comme si quelqu’un préparait un bain très chaud rempli des produits les plus chers, sans avoir aucune intention de s’y plonger.

Une vidéo relative à l’expérience RobotCub, visible sur Internet[23], montre le « père » en train de taquiner son « fils ». Il tient un ballon devant les yeux du robot, et  chaque fois que le petit lève le bras pour le saisir, papa le fait bouger à gauche ou à droite ; le petit continue à lever son bras et à chercher le ballon des yeux, et le chercheur continue à le déplacer hors de sa portée, mais l’enfant évidemment ne se frustre pas. Il est aussi froid qu’un serpent. Par contre, les vrais enfants de son âge, même plus jeunes, connaissent la frustration et peuvent la communiquer. Quand j’ai regardé cette vidéo, je me suis demandé pourquoi on n’avait pas enseigné la frustration au robot. Quand il veut quelque chose (ah, mais non, pas veut ; quand il essaie d’obtenir), s’il n’y arrive pas  – à la cinquième fois, par exemple  –, il pourrait recevoir le message de faire un choix entre un logiciel qui activerait davantage son agressivité et un autre qui lui suggérerait l’inactivité (la passivité). En effet, nous savons que l’expérience de l’environnement par l’intermédiaire des agressions et des frustrations est essentielle pour le développement de la personnalité et de l’intellect des enfants. Mais cette orchestration du comportement aurait aussi une autre valeur : les cycles de frustration et de gratification dans la « vie » de l’enfant-robot formeraient des boucles d’interaction entre parent et enfant.

Un des éléments le plus importants a été oublié dans cette étude de la cognition progressive des enfants. Le RobotCub apprend par improvisation, un processus de développement mental très rare chez les machines et très proche de l’évolution naturelle. Malheureusement il manque à cette expérience la contrepartie de l’improvisation : l’improvisation du parent. Ce sont aussi les frustrations, les situations difficiles qui exigent de se hisser à la force du poignet qui caractérisent toutes les atmosphères éducatives, surtout dans le contexte familial. C’est donc très simple. Pour simuler un vrai apprentissage éducatif, on a besoin de l’enfant et du parent.

Ce que je suis en train de suggérer, c’est une recherche de l’intimité affective avec les machines. Pour les humains, cela signifie a priori : comment peut-on entrer en contact avec la conscience affective d’un autre, en dehors des méthodes traditionnelles de la psychothérapie, qui dépend essentiellement des caprices du langage et qui met le chercheur dans la position de quelqu’un qui se tiendrait à l’entrée d’une cave, à l’écoute de récits linguistiques affectifs qui s’en échapperaient et qui lui seraient criés ?

Oui, je sais que mon insistance à insérer le chercheur dans l’expérience de son sujet va contre toutes les règles de la méthode scientifique et qu’elle rappelle un certain Dr Jekyll, qui devint lui-même le cobaye de ses dangereuses expériences. Mais une chose est claire, c’est Jekyll, le chercheur devenu cobaye, qui a ressenti la plus grande intimité, qui a fait l’apprentissage de cette expérience de la conscience ; personne ne l’a connue comme lui.

Commençons donc par là : est-il possible de réellement s’engager sur le plan affectif avec les formes d’intelligence artificielle qui existent à l’heure actuelle ? La tentation de fusionner la conscience de l’homme avec celle de la machine est déjà là, mais seulement sous une forme si primitive que les chercheurs se sentent trop gênés pour l’avouer : le masque « bande dessinée » qu’ils ont conçu pour leur RobotCub (un masque qui n’a pour fonction que d’apporter un élément affectif dans leur travail) ; ou, d’une façon plus grotesque, le déjeuner d’Hanson avec les têtes tranchées et ultranaturalistes de ses héros, dont le choix (Einstein, Philip K. Dick) est un hommage léger et amusant mais représente aussi, peut-être, une sorte de peur de la vraie nature de la machine. Je propose quelque chose de plus radical : un lien affectif entre un homme et une machine, permettant de déterminer, enfin, comment une telle expérience affectera la subjectivité humaine.

Peut-être ai-je trouvé la promesse de cette aventure dans les polymères électroactifs. La technologie est employée par une société de Californie du nom d’Artificial Muscle[24]. Au début des années 1990, plusieurs agences gouvernementales ont été déçues par les actionneurs électromagnétiques utilisés le plus souvent dans la fabrication des robots. Pour répondre à leur demande, des chercheurs du Stanford Research Institute ont inventé une substance nommée Electroactive Polymer Artificial Muscle (EPAM). Le concept à la base de cette substance est assez simple. Une mince couche de polymère est placée entre deux électrodes. Parce que le polymère est élastomère, le passage de la charge électrique au travers de cette substance cause une contraction et un élargissement de sa surface. Le mouvement est donc produit sans moteurs électromagnétiques. En fait, c’est un mouvement très proche des contractions et dilatations des tissus musculaires.

Comment pourrions-nous ressentir l’existence d’une machine comme si c’était un être vivant ? Jusqu’à maintenant, les sens de la vue et de l’ouïe étaient les seuls sens le plus souvent partagés avec les machines. Il est possible de croire qu’elles peuvent voir et écouter. J’ai déjà décrit leur capacité à nous faire sentir qu’elles ont conscience de notre présence, et même à nous reconnaître après avoir « fait notre connaissance ». Parce que certains robots peuvent réagir correctement à un vocabulaire limité, ils peuvent « entendre », et ils peuvent aussi nous répondre. Ils peuvent même sentir notre présence à l’aide de leurs détecteurs, mais la sensation de leurs détecteurs ne nous communique pas beaucoup d’intelligence dans le domaine des émotions. Quand on touche la main du RobotCub, on sent seulement le métal froid. Leur toucher manque d’affectivité, il n’exprime rien. En général, les robots ne peuvent pas nous caresser.

Les polymères électroactifs, ou muscles artificiels, nous promettent un avenir où des machines pourront nous toucher avec une grande délicatesse. En fait, une fois que vous aurez assisté au gonflage de ces muscles artificiels, réalisé sans aucun compresseur ni machine pneumatique, vous comprendrez qu’il est très possible de construire des objets qui peuvent nous toucher.

Les polymères électroactifs sont aujourd’hui de plus en plus utilisés dans de nombreuses technologies qui exigent des poussées ou des tractions rapides et sans à-coups, délicates, subtiles, extrêmement miniaturisées et précises. Ils servent aussi dans les valves diaphragmatiques pour pompes, et, plus récemment, pour une centaine de fonctions dans le domaine des haptics[25], une technologie qui conçoit des stratégies imitant la sensation d’être touché.

Artifîcial Muscle, Inc. propose trois types de mouvements « haptics » : une pulsion ; une force qui tire en arrière, tel un diaphragme qui se rétracte lors de l’inhalation ; et une force d’attraction/répulsion suivant une ligne horizontale (par exemple, tels les mouvements faciaux d’un front qui se fronce et se détend). Artifîcial Muscle a annoncé dans une publicité : « Même sur un écran de verre, un bouton doit ressembler à un bouton, faire le bruit d’un bouton et donner la sensation d’un bouton, afin de donner à l’utilisateur la sensation complète que tout fonctionne correctement. »

C’est ainsi qu’ils envisagent d’animer les objets qu’on croit toujours être inanimés. Voici donc leur vision de l’avenir : « La première échographie est un moment exaltant... Vous pouvez voir et entendre le battement de cœur du bébé, mais quand vous touchez l’écran, vous pouvez aussi le sentir !... Maintenant, imaginez que vous pouvez partager cette expérience en direct avec « grand-maman », qui sentira le battement de cœur du bébé sur son portable[26]. »

À l’avenir, il est certain que nos écrans, nos souris et beaucoup d’autres objets émettront des pressions en réponse à nos actions, pressions qui seront presque aussi subtiles que le toucher d’un être humain. Certains téléphones portables et joysticks le font déjà à l’aide d’air comprimé ou de moteur, mais le haptics est beaucoup plus précis, immédiat et contrôlé, comme un véritable muscle. Avec le haptics et les muscles artificiels, il est possible d’imaginer qu’un jour nos murs et nos portes, et surtout nos robots respireront et répondront à notre contact. Mais il faut comprendre aussi que ces « pressions » couvriront une gamme large, en commençant par des pressions très fortes jusqu’à des pressions qui feront seulement l’effet d’une texture, comme du velours côtelé. Et la capacité à réaliser des mouvements aussi précis changera non seulement nos robots mais aussi certaines parties de notre corps lorsqu’il deviendra possible de remplacer les valves du cœur ou des muscles paralysés.

L’une des expériences les plus radicales avec les polymères électroactifs et le haptics a trait à une étude sur la possibilité d’un vrai lien affectif entre une machine et un être humain. Au centre de cette expérience, le Funktionide. Si cela vous est possible, avant que je n’ajoute quoi que ce soit, suivez l’expérience vous-même en regardant la vidéo du Funktionide sur http://vimeo.com/6960510. Mais pour ce livre, je vais m’efforcer de décrire cette expérience extraordinaire du chercheur et dessinateur allemand Stefan Ulrich[27], qui a coopéré avec la société Festo et les laboratoires suisses Empa pour créer le concept d’un objet qui utilise des muscles artificiels pour donner l’impression qu’il peut sentir.

Le Funktionide d’Ulrich ressemble à un édredon blanc géant à la forme gonflée et molle similaire, en ligne, à celle d’un haricot de Lima. Mais quand ce « tissu » bouge sur le sol, il donne l’impression d’une limace. L’effet est très déconcertant, et fait vraiment penser à un être vivant. La forme change au fur et à mesure que cette créature gonflée avance en ondulant. Un mouvement secondaire évoque tout à fait la respiration. La surface de l'objet se soulève et redescend comme une cage thoracique ou le ventre d’un être vivant.

L’élément le plus étonnant, cependant, est le rapport entre la «créature » et son créateur, Stefan Ulrich, qui affirme que le Funktionide « est un objet autarcique et amorphe qui donne à l’utilisateur l’impression d’une présence pour compenser son sentiment de solitude[28] ». Pour en donner la preuve, Ulrich montre une vidéo où on le voit avec le Funktionide partager des expériences « affectives ». Ou plus exactement, on voit Ulrich établissant un rapport affectif avec cette machine sans squelette d’acier ni moteurs  – un rapport qui me frappe comme étant presque à la lisière du sexuel. Le Funktionide coule lentement sur le sol, jusqu’à la chambre à coucher d’Ulrich, qui accepte que la machine grimpe lentement dans son lit. Puis il la caresse et dort avec elle dans ses bras.

J’ai dit « à la lisière du sexuel », mais cela ne veut pas dire que telle soit l’intention de son créateur. Ulrich n’est pas déshabillé et il n’a que des gestes de tendresse amicale. Il s’agit plutôt d’une sensibilisation progressive aux fonctionnements moteurs de sa création, à sa respiration et à ses mouvements qui se conforment au corps d’Ulrich. Et en explorant le site d’Ulrich, on peut découvrir d’autres concepts, tel un « mur liquide » qui ressemble plutôt à la surface ondulée de la mer et qui, si j’ai bien compris, vous repousse gentiment si vous le poussez. C’est un autre exemple de la perspective choisie par ce créateur, qui prévient sur son site : « À l’avenir, la technologie jouera un immense rôle dans nos vies, et il est très probable qu’un jour elle passera du rôle du simple assouvissement de nos besoins fonctionnels de base, à celui de satisfaire nos besoins affectifs. De quoi sera fait cet avenir ? De quoi souhaitons-nous qu’il soit fait ? Quels seront les effets sur nos rapports humains, si nous nous mettons à tomber amoureux de machines ? Les machines tomberont-elles amoureuses de nous ? »

Comme la plupart des êtres humains, ma réaction au Funktionide a été ambivalente. Beaucoup de gens, après avoir vu la vidéo, ont trouvé malsaine la démonstration d’une relation affective avec une machine. Ils ont posté sur le site des messages contenant des blagues agressives, tels des villageois qui n’acceptent pas que leurs propres idées sur la nature soient remises en question dans leur propre voisinage (comme si ce pauvre dessinateur pratiquait la bestialité). Mais après avoir longuement réfléchi sur ces images d’homme amoureux d’une machine, je me suis rendu compte comment quelques idées à la base de ce concept révèlent une compréhension de notre avenir qui dépasse les fantasmes câlins des chercheurs « objectifs ».

En premier lieu, il me semble assez probable que les machines du futur ne nous ressembleront pas du tout  – surtout si leur intelligence dépasse la nôtre. Elles n’auront pas besoin de notre visage ou de notre corps pour être aussi intelligentes que nous, si ce n’est davantage. À l’heure actuelle, la plupart des robots qui exécutent des tâches simples, comme les machines à laver ou les aspirateurs, ressemblent aux machines du passé ; ils ne sont pas dessinés avec de jolis traits humains. Si nous placions les yeux clignotants de RobotCub à la porte d’une nouvelle machine à laver, peut-être nos enfants, qui ne définissent pas encore un être humain d’une façon aussi étroite que nous, apprécieraient l’ajout de ce détail ; mais pour nous, cela resterait une blague.

Nous réservons les détails du corps humain aux robots qui exécutent des fonctions sociales ou intellectuelles et qui servent dans les expériences de laboratoire, ou qui sont utilisés comme jouets par nos enfants. Mais en réalité, l’intelligence des machines n’a pas de silhouette spécifique, sauf dans la mesure où leur forme permet d’accommoder les puces, les transpondeurs, les moteurs et les fils électriques qui composent leurs systèmes.

Le Funktionide est le prototype d’un objet qui n’est pas destiné à nous amuser en prenant l’apparence d’un être humain mais à nous réconforter grâce à son « corps naturel ». Il soulève des questions de forme et de fonction, et évoque aussi un sujet que j’ai rarement vu abordé dans le cadre de mes recherches pour ce livre : la nature des différents types d’affectivité entre humains et machines. Permettez-moi de vous rappeler les déclarations un peu dédaigneuses de Kurzweil sur ce point, que j’ai déjà citées plus haut : « Les machines peuvent combiner leurs ressources, leurs intelligences et leurs souvenirs. Deux machines  – ou un million  – peuvent se combiner pour devenir une unité, puis se séparer à nouveau. Les machines multiples peuvent faire les deux à la fois : elles peuvent s’unir et se séparer simultanément. Les êtres humains appellent ça l’amour. » À son avis, ce n’est pas seulement notre vie intellectuelle et cognitive qui changera dans notre avenir cybernétique, mais aussi les désirs que nous éprouverons les uns pour les autres une fois que nous serons devenus des machines. Cela trahit sa conception d’une certaine égalité mathématique dans les interactions sociales. À l’heure actuelle, on peut encore affirmer qu’un élément important de l’amour est le manque. Mais dans un monde complètement saturé d’intelligence, cette parabole dangereuse qui met en scène une rencontre chaotique entre deux âmes qui ne sont pas toujours égales n’aura plus lieu d’exister. Il n’y aura plus que des rencontres placides d’intelligences qui entrelaceront leurs énergies selon une structure prédéterminée qui couvrira la terre entière.

Dans cette perspective, le Funktionide peut aussi être considéré comme un robot de transition créé pour alimenter le vaste réservoir de l’empathie que des machines de plus en plus intelligentes, dans leur sagesse infinie, devront nous manifester. Ces robots de transition nous serviront jusqu’à ce que nous ayons atteint un degré de sagesse suffisamment « machinique » qui nous permette de nous rendre compte que l’amour n’est qu’une fonction répartie de façon égale, mettant en scène ses minutieux scénarios de dentelle dans le cadre des méga-institutions universelles : je veux dire par là, sur Internet. Mais pendant que nous, pauvres humains, avons encore besoin de ce bain-marie d’amour, examinons les paramètres du rapport entre le Funktionide et son créateur.

Dans un mail que j’ai reçu de M. Ulrich[29], il m’a dit que le système du Funktionide était effectivement bilatéral. « Le Funktionide est programmé pour éprouver le « désir » de rechercher le contact humain. Il essayera de s’approcher de vous. Il réagira à vos mouvements, ce qui veut dire que, si vous le touchez et le caressez gentiment, il assouplira et amollira sa surface. Par contre, si vous avez envie de lui donner des coups de pied, pour une raison ou pour une autre, ou de le battre, il se rétractera, afin de rétrécir sa propre surface, presque comme un hérisson. »

«À mon avis, la respiration est l’aspect le plus important du Funktionide, ajoute Ulrich. Cela lui permet d’évoquer l’affectivité d’une chose « vivante. » L’aspect le plus intéressant de ce projet se situe donc sur ce fil du rasoir moral. Les êtres humains peuvent-ils être attirés par le Funktionide (par des machines) tout en sachant qu’ils sont séduits par une illusion ? »

Alors, sans le savoir, j’ai assisté à une relation masochiste. Apparemment, le créateur n’est pas vraiment aimé de son trésor. Ou bien en est-il aimé ? À mon avis, notre position à l’entrée d’une cave, à l’écoute de récits linguistiques affectifs, que j’ai décrite plus tôt, est le seul modèle possible, non seulement pour les psychanalystes, mais aussi pour deviner si l’amour est réciproque. Il vous aime parce qu’il vous dit qu’il vous aime, et aussi parce qu’il se comporte en amoureux, mais vous ne pourrez jamais mettre directement le doigt sur cet amour enfoui en lui. En fait, nous sommes moins habiles à lire et à interpréter les émotions enfouies dans la profondeur de l’esprit humain, que l’amant du Funktionide ne l’est quand il sent le secret des énergies qui irradient des circuits amorphes de son amoureux.

Il me semble que je pose ici une question à laquelle beaucoup de chercheurs technologistes croient avoir trouvé la réponse : nos émotions sont-elles composées d’autre chose que de stimuli et de réactions ? Si le Funktionide est programmé pour nous rechercher constamment et avidement, si ses muscles artificiels se détendent sous nos caresses, quelle est la différence entre un amant humain et lui (à part de banales confidences sur l’oreiller) ? La seule différence est le fait que nous connaissons, dans le sens de leur signification scientifique, les raisons du comportement du Funktionide  – autrement dit, nous savons qu’il s’explique à partir de ses circuits, de ses matériaux et de ses énergies propulsantes  – alors que la raison des caresses de notre amant ne nous est connue qu’indirectement, par ouï-dire en quelque sorte. Ce n’est que par perversité humaine que nous trouvons ces dernières plus réelles. Tel est apparemment le point de vue de nombreux technologistes lorsqu’ils tentent de créer des états innés par la simulation d’actions dont on a toujours su qu’elles causaient ces états-là. À l’avenir, d’après le créateur du Funktionide, la « bête affective », nous ferons tous l’autruche, en vivant dans l’illusion narcissique de l’amour de nos machines, un état qui ressemble exactement à l’existence dans... la réalité virtuelle ! Et par une sorte d’alchimie, nos prophètes, les singularistes, ont annoncé qu’au moment où l’expérience de la conscience et le monde extérieur seront devenus virtuels, cette conscience ne sera plus du tout illusoire. Si je comprends bien, la réalité virtuelle cessera d’être une illusion quand elle deviendra notre seule illusion.

En attendant, il me faut dévoiler un fait que j’ai caché jusqu’à présent, mais que je dois révéler pour satisfaire à une morale démodée que j’ai conservée de l’ancien temps. Le Funktionide n’existe pas, même en prototype. Comme M. Ulrich me l’a confié dans son mail : « Malheureusement je dois vous décevoir. Le Funktionide, tel que vous l’avez vu dans la vidéo, n’est qu’un concept, qui a été visualisé à l’aide de la technique d’image par image, en tournant un film avec moi et un grand objet de latex. Les autres SFX ont été produits par traitement de l’image numérique. »

J’ai été déçu, mais en même temps, afín de souligner l’idée, prisée par certains technologistes, que notre réalité n’est formée que d’informations structurées, j’ai décidé de vous raconter le phénomène en suivant l’ordre des événements exactement tels que je les ai vécus. Nous pouvons tergiverser éternellement et nous perdre en conjectures sur la nature de l’émotion humaine et la possibilité de l’implantation d’une forme d’émotion dans les machines (et nous l’avons fait). Peut-être serait-il plus sage de trouver le moyen de nous faire croire que nous sommes en contact avec l’esprit des machines, même si certains pensent que nous ne le sommes pas vraiment. Si nous parvenions à le croire, il suffirait de nous convaincre que les machines aussi pensent que nous le sommes.

1.Brooks, Rodney A., Flesh and Machines : How Robots Will Change Us, Pantheon, 2002, p. 10.

2.Voir : « Cultured neuronal network » sur wikipedia org (http://en.wikipedia.org/wiki/Cultured_neuronal_network)

3.DeMarse, Thomas B., Wagenaar, Daniel A., Blau, Axel W. et Potter, Steve, « The Neurally Controlled Animat : Biological Brains Acting with Simulated Bodies », in Autonomous Robots 11,305-310,2001.

4.Cité dans « Cultured neuronal network » sur wikipedia.org. La phrase vient de Bakkum D. J., Shkolnik A. C., Bcn-Ary G., Gamblen P., DeMarse T. B., Potter S. M. : « Removing Some « A » from AI : Embodied Cultured Networks », in Embodied Artificial Intelligence : International Seminar, château de Dagstuhl, Allemagne, 7-11 juillet, 2003, Revised Selected Papers.

5.Voir « Hybrot » sur wikipedia org ; ainsi que : Georgia Institute Of Technology, « Georgia Tech Researchers Use Lab Cultures To Control Robotic Device », in ScienceDaily, 28 avril 2003, 22 juin 2010 (http://www.sciencedaily.com/releases/2003/04/030428082503.htm)

6.«Georgia Tech Researchers Use Lab Cultures To Control Robotic Device », op. cit.

7.Monte là-dessus, de Robert Stevenson, 1961.

8.Saenz, « Disturbingly Real Replicants from Hanson Robotics », sur Singularity Hub, 17 juillet 2009 (http://singularityhub.com/2009/07/17/disturbingly-real-replicants-from-hanson-robotics/). On peut aussi supposer que Frubber = « flesh » + « rubber ».

9.« Prosthetic Sculptures Duplicate Faces of Wounded U.S. Soldiers », transcription d’une conversation avec David Hanson sur PBS News Hour, 12 octobre 2006 (http://www.pbs.org/newshour/bb/health/july-dec06/hanson_10-11.html).

10.Ibid.

11.Des yeux sans visage, de Georges Franju, 1960.

12.Bryant, Dave, « The Uncanny Valley », in Glimpses (http://www.arclight.net/%7Epdb/nonfiction/uncanny-valley.html)

13.Guyizzo, Erico, « Geminoid F : Hiroshi Ishiguro Unveils New Smiling Female Android », sur ieee Spectrum : Inside Technology, 3 avril 2010 (http://spectrum.ieee.org/automaton/robotics/humanoids/040310-geminoid-f-hiroshi-ishi-guro-unveils-new-smiling-female-android).

14.Saenz, « Robot Look Alikes Go on Sale in Japan », sur Singularity Hub, 4 janvier 2010. (http://singularityhub.com/2010/01/04/robot-look-alikes-go-on-sale-in-japan-video/)

15.Consultez <http://www.youtube.com/watch?v=Hln8s3WjQWc> pour voir ce robot.

16.Saenz, « Hanson Discusses Robots That Show Emotion in TED Video », sur Singularity Hub, 26 octobre 2009 (http://singularityhub.eom/2009/10/26/hanson-discusses-robots-that-show-emotion-in-ted-video/)

17.Replicant : terme anglais issu de la science-fiction qui fait référence à un être artificiel copie exacte d’un être humain.

18.Saenz, « iCub Takes Humanoid Robotics Back to Its Infancy », sur Singularity Hub, 30 septembre 2009 (http://singularityhub com/2009/09/30/icub-takes-humanoid-robotics-back-to-its-infancy/)

19.Nosengo, Nicola, « Robotics : The bot that plays ball », Nature News, édité en ligne 26 août 2009, Nature 460, 1076-1078 (2009) (http://www.nature.com/news/2009/090826/full/4601076a.html)

20.Giulio Sandini. Chercheur à l’Institut italien de. technologie (ITT) de Gênes.

21.On peut voir le RobotCub, qui s’appelle iCub 1, sur http://www.nature.com/news/2009/090826/full/4601076a.html.

22.Oliviero Stock. Chercheur à la Bruno Kessler Foundation à Trente.

23.La vidéo du RobolCub se trouve à : http://www.youtube.com/watch?v=Dmj5TP7XIFE !

24.Voir : http://www.artificialmuscle.com/.

25.Pour une explication de base du haptics, voir : http://www.isfh.org/hapticlogo.htmPour plus de renseignements sur cette technologie, consulter l’article sur wikipedia org, « Haptic technology » (http://en.wikipedia org/wiki/Haptic_technology).

26.Voir : http://www artificialmuscle.com/technology.php

27.Site de Stefan Ulrich : http://www.eltopo.de/

Voir aussi : « Funktionide by Ulrich, Stefan », in Dezeen, affiché par Brad Turner, 5 octobre 2009 (http://www.dezeen.com/2009/10/05/funktionide-by-stefan-ulrich/).

28.Déclaration d’Ulrich sur http://www.eltopo.de/.

29.Mail du 10 avril 2010.