LES LOIS DE L’HUMANIQUE

par Isaac Asimov

 

 

Je suis heureux de voir comment les livres de la collection La Cité des robots s’inspirent et développent les thèmes de mes propres histoires de robots ou y font référence.

Mes trois premiers romans de robots étaient en fait des romans policiers où Elijah Baley figurait comme détective. Parmi ces trois premiers, le deuxième, Face aux feux du soleil (2), était comme le mystère de la chambre close, en ce sens que la personne assassinée était découverte sans que l’on puisse trouver l’arme du crime à proximité, et sans qu’aucune arme ait pu être dissimulée ou emportée.

J’ai réussi à fournir une solution satisfaisante mais je n’ai pas recommencé l’expérience ; je suis ravi de voir que Mike McQuay s’y est essayé ici.

Le quatrième roman de robots, Les Robots et l’empire (3), n’était pas, à proprement parler, un policier. Elijah Baley était mort de sa belle mort à un âge avancé, le livre s’orientait vers l’univers Fondation, et il était évident que mes deux séries, les Robots et les Fondations, allaient se fondre en un tout plus vaste. (Non, je n’ai pas fait cela pour une raison arbitraire. Les nécessités imposées par l’invention de suites, dans les années 1980, à des histoires écrites dans les années 40 et 50, m’ont forcé la main.)

Dans Les Robots et l’empire, mon personnage robot, Giskard, que j’aime beaucoup, commençait à s’inquiéter des « Lois de l’Humanique », qui, indiquais-je, pourraient Éventuellement servir de base à la science de la psychohistoire, qui joue un rôle si important dans la série des Fondations.

Au sens strict, les Lois de l’Humanique devraient être, sous une forme concise, une description du comportement humain idéal. Aucune description de ce genre n’existe, naturellement. Les psychologues eux-mêmes, qui étudient l’affaire scientifiquement (du moins je l’espère), sont incapables de présenter de telles « lois » ; ils ne peuvent que donner de longues et fumeuses descriptions de ce que les hommes semblent faire. Quand un psychologue dit que les gens réagissent de telle façon à tel stimulus, cela veut simplement dire que certaines personnes, à certains moments, réagissent parfois de cette façon. D’autres peuvent réagir de même à d’autres moments, et d’autres encore ne réagissent pas du tout.

De véritables lois prescrivant le comportement humain, des lois qui fonderont la psychohistoire seront peut-être créées (il nous faut l’espérer) mais je crains encore qu’il ne nous faille attendre longtemps.

Ainsi, qu’allons-nous faire de ces Lois de l’Humanique ? Le mieux serait sans doute de commencer très humblement, puis d’aller en progressant, lentement, si nous le pouvons.

Dans Les Robots et l’empire, c’est un robot, Giskard, qui pose la question des Lois de l’Humanique. Étant un robot, il doit tout imaginer en se basant sur les Trois Lois de la Robotique, ces lois étant réellement prescriptives puisque les robots sont obligés de les respecter et ne peuvent les transgresser.

 

Les Trois Lois de la Robotique sont :

1 – Un robot ne peut faire de mal à un être humain ni, par son inaction, permettre que du mal soit fait à un être humain.

2 – Un robot doit obéir aux ordres donnés par les êtres humains, sauf quand ces ordres entrent en conflit avec la Première Loi.

3 – Un robot doit protéger sa propre existence tant que ladite protection n’entre pas en conflit avec les Première et Deuxième Lois.

 

Il me semble donc qu’un robot ne peut s’empêcher de penser que les êtres humains doivent se comporter de manière à faciliter l’obéissance des robots à ces lois.

En fait, à mon avis, un être humain respectueux de l’éthique doit tenir à faciliter la vie des robots, comme le feraient les robots eux-mêmes. J’ai évoqué cette affaire dans ma nouvelle « The Bicentennial Man », parue en 1976, où je faisais dire à un de mes personnages :

« Si un homme a le droit d’ordonner à un robot de ne pas faire de mal à un être humain, il devrait avoir l’honnêteté de ne jamais ordonner à un robot de faire du mal à un autre robot, à moins que la sécurité humaine ne l’exige absolument. La responsabilité la plus lourde va de pair avec la puissance la plus grande et si les robots sont soumis à trois lois pour protéger les hommes, est-ce trop demander aux hommes que de se soumettre à une ou deux lois pour protéger les robots ? »

La Première Loi, par exemple, est en deux parties. La première partie, « un robot ne doit pas faire de mal à un être humain », est absolue et nul ne peut aller contre. La seconde partie. « ou par son inaction permettre que du mal soit fait à un être humain », laisse la porte entrebâillée. Un être humain peut se trouver en danger à cause d’un événement impliquant un objet inanimé. Un objet lourd peut lui tomber sur la tête, il peut lui arriver de glisser, de manquer de tomber dans un lac, ou d’être victime de toute sorte de mésaventures de ce genre. Dans ces cas-là, le robot doit simplement s’efforcer de sauver l’humain : de le mettre hors de danger, de le remettre debout sur ses pieds ou de le repêcher. Si un être humain est menacé par une autre forme de vie non humaine – un lion, par exemple – le robot doit se porter à son secours.

Mais si le danger menaçant un être humain est le fait d’un autre être humain ? Dans ce cas, le robot doit prendre une décision. Peut-il sauver un être humain sans faire de mal à l’autre ? Et dans le cas où le mal ne peut être évité, que doit-il faire pour réduire ce mal au minimum ?

La tâche du robot serait facilitée si les humains se souciaient du bien des autres humains comme ils l’exigent des robots. D’ailleurs, les codes qui constituent la morale humaine prescrivent aux hommes de se traiter les uns les autres avec bienveillance et de ne pas se faire de mal. Ce qui est, après tout, l’obligation qu’ont imposée les humains aux robots. Par conséquent, du point de vue des robots la Première Loi de l’Humanique est la suivante :

1 – Un être humain ne doit pas faire de mal à un autre être humain ni, par son inaction, permettre que du mal soit fait à un être humain.

Si cette loi est appliquée, le robot se contentera de protéger l’être humain contre des mésaventures provoquées par des objets inanimés ou par des formes de vie non humaines, ce qui ne lui posera aucun dilemme moral. Naturellement, le robot devra toujours protéger l’humain contre un dommage causé involontairement par un autre être humain. Il devra aussi se tenir prêt à voler au secours d’un être humain menacé si un autre être humain ne peut agir assez rapidement sur place en ce sens. Mais il peut arriver qu’un robot fasse involontairement du mal à un être humain ou ne soit pas assez rapide pour intervenir sur le lieu de l’action, ou assez habile pour prendre les mesures nécessaires. Rien n’est parfait.

Cela nous amène à la Deuxième Loi de la Robotique, qui contraint le robot à obéir aux ordres donnés par un être humain, sauf si ces ordres entrent en conflit avec la Première Loi. Cela signifie que les êtres humains peuvent donner aux robots tous les ordres qu’ils veulent, sans exception, à condition qu’ils ne causent aucun mal à un autre être humain.

Mais un être humain risque de donner à un robot l’ordre de faire quelque chose d’impossible, ou un ordre qui plongerait le robot dans une telle contradiction que son cerveau serait endommagé. Ainsi, dans ma nouvelle « Liar ! » publiée en 1940, un personnage humain mettait volontairement un robot devant un dilemme si insoluble que son cerveau positronique grillait et cessait de fonctionner.

On peut même imaginer qu’un robot devenant de plus en plus intelligent et conscient de lui-même accroisse la sensibilité de son cerveau au point d’être endommagé s’il est mis en situation de commettre un acte embarrassant ou honteux. En conséquence, la Deuxième Loi de l’Humanique doit être :

2 – Un être humain doit donner à un robot des ordres préservant l’existence du robot, à moins que ces ordres ne causent du mal ou de la gêne à des êtres humains.

La Troisième Loi de la Robotique est destinée à protéger le robot mais il est évident, du point de vue robotique, qu’elle ne va pas assez loin. Le robot doit sacrifier son existence si la Première ou la Deuxième Loi le rendent nécessaire. Un robot doit renoncer à son existence si c’est la seule façon d’éviter du mal à un être humain. Si nous admettons la supériorité innée de tout être humain sur tout robot (ce qu’à vrai dire je n’aime pas beaucoup admettre), c’est inévitable.

D’autre part, est-ce qu’un robot doit renoncer à sa propre existence simplement pour obéir à un ordre insignifiant, ou même malveillant ? Dans « The Bicentennial Man », des voyous ordonnaient à un robot de se mettre en pièces, histoire de rire. La Troisième Loi de l’Humanique doit donc être :

3 – Un être humain ne doit pas faire de mal à un robot ou, par son inaction, permettre que du mal soit fait à un robot, à moins que ce mal ne soit nécessaire pour protéger du mal un être humain ou pour exécuter un ordre capital.

Naturellement, ces lois sont plus difficiles à appliquer que celles de la Robotique. Nous ne pouvons construire le cerveau humain comme nous construisons celui des robots. Mais c’est un commencement et je crois franchement que si nous voulons exercer notre pouvoir sur des robots intelligents, nous devons nous sentir, à leur égard, une égale responsabilité comme le disait l’humain dans le « Bicentennial Man ».

Telles sont, indiscutablement, dans la Cité des robots, les règles que des robots pourraient suggérer, pour les deux seuls êtres humains de la planète, comme vous allez bientôt l’apprendre.