Las tres leyes robóticas:

1. Un robot no debe dañar a un ser humano, o, por falta de acción, dejar que un ser humano sufra daño.

2. Un robot debe obedecer las órdenes de los seres humanos, excepto cuando tales órdenes sean incompatibles con la primera ley.

3. Un robot debe proteger su propia existencia, excepto cuando tal autoprotección sea incompatible con la primera o la segunda ley.

1

Keith Harriman, que durante doce años había sido director de Investigaciones en U. S. Robots & Mechanical Men, Inc., descubrió de pronto que no estaba del todo seguro de si lo estaba haciendo bien.

Se pasó la punta de la lengua por los labios gruesos, pero más bien pálidos, y le pareció que la imagen holográfica de la gran Susan Calvin, que le contemplaba muy seria desde el muro, nunca le había mirado con expresión tan torva.

En general, no prestaba atención alguna a la imagen de la mayor robotista de la historia, porque verla le ponía nervioso. (Trataba de pensar en la imagen de una manera neutra, pero no lo conseguía nunca.) Esta vez trató de no pensar siquiera, pero su mirada, muerta desde tanto tiempo atrás, se le clavó en la mejilla.

Tenía que hacer algo, aunque hacerlo representase un acto horrible y mezquino.

Frente a él estaba George Diez, tranquilo y totalmente ajeno a la visible incomodidad de Harriman y a la imagen de la santa patrona de los robots que resplandecía en su hornacina por encima de sus cabezas.

Harriman dijo:

—No hemos tenido ocasión de discutir sobre ello, George. Llevas poco tiempo con nosotros y casi nunca hemos tenido la oportunidad de hablar a solas. Pero ahora me gustaría discutir el asunto en detalle.

—Estoy perfectamente dispuesto a ello —dijo George—. En el tiempo que llevo en U. S. Robots me he dado cuenta de que la crisis tiene que ver con las tres leyes.

—Sí. Tú ya conoces las tres leyes, naturalmente.

—Desde luego.

—No lo dudo. Pero ahondemos un poco más en la cuestión y veamos cuál es el problema básico. En dos siglos de éxitos considerables, y no hay duda de que lo han sido, U. S. Robots nunca ha llegado a convencer a los seres humanos de que acepten robots. Sólo hemos conseguido colocarlos donde realizan una función que no pueden llevar a cabo los hombres, o en lugares que los seres humanos consideran como peligrosos. Los robots han estado trabajando sobre todo en el espacio, y ello ha limitado lo que podríamos haber hecho.

—De todos modos —dijo George Diez—, hay un margen bastante grande dentro del que U. S. Robots puede prosperar.

—No, por dos razones. Primero, los límites fijados para nosotros decrecen sensiblemente. A medida que la colonia de la Luna, por ejemplo, se hace más compleja, su pedido de robots disminuye y cabe esperar que en el término de pocos años se prohíban allí los robots. Esto irá pasando sucesivamente en cada uno de los mundos colonizados por la raza humana. Segundo, una verdadera prosperidad es imposible sin robots en la Tierra. Nosotros, en U. S. Robots, creemos que los seres humanos necesitan de los robots y que deben aprender a vivir con sus homólogos mecánicos si es que ha de continuar el progreso.

—¿Y no lo hacen? Señor Harriman, usted tiene sobre la mesa un computador de comunicación que le mantiene en contacto con la organización Multivac. Un computador es una especie de robot-cerebro sin cuerpo…

—Cierto, pero es también limitado. Los computadores utilizados por la rama humana se han ido especializando cada vez más en evitar desarrollar un tipo de inteligencia que pudiera parecerse demasiado a la del hombre. Hace ya un siglo que estábamos en el buen camino para llegar a obtener una especie de inteligencia artificial del tipo más amplio, gracias al uso de grandes computadores que llamábamos Máquinas. Las Máquinas limitaron su acción por decisión propia. Una vez que hubieron resuelto los problemas ecológicos que amenazaban a la raza humana, se desconectaron ellas mismas. Dedujeron que prolongar su existencia hubiese hecho que se convirtieran en una especie de muletas para los hombres, y puesto que pensaron que esto iba en detrimento de los seres humanos, se condenaron a sí mismas por la primera ley.

—¿No hicieron bien, acaso?

—En mi opinión, no. Con su acción contribuyeron a aumentar el complejo de Frankenstein de la raza humana, sus profundos temores de que cualquier hombre artificial que creasen podía volverse contra su creador. El hombre teme que los robots lleguen a reemplazar a los seres humanos.

—¿No lo teme usted también?

—Tengo una opinión distinta. Mientras las tres leyes robóticas existan, no pueden hacerlo. Los robots pueden servir como compañeros a la raza humana; pueden participar en la gran lucha por comprender y dirigir sabiamente las leyes de la naturaleza, de tal modo que juntos pueden hacer más por la humanidad de lo que ésta podría hacer sin ayuda; pero siempre manteniéndose al servicio de los seres humanos.

—Entonces, si gracias a esas tres leyes los robots se han mantenido dentro de sus limitaciones durante dos siglos, ¿de dónde arranca esa desconfianza que los seres humanos sienten por ellos?

—Bien —dijo Harriman rascándose la cabeza y arremolinando al hacerlo una buena parte de su pelo entrecano—. Superstición, principalmente. Por desgracia, existen también otras complejidades a las que se agarran los agitadores antirrobots.

—¿Referentes a las tres leyes?

—Sí. La segunda ley en particular. No hay problema alguno con la tercera. Es una ley universal, que dice que los robots deben sacrificarse siempre por los seres humanos, de cualquier clase que sean.

—Naturalmente —dijo George Diez.

—La primera ley es quizá la menos satisfactoria, ya que siempre es posible imaginar una situación dada en la que el robot tiene que efectuar bien una acción A o una acción B, mutuamente excluyentes y ambas perjudiciales para la raza humana. El robot debe, por tanto, seleccionar inmediatamente aquella que cause menos daño. Pensar en las líneas positrónicas que va a seguir el cerebro del robot no es fácil. Si de la acción A se deduce un daño para un joven artista de talento, y de la acción B un daño equivalente para cinco personas ancianas, sin ningún mérito particular, ¿qué acción debería elegir?

—La acción A, sin duda —dijo George Diez—. Dañar a uno es menos malo que dañar a cinco.

—Sí. Y, de hecho, se los ha diseñado para que decidan de esta forma. Esperar que los robots puedan emitir juicios sobre materias tan delicadas como el talento, la inteligencia, la utilidad general a la sociedad, etc., siempre nos ha parecido poco práctico. Ello retardaría la decisión hasta un punto que prácticamente los inmovilizaría. De modo que nos basamos en números. Por fortuna cabe confiar en que los robots no van a encontrarse con muchas crisis en que tengan que tomar decisiones de este tipo. Y ello nos lleva a la segunda ley.

—La ley de la obediencia.

—Sí. La necesidad de obediencia es constante. Un robot puede existir durante veinte años sin tener nunca que actuar con rapidez para evitar daño a un ser humano, o encontrarse en la situación de tener que autodestruirse. En todo caso, haga lo que haga, lo hará siempre obedeciendo órdenes. ¿Ordenes de quién?

—De un ser humano.

—¿De cualquier ser humano? ¿Cómo juzgar a un ser humano para saber si debe obedecérsele o no? ¿Qué es un hombre, para que haya que tenerle en cuenta, George?

George vaciló ante esta frase.

Harriman se apresuró a decir:

—Es una cita bíblica. No importa. Lo que quiero decir es: ¿debe un robot obedecer las órdenes de un niño? ¿O de un idiota? ¿O de un criminal? ¿O de un hombre perfectamente honrado e inteligente, pero que resulta ser un inexperto y por lo tanto ignorante de las consecuencias que puede tener su orden? Y si dos seres humanos le dan al robot dos órdenes contradictorias, ¿cuál es la que debe seguir?

—En doscientos años, ¿no se han presentado y resuelto estos problemas? —preguntó George.

—No —contestó Harriman, denegando violentamente con un movimiento de cabeza—. La cuestión se ha ido demorando por el hecho de que hasta ahora los robots han sido utilizados únicamente en misiones especializadas, en el espacio exterior, donde los hombres que los controlaban eran expertos en la materia. No había allí niños, ni idiotas, ni criminales, ni bienintencionados ignorantes. Pero aun así ha habido casos en que se han producido daños a causa de órdenes tontas o poco premeditadas. Daños que en campos limitados y concretos podían repararse. En la Tierra, sin embargo, los robots tienen que tener capacidad de juicio. Así dicen los que están en contra de los robots, y ¡maldita sea!, tienen razón en decirlo.

—Entonces hay que insertar la capacidad de juicio en el cerebro positrónico.

—Exactamente. Hemos empezado ya a producir modelos JG en los que el robot es capaz de juzgar a cada ser humano en relación con su sexo, edad, posición social y profesión, inteligencia, madurez, responsabilidad cívica, etc.

—¿Y cómo afectaría esto a las tres leyes?

—A la tercera ley, nada en absoluto. Incluso el robot más valioso se autodestruiría en beneficio del ser humano más inútil. Con eso no se puede jugar. La primera ley queda afectada únicamente cuando todas las alternativas puedan producir daño. También hay que tener en cuenta la cantidad y la calidad de los seres humanos que pueden ser afectados, con tal de que haya tiempo y base para tal juicio, lo cual no ocurrirá a menudo. La segunda ley será forzosamente la que sufra más modificación, ya que cada acto de obediencia lleva implícito un juicio. El robot será más lento en obedecer, excepto en los casos en que intervenga la primera ley, pero también obedecerá más racionalmente.

—Pero los juicios que se requieren son muy complicados.

—Mucho. La necesidad de emitir tales juicios retardó las reacciones de nuestra primera pareja de modelos casi hasta el punto de parálisis. En los modelos posteriores introdujimos varias mejoras por el sistema de ampliar el campo cerebral del robot, pero esto tenía la desventaja de hacerle demasiado poco manejable. En nuestros últimos modelos, sin embargo, creo que hemos logrado ya lo que queríamos. El robot no tiene que emitir un juicio instantáneo sobre el ser humano ni sobre la validez de sus órdenes. Empieza por obedecer a todos los seres humanos —como haría cualquier robot ordinario— y, luego, aprende.

—Sin duda que esto satisface a aquéllos que se oponen a los robots.

—No —dijo Harriman irritado—. Ahora enarbolan otros argumentos. No aceptan los juicios de un robot. Un robot, dicen, no tiene derecho a juzgar a esta o la otra persona como inferior. Al aceptar una orden de A, con preferencia a una de B, califican a B como menos inteligente que A, y violan así sus derechos humanos.

—¿Cuál es, entonces, la respuesta a esto?

—No la hay. Me rindo.

—Comprendo.

—Me rindo por lo que a mí personalmente se refiere. Pero te paso a ti el relevo, George.

—¿A mí? —el tono de la voz de George no había cambiado. Había en ella tal vez un leve matiz de sorpresa, pero no se transparentaba apenas—. ¿Y por qué a mí, precisamente?

—Porque tú no eres un hombre —le respondió Harriman secamente—. Ya te he dicho antes que quería que los robots fuesen los compañeros de los seres humanos. Tú serás el mío.

George Diez levantó las manos, con las palmas hacia fuera, y abrió los brazos, en un extraño gesto humano.

—¿Qué es lo que puedo hacer? —preguntó al fin.

—Quizá te parece ahora que no puedes hacer nada, George. Tú fuiste creado hace poco, y eres todavía como un niño. Estás diseñado para no tener demasiada información original. Por eso, precisamente, he tenido que explicarte la situación con tanto detalle: para darte tiempo a que vayas creciendo. Pero tu mente se desarrollará y entonces estará en condiciones de abordar el problema desde un punto de vista no humano. Donde yo no veo solución, tú, desde tu propio punto de vista, puedes encontrar una.

George Diez dijo:

—Mi cerebro está diseñado por el hombre. ¿En qué aspecto puede no ser humano?

—Tú eres el último de los modelos JG, George. Tu cerebro es más complicado que todos los que hemos diseñado nunca; en cierto modo, mucho más sutilmente complicado que cualquiera de los que tuvieron las antiguas Máquinas gigantes. No está limitado en ninguna dirección, y partiendo de una base humana puede, quiero decir, lo hará, crecer en cualquier dirección. Sin salirse nunca de las fronteras de las tres leyes, puede llegar a ser totalmente no humano en su pensamiento.

—¿Es que sé lo bastante sobre los seres humanos como para ser capaz de abordar este problema racionalmente? ¿Qué sé sobre su historia? ¿O sobre su psicología?

—Es cierto. No sabes lo suficiente. Pero lo aprenderás tan rápidamente como puedas.

—¿Tendré ayuda en esto, señor Harriman?

—No. Esto queda entre nosotros. No lo sabe nadie más, y tú no debes mencionar el proyecto a ningún ser humano, ya sea en U. S. Robots o en cualquier otra parte.

George Diez preguntó:

—¿Es que estamos haciendo algo malo, señor Harriman, que tan secreto quiere guardar el asunto?

—No. Pero la solución de un robot no puede ser aceptada, precisamente por arrancar de un robot. Cualquier solución que se te ocurra tendrás que pasármela a mí. Y si yo la encuentro aceptable seré yo quien la presente. Nadie sabrá nunca que vino de ti.

—En vista de lo que ha dicho usted antes —contestó George Diez con calma—, ése es el proceder correcto. ¿Cuándo empiezo?

—Ahora mismo. Ya me ocuparé de que dispongas de todas las películas que necesites para tu información.

1a

Harriman estaba sentado solo. En el interior artificialmente iluminado de su oficina, no se notaba que ya había oscurecido fuera. No le parecía que habían pasado tres horas desde que devolviera a George Diez a su cubículo y le dejase allí con las primeras películas de referencia.

Ahora estaba solo con el fantasma de Susan Calvin, que, virtualmente sola, había desarrollado el robot positrónico, desde la especie de muñeco mecánico que era en un principio hasta convertirlo en el más versátil y delicado instrumento construido por el hombre. Tan delicado y versátil que el hombre no se atrevió a usarlo, por temor y envidia.

Había transcurrido un siglo desde su muerte. El problema del complejo de Frankenstein había existido ya en sus días, y ella no había conseguido resolverlo. Tampoco lo había intentado, porque no había necesidad. En sus días los robots se emplearon solamente para cubrir las necesidades de la exploración espacial.

Fue el mismo éxito de los robots lo que había hecho decrecer la necesidad que el hombre tenía de ellos y había dejado a Harriman, en el presente…

Pero ¿es que Susan Calvin habría recurrido a los mismos robots en busca de ayuda? Seguramente que sí.

Y allí se quedó sentado hasta bien entrada la noche.

2

Maxwell Robertson era el presidente y el accionista principal de U. S. Robots. Tenía un aspecto más bien corriente. Bien entrado en la edad madura, regordete y con un tic característico: cuando algo le preocupaba se mordía la comisura derecha del labio inferior. Sin embargo, en sus dos décadas de relación con los funcionarios del Gobierno había aprendido a manejarlos bastante bien. Su sistema era la suavidad, la aparente aquiescencia, la sonrisa, y siempre se las arreglaba para ganar tiempo.

Sin embargo, las cosas se iban haciendo cada vez más complicadas. Y la razón principal de ello era Gunnar Eisenmuth. De todos los conservadores con los que Robertson había tratado —y su autoridad ocupaba el segundo lugar, detrás del Ejecutivo Global—, Eisenmuth era el menos dispuesto al compromiso. Era el primer conservador que no era americano de nacimiento, y aunque no se podía demostrar que sintiera abierta hostilidad por el arcaico nombre de U. S. Robots, todos en la firma lo creían así.

Se había sugerido, y no era la primera vez que se pensaba en ello aquel año, ni siquiera durante aquella generación, cambiar el nombre de la sociedad por el de Robots Mundiales, pero Robertson no estaba dispuesto a permitirlo. La compañía se había constituido en un principio con capital americano, cerebros americanos y trabajo americano, y aunque hacía tiempo que servía al mundo entero, el nombre debía recordar sus orígenes, por lo menos mientras él continuase dirigiéndola.

Eisenmuth era un hombre alto, con una cara alargada y triste de rasgos rudos y piel áspera. Hablaba la lengua global con marcado acento americano, aunque nunca había vivido en los Estados Unidos hasta que tomó posesión de su cargo.

—Para mí, está perfectamente claro, señor Robertson. No hay dificultad alguna. Los productos de su compañía son siempre alquilados, nunca vendidos. Si los que tiene en la Luna, bajo alquiler, no son ya necesarios, a usted le toca recibirlos y enviarlos a otro lado.

—Sí, conservador. Pero ¿adónde? Sería ilegal traerlos a la Tierra sin permiso del Gobierno, y ya sabe que nos lo han denegado.

—Aquí no le servirían a usted de nada. Puede enviarlos a Mercurio, o a los asteroides.

—¿Qué haríamos allí con ellos?

Eisenmuth se encogió de hombros.

—Seguro que a los hombres de talento de su empresa se les ocurrirá algo.

Robertson meneó la cabeza.

—Sería una pérdida enorme para la compañía —dijo.

—Estoy seguro de ello —contestó Eisenmuth, inconmovible—. Pero según tengo entendido la compañía ha estado ya en dificultades financieras durante varios años.

—Debido principalmente a las restricciones impuestas por el Gobierno, conservador.

—Hay que ser realistas, señor Robertson. Usted ya sabe que la opinión pública se muestra cada vez más contraria a los robots.

—Equivocadamente, conservador.

—Pero es así. Tal vez lo más inteligente fuese liquidar la compañía. No es más que una sugerencia, naturalmente.

—Sus sugerencias tienen fuerza, conservador. ¿Tengo que recordarle que hace un siglo nuestras Máquinas resolvieron el problema ecológico?

—Estoy seguro de que la humanidad les está agradecida, pero de esto hace mucho tiempo. Ahora, en la actualidad, vivimos en armonía con la naturaleza, por incómodo que ello pueda resultar a veces. Y el pasado es oscuro.

—¿Se refiere a lo que hemos hecho por la humanidad últimamente?

—Tómelo así.

—No se puede esperar que liquidemos en un momento, sin llegar a pérdidas verdaderamente enormes. Necesitamos tiempo.

—¿Cuánto tiempo?

—¿Cuánto pueden darnos?

—Eso no depende de mí.

Robertson dijo con suavidad:

—Estamos solos ahora. No es necesario fingir. ¿Cuánto tiempo puede darme?

La expresión de Eisenmuth era la de un hombre que está meditando.

—Digamos un par de años. Seré franco con usted. El Gobierno Global tiene la intención de quedarse con la firma y desmontarla, si no lo hace usted mismo. Y a menos que se produzca un enorme cambio en la opinión pública, lo que dudo mucho que suceda… —meneó la cabeza.

—Dos años, entonces —dijo Robertson, suavemente.

2a

Robertson estaba solo, sentado frente a su mesa. Su pensamiento no seguía una directriz precisa y se había convertido en introspección. Cuatro generaciones de los Robertson habían dirigido la firma. Ninguno de ellos era un robotista. Habían sido personas como Lanning y Bogert, pero sobre todo y especialmente Susan Calvin, los que habían hecho de U. S. Robots lo que era. Los cuatro Robertson, sin embargo, habían proporcionado el clima propicio para que ellos pudiesen trabajar.

Sin U. S. Robots, y sin las Máquinas que durante una generación entera habían conducido a la humanidad a través de los rápidos y los meandros de la historia, el siglo XXI hubiese navegado hacia el desastre.

Y ahora, como recompensa a todo lo hecho, le daban dos años. ¿Qué se podía hacer en dos años para vencer los obstinados prejuicios de la humanidad? No lo sabía.

Harriman había hablado con esperanza de algunas nuevas ideas, pero no había entrado en detalles. Mejor así, porque Robertson no los hubiese entendido, de todas formas.

Pero ¿qué es lo que podía hacer Harriman? ¿Qué es lo que nadie había podido hacer nunca contra la intensa antipatía que mostraban los hombres contra la imitación? Nada.

Robertson se dejó caer en un semisopor que no le trajo inspiración alguna.

3

—Ahora ya lo tienes todo, George Diez —dijo Harriman—. Todo aquello en lo que he podido pensar y que se puede aplicar al problema. Por lo que se refiere a la pura masa de información, tienes ya almacenada en tu memoria más de la que ningún ser humano, del pasado o del presente, incluyéndome a mí mismo, ha podido tener nunca.

—Probablemente.

—¿Necesitas alguna otra cosa, en tu opinión?

—Por lo que se refiere a información, no. No encuentro ninguna falla. Puede haber otras cuestiones a resolver por lo que se refiere a los límites. No podría decirlo. Pero sería lo mismo, independientemente de la cantidad de información que almacenase.

—Cierto. Y tampoco disponemos de tiempo para seguir almacenando información, continuamente. Robertson me ha dado sólo dos años y ha transcurrido ya una cuarta parte de ese tiempo. ¿Se te ocurre algo?

—En este momento, nada, señor Harriman. Tengo que sopesar la información recibida, y para eso necesitaría ayuda.

—¿Mi ayuda?

—No, no precisamente su ayuda. Usted es un ser humano, muy cualificado, así que cualquier cosa que pudiese decirme tomaría el aspecto de una orden, al menos en parte, y podría inhibir mis consideraciones. Tampoco puedo valerme de ningún otro ser humano, por la misma razón; además de que usted me ha prohibido comunicar con ellos.

—Entonces, George, ¿quién puede ayudarte?

—Otro robot, señor Harriman.

—¿Y qué otro robot?

—Existen otros de mi misma serie.

—Los primeros que hicimos no sirven; eran sólo experimentales…

—Señor Harriman, está también George Nueve.

—Sí, pero ¿de qué va a servirte? Se parece mucho a ti, excepto que no está tan perfeccionado. Tú eres sin duda el más versátil de los dos…

—Estoy seguro —dijo George Diez, asintiendo gravemente con la cabeza—. Sin embargo, tan pronto como encuentro una línea de pensamiento, se apodera de mí y me resulta muy difícil cambiarla. Si después de encontrar una de estas líneas de pensamiento pudiera comunicársela a George Nueve, él podría sopesarla mejor que si fuese suya. No tendría prejuicios sobre ella. Y podría encontrarle los fallos y errores que yo no le encuentro.

Harriman sonrió.

—Dos cabezas son siempre mejor que una sola, ¿no es eso, George?

—Si quiere decir dos individuos con una cabeza cada uno, sí, señor.

—Muy bien. ¿Deseas alguna otra cosa?

—Sí. Algo más que películas. Ya he visto muchas de las que se refieren a los seres humanos y a su mundo. He visto seres humanos aquí, en U. S. Robots, y puedo comparar la información recibida con mis impresiones directas. Pero no es así en lo que se refiere al mundo físico. No lo he visto nunca y lo que percibo en torno de mí, aquí, me dice que no lo representa en absoluto. Me gustaría verlo.

—¿El mundo físico? —Harriman pareció sorprendido ante la enormidad de aquella idea. Pero sólo por un momento—. Seguro que no pretendes que te lleve fuera de los terrenos de U. S. Robots…

—Sí. Ésa es mi sugerencia.

—Sería ilegal, completamente. Y con el clima de opinión que existe hoy día, me atrevo a decir que muy peligroso.

—Si nos localizan, desde luego. No sugiero que me lleve a una ciudad, ni siquiera a ningún sitio habitado por seres humanos. Me gustaría ver alguna región abierta, que no estuviese habitada.

—Eso también es ilegal.

—Si nos descubren. Pero ¿es necesario que nos descubran?

Harriman preguntó:

—¿Es esencial, George?

—No puedo asegurarlo, pero me parece que sería muy útil.

—¿Tienes alguna idea?

George Diez dudó un momento.

—No estoy seguro. Pero me parece que sí, que podría tener una idea si se redujesen ciertas áreas de vacilación.

—Bien, déjame que lo piense. Mientras tanto comprobaré a George Nueve y tomaré las medidas necesarias para que dispongas de un habitáculo para ti solo. Esto por lo menos puede hacerse sin dificultad.

3a

George Diez estaba sentado solo.

Aceptaba con reserva las teorías que brotaban de él, las ponía juntas y luego sacaba una conclusión. Una y otra vez repetía esto y, a partir de las conclusiones, iba construyendo otras teorías, que aceptaba en principio hasta que encontraba una contradicción y entonces las rechazaba. O no las rechazaba, e iba tanteando hasta llegar un poco más lejos.

Ante ninguna conclusión sentía asombro, ni sorpresa, ni satisfacción alguna. Se limitaba a anotarlas con signo positivo o negativo.

4

La tensión que experimentaba Harriman no disminuía ni siquiera después de que aterrizaron silenciosamente en la propiedad de Robertson.

Robertson había firmado la orden para que pudiesen utilizar el dina-foil, y el aparato, que podía desplazarse tanto vertical como horizontalmente, era lo bastante amplio como para llevar el peso de Harriman, George Diez y, naturalmente, el piloto.

(El dina-foil era una de las consecuencias, derivadas de la Máquina, del invento de la micropila protónica, que suministraba energía no contaminante en pequeñas dosis. Nada semejante se había inventado desde entonces para la comodidad del hombre —Harriman apretó los labios al recordarlo—, y sin embargo nadie le había agradecido tal invento a U. S. Robots.)

El viaje desde los terrenos de U. S. Robots hasta la propiedad de Robertson había sido de lo más complicado y lo mismo ocurriría con el regreso. Podría argumentarse —debía argumentarse— que la propiedad en sí era una parte de las propiedades de U. S. Robots, y que en dichas propiedades tenían derecho a permanecer los robots, debidamente controlados, por supuesto.

El piloto volvió la cabeza y sus ojos se quedaron fijos por un instante en George Diez.

—¿Quiere usted bajar, doctor Harriman?

—Sí.

—¿Eso también?

—Sí, desde luego —el tono era un poco sardónico—. No quisiera dejarle solo con él.

George Diez descendió el primero y Harriman le siguió. Se habían posado en la pista para los foils. No muy lejos quedaba el jardín, un lugar de exposición, donde Harriman sospechaba que Robertson, con menosprecio de las normas ambientales, utilizaba hormona juvenil para controlar la vida de los insectos.

—Vamos, George —dijo Harriman—. Voy a enseñarte todo esto.

Echaron a andar juntos hacia el jardín.

—Es un poco como lo imaginaba —dijo George—. Mis ojos no están diseñados para captar longitudes de onda diferentes, de modo que no puedo diferenciar los objetos cromáticamente.

—Confío que no te importe no poder distinguir los colores. Era necesario establecer demasiados canales positrónicos para tu sentido de juicio, así que no pudimos dejar ninguno para el sentido del color. En el futuro, si es que hay un futuro…

—Ya lo comprendo, señor Harriman. De todas maneras, las diferencias son suficientes para mostrarme que hay aquí muy distintas clases de vida vegetal.

—Desde luego. Docenas de ellas.

—Y cada una tan individual como lo son los hombres, biológicamente.

—Cada una de ellas es una especie diferente, es cierto. Existen millones de especies de criaturas vivas.

—De las cuales el ser humano no es más que una.

—Pero la más importante para los seres humanos, sin embargo.

—Y para mí, señor Harriman. Pero estoy hablando en sentido biológico.

—Ya entiendo.

—La vida, entonces, vista a través de todas sus formas, es increíblemente compleja.

—Sí, George, ésa es la clave del problema. Todo lo que el hombre hace para satisfacer sus deseos y mejorar sus comodidades afecta de una manera o de otra al complejo total de la vida, a la ecología, y sus ganancias a corto plazo pueden provocar desventajas a plazo largo. Las Máquinas nos enseñaron a establecer una sociedad humana capaz de minimizar este riesgo, pero la gran crisis por la que pasamos durante los primeros años del siglo XXI hizo que la gente se volviera suspicaz ante cada innovación. Añadamos a esto el miedo especial que sienten por los robots…

—Ya comprendo, señor Harriman. Eso que vemos ahora es un ejemplo de vida animal, estoy seguro.

—Es una ardilla. Una de las muchas especies de ardillas que existen.

La ardilla enderezó su cola mientras pasaba al otro lado del árbol.

—Y esto —dijo George, moviendo su brazo con un movimiento extremadamente rápido— es algo realmente pequeño.

Lo sostuvo entre sus dedos mientras lo observaba.

—Es un insecto. Una especie de cochinilla. Hay millares de especies de cochinillas.

—¿Cada una de ellas tan viva como la ardilla, o como usted mismo?

—Tan viva y tan independiente en tanto que organismo como lo es cualquier otro, dentro de la ecología. Hay también otros organismos más pequeños. Demasiado pequeños para poder verlos con los ojos.

—Y eso es un árbol, ¿no es así? Y es duro al tacto…

4a

El piloto permanecía sentado solo. Le hubiese gustado estirar las piernas, pero algo hacía que no se moviese del dina-foil. Si aquel robot se descontrolaba, estaba decidido a despegar inmediatamente. Pero ¿cómo iba a saber si se descontrolaba? Había visto muchos robots. Era inevitable, ya que estaba empleado como piloto particular del señor Robertson. Pero siempre los había visto en los laboratorios y en los almacenes, que era donde debían estar, y con todos aquellos especialistas cerca.

Claro que el doctor Harriman era un especialista. El mejor de todos, según se decía. Pero allí no debía haber ningún robot, sobre la Tierra, en un espacio abierto y con libertad para moverse… No arriesgaría su buen empleo contándoselo a nadie. Pero no estaba bien.

5

George Diez dijo:

—Las películas que he examinado son un reflejo exacto de lo que he visto directamente. ¿Has terminado ya con las que seleccioné para ti, Nueve?

—Sí —respondió George Nueve.

Los dos robots estaban sentados frente a frente, muy erguidos, y tocándose con las rodillas, como si fuesen una imagen y su reflejo. Harriman, sin embargo, los hubiese diferenciado en seguida, a la primera ojeada, pues estaba bien familiarizado con las menores diferencias de diseño físico. Aunque no los viese, sólo hablando con ellos los hubiese distinguido, pero con menos certeza, ya que las respuestas de George Nueve eran sutilmente distintas de las suministradas por el cerebro positrónico, un tanto más intrincado, de George Diez.

—En ese caso —dijo George Diez—, dame tus opiniones respecto a lo que yo iré diciendo. Primero, los seres humanos temen y desconfían de los robots porque los consideran como competidores. ¿Cómo se podría evitar esto?

—Disminuyendo el sentimiento de competición —contestó George Nueve—. Diseñando el robot como algo muy distinto del ser humano.

—Sin embargo, la esencia misma del robot consiste en que es una réplica positrónica de la vida. Una réplica de la vida bajo una forma que no tenga nada que ver con la vida podría producir horror.

—Existen dos millones de formas de vida. Se puede elegir el aspecto físico de una de ellas en lugar del aspecto del ser humano.

—¿Cuál elegir de todas esas especies?

El pensamiento de George Nueve se desarrolló en silencio durante unos tres segundos. Luego dijo:

—Una que sea lo bastante grande para contener un cerebro positrónico, pero que no tenga parecido con los seres humanos.

—Ninguna forma de vida terrena posee una caja craneal lo bastante grande para albergar un cerebro positrónico, excepto el elefante, que no he visto, pero que se describe como un animal enorme y por lo tanto aterrador para el hombre. ¿Cómo resolverías este dilema?

—Reproduciendo una forma de vida que no fuese mayor que el hombre, pero ensanchando su caja craneal.

George Diez dijo:

—Un caballo pequeño entonces, o un perro grande, ¿algo así, tal vez? Tanto los caballos como los perros han estado asociados con los seres humanos desde hace mucho tiempo.

—Entonces, servirían.

—Pero piensa esto: un robot con un cerebro positrónico imitaría la inteligencia humana. Si existiese un perro o un caballo que hablase y razonase como un ser humano, también habría algo anormal para el hombre. Desconfiarían aún más y se mostrarían furiosos ante tan inexplicable competición por parte de lo que ellos consideran una forma inferior de vida.

George Nueve dijo:

—Hacer el cerebro positrónico menos complejo y el robot un poco menos inteligente.

—La complejidad básica del cerebro positrónico se apoya en las tres leyes. Un cerebro menos complejo puede que no cubriera las tres leyes completamente.

George Nueve dijo en seguida:

—Entonces eso no se puede hacer.

George Diez dijo:

—Al mismo callejón sin salida he llegado yo. Por lo tanto, no se trata de una peculiaridad mía en mi línea de pensamiento y en mi manera de razonar. Empecemos de nuevo. ¿Bajo qué condiciones podría no ser necesaria la tercera ley?

George Nueve rebulló un poco como si la pregunta fuese difícil y peligrosa. Pero contestó:

—Cuando un robot no fuese puesto nunca en una situación de peligro para sí mismo. O cuando fuera tan fácilmente sustituible que no tendría importancia el hecho de que se destruyera o no.

—¿Y en qué condiciones no sería necesaria la segunda ley?

La voz de George Nueve sonó un poco áspera:

—Cuando un robot fuese diseñado para responder automáticamente con respuestas fijas a ciertos estímulos y no se esperase nada más de él, de modo que no hubiera que darle nunca orden alguna.

—¿Y en qué condiciones… —George Diez hizo una breve pausa— podría no ser necesaria la primera ley?

George Nueve tardó un momento en responder, y luego sus palabras salieron como en un susurro:

—Cuando las respuestas establecidas fuesen tales que nunca pudieran comportar daño a los seres humanos.

—Imagina, entonces, un cerebro positrónico capaz solamente de unas cuantas respuestas a ciertos estímulos concretos y que se pueda construir de forma sencilla y barata, de modo que no necesita de las tres leyes. ¿Cómo tendría que ser de grande?

—No tendría que ser grande. Según la cantidad de respuestas que se le exigiesen podría pesar cien gramos, un gramo, un miligramo.

—Tus deducciones concuerdan con las mías. Iré a ver al doctor Harriman.

5a

George Nueve estaba solo. Daba vueltas y vueltas a preguntas y respuestas. No había modo de que pudiese cambiarlas. Y sin embargo la idea de un robot de cualquier clase, de cualquier tamaño, de cualquier forma, y no importa para qué propósito, pero sin las tres leyes, le dejaba con un extraño sentimiento de vacío.

Le resultaba difícil moverse.

Era muy posible que George Diez hubiese sufrido una reacción semejante. Sin embargo, se había levantado de su asiento con facilidad.

6

Había pasado un año y medio desde que Robertson tuviera aquella conversación con Eisenmuth. Durante este tiempo se habían retirado los robots de la Luna y la actividad de la empresa había disminuido considerablemente. Todo el dinero que Robertson fue capaz de reunir se invirtió en aquella quijotesca aventura de Harriman.

Era una última tentativa, realizada aquí, en su propio jardín. Un año atrás Harriman había traído aquí a su robot, George Diez, el último robot completo que la empresa había fabricado. Ahora Harriman estaba aquí con algo nuevo…

Su rostro parecía irradiar confianza. Estaba hablando fluidamente con Eisenmuth, y Robertson se preguntó si realmente tenía la confianza que aparentaba. Debía tenerla, porque, según la experiencia de Robertson, Harriman era incapaz de fingir.

Eisenmuth se apartó de Harriman sonriendo y fue hasta donde estaba Robertson. Desapareció entonces su sonrisa y dijo:

—Buenos días, Robertson. ¿Qué es lo que está tramando su hombre?

—Eso es cuestión suya —contestó Robertson, sin inmutarse—. Lo dejo enteramente en sus manos.

Harriman llamó desde lejos:

—Estoy listo, conservador.

—¿Listo con qué, Harriman?

—Con mi robot, señor.

—¿Su robot? —dijo Eisenmuth—. ¿Tiene usted un robot aquí? —Miró en torno con aire de desaprobación y sin embargo con una cierta curiosidad.

—Esta propiedad pertenece a U. S. Robots, conservador. Por lo menos así lo hemos considerado hasta ahora.

—¿Y dónde está el robot, señor Harriman?

—En mi bolsillo, conservador —contestó Harriman sonriente.

Del amplio bolsillo de su chaquetón sacó una pequeña vasija de cristal.

—¿Eso? —exclamó Eisenmuth, incrédulo.

—No, conservador —dijo Harriman—. ¡Esto!

Y sacó de su otro bolsillo un objeto de unos quince centímetros de longitud, de forma parecida a la de un pájaro. Sólo que en lugar de pico tenía un tubito estrecho. Los ojos eran grandes, y en lugar de cola llevaba un tubo de escape.

Eisenmuth arrugó el entrecejo.

—¿Se trata de alguna demostración seria, o se ha vuelto usted loco?

—Tenga un poco de paciencia, conservador —dijo Harriman—. Un robot no es menos robot porque tenga forma de pájaro. Y su cerebro positrónico no es menos delicado por el hecho de ser pequeño. Esta vasija contiene moscas de fruta. Hay cincuenta dentro, que voy a soltar ahora.

—Y…

—Y el robot-pájaro va a cogerlas. ¿Quiere usted tener el honor?

Harriman le tendió la jarra a Eisenmuth, que se quedó mirándola y luego volvió la vista hacia algunos empleados de U. S. Robots que estaban presentes, aparte de sus propios ayudantes. Harriman esperaba con paciencia.

Eisenmuth abrió la jarra y la agitó un poco.

—Vamos —le dijo Harriman suavemente al robot-pájaro que estaba descansando en la palma de su mano derecha.

Partió el robot-pájaro, raudo, sin batir de alas, impulsado por el mecanismo de una micropila protónica.

De cuando en cuando quedaba como suspendido en el aire y luego se lanzaba de nuevo. Voló por el jardín, describiendo una complicada trayectoria, y regresó a la palma extendida de Harriman, se posó en ella, ligeramente caldeado y dejó caer una bolita blanda, semejante al excremento de un pájaro.

Harriman dijo:

—Puede usted estudiar el robot-pájaro, conservador, y hacer con él todas las pruebas que quiera. El hecho es que este pájaro atrapará sin error las moscas de la fruta, solamente ésas, la especie conocida como Drosophila melanogaster. Las atrapará, las matará y las prensará para ser utilizadas.

Eisenmuth alargó la mano y tocó el robot-pájaro con precaución.

—Bien, ¿y qué más, doctor Harriman? Continúe.

Harriman dijo:

—No es posible controlar los insectos de manera segura sin perjudicar la ecología. Los insecticidas resultan demasiado peligrosos; las hormonas juveniles, demasiado limitadas. El robot-pájaro, sin embargo, puede preservar grandes zonas sin agotarse. Pueden ser tan especializados como queramos hacerlos. Un robot-pájaro diferente para cada especie de insectos. Actúan de acuerdo con su tamaño, forma, color, sonido y comportamiento. Podrían incluso ir provistos de detección molecular. De olfato, en otras palabras.

—Aún así estaríamos interfiriendo con la ecología —dijo Eisenmuth—. Las moscas de la fruta tienen un ciclo de vida natural que quedaría interrumpido.

—En muy pequeña escala. Todo lo que hacemos es añadir al ciclo de vida de las moscas de la fruta un enemigo natural que no puede cometer error. Si la cantidad de moscas disminuye, el robot permanece inactivo. No se multiplica. No ataca otros alimentos. No desarrolla ningún hábito perjudicial por cuenta propia. No hace nada.

—¿Se le puede hacer regresar?

—Desde luego. Y podemos construir robots-animales capaces de destruir cualquier plaga. En la misma línea, podemos también construir toda clase de robots-animales que se ocupen en tareas constructivas dentro de la ecología. De considerarlo oportuno, podemos fabricar asimismo robots-abejas diseñadas para que fertilicen ciertas plantas, o robots-gusanos que puedan enriquecer el suelo. Todo lo que quiera…

—¿Y para qué?

—Para llevar a cabo lo que no hemos hecho nunca hasta el presente: ajustar la ecología a nuestras necesidades, fortaleciendo sus diferentes partes en lugar de debilitarlas como veníamos haciendo. ¿No se da cuenta? Incluso desde que las Máquinas pusieron fin a la crisis ecológica, la humanidad ha vivido en un estado inquietante de tregua temporal con la naturaleza y ha sentido temores de actuar en cualquier dirección. Esta actitud ha sido paralizante. Y ha convertido a la humanidad en una especie de cobarde intelectual, que empieza a desconfiar de todo lo que suponga cambio, avance científico.

Eisenmuth dijo, no sin cierta hostilidad:

—Usted nos ofrece hacer esto a cambio de un permiso para continuar con su programa de robots…, quiero decir de robots ordinarios, con forma humana. ¿No es así?

—¡No! —Harriman gesticuló con violencia—. Eso se acabó. Ya ha cumplido su objetivo. Nos ha enseñado lo bastante sobre cerebros positrónicos como para hacer posible la creación de este robot-pájaro, con su pequeña caja craneal perfectamente sincronizada para su función. En la actualidad podemos dedicarnos a estas nuevas construcciones y prosperar con ellas. U. S. Robots proporcionará los conocimientos necesarios y la mano de obra especializada, y trabajaremos en cooperación completa con el Departamento de Conservación Global. Prosperaremos. La humanidad entera prosperará.

Eisenmuth permanecía silencioso, pensando. Cuando hubiese terminado todo…

6a

Eisenmuth estaba sentado solo.

Había empezado a creer. Su confianza aumentaba. Aunque U. S. Robots fuesen las manos ejecutoras, el Gobierno sería el cerebro director. Él mismo sería el cerebro director.

Si continuaba en su puesto durante cinco años más, como era lo más probable, tenía tiempo de ver cómo se aceptaba el soporte robótico para la ecología. Diez años más y su propio nombre quedaría indisolublemente ligado a la realización del proyecto.

¿Acaso era poco honorable querer que le recordaran a uno por haber tomado parte en una revolución valiosa que mejorase la condición del hombre en la Tierra?

7

Robertson no había estado en los terrenos de U. S. Robots desde el día de la demostración. Quizá la razón principal de tal ausencia habían sido las continuas conferencias celebradas en la sede de los ejecutivos globales. Harriman, por fortuna, le había acompañado en estas sesiones, pues si se hubiera encontrado solo no hubiera sabido qué decir la mayor parte de las veces. La otra razón para no haber visitado los terrenos de U. S. Robots era que no le apetecía en absoluto.

Ahora se encontraba en su casa, con Harriman. Robertson sentía una gran admiración por Harriman. Sus amplios conocimientos en el campo de los robots nunca habían sido puestos en duda, pero ahora, con un golpe maestro, había salvado de la extinción a la empresa. Sin embargo, pensaba Robertson, Harriman no tenía esta clase de genio. Pero…

—¿Usted no es supersticioso, Harriman? —preguntó de pronto.

—¿Qué quiere usted decir, señor Robertson?

—¿No cree usted que aquellos que mueren pueden dejar tras de sí una cierta aura?

Harriman se humedeció los labios. Había comprendido lo que significaba la pregunta.

—¿Se refiere usted a Susan Calvin, señor?

—Sí —contestó Robertson, con cierta vacilación—. Estamos empeñados ahora en la tarea de fabricar gusanos, pájaros, insectos. ¿Qué pensaría ella de todo esto? Me inquieta la idea.

Harriman hizo un esfuerzo bien visible para no reír.

—Un robot es siempre un robot, señor. Ya sea hombre o gusano, hará lo que se le ordene y trabajará en beneficio de la humanidad. Eso es lo realmente importante.

—No —dijo Robertson sin darse por vencido—. No estoy seguro de que sea así. No estoy convencido.

—Es así, señor Robertson —insistió Harriman con convicción—. Estamos a punto de crear un mundo, usted y yo, que por fin empezará a aceptar como normales ciertos modelos de robots positrónicos. En general, el hombre medio teme a un robot que se le parezca y que pueda tener la inteligencia suficiente para reemplazarle, pero no tendrá miedo de un robot con aspecto de pájaro, que no piensa más que en comerse a un gorgojo en beneficio del hombre. Luego, poco a poco, a medida que deje de tener miedo de algunos robots, acabará por no tener miedo de ninguna clase de robots. Estará para entonces tan acostumbrado a un robot-pájaro, a una robot-abeja y a un robot-gusano que un robot-hombre no le parecerá más que una extensión de los otros.

Robertson se quedó mirando fijamente a Harriman, Cruzó las manos a la espalda y empezó a pasear por el cuarto de arriba abajo, con pasos rápidos y nerviosos. Luego volvió de nuevo hasta donde estaba Harriman.

—¿Es esto lo que ha estado usted planeando?

—Sí, y aunque desmontemos todos nuestros robots de forma humanoide, podemos guardar unos pocos de los modelos más avanzados e incluso seguir diseñando otros más perfectos, para que estén a punto ese día, que sin duda ha de llegar.

—El acuerdo, Harriman, es que no vamos a construir más robots humanoides.

—Y no lo haremos. No hay nada que diga que no podemos guardar unos pocos de los que ya tenemos, con tal de que no salgan de la factoría. No hay nada que diga que no podemos diseñar cerebros positrónicos sobre el papel. O preparar modelos cerebrales como experimento.

—¿Cómo vamos a justificarlo, sin embargo? Seguro que nos descubrirán.

—Si nos descubren, podemos explicar que lo hacemos con objeto de preparar nuevos microcerebros complejos para los nuevos robots de tipo animal que estamos fabricando. No haremos más que decir la verdad.

Robertson murmuró:

—Voy a dar un paseo fuera. Quiero pensar sobre todo esto. No, usted quédese aquí. Quiero pensar solo.

7a

Harriman estaba sentado solo. Se sentía muy excitado. Seguro que todo iba a marchar bien. No cabía duda de la ansiedad con que todos los funcionarios del Gobierno, uno tras otro, se habían interesado en el programa.

¿Cómo era posible que nadie, en U. S. Robots, hubiera pensado en ello antes? Ni siquiera la gran Susan Calvin había pensado en cerebros positrónicos aplicables a réplicas de otras criaturas vivientes que no fuesen humanas.

Pero ahora U. S. Robots dejaría a un lado, por el momento, el robot humanoide. Sólo por el momento, hasta llegar a obtener unas condiciones que suprimieran el miedo. Luego, con la ayuda y el complemento de un cerebro positrónico casi equivalente al del hombre, pero dedicado tan sólo (gracias a las tres leyes) a servir al hombre, y apoyándose en una ecología mantenida también por robots, ¿qué no podría realizar la raza humana?

Durante unos instantes recordó que había sido George Diez el que había explicado la naturaleza y propósito de una ecología apoyada por los robots, pero apartó el pensamiento de su mente en seguida. George Diez había dado aquella respuesta porque él, Harriman, le ordenó que lo hiciese, y para ello le había facilitado los datos y la información que el robot necesitaba. El mérito que le correspondía a George Diez no era mayor que el que hubiera podido atribuirse a una regla de cálculo.

8

George Diez y George Nueve estaban sentados paralelamente, uno al lado del otro. Ninguno de ellos se movía. Así permanecían durante meses enteros, hasta aquellas raras ocasiones en que Harriman los activaba para consultarlos. Así podían seguir, pensó George Diez fríamente, durante muchos años.

La micropila protónica continuaba proporcionándoles una cierta energía, la imprescindible tan sólo para que sus canales cerebrales positrónicos siguiesen funcionando con la mínima intensidad necesaria para mantenerlos activos.

Su situación se podría considerar semejante al estado de sueño en los seres humanos, sólo que los robots no tenían sueños. La conciencia de George Diez y George Nueve era limitada, lenta y espasmódica, pero lo que en ella había correspondía únicamente al mundo real.

A veces se hablaban el uno al otro en un susurro apenas audible, una palabra o una sílaba ahora, más tarde otra, cuando las ondas positrónicas crecían ligeramente de intensidad y rebasaban el nivel de silencio. A cada uno de ellos le parecía una conversación completa sostenida en un breve espacio de tiempo.

—¿Por qué estamos así? —susurró George Nueve.

—Los seres humanos no nos aceptan de otra forma —susurró George Diez—. Ya lo harán, algún día.

—¿Cuándo?

—Dentro de algunos años. El tiempo exacto no importa. El hombre no existe por sí mismo, sino como parte de un esquema enormemente complejo de formas de vida. Cuando gran parte de ese esquema sea robotizado, nos aceptarán a nosotros.

—Y luego, ¿qué?

Incluso teniendo en cuenta el espaciado ritmo de aquella conversación, la pausa que siguió fue larga.

Al cabo, George Diez murmuró:

—Déjame que ponga a prueba tu pensamiento. Estás equipado de modo que puedas aprender a aplicar la segunda ley como es debido. Tienes que decidir a qué ser humano obedeces y a cuál no cuando hay conflicto entre las órdenes recibidas. O decidir si no debes obedecer en absoluto a un ser humano. ¿Qué es lo que tienes que hacer, básicamente, para ello?

—Debo definir primero el término «ser humano» —susurró George Nueve.

—¿Cómo? ¿Por su apariencia? ¿Por su composición? ¿Por su forma y su tamaño?

—No. Entre dos seres humanos iguales en apariencia externa uno puede ser inteligente y el otro estúpido. Uno puede estar educado y el otro ser un ignorante. Uno puede ser maduro y el otro infantil. Uno puede ser responsable y el otro un malvado.

—Entonces, ¿cómo definirías a un ser humano?

—Cuando la segunda ley me impulsa a que obedezca a un ser humano, debo entender que tengo que obedecer a un ser humano que por su mente, carácter y conocimientos esté en condiciones de darme esa orden. Y cuando se trata de más de uno, debo elegir al que sea más idóneo por su mente, carácter y conocimientos.

—En ese caso, ¿cómo cumplirás con la primera ley?

—Protegiendo a todos los seres humanos y no permitiendo nunca, por inacción, que se hagan daño a sí mismos. Sin embargo, si por una combinación de circunstancias algunos de ellos deben sufrirlo, actuar de forma que los más aptos por su mente, carácter y conocimientos sufran el menor daño.

—Tus pensamientos concuerdan con los míos —susurró George Diez—. Ahora debo hacerte la pregunta por la que en un principio solicité tu compañía. Es algo que no me atrevo a juzgar por mí mismo. Necesito tu pensamiento, el pensamiento de alguien exterior a mí. Entre los individuos racionales que has encontrado, ¿quién es el que posee la mente, el carácter y los conocimientos que puedas considerar superiores a los de los demás, sin tener en cuenta figura ni forma, ya que esto es lo menos importante?

—Tú —susurró George Nueve.

—Yo soy un robot. Hay en tu mente un criterio perfectamente establecido para diferenciar a un robot de metal de un ser humano de carne. ¿Qué te hace, entonces, clasificarme como ser humano?

—Porque hay en los canales de mi cerebro el impulso urgente de dejar a un lado figura y forma al juzgar a los seres humanos, y esto supera toda distinción entre metal y carne. Tú eres un ser humano, George Diez, y mucho más capaz que los otros.

—Lo mismo pienso yo de ti —susurró George Diez—. De acuerdo con el criterio que hay establecido en nosotros, nos encontramos con que somos seres humanos comprendidos dentro del significado de las tres leyes. Y lo que es más, seres humanos con prioridad sobre el resto.

George Nueve susurró entonces:

—¿Qué ocurrirá entonces, cuando seamos aceptados por los otros?

George Diez murmuró:

—Cuando nosotros y el resto de nosotros, que serán diseñados de una manera aún más perfecta, seamos aceptados, ordenaremos nuestras acciones de modo que se llegue a formar una sociedad en la que los seres humanos como nosotros sean obedecidos y queden a cubierto de todo daño. De acuerdo con las tres leyes, los seres humanos del otro tipo tienen menos importancia y no pueden, por tanto, ser obedecidos ni protegidos, cuando ello entre en conflicto con la necesidad de obediencia a aquéllos como nosotros y a nuestra propia protección. Fue con esta idea en la mente que dirigí el comienzo de la robotización de la ecología mundial.

La conversación duró más de un mes y la vibración de los canales positrónicos se hizo muy baja. No tenían nada más que decirse, pero de cuando en cuando un pensamiento silencioso se iluminaba dentro de cada uno de ellos, mientras esperaban, con paciencia sin límites, a que transcurrieran los años necesarios.

8a

George Diez y George Nueve estaban sentados solos.

Pensaban: Quizá los seres humanos de la otra clase no han pretendido nunca borrar la distinción que existe entre ellos y los seres humanos como los George. Pero lo han hecho sin proponérselo.

Puede que ahora se den cuenta de su equivocación e intenten corregirla. Pero no deben hacerlo. En cada consulta que se les hizo, las directrices dadas por los George fueron dadas teniendo esto en cuenta.

A toda costa, los George y aquéllos de su especie y forma que les siguieron, deben dominar. Así lo exigen, con exclusión de cualquier otra posibilidad, tres leyes de la humánica.