1

Keith Harriman, que ya llevaba doce años como Director de Investigación de Norteamericana de Robots y Hombres Mecánicos, S. A., no se sentía nada seguro de que ése fuera el proceder correcto. La punta de su lengua recorrió sus labios gruesos pero más bien pálidos y tuvo la impresión de que el retrato hológrafo de la gran Susan Calvin, que le miraba sin sonreír desde las alturas, nunca había tenido una expresión tan sombría.

Normalmente solía prescindir de ese retrato de la roboticista más destacada de la historia, pues su presencia le irritaba. (Había intentado considerar el retrato como un mero objeto pero nunca lo había logrado del todo). En esta ocasión no acababa de atreverse a hacerlo y la mirada de la mujer, desde hacía largo tiempo difunta, se le clavaba en el lado de la cara.

El paso que tendría que dar era terrible y humillante.

George Diez estaba sentado frente a él, sereno e indiferente tanto al evidente malestar de Harriman como a la imagen de la santa patrona de la robótica que resplandecía desde lo alto de su pedestal.

—La verdad es que nunca hemos tenido ocasión de hablar a fondo de esto, George —dijo Harriman—. No llevas demasiado tiempo con nosotros y no se ha presentado una buena oportunidad de estar a solas los dos. Pero ahora me gustaría discutir el asunto con cierta profundidad.

—Estoy perfectamente dispuesto a hacerlo —dijo George—. Durante el tiempo que llevo en Norteamericana de Robots, he deducido que la crisis guarda alguna relación con las tres leyes.

—Sí. Conoces las tres leyes, naturalmente.

—Las conozco.

—Sí, no lo dudo. Pero vamos a profundizar un poco más para considerar el problema verdaderamente fundamental. En dos siglos de considerable éxito, si me está permitido decirlo, Norteamericana de Robots no ha logrado jamás que los seres humanos aceptasen a los robots. Sólo hemos utilizado robots para realizar tareas que no pueden hacer los seres humanos, o en medios que los humanos consideran inaceptablemente peligrosos. Los robots han trabajado, sobre todo, en el espacio y ello ha limitado nuestras posibilidades de actuación.

—Ése es sin duda un amplio campo —dijo George—, y Norteamericana de Robots puede prosperar dentro de sus límites.

—No, por dos motivos. En primer lugar, los límites dentro de los que nos movemos se contraen inevitablemente. A medida que la colonia de la Luna se va perfeccionando, por ejemplo, disminuye su demanda de robots y las expectativas son de que, en los próximos años, se prohíba la presencia de robots en la Luna. Esto se irá repitiendo en todos los mundos que colonice la humanidad. En segundo lugar, es imposible una verdadera prosperidad sin robots sobre la Tierra. En Norteamericana de Robots tenemos la firme convicción de que los seres humanos necesitan a los robots y tienen que acostumbrarse a convivir con sus réplicas mecánicas si se desea seguir manteniendo el progreso.

—¿Y no lo hacen ya? Señor Harriman, aquí en su escritorio tiene usted una terminal de una computadora que, según tengo entendido, está conectada al Multivac de la empresa. Una computadora es una especie de robot sésil; un cerebro de robot sin cuerpo…

—Tienes razón, pero también esto tiene sus limitaciones. Las computadoras que utiliza la humanidad se han ido especializando continuamente a fin de eludir una inteligencia demasiado parecida a la humana. Hace un siglo estábamos a punto de lograr una inteligencia artificial de tipo sumamente ilimitado mediante el uso de grandes computadoras que denominamos «Máquinas». Esas «Máquinas» limitaron su acción por su propia iniciativa. Una vez resuelto el problema ecológico que había amenazado a la humanidad, ellas mismas se desconectaron. La mera continuación de su existencia, fue su razonamiento, habría hecho de ellas una especie de muletas para la humanidad y, considerando que ello sería perjudicial para los seres humanos, se condenaron a la extinción según los dictados de la primera ley.

—¿Y no fue correcto este proceder?

—En mi opinión, no. Con su acción, reforzaron el complejo de Frankenstein de la humanidad; sus temores irracionales de que cualquier hombre artificial creado por ellos acabaría volviéndose contra su creador. Los hombres temen que los robots puedan sustituir a los seres humanos.

—¿Y usted no lo teme también?

—Estoy mejor informado. Ello no será posible mientras existan las tres leyes de la rebotica. Los robots pueden ser compañeros de la humanidad; pueden participar en la gran lucha por comprender y dirigir sabiamente las leyes de la naturaleza y, reunidos, podrían conseguir sin duda mucho más de lo que lograría la humanidad sola; pero siempre de manera que los robots estuviesen al servicio de los seres humanos.

—Pero si las tres leyes han demostrado ser capaces de mantener a raya a los robos durante doscientos años, ¿a qué obedece la desconfianza que sienten los seres humanos hacia ellos?

—Verás… —Y el pelo canoso de Harriman se ahuecó y él empezó a rascarse vigorosamente la cabeza—, en buena parte es cuestión de superstición, naturalmente. Por desgracia, también hay algunos problemas de los que se aprovechan los agitadores antirrobots.

—¿Referentes a las tres leyes?

—Sí. En particular por lo que respecta a la segunda ley. La tercera ley no plantea el menor problema, ¿comprendes? Es universal. Los robots deben sacrificarse siempre por los seres humanos, todos los seres humanos.

—Evidentemente —dijo George Diez.

—La primera ley tal vez resulte menos satisfactoria, pues siempre es posible imaginar una situación en la cual un robot deberá realizar o bien una acción A o bien otra acción B, ambas mutuamente excluyentes, y cada una de las cuales sea perjudicial para algunos seres humanos. En ese caso, el robot tendrá que decidir rápidamente qué acción causará menos daño. No es fácil establecer los circuitos positrónicos del cerebro del robot de manera que sea posible esa selección. Suponiendo que la acción A dañara a un joven artista de talento y la acción B causara un daño equivalente a cinco personas ancianas sin ningún mérito particular, ¿qué acción debería escoger el robot?

—La acción A —dijo George Diez—. El daño causado a una persona es inferior al daño causado a cinco de ellas.

—Sí, los robots siempre han estado diseñados para que tomaran esa opción. Siempre se ha considerado poco práctico esperar que los robots pudieran juzgar detalles tales como el talento, la inteligencia, la utilidad general para la sociedad. Ello retrasaría la decisión hasta el punto de dejar prácticamente paralizado al robot. Conque nos guiamos por el número. Por fortuna, es de esperar que sean escasos los momentos críticos en que los robots deban tomar decisiones de este tipo… Pero ello nos lleva a la segunda ley.

—¿La ley de la obediencia?

—Sí. La necesidad de obediencia es constante. Un robot puede existir durante veinte años sin verse nunca en la necesidad de actuar rápidamente para evitar que un ser humano sufra algún daño, ni verse obligado a correr el riesgo de su propia destrucción. Sin embargo, durante todo ese tiempo, constantemente estará obedeciendo órdenes… ¿Quién dará esas órdenes?

—Un ser humano.

—¿Cualquier ser humano? ¿Cómo decidir quién es un ser humano y saber así si es preciso obedecerle o no? ¿Qué es el hombre que vos cuidáis de él, George?

George titubeó ante esta pregunta.

—Es una cita bíblica —se apresuró a aclarar Harriman—. Olvídalo. Lo que quiero decir es: ¿debe obedecer un robot las órdenes de un niño; o de un idiota; o de un criminal; o de un hombre inteligente y perfectamente decente pero que casualmente es inexperto y, por tanto, ignora las consecuencias indeseables de su orden? Y si dos seres humanos dan órdenes conflictivas a un robot, ¿cuál de esas órdenes deberá obedecer aquél?

—¿No se han planteado y se han resuelto ya estos problemas en estos doscientos años? —dijo George.

—No —respondió Harriman con un violento movimiento de cabeza—. Nos ha frenado el propio hecho de que nuestros robots sólo hayan sido utilizados en medios especializados del espacio exterior, donde los hombres que trabajaban con ellos eran expertos en su materia. No había niños, ni idiotas, ni criminales, ni ignorantes bienintencionados en el lugar. Aun así, en algunas ocasiones se ha causado daño a resultas de órdenes estúpidas o simplemente irreflexivas. Estos perjuicios causados en un medio limitado y especializado eran fáciles de controlar. Pero en la tierra, los robots tienen que poseer la capacidad de discernir. Eso afirman los que se oponen a los robots, y tienen razón, qué diablos.

—Entonces será preciso insertar la capacidad de discernir en el cerebro positrónico.

—Exactamente. Hemos comenzado a reproducir modelos JG en los que el robot es capaz de distinguir a cada ser humano según su sexo, su edad, su posición social y profesional, su inteligencia, su madurez, su responsabilidad social, etc.

—¿Y cómo afectaría esto a las tres leyes?

—La tercera ley no variaría en absoluto. Hasta el más valioso de los robots debe autodestruirse por el bien del más inútil de los seres humanos. Es algo que no admite discusión. La primera ley sólo se ve afectada en caso de que cualquier acción alternativa sea perjudicial. Entonces deberá considerarse la calidad, a más de la cantidad, de los seres humanos afectados, suponiendo que haya tiempo para hacer ese juicio y criterios para ello, lo cual no ocurrirá con frecuencia. La que quedará más profundamente modificada será la segunda ley, pues cualquier obediencia potencial deberá ir acompañada de un juicio previo. El robot tardará más en obedecer, excepto cuando también se aplique la primera ley, pero obedecerá más racionalmente.

—Pero los juicios que se requieren son muy complicados.

—Mucho. La necesidad de discernir esas cuestiones disminuyó la capacidad de reacción de nuestro primer par de modelos hasta dejarlos paralizados. Logramos mejorar la situación en modelos posteriores, a cambio de introducir tantos circuitos que el cerebro del robot resultó voluminoso en exceso. Pero creo que por fin hemos logrado lo que buscábamos en nuestro último par de modelos. El robot no tiene que ser capaz de juzgar instantáneamente los méritos de un ser humano y el valor de sus órdenes. Comienza por obedecer a todos los seres humanos, como un robot corriente, y luego aprende. El robot crece, aprende y madura. Al principio es el equivalente de un niño y debe estar sometido a constante vigilancia. Sin embargo, a medida que va creciendo, puede permitírsele adentrarse en la sociedad de la Tierra con un control cada vez menor. Finalmente, se convierte en un miembro de pleno derecho de esa sociedad.

—Sin duda, ello anula todas las objeciones de los que se oponen a los robots.

—No —dijo Harriman con enfado—. Ahora sus objeciones son otras. No quieren aceptar ningún juicio de valor. Según ellos, un robot no tiene derecho a decidir que tal o tal persona es inferior. Si el robot acepta las órdenes de A con preferencia a las de B, B queda calificado como una persona menos importante que A, lo cual atenta contra sus derechos humanos.

—¿Cómo se resuelve esto?

—No hay solución. Yo me rindo.

—Comprendo.

—Por lo que a mí respecta… Pero te la pido a ti, George.

—¿A mí? —La voz de George Diez no se alteró. En ella había una leve nota de sorpresa, pero nada que le afectase exterior mente—. ¿Por qué a mí?

—Porque no eres un hombre —dijo Harriman muy tenso—. Ya te he dicho que quiero que los robots colaboren con los seres humanos. Y quiero que tú seas mi colaborador.

George Diez levantó las manos y las separó, con las palmas levantadas, en un gesto curiosamente humano.

—¿Qué puedo hacer yo?

—Tal vez tú pienses que no puedes hacer nada, George. No hace mucho que fuiste creado y todavía eres un niño. Fuiste diseñado de forma que no estuvieras saturado de información inicial —por esto he tenido que explicarte la situación de forma tan detallada—, a fin de dejar espacio para el proceso de desarrollo. Pero tu cerebro se desarrollará y serás capaz de abordar el problema desde un punto de vista no humano. Ahí donde yo no encuentro solución, tal vez tú sepas hallar una, desde tu propio punto de vista distinto.

—Mi cerebro ha sido diseñado por el hombre —dijo George Diez—. ¿En qué sentido puedo ser no-humano?

—Eres el último modelo JG, George. Tu cerebro es el más complicado que hemos diseñado hasta el momento, en algunos aspectos más sutilmente complejo que los de las viejas «Máquinas» gigantes. Es un cerebro abierto y, a partir de una base humana, puede; no, debe, desarrollarse en cualquier sentido. Aun sin salirte de los límites infranqueables de las tres leyes, puedes llegar a ser completamente no-humano en tu pensamiento.

—¿Sé lo suficiente sobre los seres humanos para poder abordar este problema de manera racional? ¿Conozco suficientemente su historia? ¿Su psicología?

—Claro que no. Pero aprenderás tan rápido como puedas.

—¿Me ayudará alguien, señor Harriman?

—No. Esto es algo totalmente privado entre tú y yo. Nadie más está enterado y no debes mencionar este proyecto a ningún otro ser humano, ni en Norteamericana de Robots ni en ninguna otra parte.

—¿Estamos haciendo algo malo, señor Harriman, y por eso quiere guardar el secreto? —preguntó George.

—No. Pero nadie aceptará la solución de un robot, precisamente por proceder de él. Cualquier solución que se te ocurra deberás confiármela a mí; y si yo la considero interesante, yo la presentaré. Nadie sabrá jamás que salió de ti.

—Visto lo que acaba de decirme antes —dijo serenamente George Diez—, creo que es el procedimiento adecuado… ¿Cuándo empezaré?

—Ahora mismo. Me ocuparé de proporcionarte todas las películas necesarias para que las examines.

Los robots
cubierta.xhtml
sinopsis.xhtml
titulo.xhtml
info.xhtml
Section0001.xhtml
Section0002.xhtml
Section0003.xhtml
Section0004.xhtml
Section0005.xhtml
Section0006.xhtml
Section0007.xhtml
Section0008.xhtml
Section0009.xhtml
Section0014.xhtml
Section0015.xhtml
Section0016.xhtml
Section0017.xhtml
Section0018.xhtml
Section0019.xhtml
Section0020.xhtml
Section0021.xhtml
Section0022.xhtml
Section0023.xhtml
Section0024.xhtml
Section0025.xhtml
Section0026.xhtml
Section0027.xhtml
Section0028.xhtml
Section0029.xhtml
Section0030.xhtml
Section0031.xhtml
Section0032.xhtml
Section0033.xhtml
Section0034.xhtml
Section0035.xhtml
Section0036.xhtml
Section0037.xhtml
Section0038.xhtml
Section0039.xhtml
Section0040.xhtml
Section0041.xhtml
Section0042.xhtml
Section0043.xhtml
Section0044.xhtml
Section0045.xhtml
Section0046.xhtml
Section0047.xhtml
Section0048.xhtml
Section0049.xhtml
Section0050.xhtml
Section0051.xhtml
Section0052.xhtml
Section0053.xhtml
Section0054.xhtml
Section0055.xhtml
Section0056.xhtml
Section0057.xhtml
Section0058.xhtml
Section0059.xhtml
Section0060.xhtml
Section0061.xhtml
Section0062.xhtml
Section0063.xhtml
Section0064.xhtml
Section0065.xhtml
Section0066.xhtml
Section0067.xhtml
Section0068.xhtml
Section0069.xhtml
Section0070.xhtml
Section0071.xhtml
Section0072.xhtml
Section0073.xhtml
Section0074.xhtml
Section0075.xhtml
Section0076.xhtml
Section0077.xhtml
Section0078.xhtml
Section0079.xhtml
Section0080.xhtml
Section0081.xhtml
Section0082.xhtml
Section0083.xhtml
Section0084.xhtml
Section0085.xhtml
Section0086.xhtml
Section0087.xhtml
Section0088.xhtml
Section0089.xhtml
Section0090.xhtml
Section0091.xhtml
Section0092.xhtml
Section0093.xhtml
Section0094.xhtml
Section0095.xhtml
autor.xhtml
Notas.xhtml