15
Teoría de los autómatas autorreproductores
Yo veo el problema no desde el punto de vista matemático, como, por ejemplo, hacía Von Neumann, sino como ingeniero. Puede que sea mejor que apenas haya respaldo a tales ideas. Quizá el diablo esté detrás de ello también.
KONRAD ZUSE, 1976
La cámara recorre el cielo, y la negra y mellada forma de una isla rocosa quiebra la línea del horizonte. Navega ante la isla una gran goleta de cuatro mástiles. Nos acercamos, vemos que la nave ostenta la bandera de Nueva Zelanda y lleva el nombre de Canterbury. Su capitán y un grupo de pasajeros, junto a la borda, miran con insistencia hacia el este. Nosotros miramos con sus gemelos y descubrimos un trecho de costa yerma. Entonces, casi de repente, el sol aparece tras la silueta de las distantes montañas.[1]
Así reza un fragmento de Mono y esencia, la obra maestra menos conocida de Aldous Huxley, ambientada en Los Ángeles en 2108, después de que una guerra nuclear (en el año 2008) haya arruinado la capacidad de la humanidad de reproducir copias de alta fidelidad de sí misma. El 20 de febrero de 2108, la Expedición de Redescubrimiento Neozelandesa a Norteamérica llega a las islas del Canal, en la costa de California. En sintonía con el emplazamiento de Hollywood, la historia se presenta en forma de guión de cine: «Nueva Zelanda sobrevivió e incluso prosperó modestamente en un aislamiento que, a causa de la peligrosa situación radiactiva del resto del mundo, durante más de un siglo fue casi absoluto. Ahora, pasado el peligro, llegan aquí sus primeros exploradores, redescubriendo América desde el oeste».[2]
La distópica visión de Huxley fue publicada en 1948, cuando una Tercera Guerra Mundial parecía casi inevitable, sin que mejorara demasiado las perspectivas el argumento de Von Neumann de que podía minimizarse el número total de muertos lanzando un ataque preventivo. Aunque el mecanismo exacto por el que se replicaba la información genética aún estaba por determinarse, no había ninguna duda en cuanto a los efectos de la radiación ionizante en la transmisión de instrucciones de una generación a la siguiente. Huxley suponía que, a consecuencia de la guerra nuclear, la evolución darwiniana —de la que su abuelo, Thomas Huxley, había sido tan gran defensor— empezaría a relajarse.
Pero una replicación demasiado perfecta puede, en última instancia, resultar igualmente una amenaza. La evolución darwiniana depende de copias que no siempre son exactas. Es probable que en 2108 Los Ángeles resulte socialmente irreconocible, no por los errores derivados de la catástrofe de Mono y esencia, sino por todo lo contrario: debido a la capacidad de leer secuencias genéticas en ordenadores, replicarlas exactamente y retraducirlas en organismos vivos, sin que haya un solo bit equivocado a lo largo del proceso. Un Los Ángeles controlado por seres humanos capaces de especificar las características genéticas exactas de su descendencia puede resultar más aterrador que el Los Ángeles gobernado por los babuinos que recibían a la tripulación del Cantorbery en el 2108 imaginado por Huxley.
Así como las primitivas formas de vida autorreproductoras adoptaban simbiontes polinucleótidos autorreplicantes como portadores de información hereditaria de una generación a la siguiente, del mismo modo las formas de vida actuales podrían adoptar ordenadores como portadores de su código genético. Nils Barricelli insinuaba eso mismo en 1979 al observar que la naturaleza ha mostrado cierta tendencia, entre los organismos altamente sociales, a «separar los organismos de los que se compone la sociedad en dos clases principales, a saber: los trabajadores, especializados en realizar todas las tareas necesarias para la supervivencia de la sociedad excepto la reproducción, y los portadores de información hereditaria, cuya función es reproducir la sociedad». Esta separación de la función reproductiva, señalaba Barricelli, «es común en las sociedades altamente organizadas de organismos vivos (reinas y zánganos entre las hormigas, abejas y termitas, gametos entre las especies de células que forman un organismo multicelular), salvo en los humanos, cuya sociedad es de formación relativamente reciente en términos biológicos».[3]
Los poderes de los ordenadores se derivan tanto de su capacidad de copiar como de su capacidad de computar. Enviar un correo electrónico o transferir un archivo no mueve físicamente nada, sino que crea una nueva copia en otra parte. Una máquina de Turing es, por definición, capaz de hacer copias exactas de cualquier secuencia legible, incluidos su propio estado mental y la secuencia almacenada en su propia cinta. En consecuencia, una máquina de Turing puede hacer copias de sí misma. Este hecho llamó la atención de Von Neumann en la época en que se estaba poniendo en marcha el proyecto de ordenador del Instituto de Estudios Avanzados. «He pensado mucho en los mecanismos autorreproductivos —le escribía a Norbert Wiener en noviembre de 1946—. Puedo formular el problema de manera rigurosa, [tal] como lo hizo Turing para sus mecanismos.» Von Neumann imaginaba una teoría axiomática de la autorreproducción, lo bastante general como para abarcar tanto los organismos vivos como las máquinas, y le decía a Wiener que «quiero completar los detalles y poner por escrito estas consideraciones en el curso de los dos próximos meses».[4]
Esta teoría matemática de la autorreproducción había de basarse en aquello que pudiera ser directamente observado. «Sin embargo, yo aplicaría al “verdadero” entendimiento la interpretación más rigurosa posible —añadía—. Es decir, entender el organismo en el riguroso sentido en el que se puede querer entender un dibujo detallado de una máquina.»[5] Las moléculas individuales serían las únicas partes axiomáticas. «Sería un error aspirar a algo que no fuera la determinación completa de la distribución de la carga en la molécula proteínica; es decir, una completa determinación detallada de su geometría y estructura —le escribía a Irving Langmuir, con la intención de recabar la ayuda del químico—. Desde luego, las primeras estructuras realmente interesantes, es decir, las primeras estructuras autorreproductoras (virus de las plantas y bacteriófagos), están aún tres potencias de diez por encima de la proteína.»[6]
Ampliando las capacidades de la máquina universal de Turing, Von Neumann mostraba «que existe un autómata B que tiene esta propiedad: si se proporciona a B una descripción de algo, este consume dicha descripción y produce dos copias de ella». Von Neumann esbozó esta teoría en una charla que dio en Pasadena, California, el 20 de septiembre de 1948, más de cuatro años antes de que Franklin, Watson y Crick revelaran los detalles de cómo acontece eso mismo en la naturaleza. «Para la “autorreproducción” de autómatas, el procedimiento de Turing es demasiado restringido en un solo aspecto —explicó—. Sus autómatas son puramente máquinas computadoras. Su dispositivo de salida es un trozo de cinta con ceros y unos en ella. Lo que se necesita… es un autómata cuyo dispositivo de salida sean otros autómatas.»[7]
Utilizando el mismo método de sustitución lógica por el que se puede instruir a una máquina de Turing para que interprete de manera sucesiva lenguajes de nivel superior —o por el que Gódel pudo codificar enunciados metamatemáticos dentro de la aritmética corriente—, era posible diseñar máquinas de Turing cuyas instrucciones codificadas direccionaran componentes físicos, no posiciones de memoria, y cuya información de salida pudiera traducirse en objetos físicos, y no solo en ceros y unos. «Pequeñas variaciones del esquema precedente —proseguía Von Neumann— también nos permiten construir autómatas que puedan reproducirse y, además, construir otros.» Von Neumann comparaba el comportamiento de tales autómatas con el que en biología caracteriza a la «función génica típica, autorreproducción más producción —o estimulación de producción— de ciertas enzimas específicas».[8]
Contemplando el problema de la autorreplicación y la autorreproducción a través de la lente de los sistemas formales lógicos y autorreferentes, Von Neumann aplicaba los resultados de Gódel y Turing a los fundamentos de la biología, aunque sus conclusiones apenas tendrían efecto en los biólogos entonces en activo, del mismo modo que sus Fundamentos matemáticos de la mecánica cuántica apenas lo tuvieron en el trabajo cotidiano de los físicos de la época. Adaptando la prueba de Turing de la insolubilidad del Entscheidungs-problem al dominio de los autómatas autorreproductores, en diciembre de 1949 concluía que, «en otras palabras, se puede construir un órgano capaz de hacer cualquier cosa que se pueda hacer, pero no se puede construir un órgano que te diga si se puede hacer o no.[9]
»Esto se halla vinculado a la teoría de los tipos y a los resultados de Gódel —proseguía—. La cuestión de si algo es factible en un tipo pertenece a un tipo lógico superior. Es característico de los objetos de baja complejidad que resulta más fácil hablar del objeto que producirlo y más fácil predecir sus propiedades que construirlo. Pero en las partes complejas de la lógica formal resulta siempre un orden de magnitud más difícil decir lo que un objeto puede hacer que producir el objeto».[10]
¿Pueden los autómatas producir descendencia igual de compleja, o más compleja, que ellos mismos? «La «complejidad» en sus niveles inferiores probablemente es degenerativa, es decir, que cada autómata que pueda producir otros autómatas solo será capaz de producirlos menos complicados», explicaba Von Neumann. Hay, no obstante, cierto nivel de complejidad más allá del cual «el fenómeno de síntesis, si se organiza correctamente, puede resultar explosivo; en otras palabras, donde las síntesis de autómatas pueden proceder de tal modo que cada autómata produzca otros autómatas que sean más complejos y con potencialidades superiores a sí mismo».[11]
Esta conjetura pone el dedo en la llaga con respecto a la probabilidad o improbabilidad del origen de la vida. Si es verdadera, entonces la existencia de un sistema autorreproductor lo suficientemente complejo puede conducir a sistemas aún más complejos y, con una probabilidad razonable, a la vida o algo similar a ella. La autorreproducción es un accidente que solo tiene que ocurrir una vez. «De algún modo, las operaciones de probabilidad dejan un resquicio en ese punto —señalaba Von Neumann—, y este se crea por medio del proceso de autorreproducción.»[12]
Von Neumann había intentado volver a la cuestión de la autorreproducción después de dejar la AEC. «Hacia el final de su vida se sentía lo bastante seguro de sí mismo como para emprender libremente, aunque también minuciosamente, la creación de una posible nueva disciplina matemática —explicó Ulam—, una teoría combinatoria de los autómatas y organismos.» La teoría tendría que ser lo bastante sencilla como para resultar matemáticamente comprensible, pero también lo bastante compleja como para poder aplicarse a ejemplos no triviales del mundo real. «No quiero verme seriamente molestado por la objeción de que a) todo el mundo sabe que los autómatas pueden reproducirse [y] b) todo el mundo sabe que no pueden», anunció Von Neumann.[13]
El plan había consistido en redactar, con Ulam como coautor, un exhaustivo tratado comparable a Teoría de juegos y comportamiento económico, desarrollando una teoría de los autómatas autorreproductores con aplicaciones tanto en biología como en tecnología, y en la combinación de ambas disciplinas. El trabajo jamás llegaría a ser completado. Ulam no era un coautor tan disciplinado como Oskar Morgenstern, y después de la guerra la agenda de Von Neumann se volvió aún más apretada. A la larga, el manuscrito incompleto, incluida una larguísima introducción basada en la serie de cinco conferencias que diera Von Neumann en la Universidad de Illinois en 1949, sería compilado y cuidadosamente editado por Arthur Burks, y publicado con el título de Theory of Self-Reproducing Autómata («Teoría de los autómatas autorreproductores») casi diez años después de la muerte de Von Neumann. Algunos epígrafes de un borrador que se ha conservado de los tres primeros capítulos, que Von Neumann le envió a Ulam, dan una idea de su pensamiento en aquella época:
1) ¡Wiener!
3) ¡Turing!
5) ¡No Turing!
6) Algebra booleana
7) ¡Pitts-McCulloch!
13) ¡Ulam!
14) La exigencia de resultados más firmes
16) Clases de cristal en 2 y 3 dim[ensiones].
18) J. B., H. H. G.!
20) ¡Turing!
23) Truco de doble línea, etc.
24) Degeneración (?)
25) ¡Tunng![14]
Nuestra comprensión de la autorreproducción en biología, y nuestro desarrollo de la tecnología autorreproductora, procederían casi exactamente como prescribía la teoría propuesta. «¡Wiener!» probablemente se refiere a las teorías de Wiener sobre información y comunicación —ampliadas por Claude Shannon—, dado que el problema de la autorreproducción es fundamentalmente uno de comunicación, por un canal ruidoso, de una generación a la siguiente. «¡Turing!» remite a los poderes de la máquina universal de Turing, mientras que «¡No Turing!» alude a las limitaciones de dichos poderes y a cómo estos podrían verse trascendidos por cosas vivas y no vivas. «¡Pitts-McCulloch!» se refiere a los resultados de 1943 de Walter Pitts y Warren McCulloch sobre las capacidades —incluida la universalidad de Turing— de lo que hoy denominamos «redes neuronales». «J. B., H. H. G.!» alude a Julian Bigelow y Herman H. Goldstine, quienes raras veces estaban de acuerdo en algo, de modo que es posible que se trate de una referencia a las primeras discusiones sobre las capacidades de las matrices de células comunicantes, antes de que interviniera la discrepancia acerca de cómo llevar eso a la práctica. «Truco de doble línea, etc.» evoca la replicación de doble hélice del ADN, mientras que «Degeneración (?)» probablemente se refiera al modo en que cualquier sistema duradero de autorreproducción debe depender de códigos de corrección de errores en la traducción de una generación a la siguiente. «¡Ulam!» probablemente se refiera al interés de Ulam en las capacidades de los autómatas celulares Turing-completos, hoy evidenciadas por muchos de los procesos computacionales que nos rodean. La triple aparición de «¡Turing!» refleja la importancia de la prueba de universalidad de Turing para cualquier teoría de la autorreproducción, ya se aplicara a las matemáticas, la biología o las máquinas. Finalmente, Teoría de los autómatas autorreproductores, reconstruida a partir de apuntes fragmentarios por Arthur Burks, reflejaría tan solo una parte de todo esto.
El ordenador del Instituto de Estudios Avanzados sería reproducido, con variaciones, en una primera generación de hermanos directos entre los que se incluían el SEAC de Washington, el ILLIAC de la Universidad de Illinois, el OPvDVAC del Campo de Pruebas de Aberdeen, el JOHNNIAC de la Corporación RAND, el MANIAC del Laboratorio Nacional de Los Álamos, el AVIDAC del Laboratorio Nacional de Argonne (Chicago), el ORACLE del Laboratorio Nacional de Oak Ridge (Tennessee), el BESK de Estocolmo, el DASK de Copenhague, el SILLIAC de Sidney, el BESM de Moscú, el PERM de Munich, el WEIZAC de Rehovot (Israel) y el IBM 701. «Hay toda una serie de descendientes de la máquina de Princeton, de los que no todos se parecen mucho a su progenitora —informaba Willis Ware en marzo de 1953—. Más o menos desde 1949 venía a vernos con bastante regularidad personal de ingeniería, que se llevaba diseños y dibujos para duplicar máquinas.»[15]
Von Neumann, por su parte, visitó también los otros laboratorios, con los que intercambió ideas generosamente. Durante el verano de 1951, el físico Murray Gell-Mann estuvo trabajando en el Laboratorio de Sistemas de Control de la Universidad de Illinois, situado inmediatamente encima del ILLIAC. «Este se utilizaba en labores secretas del gobierno —explicó David Wheeler—, y algunos circuitos se averiaron.» A Gell-Mann y Keith Brueckner, sus patrocinadores de la fuerza aérea les habían asignado la tarea de «imaginar que contábamos con piezas de ordenador muy muy malas, y teníamos que construir un ordenador muy fiable con ellas». Después de mucho trabajo fueron capaces de demostrar que, aun con componentes lógicos que tenían «una probabilidad del 51 por ciento de estar bien y una probabilidad del 49 por ciento de estar mal», podían diseñar circuitos de tal manera «que la señal fuera gradualmente mejorada». Intentaban mostrar una mejora exponencial, y de hecho se estaban acercando a ello. «El proyecto contrató a varios consultores, entre ellos a Johnny von Neumann durante un día —añadió Gell-Mann—. A él le gustaba reflexionar sobre los problemas mientras conducía por el país. De modo que se dirigía a Los Álamos para trabajar en las ideas sobre armas termonucleares, y de camino se detuvo en Urbana durante un día e hizo de consultor para nosotros. Dios sabe lo que debieron de pagarle.»[16]
A finales de 1951, Von Neumann puso por escrito esas ideas en un breve manuscrito titulado «Reliable Organizations of Unreliable Elements» («Organizaciones fiables de elementos no fiables»), y en enero de 1952 dio una serie de cinco conferencias en el Instituto de Tecnología de California, publicadas más tarde como Probabilistic Logics and the Synthesis of Reliable Organisms from Unreliable Components («Lógicas probabilísticas y síntesis de organismos fiables a partir de componentes no fiables»), donde empezaba a formular una teoría de la fiabilidad en su característico modo axiomático. «El error se ve, pues, no como un accidente extraño que es inducido por una instrucción errónea o que la genera, sino como una parte esencial del proceso», anunciaba. Agradecía a Keith A. Brueckner y Murray Gell-Mann «algunos estímulos importantes sobre este tema», aunque sin dar más detalles. «En aquel momento no me contrarió en absoluto —dijo Gell-Mann—. Pensé: “¡Dios mío!, este gran hombre está refiriéndose a mí en la nota a pie de página. ¡Estoy en la nota a pie de página!”. Me sentí muy halagado, y supongo que Keith también.»[17]
Antes de que terminara la década se construyeron copias de segunda y tercera generación de la máquina del IAS. En este universo digital en expansión proliferaron los códigos, que se irían volviendo cada vez más potentes generación tras generación. Ordenadores más grandes, con memorias más grandes, engendraban códigos más grandes y más complejos, que a su vez engendraban ordenadores más grandes. Los chasis soldados a mano darían paso a circuitos impresos, circuitos integrados y, a la larga, microprocesadores con miles de millones de transistores impresos en silicio sin que los hubiera tocado una mano humana. Los 5 kilobytes de memoria electrostática de acceso aleatorio que albergaba el originario universo digital de Von Neumann, con un coste de alrededor de 100.000 dólares en 1947, hoy cuestan menos de una centésima de centavo y funcionan mil veces más deprisa.
En 1945, Review of Economic Studies había publicado el artículo «Model of General Economic Equilibrium» («Modelo de equilibrio económico general») de Von Neumann, un trabajo de nueve páginas leído en un seminario de matemáticas de Princeton en 1932 y publicado inicialmente (en alemán) en 1937. En él, Von Neumann dilucidaba el comportamiento de una economía donde «se producen bienes no solo a partir de “factores de producción naturales”, sino… unos a partir de otros». En esta economía autocatalítica, equilibrio y expansión coexisten en el punto de ensilladura entre conjuntos convexos. «La conexión con la topología puede resultar muy sorprendente al principio —señalaba Von Neumann—, pero el autor la considera natural en este tipo de problemas.»[18]
Algunos de los supuestos del «modelo económico en expansión» de Von Neumann —que «los factores naturales de producción, incluido el trabajo, pueden expandirse en cantidades ilimitadas» y que «todo insumo que exceda las necesidades de la vida será reinvertido»— parecían entonces poco realistas, pero no lo parecen tanto hoy en día, cuando la tecnología autorreproductora impulsa gran parte del mundo. Medimos nuestra economía en dinero, no en cosas, y todavía tenemos que desarrollar modelos económicos que den suficiente cuenta —y protejan contra los abusos— de los códigos autorreplicantes y las máquinas autorreproductoras.
Tras la marcha de Von Neumann de la AEC, el grupo de computación del I AS empezó a trabajar en «el problema de sintetizar circuitos conmutadores combinatorios (“casi mínimos”)» en general, y en el problema «de diseñar un computador digital» como caso especial de un circuito capaz de optimizarse a sí mismo. «Esta síntesis puede ser ejecutada por un computador digital, en particular por el computador que se va a diseñar si es lo suficientemente grande», informaban en abril de 1956, concluyendo que «parece que de ese modo hemos exhibido una máquina que puede reproducirse (esto es, diseñarse) a sí misma. Este resultado parece estar relacionado con las máquinas autorreproductoras de Von Neumann».[19] Estaban en lo cierto.
Los códigos que poblaban el creciente universo digital pronto se volverían Turing-completos, en gran medida como habían imaginado Ulam y Von Neumann en 1952. La ACE (Máquina de Computación Automática) de Turing, una potente máquina universal, debía de haber tenido una memoria de 25 kilobytes, o 2 × 10[5] bits. La actual escala del universo digital se estima en 10[22] bits. Se ignora el número de máquinas de Turing que pueblan este universo, y, cada vez más, estas son máquinas virtuales que no están necesariamente asociadas a ningún hardware físico concreto en ningún momento concreto. Existen como entidades precisamente definidas en el universo digital, pero no tienen una existencia fija en el nuestro. Y están proliferando tan deprisa que las máquinas reales se las ven y se las desean para estar a la altura de la demanda. Las máquinas físicas engendran máquinas virtuales, que a su vez engendran demanda de más máquinas físicas. Hoy la evolución en el universo digital impulsa la evolución en nuestro universo, en lugar de ocurrir al revés.
Teoría de los autómatas autorreproductores iba a presentar una gran teoría unificadora, una de las razones de que Von Neumann la dejara para el final. La nueva teoría se aplicaría a los sistemas biológicos, a los sistemas tecnológicos y a cualquier combinación concebible e inconcebible de ambos. Se aplicaría a los autómatas tanto si se encarnaban en el mundo físico, en el universo digital o en ambos, y pretendía tener una aplicación mucho más general que la de limitarse a la vida y la tecnología existentes en la Tierra.
Von Neumann raras veces hablaba de la vida o la inteligencia extraterrestres, probablemente por las mismas razones por las que tenía poco que decir sobre la inteligencia artificial: porque la vida y la inteligencia existentes ya resultaban lo bastante desconcertantes. Nils Barricelli, en cambio, se mostraba menos comedido. «Las condiciones para el desarrollo de organismos con muchas de las propiedades consideradas características de los seres vivos, por medio de procesos evolutivos, no tienen por qué ser similares a las que han prevalecido en la Tierra —concluía, basándose en sus experimentos de evolución numérica en el IAS—. Hay todo tipo de razones para creer que cualquier planeta en el que una gran variedad de moléculas puedan reproducirse por medio de reacciones autocatalíticas interconectadas (o simbióticas) puede presenciar la formación de organismos con las mismas propiedades.»[20] Una de tales propiedades podría ser el desarrollo de la máquina universal.
Es probable que los bits —las unidades fundamentales de información y computación— abarquen todo el universo conocible. Al adoptar la representación digital, las estructuras se pueden traducir en secuencias y viceversa. En distancias largas resulta caro transportar estructuras y barato transmitir secuencias. De ahí que incluso aquí, en la Tierra, las telecomunicaciones digitales hayan superado a todo lo demás. Ya hay máquinas de Turing, que por definición son estructuras que se pueden codificar como secuencias, propagándose localmente a la velocidad de la luz. La idea de que un ordenador concreto reside en un objeto físico concreto, en un emplazamiento y un momento concretos, está obsoleta.
Si resulta que, por alguna casualidad, la vida se ha originado, y ha sobrevivido, en otras partes del universo, sin duda habrá tenido tiempo de explorar una insondable diversidad de formas. Las más capaces de sobrevivir al paso del tiempo, de adaptarse a los cambios medioambientales y de emigrar a través de distancias interestelares serán las más extendidas. Una forma de vida que asuma una representación digital, en todo o en una parte de su ciclo vital, será no solo capaz de transmitir mensajes a la velocidad de la luz, sino también de transmitirse a sí misma. Como observaba en 1970 el pionero de la inteligencia artificial Marvin Minsky en un viaje a la Armenia soviética, «en lugar de enviar una imagen de un gato, hay un área donde lo que se envía es el propio gato».[21]
Von Neumann amplió el concepto de la máquina universal de Turing al de un «constructor universal»: una máquina capaz de ejecutar la descripción de cualquier otra máquina, incluida una descripción de sí misma. A su vez, se puede ampliar el concepto de constructor universal al de una máquina que, codificando y transmitiendo su propia descripción como un archivo autoextraíble, sea capaz de reproducir copias de sí misma en otra parte. Los organismos digitalmente codificados podrían propagarse económicamente incluso con una probabilidad extremadamente baja de encontrar un medio ambiente anfitrión en el que germinar y crecer. Si el núcleo codificado es interceptado por un anfitrión que ha descubierto la computación digital —cuya capacidad de traducción entre secuencia y estructura está tan cerca de ser un común denominador universal como pueden llegar a serlo la vida y la inteligencia corriendo en diferentes plataformas—, dicho núcleo tendrá una oportunidad. Si nosotros descubriéramos un núcleo así, de inmediato lo replicaríamos de manera generalizada. Los laboratorios de todo el planeta empezarían a intentar decodificarlo, y a la larga llegarían a compilar la secuencia codificada —intencionada o involuntariamente— para utilizar nuestros recursos locales, del mismo modo en que una célula anfitriona asigna privilegios a un virus. Los privilegios de lectoescritura otorgados a los códigos digitales incluyen ya la tecnología material, las mentes humanas y, cada vez más, la síntesis de nucleótidos y todos los consiguientes detalles de la propia biología.
El planeta anfitrión no solo tendría que construir radiotelescopios y estar activamente a la escucha de secuencias codificadas, sino también otorgar recursos computacionales a las señales cuando estas llegaran (si lo hicieran). Hoy, la apropiadamente denominada red SETI@home[*] conecta unos cinco millones de ordenadores terrestres a un creciente grupo de radiotelescopios, proporcionando un conjunto de 500 teraflops de transformadas rápidas de Fourier, que representan un total acumulativo de dos millones de años de tiempo de procesamiento. Hasta ahora, por lo que sabemos, no se ha captado ni una palabra (o siquiera una imagen).
Hace sesenta y tantos años, los organismos bioquímicos empezaron a montar ordenadores digitales. Hoy los ordenadores digitales empiezan a montar organismos bioquímicos. Visto con cierta perspectiva, esto parece formar parte de un ciclo vital. Pero ¿qué parte? ¿Son los organismos bioquímicos la fase embrionaria de los ordenadores digitales? ¿O son los ordenadores digitales la fase embrionaria de los organismos bioquímicos?
Según Edward Teller, cierto día de 1950, en Los Alamos, Enrico Fermi formuló la pregunta «Pero ¿dónde están todos?» cuando surgió el tema de los seres extraterrestres durante el almuerzo. Cincuenta años después, y también durante un almuerzo, esta vez en la Institución Hoover de la Universidad de Stanford, le pregunté a Edward Teller, que entonces tenía noventa y un años, si la pregunta de Fermi seguía vigente. John von Neumann, Theodore von Kármán, Leo Szilárd y Eugene Wigner, todos ellos compañeros de infancia de Teller en Budapest, habían muerto ya. De los cinco «marcianos»[*] húngaros que trajeron al mundo las armas nucleares, los ordenadores digitales, gran parte de la industria aeroespacial y los comienzos de la ingeniería genética, solo Edward Teller, que llevaba consigo una vara de madera como un profeta del Antiguo Testamento, seguía vivo.
Su cojera, consecuencia de haber perdido la mayor parte de un pie al ser atropellado por un tranvía en Munich en 1928, se había vuelto más pronunciada con la edad, del mismo modo que los recuerdos de su juventud húngara se habían vuelto más vividos al tiempo que sus recuerdos posteriores empezaban a desvanecerse. «Recuerdo los puentes, los hermosos puentes», dijo, hablando de Budapest.[22] Por más que Teller fuera (junto con Von Neumann y el pionero alemán de los cohetes Wernher von Braun) uno de los modelos que, en conjunto, inspiraron el personaje del doctor Strangelove en la película de Stanley Kubrick ¿Teléfono rojo? Volamos hacia Moscú —una obra maestra sobre la guerra fría—, para mí, en manos de Teller las armas nucleares resultan menos aterradoras que en las de la nueva generación de expertos en el desarrollo de armamento nuclear, que nunca han presenciado una prueba atmosférica en directo.
Teller supuso que yo había ido a preguntarle sobre la invención de Teller-Ulam, y me ofreció una larguísima descripción de la génesis de la bomba de hidrógeno, así como de la implosión-explosión de fisión requerida para inflamar el combustible termonuclear. «Toda la idea de la implosión —es decir, que se pueden conseguir densidades considerablemente superiores a la normal— surgió a raíz de una visita de Von Neumann —me explicó—. Se lo propusimos juntos a Oppenheimer. Y él aceptó de inmediato.»[23] Una vez abandonado el tema de la bomba de hidrógeno, le mencioné que estaba interesado en conocer la situación de la paradoja de Fermi cincuenta años después.
—Déjeme preguntarle algo —me interrumpió Teller, con su fuerte acento húngaro—. ¿No está usted interesado en la inteligencia extraterrestre? Obviamente no. Si estuviera interesado, ¿qué buscaría?
—Se pueden buscar toda clase de cosas —contesté—. Pero creo que lo que no hay que buscar es alguna señal inteligible… En cualquier civilización que esté realizando una comunicación útil, toda teoría de los autómatas autorreproductores transmisión de información eficiente estará codificada, de modo que no resultará inteligible para nosotros; parecerá ruido.
—¿Y dónde buscaría usted eso? —me preguntó Teller.
—No lo sé…
—¡Yo sí!
—¿Dónde?
—¡En los cúmulos globulares! —me respondió—. No podemos ponernos en contacto con nadie más, porque han decidido estar muy lejos de nosotros. En los cúmulos globulares resulta mucho más fácil que se reúna gente de diferentes lugares. Y en caso de que haya algún tipo de comunicación interestelar, tiene que estar en los cúmulos globulares.
—Parece razonable —convine—. Mi propia teoría personal es que la vida extraterrestre podría estar aquí ya… ¿y por qué tendríamos forzosamente que saberlo? Si hay vida en el universo, la forma de vida que resulte tener más éxito a la hora de propagarse será la vida digital; esta adoptará una forma que será independiente de la química local, y emigrará de un lugar a otro como una señal electromagnética mientras haya un mundo digital —una civilización que haya descubierto la máquina universal de Turing— que colonizar cuando llegue. Y fue por eso por lo que ustedes, Von Neumann y los demás marcianos, nos hicieron construir todos estos ordenadores: a fin de crear un hogar para esa clase de vida.
Hubo un silencio largo, interminable.
—Mire —me dijo finalmente Teller, bajando la voz hasta convertirla en un ronco susurro—, ¿puedo sugerirle que, en lugar de explicar eso, que resultaría… difícil, escriba un libro de ciencia ficción sobre ello?
—Probablemente alguien lo haya hecho —dije.
—O probablemente no —me respondió Teller.