14

Los sueños del ingeniero

Si, por un milagro, una máquina de Babbage funcionara al revés, no sería un ordenador, sino un refrigerador.

I. J. GOOD, 1962

«Recuerdo que un día salía por la puerta de atrás de aquel pequeño edificio de ladrillo, y ahí estaba Julian tendido bajo su pequeño Austin, soldando un agujero en el depósito de gasolina —recordaba Willis Ware—. Y dijo: «¡No! ¡No explotará!». Y tenía alguna explicación perfectamente razonable de por qué no iba a explotar, basada en los principios de la física.»[1]

Julian Bigelow era un ingeniero práctico; lo demostró desde el primer lote de tubos de vacío 6J6 excedentes de guerra y los técnicos trasplantados del ENIAC hasta la caseta de baterías de plomo-ácido que hubo que construir cuando resultó que en el extremo de Olden Lane había demasiadas fluctuaciones de voltaje transitorias para que el nuevo ordenador se pudiera conectar directamente a la red eléctrica. «La máquina real que se completará pronto, y que tiene características bastante excepcionales, es, en su encarnación física, mucho más un logro personal de Bigelow que de ningún otro», informaba Von Neumann en 1950, instando al comité ejecutivo del Instituto a romper con todo precedente otorgando un puesto académico a un ingeniero.[2]

Von Neumann lograría que se aprobara hacer dicha excepción. «La carrera de Bigelow se ha desviado considerablemente de la norma académica convencional —sostenía—. Ello, aparte de los motivos económicos y de la guerra, se debe al hecho de que el suyo se sitúa en medio de una serie de campos científicos reconocidos, pero sin coincidir con ninguno de ellos.»[3] La informática, como disciplina reconocida, aún no existía. El 1 de diciembre de 1950, Julian Bigelow y Herman Goldstine fueron nombrados miembros permanentes de la Escuela de Matemáticas, con un salario de 8.500 dólares anuales. Su objetivo no era tanto construir ordenadores mejores o más rápidos como, en palabras de Bigelow, buscar «la relación entre la lógica, la computabilidad, quizá los lenguajes máquina, y las cosas que se pueden descubrir científicamente ahora que disponemos de este instrumento».[4]

Por mal equipado que estuviera para la ingeniería, el Instituto lo estaba para acomodar a los visitantes que traían problemas para ejecutar en la nueva máquina. El complejo de viviendas era adyacente al edificio del ordenador, y allí no había ningún grupo de investigación ya establecido que defendiera su territorio. La computación digital, creía Bigelow, «limpiaría y resolvería áreas de oscuridad y debate que se habían acumulado durante décadas. Quienes realmente entendieran lo que estaban tratando de hacer podrían expresar sus ideas como instrucciones codificadas… y encontrar respuestas y hacer demostraciones explícitas mediante experimentos numéricos. El proceso avanzaría y consolidaría el conocimiento, y tendería a mantener a los honestos hombres».[5]

«La razón de que Von Neumann nos convirtiera a Goldstine y a mí en miembros permanentes —explicó Bigelow— era que quería asegurarse de que hubiera dos o tres personas cuyo talento respetaba que estuvieran presentes, pasara lo que pasase, en aquella empresa.» Von Neumann no estaba tan interesado en construir ordenadores como en lo que estos podían hacer. «Él quería biología matemática, quería astronomía matemática y quería ciencias de la Tierra.» Gracias al computador, el Instituto podría respaldar la ciencia aplicada sin tener que construir laboratorios. Incluso era posible que cambiara la cultura predominante. «Tendríamos la mayor escuela de ciencia aplicada del mundo —confiaba Bigelow—. Podríamos mostrar a los teóricos que éramos capaces de averiguar la respuesta a sus problemas teóricos con los números, a sus problemas de física, a sus problemas de estado sólido y a sus problemas de economía matemática. Haríamos planificación, haríamos cosas que se conocerían durante siglos, ya sabe.»[6]

Pero el optimismo de Bigelow sería efímero. Cuando el presidente Eisenhower nombró a Von Neumann miembro de la Comisión de Energía Atómica, en octubre de 1954, el proyecto de computador inició su declive. El Instituto no solo perdió a Von Neumann, sino también una gran parte de la financiación que había proporcionado, sin apenas contrapartidas, la AEC. Con Von Neumann incorporado ahora a la comisión, esta ya no podía darle al Instituto todo lo que deseaba. «No teníamos a nadie a quien acudir sin todo aquel temor a un conflicto de intereses —explicó Goldstine—. Tener toda esa influencia iba en gran medida en detrimento nuestro, porque no podíamos ejercerla.»[7]

IBM no tenía tantas restricciones. «La gente de IBM siguió viniendo casi todas las semanas a observar el desarrollo de la máquina», recordaba Thelma Estrin. La empresa, que conservaba a Von Neumann como consultor, empezó a desarrollar su primer ordenador totalmente electrónico, el IBM 701, «una copia exacta de nuestra máquina —según Bigelow—, hasta el punto de incluir los tubos de memoria Williams». En 1951, IBM había llegado a estar lo «bastante interesada —en palabras de Oppenheimer— como para querer darle al Instituto 20.000 dólares anuales durante un período de cinco años sin contrapartida alguna».[8]

El proyecto de computador estaba atrapado entre quienes acogían favorablemente aquella posibilidad de atraer financiación externa y quienes pensaban que el Instituto, ahora que la guerra había terminado, debían abstenerse de contar con el apoyo de la industria o del gobierno. Marston Morse creía que el Instituto no era un lugar para construir máquinas. Oswald Veblen alababa la computación digital, pero se oponía a las bombas de hidrógeno. Oppenheimer intentaba parecer neutral, y solo afirmaba que en el Instituto la computación debería, o bien «dotarse de fondos y ampliarse, y ocupar un lugar apropiado en la estructura académica», o bien ser clausurada. «Por aquel entonces, tener a Oppenheimer a favor de algo era exactamente el modo de conseguir que todo el resto del cuerpo docente lo embarrancara», observó Bigelow.[9]

A Freeman Dyson, que a la sazón tenía treinta y un años y acababa de empezar su segundo año como profesor, se le encargó la tarea de «recabar unas cuantas opiniones y puntos de vista externos sobre una cuestión de política de largo alcance sobre la que considerábamos que debíamos decidir. A saber, ¿cuál es el papel apropiado que el Instituto debe desempeñar en los campos de la matemática aplicada y la computación electrónica?».[10] La cuestión más inmediata era si se debía ofrecer o no un puesto permanente al meteorólogo Jule Charney. La cuestión a largo plazo era qué hacer con el Proyecto de Computador Electrónico, que, en ausencia de Von Neumann, pendía ahora de un hilo.

El grupo de Charney fue víctima de su propio éxito. Los métodos de pronóstico numérico desarrollados inicialmente en el Instituto estaban siendo adoptados por los servicios meteorológicos de todo el mundo. Se estaban construyendo múltiples copias del ordenador del IAS, con una constante afluencia de visitantes que iban a Princeton para aprender las nuevas técnicas. Pero la plantilla del Instituto, incluso los matemáticos, había tomado partido en contra del ordenador, mientras que los analistas externos generalmente convenían en que la máquina encajaba mejor en otra parte. «Ha llegado el momento de que Von Neumann revolucione algún otro tema; ha pasado demasiado tiempo en el campo de la computación automática», recomendaba James Lighthill, miembro de la Royal Society.[11] Los administradores fundadores Herbert Maass y Samuel Leidesdorf, que creían que entender mejor el tiempo constituía precisamente el tipo de conocimiento cuyo avance habían deseado los Bamberger, trataron de preservar el proyecto de meteorología, pero fueron derrotados.

«El uso de los ordenadores era un tema muy divertido en los primeros tiempos —recordaba el matemático e informático británico David Wheeler, en alusión a las matemáticas en Princeton en aquella época—. Estaba ligeramente por debajo de la dignidad de los matemáticos. Los ingenieros estaban acostumbrados a efectuar cálculos, mientras que los matemáticos no.»[12] Una vez pasada la tempestad, Freeman Dyson haría oír su voz. «Cuando Von Neumann murió trágicamente, los esnobs se tomaron su venganza y se deshicieron completamente del proyecto de computación —afirmó en 1970, en la inauguración de las nuevas salas Fine y Jadwin de la universidad, equipadas con múltiples ordenadores—. La muerte de nuestro grupo de computación fue un desastre no solo para Princeton, sino para toda la ciencia en su conjunto. Supuso que en aquel período crítico de la década de 1950 no existiera un centro académico donde los informáticos de todas clases pudieran reunirse al más alto nivel intelectual… Tuvimos la oportunidad de hacerlo, y la desperdiciamos.» Habrían de pasar veintidós años antes de que llegara al IAS el siguiente ordenador: una calculadora programable Hewlett-Packard modelo 9100-B, secuestrada para uso exclusivo de los astrónomos en el sótano del Edificio E.[13]

Las esperanzas de Bigelow de mantener el Instituto en la vanguardia de la revolución computacional se vieron, pues, interrumpidas. Von Neumann y el entusiasmo que había generado en 1946 se fueron para no volver. Klári hacía tiempo que quería dejar Princeton para mudarse a la Costa Oeste; la ambivalencia del Instituto con respecto al proyecto de computador y las persistentes divisiones en torno a las audiencias de seguridad de Oppenheimer, empezaron a hacer también mella en Johnny. Veblen no le perdonaría a Von Neumann que se hubiera incorporado a la Comisión de Energía Atómica, una situación que, según Klári, «se convertiría en una patética aflicción en los últimos años de Johnny».[14] Incluso algunos de los más íntimos amigos de Von Neumann empezaron a preguntarse cómo alguien que había apoyado a Oppenheimer contra sus acusadores de la AEC podía ahora alinearse con su cabecilla, Strauss. El propio Oppenheimer se mostraba más compasivo. «Siempre recordaré a Robert —dijo Klári— resumiendo su actitud en una frase muy sencilla: “Tiene que haber buena gente en los dos bandos”.»[15]

«Se había trazado la línea y, tras la oleada de entusiasmo inicial, resultó evidente que ya no pertenecíamos a Princeton —explicó Klári—. La atmósfera altamente emocional de Princeton molestaba mucho a Johnny. Él quería trabajar en diseños de ordenadores mejorados, o en la urgente expansión de los programas de misiles; en otras palabras, en cualquier cosa que constituyera un verdadero reto intelectual en lugar de discutir interminablemente acerca de quién había hecho qué, y por qué, y cómo.»[16] Von Neumann creía que había que dejar atrás el conflicto de lealtades surgido durante el desarrollo de la bomba atómica. «Todos éramos como niños pequeños con respecto a la situación que había surgido, a saber, la de que de repente estábamos manejando algo con lo que se podía hacer volar el mundo entero —había declarado, en defensa de Oppenheimer, en 1954—. Tuvimos que racionalizarlo y elaborar nuestro código de conducta sobre la marcha.»[17]

Dos semanas después, cuando estaba en Los Ángeles por asuntos relacionados con los misiles estratégicos de la fuerza aérea y se alojaba en los Bungalows Miramar de Santa Mónica, Von Neumann se reunió con Paul A. Dodd, decano de Letras y Ciencias de la UCLA, que le ofreció un puesto interdisciplinar especial, sin responsabilidades docentes, como profesor itinerante. «Me darían “todo” lo que yo quisiera», le escribía a Klári el 16 de mayo, añadiendo que «no les importa si también hago consultorías para la industria». Asimismo, Dodd le aseguró a Von Neumann que podría pasar todo el tiempo que quisiera en la Institución Oceanógrafica Scripps, en La Jolla. Von Neumann aceptó rechazar cualesquiera otras ofertas hasta mantener nuevas conversaciones con la UCLA, y Dodd aceptó dar al asunto carácter confidencial, ya que Von Neumann no había informado al Instituto de que pensaba marcharse y, como le dijo a Klári, «no quiero parecerles un desertor o un traidor».[18]

«Desde que decidimos, hace un año y medio, que sería mejor dejar Princeton, es la primera vez que veo evidencias concretas para hacerlo», le escribía a Klári al día siguiente.[19] Cuando las negociaciones prosiguieron, consiguió también sendos puestos en la UCLA tanto parajule Charney como para Norman Phillips, junto con garantías de que se crearía un laboratorio de última tecnología, aprovechando los recursos que ya existían, en Los Ángeles, concretamente en el Instituto de Análisis Numérico y en RAND. Finalmente, pues, Von Neumann podría crear el laboratorio de sistemas de información interdisciplinar que él y Norbert Wiener habían propuesto en 1946, antes de que la urgencia por desarrollar la bomba de hidrógeno hubiera creado un muro entre ellos y su trabajo. De haberse creado el laboratorio de California, la segunda mitad del siglo XX podría haber tomado un rumbo completamente distinto. «Alguien debería escribir una novela sobre el futuro que reside en el pasado —afirmó Harris Mayer, colega de Von Neumann en Los Alamos—. Es decir, ¿qué serían la ciencia y las matemáticas si Fermi y Johnny Von Neumann no hubieran muerto jóvenes?»[20]

La primavera de 1955 encontró a Johnny y Klári establecidos en una casa pequeña, pero confortable, en Georgetown, en las inmediaciones de Washington, después de que Johnny hubiera recorrido un trayecto que le había llevado desde la inmigración posdoctoral hasta un puesto de presidente en solo veinticinco años. El período de Washington prometía vislumbrar un futuro aún más productivo. «Quiero independizarme de la vida académica regulada», le había escrito Von Neumann a Klári desde Los Alamos en 1943; un objetivo que ahora estaba finalmente al alcance de la mano. Pero no iba a ser así. «El 9 de julio de aquel verano, excepcionalmente caluroso incluso para Washington —recordaba Klári—, Johnny se desplomó mientras hablaba por teléfono con Lewis Strauss.»[21]

El 2 de agosto le diagnosticaron un cáncer avanzado con metástasis, originado en la clavícula, y fue sometido a una operación de urgencia. En noviembre se vio afectada la columna vertebral, y el 12 de diciembre pronunció en la Asociación Nacional de Planificación, en Washington, el que sería el último discurso que podría dar de pie. «Lo mejor que podemos hacer es dividir todos los procesos entre aquellas cosas que las máquinas pueden hacer mejor y aquellas otras que pueden hacer mejor los humanos —aconsejó—, y luego inventar métodos para realizar ambas.»[22] En enero de 1956 se vio confinado a una silla de ruedas. «La última discusión científica que tuvimos fue en Nochevieja, cuando le hablé de una nueva teoría que yo tenía sobre la dinámica del huracán maduro —recordaba Jule Charney—. Aquella Nochevieja estuvo en la cama todo el día. A la mañana siguiente bajó para vernos a Elinor y a mí, que partíamos hacia Princeton. Cuando volvía a subir se cayó, y ya no volvió a andar.»[23]

En marzo ingresó en el hospital Walter Reed, donde pasaría los once meses que le quedaban de vida. «Hablaba de su enfermedad con los doctores de un modo tan normal y con tal riqueza de conocimientos médicos que estos se vieron forzados a contarle toda la verdad, que resultaba bastante sombría», explicaría Klári. Recibió constantes visitas y lo instalaron en la misma ala en la que estaba la suite de Eisenhower. Se asignó al coronel de la fuerza aérea Vincent Ford, con varios aviadores bajo su mando, la labor de auxiliarle a tiempo completo. Posteriormente Lewis Strauss recordaría «la extraordinaria imagen de ver, junto al lecho de aquel hombre de cincuenta y pico años que había sido un inmigrante, sentados en torno a él, al secretario de Defensa, el subsecretario de Defensa, los secretarios del Aire, el Ejército y la Marina, y los jefes de Estado Mayor».[24]

Sus facultades mentales se fueron deteriorando poco a poco. «Él quería a alguien con quien hablar —contó Julian Bigelow—, y Klári, que yo creo que me conocía a mí mejor que a nadie, me pidió que fuera a verle al hospital Walter Reed. De modo que estuve yendo todos los fines de semana durante casi un año.» Strauss obtuvo un contrato de servicios personales de la AEC para pagar los gastos de viaje de Bigelow, y, a instancias de Von Neumann, restituyó la acreditación de seguridad de nivel «Q» de Bigelow (el 27 de junio de 1956). Bigelow fue a ver a Von Neumann, le leyó revistas científicas y le planteó sus dudas hasta el final. «Fue una experiencia terrible ser testigo de su decadencia.»[25]

Stan Ulam iba a verle siempre que podía. «Él nunca se quejaba de dolor, pero el cambio que sufrieron su actitud, sus expresiones, sus relaciones con Klári y, de hecho, todo su estado de ánimo al final de su vida, fue desgarrador —recordaba—. En un momento dado se convirtió en un católico estricto. Un monje benedictino iba a verle y hablaba con él. Más tarde pidió un jesuita. Era evidente que había una gran brecha entre lo que hablaba verbal y lógicamente con otros, y sus pensamientos y preocupaciones interiores.» La curiosidad científica y la memoria fueron lo último que le abandonaron. «Unos días antes de morir —añadió Ulam— yo estaba leyéndole en griego, de su desgastado ejemplar de Tucídides, una historia que le gustaba especialmente sobre el ataque de los atenienses a Melos, y también el discurso de Pericles. Se acordaba lo bastante como para corregirme algún error o alguna mala pronunciación ocasional por mi parte.»[26]

Marina Von Neumann tenía veintiún años, estaba a punto de casarse y daba los primeros pasos en su carrera profesional. Su padre «comprendía claramente que la enfermedad se le había extendido al cerebro y que ya no podía pensar, y me pidió que le pusiera a prueba con problemas aritméticos de lo más sencillos, como siete más cuatro, cosa que hice durante unos minutos, y luego ya no pude seguir; salí de la habitación», recordaba, vencida por «la angustia mental de reconocer que aquello por lo que él se definía se había desvanecido».[27]

«En cierta ocasión le dije —añadió—, cuando él sabía que se moría y estaba muy alterado, que «consideras con serenidad la posibilidad de eliminar a millones de personas y, sin embargo, no puedes afrontar tu propia muerte”. Y él me respondió: “Es completamente distinto”.» Nicholas Von Neumann creía que su hermano pidió un sacerdote católico porque quería a alguien con quien poder hablar de los clásicos. «Con nuestro origen habría sido inconcebible convertirse en un católico devoto de la noche a la mañana», afirmó.[28]

«No creo que fuera eso en absoluto —discrepaba Marina—. Mi padre me dijo una vez, con estas mismas palabras, que el catolicismo es una religión muy dura en la que vivir, pero es la única en la que morir. Y en alguna parte de su cerebro realmente esperaba que esta pudiera garantizarle alguna clase de inmortalidad personal. Eso estaba en guerra con otras partes de su cerebro, pero estoy segura de que tenía en mente la apuesta de Pascal.» Aquella repentina conversión resultó inquietante para Klári, los Ulam y Lewis Strauss. «La tragedia de Johnny sigue afectándome mucho —le escribía Ulam a Strauss el 21 de diciembre de 1956—. También me siento profundamente perturbado por la devoción religiosa que ha desarrollado. Klári… me ha hablado de su intento y del de usted de moderar cualquier cosa que pudiera aparecer por escrito al respecto.»[29]

Bigelow «encontró cosas que estaban más allá de la comunicación» cuando fue a verle el 27 y el 28 de diciembre. «Antes de su muerte, perdió la voluntad o la capacidad de hablar —explicó Klári—. A quienes de nosotros le conocíamos bien podía comunicarnos cada deseo, voluntad o preocupación por medio de aquellos ojos maravillosamente expresivos que nunca perdieron su brillo y vivacidad hasta el mismo final.»[30]

Von Neumann murió el 8 de febrero de 1957 y fue enterrado en Princeton el día 12. Sus colegas del Instituto encargaron (por «unos 15 dólares») un arreglo floral de narcisos que depositaron sobre su tumba. Tras una breve ceremonia católica, Lewis Strauss se encargó de hacer su panegírico. La primavera siguiente, Stan Ulam le haría un detallado homenaje en Bulletin of the American Mathematical Society. Ahora Ulam se quedaba como único testigo de las revoluciones tanto en biología como en informática que Von Neumann había iniciado, pero que no vería cumplidas. «Murió muy prematuramente, llegando a ver la tierra prometida, pero sin apenas entrar en ella», escribiría Ulam en 1976.[31]

El personal que quedaba del Proyecto de Computador Electrónico se dispersó entre la empresa privada, diversos laboratorios nacionales y un creciente número de departamentos informáticos universitarios, donde se construían derivados de la máquina del IAS. Julian Bigelow estaba decidido a quedarse. Aunque al final Marston Morse había pedido disculpas por «la conclusión de mis colegas matemáticos con respecto al computador», los matemáticos nunca cambiaron de opinión con respecto a los ingenieros. «Allí había realmente un sistema de castas —recordaba Morris Rubinoff—. Podías distinguir diferentes tipos de miembros y diferentes tipos de miembros de pleno derecho en función de su voluntad de entablar conversación o hasta de relacionarse socialmente con los ingenieros.»[32]

Bigelow recibió ofertas de trabajo de la UCLA, PvAND, la Universidad de Nueva York, la RCA, la Universidad de Michigan, Hughes Aircraft, la Agencia de Cartografía de Defensa y hasta la Escuela de Medicina Albert Einstein, todas las cuales rechazó. «Julian era un hombre que cogía su soldador y simplemente hacía lo que tuviera que hacer —contó Martin Davis—. Le habría ido mucho mejor si no hubiera aceptado nunca ese puesto [en el IAS]. Habría tenido un trabajo en la industria, donde realmente habría prosperado.»[33] El Instituto no podía obligarle a dimitir, pero se negó a subirle el sueldo. Sobrevivió con 9.000 dólares al año, complementados con ocasionales honorarios por consultas, criando a tres hijos y posteriormente cuidando de su esposa, Mary, que cayó gravemente enferma. Klári sugirió que se le nombrara editor de los papeles inéditos de Von Neumann sobre computación y autómatas, pero al final aquello se quedó en nada. Bigelow publicó poco durante los cuarenta años siguientes. Aunque siguió siendo el vínculo más directo con las ideas inacabadas de Von Neumann sobre el futuro de la computación, dichas ideas, ya atenuadas por la prematura muerte de Von Neumann y la negativa a publicar su trabajo incompleto, se verían aún más silenciadas por el exilio de Bigelow en el IAS.

Las ideas de este último sobre el futuro de la computación eran algo más que meras funciones de intervalo invertidas para ser proyectadas hacia adelante en el tiempo. El modelo unidimensional de Turing, por potente que fuera, y su aplicación bidimensional por parte de Von Neumann, por práctica que resultara, podían ser solo primeros pasos en el camino hacia algo distinto. «Si realmente trataras de construir una máquina del modo en que describió Turing —explicaba Bigelow—, pasarías más tiempo corriendo de acá para allá buscando posiciones en una cinta que el que emplearías haciendo auténtico trabajo numérico o computación.»[34] El modelo de Von Neumann podía resultar similarmente restrictivo, y no cabía esperar que las soluciones a las que se había llegado entre 1946 y 1951 persistieran indefinidamente más de lo que cabía esperar que cualquier interpretación concreta de secuencias de nucleótidos persistiera durante tres mil millones de años. Lo último que habrían esperado tanto Bigelow como Von Neumann era que, mucho después de que los tubos de vacío y los tubos de rayos catódicos desaparecieran, la arquitectura informática digital persistiría en gran parte inalterada desde 1946.

Una vez completado el ordenador del IAS, era posible examinar retrospectivamente las soluciones de compromiso que se habían tenido que adoptar para conseguir que funcionara; y Bigelow lo hizo. «El diseño de una calculadora electrónica… resulta ser un frustrante combate de lucha libre con problemas de interconectabilidad y proximidad en tres dimensiones de espacio y una dimensión de tiempo», escribía en 1965, en uno de los pocos textos que dejan entrever su pensamiento en los años posteriores al MANIAC.[35] ¿Por qué hubo tan pocas alternativas que fueran objeto de una atención seria durante sesenta y cuatro años? Si uno examina la estructura de un ordenador, «posiblemente no sabrá decir qué es lo que está haciendo en ese momento —explicaba Bigelow—. La importancia de la estructura en el modo en que tienen lugar los procesos lógicos está empezando a disminuir en la medida en que aumenta la complejidad de dichos procesos lógicos». Bigelow señalaba entonces que la importancia del resultado de Turing en 1936 residía en «mostrar de una forma muy importante y sugestiva lo trivial que en realidad resulta la estructura».[36] Esta siempre puede ser sustituida por el código.

«El orden sucesivo a lo largo del eje temporal es hoy el método habitual de realizar computaciones, aunque… a la hora de formar cualquier modelo de procesos del mundo real para su estudio en un computador, no parece haber razón alguna por la que este deba iniciarse emparejando secuencias de tiempo de computador con parámetros temporales físicos del modelo del mundo real —observaba Bigelow, que había estado dándole vueltas a la cuestión de cómo asociar la física a la computación ya desde que se encontrara con el problema de Wiener de predecir la trayectoria evasiva de un avión en 1941, y con el problema de Von Neumann de predecir el estallido de una bomba en 1946—. También debería ser posible retroceder o avanzar de los resultados a las causas a través de cualquier representación de trayectoria del proceso», subrayaba, añadiendo que «parecería que la convención de [correspondencia] de tiempo en tiempo normalmente utilizada se debe a los… humanos que interpretan los resultados.»[37]

«Un segundo resultado del habitual modo de secuencia de tiempo sucesivo y del gran número de células candidatas que aguardan para participar en la computación en la próxima oportunidad, si es que en ella les llega el turno, es la aparición de un problema de identificación particularmente difícil… debido a la necesidad de direccionar un próximo candidato aleatorio y de saber dónde está en el espacio máquina», proseguía Bigelow, explicando cómo la opción de la dependencia sucesiva en el tiempo había conducido a ordenadores «construidos a partir de elementos que son, en gran medida, estrictamente independientes en el espacio». Ello, a su vez, requiere que la comunicación entre elementos individuales se realice «por medio de sistemas explícitos de etiquetas que caracterizan a las propiedades geométricas básicamente irrelevantes del aparato, conocidas como “direcciones”. La consecución del proceso secuencial de tiempo deseado en un aparato de computación dado resulta ser en gran parte una cuestión de especificar secuencias de direcciones de los ítems que deben interactuar».[38]

La matriz de 32 por 32 instituida en 1951 direccionaba 1.024 posiciones de memoria distintas, cada una de las cuales contenía una secuencia de 40 bits. La matriz de direcciones crecería vertiginosamente durante los sesenta años siguientes. Los procesadores actuales controlan miles de millones de direcciones locales de un nanosegundo al siguiente, mientras que el espacio direccional no local se está ampliando a un ritmo superior al que el protocolo para asignar direcciones remotas se ha revelado capaz de seguir. Una sola referencia direccional incorrecta puede dar al traste con todo.

Obligado a concentrar toda su atención en obtener las referencias direccionales y las secuencias de instrucciones exactamente correctas, un ordenador, pese a tener miles de millones de componentes a su disposición, hace solo una cosa a la vez. «El moderno ordenador de alta velocidad, por impresionante que resulte su rendimiento desde el punto de vista absoluto de sus logros, resulta, desde la perspectiva de conseguir que todo el equipamiento lógico disponible participe adecuadamente en la computación, de hecho muy ineficaz», observaba Bigelow. Los componentes individuales, pese a ser capaces de operar continuamente a alta velocidad, «están interconectados de tal modo que, por término medio, casi todos están esperando a que uno de ellos (o muy pocos) actúe. El ciclo de trabajo medio de cada célula resulta escandalosamente bajo».[39]

Para compensar tales ineficiencias, los procesadores ejecutan miles de millones de instrucciones por segundo. ¿Cómo pueden los programadores suministrar las suficientes instrucciones —y direcciones— para mantener ese ritmo? Bigelow veía los procesadores como organismos que digieren código y producen resultados, consumiendo instrucciones tan rápidamente que los procesos iterativos, recursivos, constituyen el único modo de que los humanos puedan generar instrucciones lo bastante rápido. «Los ordenadores electrónicos siguen instrucciones muy rápidamente, de modo que se las “comen” muy deprisa y, por lo tanto, hay que encontrar algún modo de formar lotes de instrucciones muy eficientemente, y de “etiquetarlas” eficientemente, a fin de que el ordenador se mantenga de hecho más ocupado que el programador —explicaba—. Esta puede parecer una forma sumamente caprichosa de describir la cuestión, lógicamente profunda, de cómo expresar computaciones a las máquinas. Sin embargo, se cree que no está lejos de una importante verdad fundamental: que se utilizan rutinas altamente recursivas, condicionales y repetitivas porque, desde el punto de vista de la notación, estas resultan eficientes (aunque no necesariamente únicas) como descripciones de procesos subyacentes.»[40]

Bigelow cuestionaba la persistencia de la arquitectura de Von Neumann y desafiaba el dogma central de la computación digital: que, sin programadores, los computadores no pueden computar. El —como Von Neumann— había especulado desde un primer momento con «la posibilidad de hacer que varios fragmentos elementales de información situados en las células de una gran matriz (pongamos que de memoria) entren en un proceso de computación sin generar explícitamente una dirección de coordenadas en el “espacio máquina” para seleccionarlas de la matriz».[41]

La biología ha estado haciendo eso mismo todo el tiempo. La vida también se basa en instrucciones digitalmente codificadas que traducen entre secuencia y estructura (de nucleótidos a proteínas), mientras que los ribosomas leen, duplican e interpretan las secuencias de la «cinta». Pero cualquier semejanza termina con el diferente método de direccionamiento mediante el que se realizan las instrucciones. En un ordenador digital, las instrucciones adoptan la forma de INSTRUCCIÓN (DIRECCIÓN), donde la dirección es una posición de memoria exacta (ya sea absoluta o relativa), un proceso que se traduce de manera informal en «HAZ ESTO con lo que encuentres AQUÍ y dirígete ALLÍ con el resultado». Todo depende no solo de instrucciones precisas, sino también de que AQUÍ, ALLÍ y CUÁNDO estén exactamente definidos.

En biología, las instrucciones rezan: «HAZ ESTO con la próxima copia de ESO que se presente», donde «ESO» Se identifica no por una dirección numérica que define una posición física, sino por una plantilla molecular que identifica una molécula más grande y compleja por medio de alguna parte más pequeña e identificable. Esa es la razón por la que los organismos se componen de células microscópicas (o casi microscópicas), ya que solo manteniendo todos los componentes en estrecha proximidad física es posible que un esquema de direccionamiento estocástico y basado en patrones funcione lo bastante rápido. No existe ninguna autoridad central de direccionamiento, ni tampoco ningún reloj central. Pueden ocurrir muchas cosas a la vez. Esta capacidad de sacar una ventaja general y organizada de procesos locales fortuitos es la capacidad que (hasta ahora) ha distinguido al procesamiento de información en los organismos vivos del procesamiento de información que realizan los ordenadores digitales.

Nuestra comprensión de la vida se ha vuelto más profunda gracias a nuestro creciente conocimiento del funcionamiento de las complejas máquinas moleculares, mientras que nuestra comprensión de la tecnología ha disminuido cuando las máquinas han abordado la complejidad de los seres vivos. Nos hallamos de nuevo en el punto donde se quedaron en 1943 Julian Bigelow y Norbert Wiener al final de su artículo, previo a la era del ordenador, «Comportamiento, finalidad y teleología». «Una ulterior comparación de organismos vivos y máquinas… puede depender de si hay o no una o más características únicas, cualitativamente distintas, presentes en un grupo y ausentes en el otro —concluían entonces—. Hasta ahora no han aparecido tales diferencias cualitativas.»[42]

Cuando el universo digital se expandió, chocó con dos depósitos de información preexistentes, la información almacenada en los códigos genéticos y la información almacenada en los cerebros. La de nuestros genes resultó ser más digital, más secuencial y más lógica de lo esperado, mientras que la de nuestros cerebros resultó ser menos digital, menos secuencial y menos lógica de lo esperado.

Von Neumann murió antes de tener la oportunidad de poder centrar su atención en el tema del código genético, pero cerca del final de su vida pudo centrarla en la cuestión del procesamiento de información en el cerebro. Su último manuscrito, que, redactado para las inminentes conferencias en homenaje al científico Benjamin Silliman que habían de celebrarse en la Universidad de Yale, quedaría inacabado, ofrecía «simplemente el más tosco bosquejo de aquello en lo que tenía planeado pensar», en palabras de Ulam, y sería editado por Klári y publicado póstumamente con el título de The Computer and the Brain.[*][43] Von Neumann trataba de explicar las diferencias entre los dos sistemas, siendo la primera de ellas que entendemos casi todo lo que ocurre en un ordenador digital, pero casi nada de lo que ocurre en un cerebro.

«El sistema de mensajes utilizado en el sistema nervioso… es de índole esencialmente estadística», explicaba. Y proseguía:

Lo que importa no son las posiciones exactas de marcadores (dígitos) definidos, sino las características estadísticas de su existencia… un sistema de notación radicalmente distinto de aquellos con los que estamos familiarizados en la aritmética y las matemáticas corrientes… Obviamente, también podrían utilizarse otros rasgos del mensaje (estadístico); de hecho, la frecuencia mencionada es una propiedad de una sola serie de impulsos, mientras que cada uno de los nervios relevantes consiste en un gran número de fibras, cada una de las cuales transmite numerosas series de impulsos. Es, pues, perfectamente verosímil que ciertas relaciones (estadísticas) entre tales series de impulsos también deban transmitir información… Independientemente del lenguaje que el sistema nervioso central esté utilizando, este se caracteriza por una menor profundidad lógica y aritmética que aquella a la que normalmente estamos acostumbrados [y] a nivel estructural debe de ser esencialmente distinto de aquellos lenguajes a los que alude nuestra experiencia común.[44]

El cerebro es un sistema estadístico, probabilístico, con la lógica y la matemática funcionando como procesos de nivel superior. El ordenador es un sistema lógico, matemático, sobre el que posiblemente podrían construirse sistemas estadísticos, probabilísticos, de nivel superior, como el lenguaje y la inteligencia humanos. «¿Qué nos hace estar tan seguros —se preguntaba Stan Ulam— de que la lógica matemática se corresponde al modo en que pensamos?»[45]

En la época de los tubos de vacío era inconcebible que los ordenadores digitales manejaran cientos de miles de millones de ciclos sin error, y el futuro de la informática parecía pertenecer a arquitecturas y sistemas de codificación lógicos que con el paso del tiempo se volverían tolerante a los fallos de hardware. En 1952 los códigos eran lo bastante reducidos como para ser completamente depurados, pero no se podía contar con que el hardware funcionara coherentemente de un kilociclo al siguiente. Ahora esta situación se ha invertido. ¿Cómo lo hace la naturaleza para alcanzar resultados fiables tanto con un hardware poco fiable como con una codificación poco fiable? «Hay razones para sospechar que nuestra predilección por los códigos lineales, que tienen una secuencia simple, casi temporal, es en buena medida un hábito literario, correspondiente con nuestro nivel no especialmente elevado de inteligencia combinatoria, y que un lenguaje que fuera muy eficiente se alejaría probablemente de la linealidad», sugería Von Neumann en 1949.[46] Los nuevos acontecimientos de mayor éxito en la informática —los motores de búsqueda y las redes sociales— son híbridos no lineales entre sistemas codificados digitalmente y sistemas codificados en frecuencia de impulsos, y están dejando atrás a los sistemas lineales solo digitales.

En un sistema codificado digitalmente, cada dígito tiene un contenido preciso, y, si hay un solo dígito mal colocado, la computación puede ofrecer una respuesta incorrecta o quedar interrumpida. En un sistema de codificación por frecuencia de impulsos, el contenido se expresa mediante la frecuencia a la que se transmiten los impulsos entre posiciones dadas, tanto si dichas posiciones son sinapsis en un cerebro como direcciones en internet. Cambiar la frecuencia modifica el contenido, pero la comunicación, el almacenamiento y la interpretación de la información son probabilísticos y estadísticos, independientes de si cada bit está exactamente en el lugar adecuado exactamente en el momento adecuado. El contenido reside en qué conecta dónde, y con qué frecuencia, además de estar codificando en las señales transmitidas. Como explicaba Von Neumann en 1948: «Se requiere una nueva teoría, esencialmente lógica, para entender los autómatas de alta complejidad y, en particular, el sistema nervioso central. Es posible, sin embargo, que en ese proceso lógico la voluntad tenga que sufrir una seudomorfosis hacia la neurología en mucho mayor grado que a la inversa».[47]

La habilidad de los microprocesadores monolíticos y la densidad y fidelidad del almacenamiento monolítico pospusieron la necesidad de esa seudomorfosis mucho más allá de lo que parecía posible en 1948. Solo recientemente esta ha reanudado su curso. La matriz de direcciones de Von Neumann se está convirtiendo en la base de una matriz de direcciones «no Von Neumann», y se están ensamblando máquinas de Turing en sistemas que no son máquinas de Turing. Los códigos —a los que ahora llamamos «aplicaciones»— se están liberando de la intolerancia de la matriz de direcciones numérica y el ciclo de reloj central frente al error y la ambigüedad a la hora de especificar dónde y cuándo.

El microprocesador, sin embargo, está aquí para quedarse, del mismo modo que el advenimiento de los metazoos no supuso el final de las células individuales. Los organismos biológicos se subdividen en estas últimas, dado que el direccionamiento molecular estocástico y basado en patrones del que dependen el metabolismo y la replicación, funciona más rápido a escala local. También los organismos tecnológicos se subdividen en células (y los microprocesadores se subdividen en múltiples núcleos), no solo para aislar los errores, sino también porque el direccionamiento numérico del que depende el procesamiento digital solo puede funcionar a velocidades de nanosegundos a escala local. A través de dominios mayores —tanto en tamaño como en tiempo—, están empezando a evolucionar otras formas de direccionamiento y procesamiento, así como otras arquitecturas.

En la época en que todo es digital estamos construyendo de nuevo ordenadores analógicos. ¿Acaso la computación analógica no había desaparecido, en la era de los dinosaurios, con el reemplazo del analizador diferencial de Bush por el ENIAC, cuando la carrera consistía en realizar aritmética de alta velocidad, sin dejar ninguna duda de que la computación digital saldría vencedora? Hay otros puntos de referencia aparte de la aritmética, y Turing, Von Neumann y Bigelow, pese a todas sus contribuciones a la revolución digital, no vieron la computación analógica como una vía muerta.

Parte del problema, como diría Jack Good en 1962, es que «los ordenadores analógicos tienen un nombre estúpido; deberían llamarse “ordenadores continuos”». Para las cuestiones del mundo real —especialmente las ambiguas— la computación analógica puede ser más rápida, más precisa y más robusta, no solo a la hora de computar las respuestas, sino también a la de formular las preguntas y comunicar los resultados. Web 2.0 es nuestra palabra clave para el creciente predominio de lo analógico sobre lo digital, invirtiendo el modo en que la lógica digital se encarnó en componentes analógicos hace sesenta años. Los motores de búsqueda y las redes sociales son solo el principio, la fase precámbrica. «Si el único demérito del sistema de expansión digital fuera su mayor complejidad lógica, la naturaleza no lo habría rechazado por esa sola razón», admitía Von Neumann en 1948.[48]

Los sistemas computacionales de más rápido crecimiento —los motores de búsqueda y las redes sociales— son ordenadores analógicos de una escala sin precedentes. La información se está codificando (y gestionando) en forma de variables continuas (y tolerantes al ruido) como las frecuencias (de conexión o incidencia) y la topología de qué conecta dónde, en la que la posición se define cada vez más por un patrón tolerante al error antes que por una dirección numérica implacable. Los motores de búsqueda de internet mantienen un registro estadístico de qué enlaza dónde y con qué frecuencia se establecen conexiones entre determinados nodos. La codificación por frecuencia de impulsos para internet es una forma de describir la arquitectura operativa de un motor de búsqueda, y hablar de Page-Rank para neuronas es una forma de describir la arquitectura operativa del cerebro. Estas estructuras computacionales pueden utilizar componentes digitales, pero en un determinado punto la computación analógica realizada por el sistema excede con mucho la complejidad del código digital con el que se ha construido. El modelo (sea del grafo social o del conocimiento humano) se construye y actualiza a sí mismo.

Las redes complejas —de moléculas, personas o ideas— constituyen sus propias descripciones conductuales más sencillas. Este comportamiento puede captarse por medio de redes continuas, analógicas, más fácilmente de lo que puede definirse mediante códigos digitales, algorítmicos. Dichas redes analógicas pueden estar compuestas de procesadores digitales, pero es en el dominio analógico donde se realiza la computación interesante. «El procedimiento puramente “digital” resulta probablemente más circunstancial y tosco de lo necesario —advertía Von Neumann en 1951—. Pueden existir procedimientos mixtos mejores y mejor integrados.»[49] Lo analógico ha vuelto, y ha vuelto para quedarse.