8

V40

Por más que todas esas máquinas deban situarse siempre a una inconmensurable distancia por debajo de la más sencilla de las obras de la Naturaleza, sin embargo, a partir de la inmensidad de esos ciclos que incluso la inventiva humana despliega en algunos casos ante nuestra vista, quizá se nos permita realizar una vaga estimación de la magnitud de ese paso inferior en la cadena de razonamiento, que nos lleva hasta la Naturaleza de Dios.

CHARLES BABBAGE, 1837

El tetranitrato de pentaeritritol (PENT) fue un explosivo de gran potencia especialmente importante en la Primera Guerra Mundial; sin embargo, todavía en la segunda se desconocía su estructura molecular. Andrew Booth —cuyo padre inventó, entre otras cosas, el avance del encendido en automoción y un termopar para cocina diseñado para alimentar una radio en una casa sin electricidad— era un estudiante de posgrado en la Universidad de Birmingham cuando se le encargó la tarea de utilizar la cristalografía de rayos X para descubrirla.

Booth, que había «alarmado a su madre al reparar fusibles a los dos años de edad», en 1937 obtuvo una beca universitaria para estudiar matemáticas en Cambridge, donde fue asignado al matemático puro G. H. Hardy, un emparejamiento condenado desde el principio. Cuando Hardy le dio un ultimátum diciéndole que o dejaba de perder el tiempo en otros asuntos o perdía su beca, Booth, que creía que, «si las matemáticas no son útiles, no vale la pena dedicarse a ellas», dejó Cambridge para estudiar física, ingeniería y química por sus propios medios. Durante un aprendizaje en los talleres donde se fabricaba el motor de avión Armstrong Siddeley, en Coventry, mejoró el diseño de los reflectores y montó una instalación de rayos X para inspeccionar las piezas del motor. Ello le valió una beca de posgrado, patrocinada por la Asociación de Investigación de los Productores de Caucho Británicos (BRPRA, por sus siglas en inglés), para determinar la estructura molecular del PENT, aunque por entonces no se lo dijeran explícitamente. «Solo me dieron un material y me pidieron que descubriera qué estructura tenía —explicó—. Lo hicimos, y, por supuesto, en ese momento comprendimos que era lo que era.»[1] Además del PENT, el grupo de Booth dedujo la estructura del RDX, un nuevo explosivo plástico que desempeñaría un papel clave en el desarrollo de las bombas atómicas.

Registrando las pautas de difracción producidas por rayos X dispersados desde una muestra de material cristalino, es posible, aunque difícil, inferir la pauta de densidades de los electrones y, por ende, la estructura molecular que ha producido la difracción observada. Dada una estructura molecular conocida es fácil predecir la pauta de difracción, pero dada una pauta de difracción observada, no hay ninguna manera fácil de determinar la estructura molecular. Se empieza formulando una conjetura, y luego se realizan los cálculos apropiados para ver si dicha conjetura resulta en alguna medida correcta. Después de muchas repeticiones puede surgir una estructura verosímil, o no.

«Lo que hacía la gente antes del momento en que llegué con mis sugerencias de computación era dedicarse a tantear y confiar en tener suerte —recordaba Booth—. Y eso requería un tiempo endiabladamente largo, y por lo general daba muy mal resultado.» La física subyacente a la dispersión de rayos X era sencilla, pero trabajar a la inversa requería fuerza bruta. «Hay un montón de cálculos bastante desagradables —añadió—. Para una estructura típica como la que yo hice, hay alrededor de cuatro mil reflexiones… y tienes que calcular la suma total de los malditos átomos de tu estructura para calcular el maldito ángulo de fase. Hacerlo a mano requiere un tiempo endiabladamente largo. Yo tenía a un chico y una chica que me ayudaban con los cálculos. Nos llevó tres años.»[2]

Con la estructura del PENT determinada y su doctorado en la mano, Booth fue transferido a la sede central de los laboratorios de la BRPRA en Welwyn Carden, cerca de Londres. Allí, bajo la supervisión de John W. Wilson, empezó a construir una serie de calculadoras mecánicas y electromecánicas destinadas a acelerar el trabajo de análisis de rayos X. Eso llamó la atención del cristalógrafo Desmond Bernal, que en aquel momento estaba poniendo en marcha un laboratorio «biomolecular» en la Universidad Birkbeck de Londres para abordar el estudio de moléculas orgánicas más complejas que hasta entonces se habían resistido al análisis estructural. «Yo estaba construyendo aquel ordenador digital cristalográfico para un uso especial —explicó Booth—. Eso era en lo que Bernal estaba interesado, y por eso quería que yo fuera a trabajar con él.» Uno de los miembros del grupo de Bernal era Rosalind Franklin, quien más tarde desempeñaría un papel clave en la determinación de la estructura helicoidal del ADN.

En 1946, Bernal envió a Booth a Estados Unidos para que evaluara el estado de la computación en dicho país. Warren Weaver, que por entonces estaba de nuevo en la Fundación Rockefeller, aceptó patrocinar la visita inicial de Booth y, a continuación, concederle una beca Rockefeller en el laboratorio que él escogiera. Booth hizo la ronda completa, visitando a George Stibitz en los Laboratorios Bell, a Howard Aiken en Harvard, a Jay Forrester en el Laboratorio de Servomecanismos del MIT, el grupo del EDVAC en la Escuela Moore, a Von Neumann y Bigelow en el Instituto de Princeton, y, finalmente, a Eckert y Mauchly en la Electronic Control Company (que se mostraron «completamente hostiles», afirmó). Incluso visitó un centro de computación basada en ábacos en la sede del Banco de Hong Kong en San Francisco, además de pronunciar toda una serie de conferencias cuyo público abarcó desde los clubes de damas hasta el grupo de investigación de Linus Pauling.

También hizo «algunas correrías», entre ellas quedarse «durante un par de noches» con Irving Langmuir, de General Electric, cuyos intereses iban desde la modificación del tiempo hasta la estructura de las proteínas, pero que en aquel momento estaba especialmente emocionado con su nuevo invento, el triturador de basuras, que él llamaba el «cerdo eléctrico». Le hizo a Booth una demostración del dispositivo. «Yo acababa de comerme un plátano —contó Booth—, y solo arrojé la piel dentro. Se produjo un horrible crujido y aquella cosa se quedó completamente atascada. Así que terminé con aquel premio Nobel arrastrándose boca abajo por el suelo, desmontando la parte inferior de aquel artilugio para sacar la piel de plátano.»[3]

«Entonces volví a Nueva York y me reuní con Weaver —recordaba Booth—. El me preguntó: “¿Qué quiere hacer?”. Para entonces yo ya lo tenía bastante claro, y le contesté: “Bueno, el único grupo del que vale la pena hablar es la gente de Princeton”. Ellos eran los únicos que realmente habían salido de la rueda de limitarse a agitar las manos en el aire y no hacer nada.»[4]

La máquina de Von Neumann revolucionaría las matemáticas, y, para Booth, cualesquiera objeciones planteadas por los matemáticos puros del Instituto eran evidencias que apoyaban el planteamiento de Bigelow. Familiarizado tanto con la máquina analítica de Charles Babbage como con la máquina universal de Turing, Booth veía el proyecto del IAS como la aplicación práctica de esas ideas. Posteriormente, el Consejo Nacional de Investigación le pediría a Booth, que conocía a Turing de Cambridge, que revisara algunos de los circuitos que este había diseñado para la ACE (Automatic Computing Engine, «Máquina de Computación Automática»), que estaba siendo construida en el Laboratorio Nacional de Física de Londres. «Eran increíblemente complicados —explicó—, y para cada uno de aquellos circuitos dibujé uno equivalente de la manera en que yo lo habría diseñado. Además, sus componentes costaban alrededor de una cuarta parte. Creo que algunos de los de Turing no habrían funcionado.»[5]

El planteamiento de Bigelow era minimalista. «El principio fijo de Julian era que tenías que construir las cosas sin condensadores —señaló Booth—. Si tienes condensadores, tienes una velocidad límite. Cuando no tienes condensadores, si le suministras la suficiente corriente, puedes conseguir la velocidad que quieras.»[6] La velocidad del ordenador del IAS también se podía ralentizar y, cuando se depuraran programas, incluso «escalonar», ejecutando una instrucción cada vez. Gran parte de la computación útil se hacía a 8 kilociclos, más o menos a la mitad de su capacidad. No había ninguna «frecuencia de reloj» fija. En cuanto se ejecutaba una instrucción, el ordenador pasaba a la siguiente.

A principios de 1947, Booth zarpó rumbo a Nueva York en el Queen Mary acompañado de su ayudante, Kathleen Britten —más tarde autora de uno de los primeros libros de texto sobre programación informática—, que había liderado el trabajo de cálculo de rayos X. El pasaje (y el sueldo) de Britten lo pagaba John Wilson, de la BRPRA, que le reservó un camarote en primera clase. Booth, cuyo pasaje (y cuya beca en el Instituto) lo pagaba la Fundación Rockefeller, tenía reservado billete en tercera. Bernal recibió una queja. «Al final, Johnny [Wilson] puso el dinero para que también yo fuera en primera clase», añadió Booth.

Cuando Booth y Britten llegaron a Princeton, a finales de febrero de 1947, afrontaron la misma cuestión que todos los visitantes del Instituto: dónde podían vivir. «Creo que no habrá ningún problema en hacerse cargo de la señorita Britten además de Booth —le escribió Goldstine a Von Neumann—. La señorita [Bernetta] Miller está intentando contratar al ama de llaves de la señorita [Hetty] Goldman para mudarse a uno de los apartamentos y organizar las comidas. En ese caso, presumiblemente tanto Booth como la señorita Britten podrían mudarse allí con el ama de llaves de la señorita Goldman y observar todas las convenciones sociales necesarias.» Booth y Britten —que se casarían en 1950, «después de que Kathleen hubiera obtenido su doctorado en aerodinámica transónica»— se contarían entre el primer grupo de visitantes del Instituto que se establecieron en el nuevo complejo residencial construido en Olden Lane, enfrente de Fuld Hall.[7]

En marzo de 1946, Veblen había propuesto construir alojamientos de emergencia para el personal del proyecto de ordenador. «Los profesores Panofsky y Morse no estaban a favor de dicha propuesta —informaban las actas—. No juzgaban prudente que el Instituto desviara fondos para un proyecto de esa índole en beneficio casi exclusivo del grupo de computación.»[8] En junio de 1946, cuando los ingenieros empezaron a presentarse en sus puestos de trabajo, la situación se agravó. Los nuevos contratados se vieron obligados a ir y venir desde lugares tan alejados como Filadema y Nueva York. «La mejor solución sería alquilar un bloque de apartamentos de la New York Life Insurance Company —informó Aydelotte en una reunión de emergencia de los administradores—. Sin embargo, la New York Life se ha mostrado vacilante a la hora de arrendar esos apartamentos al Instituto, y el doctor Aydelotte sospecha que prefieren no alquilarlos a judíos, aunque no hayan dicho nada en ese sentido. El comité decidió enviar a la New York Life una lista provisional de inquilinos, en la que se incluiría a judíos, pero no a hindúes ni chinos.»[9]

Este planteamiento fracasó, y en última instancia se lanzó una campaña pidiendo ayuda a la comunidad circundante. La Escuela Lawrenceville —a cuyo director «le gustó la idea de que aquellos hombres se mezclaran con los muchachos, pronunció discursos en la capilla, etc.»— aceptó hacerse cargo de dos o tres eruditos del Instituto, mientras que una granja de pollos situada cerca de Rosedale ofreció cuatro apartamentos con calefacción central, «especialmente adecuados para parejas con hijos». Marston Morse propuso que, «como último recurso, se pusieran catres en algunas de las salas de Fuld Hall». A finales de 1946 todavía había una familia de cuatro miembros acampada al aire libre en los terrenos de Fuld Hall.[10]

El mayor avance se produjo en agosto de 1946, cuando se pusieron a la venta un grupo de casas de apartamentos con estructura de madera, construidas durante la guerra para albergar a los numerosos trabajadores de las minas de hierro de la Republic Steel Company en Mineville, en el norte del estado de Nueva York. «El mismo día envié a Mineville a un ingeniero, el señor Bigelow, del proyecto del ordenador —informó Aydelotte a los administradores—. Allí encontró a representantes de otras dos universidades ansiosos por conseguir las casas disponibles. Gracias a la iniciativa del señor Bigelow, pudimos comprar once edificios, que contienen treinta y ocho apartamentos de dos y tres dormitorios cada uno. Dichos apartamentos están sólidamente construidos, tienen suelos de madera dura, están aislados con lana de roca para hacer frente a los inviernos de los [montes] Adirondack, y están equipados con contraventanas, mosquiteras, cuerdas de tender la ropa y contenedores para la basura.»[11]

Solo había un problema: Mineville y Princeton estaban a 480 kilómetros de distancia. Bajo la supervisión de Bigelow, los edificios fueron desmontados en secciones, transportados en ferrocarril a Princeton y vueltos a montar, con cimientos de hormigón, en los terrenos del Instituto, entre el campo de golf de Springdale y Fuld Hall. El proyecto íntegro se completó en enero de 1947, con un coste de 30.000 dólares por las casas y de 212.693,06 dólares por la preparación del terreno y el traslado, pese a las quejas de los vecinos más cercanos de Princeton, que intentaron parar el proyecto «debido a sus efectos perjudiciales para el área residencial de moda que va a invadir».[12]

Las casas de Mineville fueron construidas en el mismo estilo, propio del período bélico, que las viviendas del gobierno en Los Alamos, y algunas de las personas que durante la guerra se habían alojado en el complejo de viviendas de Los Alamos, bajo la dirección de Oppenheimer, se encontraron ahora en la posguerra viviendo en el complejo de viviendas del Instituto y bajo la dirección de Oppenheimer nuevamente. En febrero de 1947 había ya diecisiete familias, incluidos los Bigelow, instaladas en los nuevos apartamentos, y seguían llegando más. «Desde que estamos aquí —informaba Bigelow a Aydelotte—, hemos llegado a conocer bastante bien a muchos de nuestros vecinos, no solo a los que trabajan en matemáticas y en física, con quienes tenemos mucho en común, sino que además, lo que a menudo resulta más estimulante, hemos conocido a gente que trabaja en otros campos, con experiencias y perspectivas distintas de las nuestras.»[13]

En abril de 1947, el Instituto pagó a Bigelow unos honorarios de 1.000 dólares por sus esfuerzos, y en septiembre Bernetta Miller informaba de que «ahora hay treinta y pico niños, y vendrán más», mientras que los «inquilinos están contentos por la perspectiva de que empiece a crecer la hierba». Las reuniones informales entre los habitantes de las casas de Mineville no tardaron en convertirse en parte de la vida del Instituto. «Teníamos tendencia a reunimos por las tardes, y llegamos a conocernos muy bien», recordaba Morris Rubinoff, perteneciente al segundo contingente de ingenieros que llegaron en junio de 1948.[14]

«Julian y Mary eran el alma del complejo de viviendas —rememoró Freeman Dyson, que también llegó en 1948—. Si tenías cualquier problema personal acudías a Mary. Ella te daba lo que necesitabas: apoyo moral, buenos consejos y, simplemente, la cordialidad de su carácter. Y si tenías problemas prácticos, un coche que necesitaba una reparación, o una rata en el sótano, o dificultades para conseguir que el horno de carbón funcionara o que no lo hiciera en exceso, Julian siempre era capaz de arreglarlo. Aquellos fueron años maravillosos.»[15]

Con la crisis del alojamiento solucionada y el edificio del ordenador completado, los ingenieros pudieron empezar a construir la máquina —junto con sus fuentes de alimentación y su equipamiento de refrigeración— en lugar de trabajar componente por componente. El edificio del ordenador era adyacente al complejo de viviendas, y, según explicó Rubinoff, «podías ir a trabajar, irte a casa a comer y volver a trabajar en menos tiempo de lo que tardarías en hacerlo en otra parte». Era una segunda edición de Los Álamos. «Trabajaban hasta las ocho o las nueve, se iban a cenar durante dos horas y luego volvían a trabajar de nuevo —recordaba Thelma Estrin, una ingeniera electrotécnica que llegó en junio de 1950 junto con su marido, el ingeniero Gerald Estrin, en pleno esfuerzo final para terminar la máquina—. A veces trabajaban durante toda la noche.»[16]

«Yo acababa de terminar mi doctorado —añadió Gerald—. Nunca había oído hablar de un ordenador; no sabía nada al respecto»; pero, mientras buscaba trabajo, le dijeron que «en el Instituto de Estudios Avanzados hay un proyecto interesante en marcha». Von Neumann invitó a los Estrin a que efectuaran una visita, y los contrató en el acto. «A Von Neumann le gustaba estar en el meollo —dijo Gerald—. Nos apeamos en los terrenos [del Instituto] y nos enamoramos del lugar. Había letreritos en la hierba, diminutos, que rezaban: “Se ruega no pisar el césped”.» Los Estrin pasaron los tres años siguientes en el Instituto antes de trasladarse a Israel para construir una copia de la máquina del I AS. «Fueron años muy densos. Al estar en un grupo tan pequeño, realmente aprendí sobre todas y cada una de las partes del ordenador, ayudando en todo lo que podía.»[17]

En una época en que la mayoría de los microprocesadores necesitan solo un único voltaje —de entre 1 y 5 voltios—, resulta difícil comprender cuántos voltajes distintos requería hacer funcionar un ordenador de tubos de vacío. Había siete ramales principales que partían de las líneas eléctricas trifásicas de 120 voltios que entraban en el edificio. Primero había tres circuitos de bifurcación que suministraban corriente trifásica a los filamentos calentadores de los tubos de vacío: unos 6,5 kW a la unidad aritmética y 1,5 kW a la memoria. En segundo lugar, se suministraba corriente continua al núcleo del ordenador a través de cuatro rectificadores distintos, subdivididos a su vez en 26 voltajes diferentes que iban desde los —300 a los +380 voltios. Por último, los circuitos de deflexión de tubo Williams requerían una corriente regulada de 1.075, 1.220 y 1.306 voltios. Una corriente útil en un circuito podía causar fácilmente ruido en otra parte, por no mencionar el ruido introducido por los transientes en las líneas eléctricas entrantes. Al principio había tantos problemas con el ruido en las fuentes de alimentación de corriente continua que hubo que construir una caseta de baterías de 300 voltios y 180 amperios/hora fuera del edificio del ordenador a fin de suministrar corriente continua «limpia» hasta que se encontrara el modo de proteger mejor la memoria y se diseñaran fuentes de alimentación más estables.

Pero ninguno de estos voltajes significaba nada sin una referencia común o «tierra». Esto llevó a un punto de referencia conocido, brevemente, como «tierra de Rosenberg». «Habíamos desarrollado la máquina en dos secciones —explicó James Pomerene—, y en algún punto, a causa de algo que ya no recuerdo, cuando fuimos a unirlas nos encontramos con que lo que yo llamaba “tierra” en mi diseño estaba a un nivel de voltaje distinto de lo que Rosenberg llamaba “tierra” en el suyo. De modo que durante un tiempo tuvimos baterías que realizaban el ajuste entre mi tierra y la de Rosenberg.»[18]

El ordenador estaba integrado por cuatro unidades u «órganos»: el de entrada-salida, el aritmético, el de memoria y el de control. La elección del tipo de memoria afectaba al diseño, pero, aun así, fue el último elemento en ser resuelto. «Una vez que se ha decidido la forma de la memoria de alta velocidad, la mayoría de los otros componentes de un ordenador electrónico se vuelven semiinvariables», observaban Booth y Britten en su informe sobre su estancia en el IAS.[19] El esperado tubo de memoria Selectrón íntegramente digital de RCA, aunque todavía inexistente, fue especificado con la suficiente precisión como para que el resto del ordenador pudiera ser diseñado partiendo de la base de que en su momento se dispondría de un tubo de memoria fácil de conectar al resto de la máquina.

A medio camino en cuanto a complejidad entre los componentes que trabajaban a nivel de bits, como los conmutadores de cambio de estado 6J6, y los mencionados órganos que trabajaban a nivel de sistema, estaban los registros de desplazamiento que almacenaban, transferían e intercambiaban datos, en paralelo, de cuarenta en cuarenta bits. Un registro conocido como acumulador proporcionaba acceso a la memoria desde la unidad aritmética, mientras que el registro de memoria proporcionaba una salida desde la memoria en sentido inverso, de manera análoga a la separación de las válvulas de admisión y escape en cada cilindro del motor de un coche.

Todos estos registros eran de «doble hilera», es decir, que contenían dos filas paralelas de conmutadores de cambio de estado 6J6, cuya entrada y salida se controlaban por medio de dos filas adicionales de puertas. Esta redundancia evitaba la pérdida de bits en tránsito; todos los datos se duplicaban en el destino antes de ser borrados del origen, de la misma manera que la transmisión de un paquete de datos a través de internet no se considera completa hasta que dicho paquete señala que ha llegado intacto.

Los registros de desplazamiento, tal como demostrara Leibniz 260 años antes, podían realizar aritmética binaria simplemente desplazando toda una fila de dígitos binarios una posición a la derecha o a la izquierda. Los datos nunca se transferían directamente entre conmutadores de cambio de estado adyacentes; lejos de ello, el estado de cada conmutador individual se duplicaba hacia arriba en un registro temporal, luego se borraba el registro inferior y entonces, y solo entonces, se desplazaban los datos, en diagonal, de nuevo al registro original. No había ningún límite mínimo a lo despacio que podía ejecutar el ordenador una secuencia de instrucciones de mañera escalonada. A diferencia de las disciplinadas bolitas físicas que Leibniz concibiera desplazándose de una columna a otra en 1679, los electrones siempre buscaban una vía de escape.

«La información primero era bloqueada en el conmutador emisor; luego, a través de una puerta, se hacía común tanto al emisor como al receptor, y luego, cuando estaba segura en ambos, podía borrarse del emisor —explicó Bigelow—. La información nunca era “volátil” en tránsito; estaba tan segura como un insecto con acrofobia en la copa de una secuoya.» Los datos se manejaban del mismo modo en que los barcos se mueven a través de las esclusas en un canal. «En esa época disfrutamos de algunas interesantes discusiones especulativas con Von Neumann sobre la propagación de la información y la conmutación entre hipotéticas matrices de células —recordaba Bigelow—, y creo que parte del germen de sus posteriores estudios sobre autómatas celulares podría haberse originado aquí.»[20]

«No movíamos información de un lugar a otro excepto de un modo positivo —subrayó James Pomerene—. Hoy eso es algo que se utiliza a escala absolutamente universal. Creo que nosotros fuimos los primeros en hacerlo. Y lamento que no lo patentáramos.» Por entonces se generaban inventos patentables a diestro y siniestro. «El acuerdo original de patentes disponía que el titular de las patentes sería el Instituto, pero que este pagaría al inventor todos los royalties que excedieran de sus gastos —añadió Pomerene—. ¡Muy bonito!» Sin embargo, nunca se solicitó patente alguna. «Éramos unos ingenieros jóvenes e impacientes. Estábamos más interesados en hacer funcionar la máquina que en solicitar patentes», explicó.[21]

En abril de 1946, Von Neumann elaboró una política de patentes que «adopta una razonable posición intermedia entre dejárselo todo al empleado o quedárselo todo para el Instituto». Los empleados aceptaban ceder sus derechos al Instituto, mientras que este convenía en que «se encargará de preparar, presentar y gestionar, puntualmente y sin coste alguno para el empleado, una solicitud de Patente de Invención en Estados Unidos (y para patentes en otros países fuera de Estados Unidos, si así se decide) para cada invento que el Instituto determine que es lo que puede serle útil». Asimismo, «el Instituto acuerda pagar al empleado todos los royalties recibidos, en caso de haberlos… sobre cada invento… aparte del coste total para el Instituto de obtener la patente o de su consiguiente solicitud».[22]

La medida fue recibida con entusiasmo por los ingenieros. El Instituto contrató a un abogado especializado en patentes, cuya evaluación fue que el proyecto ofrecía una rica variedad de inventos patentables, y eso que todavía no se había construido la máquina. «De haberlo pedido, el Instituto de Estudios Avanzados podría haber obtenido una cesión de cada ingeniero y generado una gran dotación en comparación con lo que tienen ahora», afirmó Bigelow. Sin embargo, habría costado una cantidad de dinero significativa asegurar, y no digamos ya defender, aquellas patentes; un planteamiento que el Instituto no estaba dispuesto a adoptar. Al fin y al cabo, había sido Abraham Flexner quien había anunciado en 1933, en la fundación del Instituto, que «en el momento en que la investigación se utiliza como fuente de beneficios, su espíritu se degrada».[23]

A mediados de 1947, el acuerdo de patentes original se vio debilitado, de manera unilateral, por la decisión de ceder la mayoría de los derechos de patente al gobierno estadounidense. «Para los probablemente pocos desarrollos excepcionales que den lugar a aplicaciones comerciales sumamente valiosas —tranquilizó Goldstine a los ingenieros el 6 de junio—, los responsables de ingeniería recomendarán al director del Instituto que la entidad gestione directamente una solicitud.» Se trataba de una vana promesa, puesto que Goldstine ya había aceptado, en una reunión con la Oficina del Jefe de Armamento del ejército celebrada en abril de 1947, «que cualesquiera documentos o informes que abarquen los aspectos lógicos del ordenador serán considerados publicaciones científicas, y, por lo tanto, resultarán accesibles a todos los científicos interesados». Eso venía a socavar cualquier posible reclamación de patente sobre la mayor parte de los inventos realizados hasta ese momento. «Para evitar cualquier interés comercial en tratar de explotar lo que debe pertenecer a la comunidad científica —aconsejaba Goldstine—, apreciaría que hicieran enviar un ejemplar del informe titulado “Discusión preliminar sobre el diseño lógico de un instrumento de computación electrónico”, de A. W. Burks, Herman H. Goldstine y John von Neumann, fechado el 28 de junio de 1946, a la Oficina de Patentes junto con la petición de que lo traten como una publicación de hecho.» En junio de 1947, Goldstine, Burks y Von Neumann hicieron una declaración jurada en la que afirmaban que «es nuestra intención y deseo que cualquier material allí contenido que pudiera resultar de naturaleza patentable pase a ser de dominio público».[24]

A los ingenieros se les dejó, pues, prácticamente sin opciones. «Creo que en el otoño de 1948 hubo una reunión de ingenieros —recordaba Bigelow— en la que nos dijeron que el segundo contrato no nos permitiría tener la misma cláusula de patente que el primero. Y yo dije: “En mi opinión, estamos renunciando a algo muy valioso. Por otra parte, personalmente en este momento no puedo resolverme a declararme en huelga contra Johnny. Pero quiero que entiendan a qué estamos renunciando”. Y la votación fue básicamente: “Seguimos adelante”.[25]

»La gente que trabajaba con Von Neumann sentía un respeto tan enorme por él y una gratitud tan enorme por que se les permitiera ser una de las personas que iban a construir esa máquina —prosiguió Bigelow—, que nunca defendimos nuestros derechos con demasiada fuerza. Lo segundo que ocurrió, y que entonces yo no sabía, es que Von Neumann comenzó a trabajar como consultor para IBM.»[26] Todos los detalles técnicos del MANIAC y su programación se volvieron de dominio público y se reprodujeron libremente en todo el mundo. Se publicaron una serie de informes de progreso que eran modelos de ideas claras y detalles técnicos. «El rasgo más notable de los informes —según el que fuera ayudante de Turing durante la guerra, I. J. Good— era que daban razones lúcidas para cada decisión en cuanto al diseño, un rasgo que raras veces se repetiría en trabajos posteriores.»[27]

«Muchos de los que estamos en curso de fabricar copias de la máquina del IAS tenemos tendencia a acentuar aquello en lo que nos desviamos y a olvidar la enorme deuda que hemos contraído con Julian Bigelow y otras personas del Instituto —escribió William F. Gunning, examinando el desarrollo del JOHNNIAC en PvAND—. Creo que el hecho de que tantos de nosotros hayamos sido capaces de construir una unidad aritmética que funciona en cuanto se la enchufa y que no requiere complicaciones, es prueba suficiente de la contribución fundamental que ellos han realizado.»[28]

En julio de 1947 se vio que un prototipo de sumadora de diez fases «funcionaba de manera fiable durante períodos de varios días», realizando un ciclo completo a través de las diez fases en 0,6 microsegundos. En agosto, un registro de desplazamiento de diez fases fue sometido a una prueba de ciclo de vida durante todo el mes, y en febrero de 1948 se hizo funcionar un prototipo de acumulador, «a un ritmo de unas 100.000 sumas por segundo», durante 5.000 millones de operaciones sin un solo error.[29]

El ordenador requería algún medio de cargar datos (y programas) en la memoria, y de comunicar los resultados. En 1946, el cable magnético era el medio de grabación por excelencia. El equipo de Bigelow pasó varios meses montando y depurando una unidad de cable de alta velocidad que enrollaba y desenrollaba un cable grabador de acero a una velocidad de hasta 30 metros (o 90.000 bits) por segundo de un par de ruedas de bicicleta, acopladas diferencialmente una al lado de otra sobre un único motor concéntrico. Las dos ruedas podían quitarse e insertarse como una sola unidad, tal como sucede actualmente con un cartucho de cinta o un disco extraíble. Los datos y programas se perforaban en cinta de teletipo de papel, se verificaban y luego se transferían al cable grabador, desde donde podían cargarse a alta velocidad en la memoria cuando se necesitaran. «Aunque esta operación humano-teclado-mecanográfica es esencialmente lenta y concienzuda, resulta completamente independiente de la máquina propiamente dicha —se señalaba en el primer informe de progreso intermedio—, y cualquier cantidad de equipos de codificación estrecha o remotamente situados en relación con la máquina pueden estar formulando problemas mientras la máquina resuelve los codificados anteriormente.» Von Neumann imaginaba un grupo de computación capaz de «trabajar directamente hacia y desde una máquina que esté situada en otra parte, posiblemente a cientos o miles de kilómetros de distancia», tal como se lo describiría a Roger Revelle, de la Oficina de Investigación Naval.[30]

«Ahora es posible mecanografiar un mensaje numérico, transferirlo al cable magnético junto con todos los impulsos de marcado y de indexado asociados, leerlo en un registro de desplazamiento después de borrar los impulsos de marcado y de indexado, y luego invertir todo el proceso y crear de nuevo una copia mecanografiada del mensaje», se informaba en marzo de 1948.[31] Aunque a la larga se pudo hacer funcionar la unidad de cable de alta velocidad sin roturas durante períodos de hasta tres semanas de duración, finalmente se abandonó en favor de un sistema de entrada-salida más fiable, aunque más lento, que funcionaba directamente con cinta de teletipo estándar de cinco agujeros. Gran parte de lo aprendido al montar la unidad de cable se aplicó posteriormente a un tambor magnético auxiliar de 2.048 palabras, equivalente a una unidad de cable de 40 canales que hiciera pasar bucles fijos de cable a través de unos cabezales de lectura/escritura independientes.

El sistema de entrada-salida a base de cinta de teletipo fue reemplazado a su vez por equipamiento de tarjetas perforadas de IBM, después de obtener la autorización especial de dicha empresa para modificar su equipamiento. Hewitt Crane rehízo los circuitos de una perforadora reproductora IBM 516 para que leyera 80 columnas en paralelo en lugar de solo una columna de 12 bits a la vez. Esta modificación pronto sería adoptada por la propia IBM, precipitando una nueva etapa en la industria del procesamiento de información caracterizada por el paso de los caracteres alfanuméricos a las líneas de código. La memoria entera, de 1.024 palabras, podía cargarse en menos de un minuto y descargarse en dos.

En abril se puso en marcha un prototipo de multiplicador binario de ocho fases que hacía 70.000 multiplicaciones por segundo. «Ha realizado alrededor de 10[10] de tales operaciones y parece fiable», señalaba el informe oficial, mientras que Oppenheimer informaba extraoficialmente a los administradores de que «el Computador Electrónico ahora multiplica». Rosenberg diseñó una serie de cálculos de prueba en los que «repetitivas multiplicaciones sin error producirán una pauta estacionaria de dígitos», de modo que pudiera verse de inmediato si la unidad aritmética funcionaba o no.[32]

«Tal como la máquina hacía la multiplicación, si partías del conjunto de números adecuado en los registros, haría la multiplicación y daría el mismo conjunto de tres números en los registros —explicó Ware—. De pronto observamos que la pauta de luz en los tubos de neón era constante. Herman se emocionó mucho con ello. Salió corriendo por el pasillo, y él y Johnny… no sé cuánto tiempo pasaron calculando cómo escogerlos tres números adecuados… Mientras tanto, ¡Pomerene y yo encontrábamos esos números experimentalmente tan rápido como lo que se tardaba en escribirlos!»[33]

Pronto se completaron tres registros de desplazamiento de cuarenta fases, que fueron «interconectados en dos distribuciones distintas para formar bucles cerrados de 120 dígitos binarios y desplazados una posición cada vez a lo largo del bucle» a una velocidad de 3 microsegundos por desplazamiento. La prueba se realizó durante cien horas, para un total de 10[11] desplazamientos.[34] Todas las piezas requeridas, excepto la memoria, iban encajando en su lugar.

Al principio parecía que el grupo de Rajchman en la RCA iba por delante del grupo de Bigelow en el IAS. «Acabo de volver de ver a Jan, que se ha mostrado bastante alentador —le informó Goldstine a Von Neumann a principios de julio de 1947—. Nos promete un Selectrón de 256 dígitos de tipo cuadrado, es decir, de cuatro cátodos, en unas dos semanas; no sé qué haremos con él cuando lo tengamos.»[35] A finales de mes Goldstine realizó otra visita a la RCA, aunque solo para encontrar más problemas nuevos que tubos de memoria nuevos. Von Neumann, siempre fiel a la teoría de juegos, decidió apostar a lo seguro. Si todo lo demás fallaba, se creía que el ordenador se podría hacer funcionar (aunque reduciendo la velocidad a una centésima parte) acoplando las unidades aritmética y de control directamente al tambor magnético de cuarenta canales.

En la primavera de 1948, Douglas Hartree llegó de Inglaterra con información —de palabra, y por escrito en un informe preliminar entregado en mano a Goldstine— de los pioneros británicos del radar Frederic C. Williams y Tom Kilburn, quienes, con la ayuda de Alan Turing y Max Newman, estaban construyendo un prototipo de ordenador digital de programa almacenado en la Universidad de Manchester, basado en parte en el informe del EDVAC. En lugar de líneas de retardo acústico, estaban desarrollando una nueva forma de almacenamiento, que pronto pasaría a conocerse como el «tubo Williams», utilizando «la distribución de carga creada en la pantalla fluorescente de un tubo de rayos catódicos normal y corriente cuando esta es barrida por un haz de electrones debidamente modulado».[36] Los puntos cargados de la pantalla del tubo podían preservarse durante breves períodos de tiempo, del mismo modo en que la electricidad estática permanece durante unos segundos después de apagar un tubo de rayos catódicos de un televisor.

El tubo de almacenamiento de Williams funcionaba como el iconoscopio de Zworykin, pero al revés: leyendo un patrón de carga eléctrica rastreado por un haz de electrones interno en lugar de un patrón de carga eléctrica formado por una imagen desde fuera del tubo. «En la práctica, dicho tubo no es más que una miríada de condensadores eléctricos que pueden conectarse al circuito por medio de un haz de electrones», habían señalado Burks, Goldstine y Von Neumann —antes de la puesta en práctica de la idea por parte de Williams y Kilburn— en su informe preliminar de junio de 1946. Williams y Kilburn, que habían colaborado con los estadounidenses en el radar (y en el sistema IFF) durante la guerra, tuvieron buen cuidado de reconocer sus fuentes. «El descubrimiento experimental de que dichos tubos exhiben fenómenos de almacenamiento parece que se realizó en el Laboratorio de Radiación de Boston hacia el final de la guerra», escribieron.[37]

Williams y Kilburn lograron almacenar una matriz de 32 por 32 puntos cargados en la pantalla de un solo tubo de rayos catódicos. Los datos eran almacenados y recuperados en serie, de manera similar a una línea de retardo acústico, pero a la velocidad de los electrones en lugar de a la del sonido; y había que rastrear de nuevo toda la matriz entera para recordar el estado de cualquier punto individual. Lograron almacenar datos sin errores durante varias horas cada vez, y señalaron en su informe que «si la memoria hubiera sido imperfecta hay alrededor de 10[360] patrones alternativos posibles, cualquiera de los cuales podría haberse mostrado al final del período de almacenamiento. A modo de comparación, se dice que hay solo 10[74] electrones en el universo».[38]

Para Williams y Kilburn, «la mejor forma de poner a prueba globalmente el almacenamiento sería la construcción de una pequeña máquina». La máquina resultante, la SSEM (Small-Scale Experimental Machine, «Máquina Experimental a Pequeña Escala»), tenía un solo almacenamiento de tubo de rayos catódicos de 32 por 32 bits, y no podía hacer otra cosa que restar; sin embargo, fue suficiente para establecer que, «en principio, una máquina universal podría basarse en un almacenamiento de CRT».[39] Un período de funcionamiento de 52 minutos ejecutaba 3,5 millones de instrucciones, generadas por 17 líneas de código.

Las noticias de Manchester electrizaron al grupo de Princeton. Bigelow fue enviado a Inglaterra mientras Pomerene comenzaba el trabajo experimental. El 18 de julio, Williams y Kilburn recibieron a Bigelow en su primitivo laboratorio. «Mientras estaba allí y observaba su máquina, una parte empezó a quemarse debido a que estaba construida de forma bastante chapucera, pero eso no le preocupó en absoluto —recordaba Bigelow—. Simplemente extrajo algunos contactos y dijo: “Esto no está bien”. Cogió un soldador, sacó una pieza, colocó algunas otras al lado, luego volvió a poner los contactos en su sitio y la puso en marcha de nuevo.»[40] Un problema más serio era la interferencia electromagnética de una línea de tranvía eléctrico que pasaba cerca, a pesar de que los tubos de rayos catódicos estaban protegidos dentro de una caja metálica.

«La rutina de muestra con la que me hicieron la demostración formaba parte de un código sobre números [primos] de Mersenne, que [la máquina] ejecutó dos veces, primero con un error y luego correctamente —informó Bigelow—. Aquel fragmento de rutina consumió tres o cuatro minutos; Max Newman (que estaba presente) y yo calculamos que el número de operaciones realizadas era del orden de muchos miles.»[41] Bigelow regresó a Nueva York unos días después a bordo del Parthia, un transatlántico de la compañía Cunard, y cuando llegó a Princeton, Pomerene tenía una memoria de tubo de rayos catódicos operativa de 16 bits, que después de otras cuatro semanas se ampliaría a 256 bits.

En lugar de verse obligado a esperar a que se materializara el Selectrón y terminar con una máquina cuya memoria principal fuera exclusiva de la RCA, el planteamiento de Williams permitió al equipo del I AS ponerse a trabajar de inmediato usando tubos osciloscopios baratos de los que disponía fácilmente, dejando toda la innovación fuera de los tubos. «El problema era íntegramente de diseño y construcción de circuitos, ámbitos en los que nos considerábamos competentes», explicó Bigelow.[42]

Williams y Kilburn habían demostrado cómo una secuencia de impulsos (en el tiempo) podía convertirse en un patrón de puntos (en el espacio) y almacenarse indefinidamente mientras dicho patrón se regeneraba periódicamente mediante el barrido de un haz de electrones. Los puntos se cargaban positivamente (es decir, se volvían deficitarios en electrones) como resultado de la emisión de electrones secundaria del fósforo, de modo que podía distinguirse el estado de un punto individual «interrogando» a esa posición mediante un breve impulso (o «tirón») de electrones y anotando el carácter de una débil corriente secundaria, de menos de un milivoltio, inducida en una pantalla de alambre anexa a la cara exterior del tubo. «Así, el fósforo que contiene las diversas distribuciones de carga se acopla de forma capacitiva a la pantalla de alambre —explicaba el equipo del IAS—, y entonces resulta posible, enfocando el haz sobre un punto dado, producir una señal en la pantalla de alambre.»[43]

El efecto de emisión secundaria puede visualizarse imaginando una matriz de 32 por 32 vasos de cerveza colocados dentro en un gran fregadero y rociados con agua con una manguera de jardín, y con un desagüe muy sensible en el fregadero que produce una señal perceptible cuando se derrama algo de agua. Los vasos tienden a llenarse de agua, pero, si dirigimos la manguera a un vaso concreto durante un instante, ese vaso se vacía parcialmente debido a que derramamos parte del agua fuera de él. Hemos escrito un bit de información en esa posición, y, al volver a ella con otro chorro de agua y tomar nota de si parte de esta se derrama o no, podemos leer el estado de ese bit concreto. Entonces podemos, o bien refrescar ese estado y seguir almacenando el bit de información, o bien borrarlo y sustituirlo por el estado alternativo.

El equipo de Pomerene desarrolló circuitos de sincronización y control que gobernaban los voltajes de deflexión del haz de electrones con la suficiente precisión como para permitir el acceso a cualquier posición en cualquier momento, reservando unos pocos microsegundos antes de reanudar los ciclos de barrido/refrescamiento normales donde se habían quedado. El resultado era una matriz de condensadores de 32 por 32 electrónicamente conmutada, con un tiempo de acceso de 24 microsegundos, pero que resultaba ser, como destacaba Bigelow, «uno de los detectores más sensibles de perturbaciones electromagnéticas ambientales de toda [la historia de] la humanidad». Se introducían errores debidos a campos de tan solo 0,005 gauss, o, lo que es lo mismo, de una cuadragésima parte (%o) de la fuerza del campo magnético terrestre. «El experimento confirmó que un campo magnético de una corriente alterna de aproximadamente la fuerza del campo terrestre, 0,2 gauss, producirá en un tubo Williams una deflexión del haz de aproximadamente 12 diámetros de punto», lo suficiente para convertir cualquier memoria en un completo desperdicio, según se informaba en agosto de 1949.[44]

La capacidad de distinguir un «punto» (0) de una «raya» (1) dependía de las características de la emisión secundaria de la capa de fósforo, y la más ligera imperfección, o la presencia de una mota de polvo dentro del tubo, haría que la memoria fallara. La señal se amplificaba 30.000 veces antes de ser transmitida a un discriminador que se encargaba de decidir si la forma de onda representaba un 0 o un 1. «Las señales se reducían al nivel del ruido, creo que el nivel de energía era de un microvatio, y ese era un problema difícil —recordaba Rosenberg—, pero finalmente conseguí los amplificadores, que fueron instalados directamente junto a los tubos de memoria dentro de las protecciones y depurados.» Colocar amplificadores individuales en cada tubo de memoria era algo que iba en sintonía con la máxima número 5 para Pronosticadores Ideales de Bigelow, que estipulaba que «si en algún momento hay que filtrar el ruido de la señal, ello debe hacerse en la fase más temprana posible».[45]

Los cuarenta tubos de memoria tenían que trabajar perfectamente al mismo tiempo, dado que a cada dígito de una palabra de 40 bits se le asignaba la misma posición en un tubo Williams distinto. Los 1.024 bits de cada cilindro eran visibles a simple vista, oscilando de un ciclo de máquina al siguiente, o congelándose en el tiempo cuando un proceso se pausaba o se detenía. Lo que observaba el operador era el universo digital, no la visualización de un proceso que ocurría en otra parte. Sin embargo, el observador también debía tener cuidado de no perturbar el estado de la memoria que observaba. «La parte frontal [del tubo] llevaba incorporado un trozo de gasa de cobre —explicó Morris Rubinoff—, y, cuando querías observar, mirabas los puntos de luz a través de la gasa de cobre solo para asegurarte de que todo estaba completamente protegido.»[46]

En los ordenadores modernos (o los que antaño lo fueron), un tubo de rayos catódicos muestra el estado de una memoria intermedia temporal cuyo contenido es generado por la unidad central de procesamiento (o CPU, por sus siglas en inglés). En el MANIAC, sin embargo, los tubos de rayos catódicos eran la memoria principal, que almacenaba las instrucciones que guiaban las operaciones de la CPU. El uso de una pantalla de visualización para la memoria fue una de esas adaptaciones discontinuas de características preexistentes para fines imprevistos mediante las que la evolución da sus saltos hacia delante.

Posteriormente se añadió una cuadragésimo primera fase de monitorización, que podía conmutarse para reflejar cualquiera de las cuarenta fases de memoria, permitiendo al operador inspeccionar el contenido de la memoria de forma remota para comprobar el progreso de un determinado cómputo, o para averiguar por qué se había detenido. Más tarde esta se incrementó con un tubo de rayos catódicos independiente de 18 centímetros que actuaba como una pantalla gráfica de 7.000 puntos por segundo. «Este dispositivo toma los datos existentes en uno de los registros de la máquina y traduce su representación binaria en el registro en una representación de amplitud en la deflexión del punto del osciloscopio», informaban los ingenieros en 1948.[47]

El grupo del IAS optó por tubos osciloscopios estándar 5CP1A de 13 centímetros, disponibles en grandes cantidades, aunque menos del 20 por ciento resultaron aceptables y en 1953 se informó de que «no se habían encontrado más que diez tubos libres de defectos en las pruebas con más de mil tubos realizadas en este laboratorio durante los tres últimos años».[48] Los fabricantes permitieron al IAS examinar su inventario en busca de unidades sin defectos y devolver el resto. Pomerene logró realizar una prueba de treinta y cuatro horas sin errores con una memoria de dos fases los días 28 y 29 de julio de 1949, y a continuación se inició la carrera final para construir una memoria de cuarenta fases que funcionara. El acceso a la memoria en paralelo haría que el ordenador fuera cuarenta veces más rápido que un procesador en serie, pero, en opinión de numerosos escépticos, sería improbable trabajar sin que una cosa u otra fuera siempre mal.

«Descubrimos, un poco a pesar nuestro —cuenta Pomerene—, que una propiedad que tiene una memoria, y que no tienen otros circuitos de tubos de vacío, ¡es que recuerda! ¡Menuda sorpresa! Pero es que, entre otras cosas, recuerda cualquier ruido que se haya producido. ¿Vale? De modo que está ahí, y tú estás esperando que recuerde un uno, y aparece un ruido y pasa de uno a cero, y se queda en cero porque ahora está recordando un cero. Así que una memoria resultaba ser un observador de ruido muy eficaz.»[49]

Había dos fuentes de ruido: el ruido externo, procedente de campos electromagnéticos aislados, y el ruido interno, causado por la fuga de electrones al leer o escribir en puntos adyacentes. Podía establecerse una protección frente a la mayor parte del ruido externo, mientras que el interno se controlaba monitorizando la denominada «relación entre lectura y pérdida de información» de cada tubo individual y tratando de evitar la ejecución de códigos que reincidieran en posiciones de memoria adyacentes con demasiada frecuencia, una inoportuna complicación para los programadores de la época. Los tubos Williams se parecían mucho al viejo Austin de Julian Bigelow. «Funcionaban, pero costaba un horror que siguieran haciéndolo», explicó Bigelow.[50]

Cada tubo de memoria individual tenía su propio cuaderno de bitácora, que registraba su historial de salud y cualesquiera idiosincrasias que surgieran sobre la marcha. La dificultad a la hora de distinguir los problemas de memoria de los problemas de codificación llevó a muchos de aquellos primeros programadores a renunciar asqueados. «La presencia de este elemento leproso en la máquina [significa] que todo el que se siente a formular un problema debe ser consciente de ello y estar preparado para andar con un poco de tiento en función del problema —señalaba Frank Gruenberger al explicar por qué PvAND escogió, en cambio, la memoria Selectrón—. Las señales ópticas tardan una fracción de segundo en desaparecer, y, si el problema requiere que reutilices un número antes de que la señal óptica se haya regenerado, obtendrás la respuesta incorrecta. Es como si una calculadora de escritorio fallara cada vez que las posiciones séptima, octava y novena de un número de quince dígitos resultaran ser tres dígitos primos… es una indecencia que el operador tenga que preocuparse por cómo está construida la máquina.»[51]

Paralelamente, Rajchman había seguido trabajando en el Selectrón en RCA. El 22 de septiembre de 1948 se hizo ante Bigelow y Goldstine una demostración del primer tubo operativo, con 256 elementos de almacenamiento, y aquellos «parecieron razonablemente impresionados». El segundo tubo estuvo terminado el 1 de octubre de 1948. Solo entonces supo Rajchman que el Selectrón había sido relegado a un segundo plano. «Parece que por fin tenemos el tubo deseado —le informaba Rajchman a Zworykin el 5 de octubre—. Este éxito tiene lugar, sin embargo, en un momento en que el Selectrón tiene que competir con el tubo inglés del profesor Williams. El grupo del Instituto ha empezado a trabajar en él, sin comunicarnos e incluso ocultándonos deliberadamente este hecho, a finales de mayo o comienzos de junio.» Rajchman, que finalmente consiguió una copia del informe de Williams-Kilburn, quedó «de lo más impresionado por su trabajo», admitiendo que, «de una manera típicamente inglesa, ha producido un resultado asombroso con un vulgar tubo de rayos catódicos».[52]

El Selectrón había quedado fuera de la competición. A la larga se producirían un número limitado de tubos de 256 bits, que se revelarían espectacularmente fiables (con una media de 100.000 horas entre fallos) en el JOHNNIAC, construido en RAND inspirándose en el IAS. Pero para entonces IBM había adoptado la memoria de tubo de rayos catódicos en su modelo 701, y la memoria de núcleos magnéticos —inicialmente propuesta por Rajchman, pero comercializada en otra parte— estaba a punto de tomar la delantera que RCA había abandonado. El Selectrón nunca alcanzó el éxito comercial ni llegó a producirse en masa. ¿Fue este un fracaso? «No más de lo que lo fue el dinosaurio —afirmó Willis Ware—. Ellos hacían cosas dentro de aquel vacío que nunca se habían hecho antes.»[53]

El almacenamiento de alta velocidad era un problema de conmutación, no un problema de memoria. «La dificultad de todos los esquemas de este tipo reside principalmente en el método de conmutación entre el gran número de elementos involucrados —le había escrito Goldstine a Mina Rees, de la Oficina de Investigación Naval—. El quid del problema de la memoria radica no en el desarrollo de un elemento de memoria barato, sino más bien en el desarrollo de un conmutador satisfactorio.»[54] La ventaja de la memoria de tubo Williams —que realizaba la función de conmutación si ninguna parte móvil aparte de la deflexión de un haz de electrones— no fue que resolviera mejor el problema de la conmutación, sino que lo resolviera primero.

El Selectron, que asignaba posiciones de memoria utilizando directamente puertas en lugar de «dirigir un haz de electrones a un lugar determinado, como si fuera una manguera electrónica», proporcionaba, en palabras de Rajchman, «un control digital “matricial” que da una certeza absoluta de que se selecciona la posición deseada, a diferencia de la selección, nunca demasiado segura, realizada por la deflexión analógica de un haz». No solo la conmutación era íntegramente digital, sino que también lo era la salida de datos, y no requería de un «discriminador» de analógico a digital que distinguiera entre un cero y un uno. Como diría Frank Gruenberger, «en el Selectron se selecciona una ranura concreta de la memoria por medios digitales (en lugar de analógicos), y las señales de salida son mil veces mayores que las de los tubos Williams».[55] El Selectron, que solucionaba tanto el problema de la memoria como el de la conmutación, habría abierto un camino mucho más directo al futuro de circuitos integrados de estado sólido que aguardaba al ordenador.

Algunos fracasos son fruto de la falta de visión; otros, de un exceso de ella. «Las ideas eran tan hermosas y tan elegantes que Rajchman siempre intentaba aplicarla [la matriz de almacenamiento] a una población de células mayor de lo que su técnica le habría permitido hacer en aquel momento —contó Bigelow, explicando los retrasos en RCA—. Simplemente, sabía tanto de óptica electrónica que no podía afrontar el hecho de que, si la reducía a algo mucho más modesto y la hacía funcionar, y luego aumentaba el tamaño a partir de ahí, le iría mucho mejor.»[56]

El Selectrón perdió su oportunidad. Una vez que Bigelow y Pomerene supieron cómo convertir tubos osciloscopios baratos y fácilmente disponibles en memoria de acceso aleatorio, el reto de hacerlo era irresistible. La RCA, centrada en la televisión, nunca se tomó el Selectrón en serio y fue incapaz de proporcionar a Rajchman, que en gran parte trabajaba solo, los recursos necesarios para convertirlo en un éxito. El grupo del denominado Proyecto Torbellino del MIT, que desarrollaba un ordenador digital para la defensa aérea, «se gastó algo así como veinticinco millones de dólares solo en tubos de almacenamiento, lo que era casi diez veces el total de nuestro proyecto», señaló Bigelow.[57]

Con la memoria de tubo Williams en funcionamiento, el ordenador comenzó a adoptar su forma física definitiva. El MANIAC era excepcionalmente compacto; «quizá demasiado compacto para un mantenimiento cómodo», admitió Bigelow, que fue en gran parte el responsable de su diseño físico. Se lograba un trayecto de conexión mínimo entre componentes por medio de circunvoluciones en el bastidor, de modo parecido a los pliegues de la corteza cerebral en el cráneo. En 1947 la mayoría de los dispositivos electrónicos se diseñaban en dos dimensiones, con los componentes montados sobre un bastidor plano y el cableado debajo. Lo mismo sigue valiendo actualmente para la mayoría de las placas base, los circuitos integrados y los dispositivos montados sobre un bastidor. Bigelow, en cambio, adoptó un planteamiento tridimensional en la forma de disponer e interconectar los componentes y de cablear y refrigerar las densas matrices de tubos de vacío. «Todos esos cables que no están cerca de ningún metal, que quedan fuera en el espacio, son cosa de Julian —dijo Willis Ware—. Ese bastidor de forma cóncava, de modo que podías cablear punto a punto y mantener la mínima longitud de cable, todo eso son ideas suyas.»[58]

«Por desgracia, los tubos de vacío tenían filamentos calentadores, y los cables que suministraban la corriente a dichos calentadores eran siempre un fastidio —explicó James Pomerene—. Siempre estaban en medio, y no tenían nada que ver con la lógica del ordenador.» Los técnicos de Bigelow laminaron placas de chapa de cobre gruesa, apilándolas por duplicado, e introdujeron luego las diferentes tiras entre dos trozos de tablero de fibra aislante, a fin de que toda la corriente de los calentadores pasara a través de dichas tiras. «Con ello se lograba el cableado de los calentadores sin que hubiera ningún cable de por medio, y se conseguía que la máquina fuera significativamente más fácil de construir», señaló Pomerene.[59] Además de permitir una densidad de componentes mucho mayor en el núcleo del ordenador, de ese modo se minimizaba el ruido electrónico y se mejoraba el flujo de refrigeración.

El MANIAC parecía un motor V40 turboalimentado, y medía alrededor de 2 metros de alto, 0,5 de ancho y 2,5 de largo. El ordenador en sí, con un bastidor de aluminio, pesaba menos de media tonelada, lo que venía a ser un «microprocesador» para la época. El «cárter» tenía 20 cilindros a cada lado, cada uno de los cuales contenía, en lugar de un pistón, un tubo de memoria de 1.024 bits. Cada uno de los 40 cilindros, dispuestos en «V» en dos filas paralelas y con un ángulo de 45 grados, contenía un tubo osciloscopio 5CP1A de unos 13 centímetros de diámetro, con un largo cuello dirigido hacia la parte inferior del cárter y una pantalla fosforescente que apuntaba hacia la «culata» del cilindro. La pantalla de cada tubo tenía casi la misma superficie de visualización que una calculadora gráfica o uno de los primeros cajeros automáticos que empezaban a verse en el exterior de los bancos.

Atornillado en la parte inferior del cárter, y con el aspecto de un bloque motor muy alto (y con válvulas en cabeza), estaba el bastidor principal del ordenador, que contenía los registros de memoria, los acumuladores, los registros aritméticos y el control central. Un colector de admisión suministraba los datos al ordenador, y un colector de escape proporcionaba los resultados. Un ventilador de unos 130 metros cúbicos por minuto inyectaba aire frío en la base del motor, mientras que otros veinte más pequeños, que parecían turbocompresores, extraían el exceso de calor a través de conductos elevados. Al principio, el aire frío era introducido desde arriba hacia abajo a través del núcleo del ordenador y salía por el suelo, pero más tarde se optó por el sistema utilizado hoy en los modernos centros de datos, donde todo el conjunto de la sala de máquinas se refrigera mediante una batería de acondicionadores de aire externos y el calor emitido sale por arriba. «La energía total disipada en el cuerpo principal de la máquina es de unos 19,5 kW —se informaba en 1953—. Aproximadamente 9 kW representan la disipación de la alimentación de corriente alterna, mientras que los 10,5 kW restantes son resultado de los calentadores, los transformadores y los ventiladores.»[60]

La unidad original de aire acondicionado estaba calibrada en 7,5 toneladas, y más tarde se duplicó su capacidad a 15 toneladas. Eso significa, más o menos, que si el sistema de aire acondicionado se hubiera puesto a funcionar a plena potencia (unos 50 kilovatios) y se le hubiera suministrado agua helada, podría haber producido 15 toneladas de hielo al día. Las unidades de refrigeración, fabricadas por la empresa York Refrigeration y apodadas York por los ingenieros, causaban frecuentes problemas. La capacidad de producir 15 toneladas de hielo al día significaba que bastaban unos 40 minutos para que los serpentines de refrigeración se congelaran de forma catastrófica con la humedad del aire estival de Nueva Jersey.

«El refrigerador se ha quedado completamente bloqueado a causa del hielo», reza una entrada del diario de la máquina correspondiente a las 20.55 del 23 de septiembre de 1954. «Ahora York se niega por completo a funcionar; fusible de 35 amperios fundido —se lee en la siguiente entrada, de las 21.10—. Se sustituye y se pone en marcha a York mientras se deshiela el refrigerador. York funciona mal. Se desconecta la corriente continua para ayudar.» La última entrada del día indica que la principal fuente de alimentación de corriente continua del ordenador había sido desconectada, con la esperanza de rebajar la temperatura del núcleo hasta el punto en que resultara seguro reiniciarlo. Sin embargo, que funcionara el aire acondicionado o el ordenador, pero no ambas cosas, no resultaba de mucha ayuda. El fuerte tirón de corriente alterna de York tenía tendencia a introducir errores en los tubos Williams en el peor momento posible. «Todos mis intentos fallidos de duplicación se produjeron durante un período de inestabilidad por parte de York», reza el diario de la máquina el 22 de octubre de 1954. «Desconectado», anota Norman Phillips, el pionero de los modelos climatológicos, a las 19.38. «Es porque York está dando guerra», añade Hedi Selberg.

«York ha hecho que las luces se atenuaran segundos antes del error», señalaba Nils Barricelli el 2 de noviembre de 1954.[61]

Los ingenieros afrontaron el reto de conseguir que todos aquellos componentes dispares trabajaran juntos, no solo entre ellos, sino también con las instrucciones codificadas en virtud de las cuales la máquina cobraría vida. «La planificación de esta máquina requerirá la misma previsión y el mismo rigor autosuficiente —le había explicado Von Neumann a Roger Revelle en 1947— que se necesitaría para poder dejar a un grupo de veinte calculadoras (humanas), que fueran fiables pero estuvieran absolutamente desprovistas de iniciativa, solas durante un año, trabajando en función de unas instrucciones exhaustivas pero rígidas, que se esperaba que previeran todas las contingencias posibles.»[62]

Cuando el ordenador se detenía, ¿era el ruido en la deflexión de un haz de electrones o la transposición de un bit en la especificación de una dirección de memoria? «Intento fallido, ¿máquina o humano?», reza la primera entrada del cálculo de una onda expansiva realizado en febrero de 1953. Y luego se añadió una respuesta: «Problema detectado en el código. ¡Espero!».

«Error de código, máquina no culpable», admitía Barricelli el 4 de marzo de 1953. «Es inútil, ¡BUENAS NOCHES!», Se registró a las 23.00 del 7 de mayo de 1953. «¡Maldita sea! Yo puedo ser tan obstinado como este trasto —anotó un meteorólogo el 14 de junio de 1953—. Nunca sabré por qué de vez en cuando tienes que cargar dos veces estos códigos para hacerlos funcionar, pero normalmente funcionan a la segunda.»[63]

Todos los cómputos se realizaban dos veces, y solo se aceptaban cuando ambas producían resultados duplicados. «Ahora que he duplicado AMBOS RESULTADOS, ¿cómo sabré cuál es el bueno dando por hecho que uno de ellos sea correcto?», se pregunta un ingeniero el 10 de julio de 1953. «Este es el tercer resultado distinto —reza la siguiente entrada del diario—. Admito la derrota.» Alguien que ejecutó un código relacionado con la bomba de hidrógeno desde las 2.09 hasta las 5.18 del 15 de julio de 1953 se despide así: «¡Si esta máquina fuera solo un poco coherente…!».

«¡A LA MIERDA! —Reza la última entrada del 17 de junio de 1956, escrita trece minutos después de la medianoche, al observar que el control principal se está apagando—. C/P [control principal] APAGADO (¡¡APAGADO DEL TODO!!).» Harían falta años de quemarse las pestañas para resolver esos problemas, pero la tendencia general sería que el hardware se fuera volviendo más fiable y libre de errores, al tiempo que los códigos se volvían más complicados y propensos a errores. «C/P OK. Todos los problemas eran problemas de código», reza una entrada del diario del 6 de marzo de 1958, un mes después de la muerte de Von Neumann.[64]

La arquitectura lógica del MANIAC era indiscutiblemente obra de Burks, Goldstine y Von Neumann, cualquiera que fuese la fuente original de sus ideas. Su aplicación física era indiscutiblemente obra de Bigelow, y su diseño electrónico era en gran medida el resultado del trabajo en equipo de Bigelow, Pomerene, Rosenberg, Slutz y Ware. Hubo frecuentes desacuerdos entre Goldstine y Bigelow, pero ellos se ocuparon del calendario y la gestión del proyecto más que de su diseño. Goldstine no se consideró nunca un experto en ingeniería, aunque de hecho se construyó un televisor a partir de un kit, «lo que al menos le dio cierto conocimiento de lo que implica montar equipamiento electrónico o electromecánico —afirmó Rubinoff—, y al mismo tiempo también le dio una idea de lo que se puede hacer con circuitos de activación y circuitos de conmutación y tal».[65]

Rosenberg, sin embargo, discrepaba fuertemente con Bigelow en cuanto al diseño de circuitos. «Durante el día yo hacía lo que me mandaba, y luego volvía por la noche para diagnosticar con precisión y arreglar los problemas», explicó. Pomerene era más diplomático. «Creo que tendría que darle más o menos el cien por cien del mérito por el inusual pero sumamente eficaz diseño mecánico de la máquina», reconoció, honrando a su colega, a quien terminaría por sustituir como ingeniero jefe en 1951, en el esfuerzo final por conseguir terminar el proyecto.[66]

«Julian tenía las ideas, Ralph [Slutz] detallaba esas ideas, y luego Pom [James Pomerene] y yo tratábamos de hacer que los electrones hicieran su trabajo —dijo Willis Ware—. El venía a ser más físico y teórico que ingeniero… En el lenguaje moderno, lo que se diría es: Julian fue el arquitecto de aquella máquina.»[67]

«La velocidad a la que Julian podía pensar y la velocidad a la que Julian podía juntar ideas fueron la velocidad a la que avanzó el proyecto», añadió Ware. En 1951 se concedió a Bigelow una beca Guggenheim, y este pidió un permiso de un año. «Herman Goldstine y posiblemente Von Neumann pensaban que había algo en Julian que le impediría llegar a terminar nunca del todo la máquina; que podía llegar casi al 99,9 por ciento, pero que nunca conseguiría que se hiciera ese 0,1 por ciento restante —explicó Pomerene—. Y digamos, por más que la beca Guggenheim llegara por casualidad, que se sintieron bastante contentos de nombrarme ingeniero jefe y conseguir que el asunto se terminara.»[68]

«Su problema era que se trataba de un pensador —señaló Atle Selberg, cuya esposa, Hedi, fue contratada por Von Neumann el 29 de septiembre de 1950 y permaneció en el proyecto de computador hasta su terminación en 1958—. El no dejaba las cosas cuando otras personas pensaban que estaban terminadas. Julian siempre pensaba en hacer un poco más aquí y allá.»[69]

«Entiendo que se diga eso —afirmó Ware a propósito de la vena perfeccionista de Bigelow—. Pero yo pienso, retrospectivamente, que de no ser así la maldita máquina podría no haber funcionado. ¡Demonios! ¡Intentábamos hacer que dos mil tubos de vacío hicieran su trabajo! Y para hacerlo de manera fiable, aquel nivel de perfección era un atributo positivo.»[70]

«Creo que parte del problema era que él buscaba la perfección antes de poner algo en marcha —dijo Morris Rubinoff—. Nunca sabías si lo hacía porque buscaba la perfección o porque le preocupaba la fiabilidad. Nadie había tenido nunca antes el coraje de probar una máquina tan rápida de semejante manera. Y montar una máquina y encontrarse con que fallaba cada tres segundos no te ayudaba mucho.»[71] Bigelow estaba de acuerdo: «No puedes construir una máquina en paralelo de cuarenta fases a menos que la circuitería básica de cada fase sea tan buena que haga lo que debe hacer independientemente del estado de la siguiente fase —explicó—. Tiene que trabajar a velocidad de megaciclos durante cientos de horas. No puedes confiar en el azar».[72]

Para Bigelow, la arquitectura en paralelo de cuarenta fases se derivaba directamente de la máquina en serie de Turing. «La máquina de Turing no suena muy parecida a un ordenador moderno, pero aun así lo era —explicó Bigelow—. Fue la idea germinal. Si construyes un aparato que obedecerá ciertas órdenes explícitas de una cierta manera explícita, ¿puedes decir algo acerca de la clase de procesos computacionales o intelectuales que podrá o no realizar?» Bigelow y Von Neumann mantuvieron largas discusiones sobre las implicaciones del trabajo de Gódel y de Turing. «Von Neumann lo entendía muy profundamente —confirmó Bigelow—. De modo que, observando el ENIAC, o algunas de las primeras máquinas, que eran muy inflexibles, él supo ver mejor que nadie que aquel era solo el primer paso, y que habría una gran mejora.»[73]

«Lo que aportó Von Neumann», indicó Bigelow, fue «esa confianza inquebrantable que decía: “¡Adelante!, lo demás no importa, que funcione a tal velocidad y a tal capacidad, y el resto son solo un montón de tonterías”. Fue realmente basándonos en ese tipo de creencia como pudimos tirar adelante partiendo de seis personas y un presupuesto.»[74] El planteamiento de Von Neumann fue juntar a un puñado de ingenieros en una guarida de matemáticos, en lugar de juntar a un puñado de matemáticos en una guarida de ingenieros. Ello liberó el proyecto de cualesquiera restricciones que podría haber impuesto un grupo de ingenieros ya establecido con opiniones preconcebidas acerca de cómo debería construirse un ordenador. «Nosotros éramos misioneros —afirmó Bigelow—. Nuestra misión era construir una máquina que demostrara que la computación de alta velocidad era posible.»[75]

«Una larga cadena de improbables acontecimientos aleatorios condujeron a nuestra implicación —concluía Bigelow en 1976—. Si unas personas que normalmente teníamos aspiraciones modestas trabajamos de manera tan intensa y desinteresada fue porque creíamos y sabíamos lo que estaba ocurriendo allí y en unos pocos sitios más en aquel momento, y teníamos la suerte de participar en ello. Estábamos seguros porque Von Neumann barrió las telarañas de nuestras mentes como no podría haberlo hecho nadie más. Una gigantesca ola de poder computacional estaba a punto de romper e inundarlo todo, tanto en la ciencia como en muchos otros ámbitos, y las cosas ya nunca volverían a ser como antes.»[76]