17
La historia del Gran Ordenador
En un pequeño laboratorio —algunas personas sostienen que era un viejo establo reconvertido—, unos cuantos hombres con batas blancas observaban un pequeño aparato, aparentemente insignificante, equipado con luces que destellaban como estrellas. Se introducían tiras de papel gris perforado en su interior, y otras tiras salían de él. Los científicos e ingenieros se esforzaban en su trabajo, con un brillo en los ojos; sabían que el pequeño artefacto que tenían delante era algo excepcional, pero ¿acaso preveían la nueva era que se abría ante ellos o sospechaban que lo que había ocurrido era comparable al origen de la vida en la Tierra?
HANNES ALFVÉN, 1966
En 1946, Von Neumann hizo un trato con «la otra parte». Los científicos tendrían los ordenadores, y los militares tendrían las bombas. Eso parece haber dado bastante buen resultado, al menos hasta ahora, ya que, contrariamente a las expectativas de Von Neumann, serían los ordenadores los que harían explosión, y no las bombas.
«Es posible que en los años venideros los tamaños de las máquinas aumenten de nuevo, pero no es probable que se superen los 10.000 (o quizá unas pocas veces 10.000) órganos de conmutación mientras se empleen las técnicas y la filosofía actuales —predecía Von Neumann en 1948—. Alrededor de 10.000 órganos de conmutación parece ser el orden de magnitud apropiado para una máquina computadora.»[1] Acababa de inventarse el transistor, y habrían de pasar otros seis años antes de que se pudiera comprar una radio de transistores, con cuatro de ellos. En 2010 se podía comprar un ordenador con mil millones de transistores por el mismo precio, ajustado a la inflación, que costaba una radio de transistores en 1956.
La estimación de Von Neumann resultaría errónea por más de cinco órdenes de magnitud; hasta ahora. El creía —y aconsejaba al gobierno y a los estrategas de la industria que buscaban su asesoramiento— que un pequeño número de grandes ordenadores podrían satisfacer la demanda de computación de alta velocidad una vez que se solucionaran los impedimentos de cara a la entrada y salida remotas de datos. Eso resultaría cierto, pero solo durante un período muy corto de tiempo. Tras concentrarse brevemente en grandes instalaciones de computación centralizadas, la onda de detonación que se inició con tarjetas perforadas y tubos de vacío se propagó a través de una serie de fronteras materiales e institucionales, pasando a la memoria de núcleos magnéticos, los semiconductores, los circuitos integrados y los microprocesadores; y de los grandes ordenadores centrales y los sistemas de tiempo compartido a los miniordenadores, los micro ordenado res, los ordenadores personales, las ramificadas extensiones de internet y, hoy, los miles de millones de microprocesadores integrados en teléfonos móviles y otros dispositivos. A medida que los componentes aumentaban en número, fueron volviéndose más pequeños en tamaño y operando más deprisa en el tiempo. El mundo se transformó.
Entre quienes supieron prever esa transformación se contaba el astrofísico sueco Hannes Alfvén, quien se mantendría tan firme en su oposición a las armas nucleares como Von Neumann y Teller serían partidarios de ellas. Fue miembro cofundador, y más tarde presidente, del movimiento de desarme Pugwash fundado por Joseph Rotblat, el único físico de Los Alamos que dejó su trabajo, a finales de 1944, en respuesta a la información secreta recabada por los servicios de inteligencia de que los alemanes no estaban haciendo un esfuerzo serio para construir una bomba atómica.
De niño, alguien le había dado a Alfvén un ejemplar de Astronomía popular de Camille Flammarion, en el que aprendió lo que se sabía y lo que no se sabía en aquella época sobre el sistema solar. Luego se incorporó al club de radio de onda corta de su escuela, donde empezó a entender qué parte del universo subyacía más allá de las longitudes de onda de la luz visible y cuánto de él estaba integrado no por sólidos, líquidos o gases convencionales, sino por plasma, un cuarto estado de la materia, donde los electrones están sueltos. En 1970 se le concedería el Premio Nobel de Física por su trabajo en magnetohidrodinámica, un campo en el que fue pionero a raíz de una carta a la revista Nature en 1942. El comportamiento de las ondas electromagnéticas en los conductores sólidos se entendía bastante bien, mientras que su comportamiento en el plasma ionizado seguía siendo un misterio, ya fuera en el interior de una estrella o en el espacio interestelar. En cualquier fluido conductor, incluido el plasma, la electrodinámica y la hidrodinámica iban a la par, y Alfvén dotó a esta relación de un sólido fundamento matemático y experimental. «Jugar con mercurio en presencia de un campo magnético de 10.000 gauss da la impresión general de que el campo magnético ha alterado completamente sus propiedades hidrodinámicas», explicó en 1949.[2]
El cosmos de Alfvén estaba inundado de ondas magnetohidrodinámicas —hoy llamadas «ondas de Alfvén»— que hacían del espacio «vacío» un lugar mucho menos vacío y ayudaban a explicar fenómenos que iban desde la aurora boreal hasta las manchas solares, pasando por los rayos cósmicos. Desarrolló una detallada teoría de la formación del sistema solar, empleando la electrodinámica para explicar cómo se formaron los diferentes planetas. «Rastrear el origen del sistema solar es arqueología, no física», escribió en 1954.[3]
Alfvén también sostenía, sin convencer a los ortodoxos, que la estructura a gran escala del universo podía ser jerárquica hasta el infinito, en lugar de expandirse a partir de una única fuente. Semejante universo —que cumpliría el ideal de Leibniz del todo a partir de la nada— tendría una densidad media de cero, pero una masa infinita. Para Alfvén, el big bang era una ilusión. «Luchan contra el creacionismo popular, pero al mismo tiempo luchan fanáticamente en favor de su propio creacionismo», subrayó en 1984.[4]
Alfvén dividiría sus últimos años entre La Jolla, California, donde ejercía como profesor de física en la Universidad de California en San Diego, y el Real Instituto de Tecnología de Estocolmo, donde había sido nombrado miembro de la Escuela de Ingeniería Eléctrica en 1940, justo a tiempo para presenciar de primera mano la llegada de la era de la informática. La BESK sueca (siglas de Binar Elektronisk Sekvens Kalkylator, «Calculadora Secuencial Electrónica Binaria»), que era una copia de primera generación de la máquina del IAS, entró en funcionamiento en 1953. Tenía una memoria y una aritmética más rápidas, en parte gracias a la inteligente ingeniería sueca (que incluía el uso de 400 diodos de germanio) y, en parte, al hecho de reducir la memoria de cada tubo Williams a 512 bits.
«He visto la máquina sueca —informaba Von Neumann a Klári desde Estocolmo en septiembre de 1954—. Muy elegante, quizá una media de un 25 por ciento más rápida que la nuestra, con memoria Williams de solo 500 palabras y 4.000 en un tambor (esto se duplicará), una entrada de teletipo (rápida, un lector eléctrico) y solo una salida mecanográfica (lenta).»[5] La construcción de aquella máquina dejó una impresión indeleble en Alfvén, que a la larga la pondría por escrito en su obra The Tale ofthe Big Computer: A Vision («La historia del Gran Ordenador: una visión»), publicada en Suecia en 1966.
«Cuando una de mis hijas me dio mi primer nieto, me dijo: «Ya que escribes tantos artículos y libros científicos, ¿por qué no escribes algo más práctico, un cuento de hadas para este pequeño?»», recordaría Alfvén en 1981. Escogiendo a «un pariente monocigótico llamado Olof Johannesson» como seudónimo, Alfvén relató, desde un tiempo indefinido en el futuro, una breve historia natural del origen y el desarrollo de los ordenadores y su posterior dominio de la vida en la Tierra. «La vida, que evolucionó en estructuras cada vez más complejas, fue el sustituto de la naturaleza para los ordenadores criados directamente —escribía—. Sin embargo, fue algo más que un sustituto: fue un camino; un camino tortuoso, pero uno que, pese a todos los errores y peligros, llegó por fin a su destino.»[6]
«Yo era asesor científico del gobierno sueco y tenía acceso a sus planes para reestructurar la sociedad sueca, lo que obviamente podía hacerse de manera mucho más eficaz con la ayuda de ordenadores, del mismo modo que otros inventos anteriores nos habían aliviado del trabajo físico pesado», añadía, explicando cómo había llegado a escribir el libro. En la visión de Alfvén, los ordenadores eliminaban rápidamente dos de las mayores amenazas del mundo: las armas nucleares y los políticos. «Cuando se desarrollaron los ordenadores, estos asumieron una buena parte de la carga de los políticos, y tarde o temprano también acabarían por asumir su poder —explicaba—. Eso no tenía por qué hacerse por medio de un sucio golpe de Estado; simplemente fueron más listos de manera sistemática que los políticos. Incluso es posible que pasara mucho tiempo antes de que los políticos se dieran cuenta de que se habían vuelto impotentes. Eso no es una amenaza para nosotros.»[7]
«Los ordenadores están diseñados para resolver problemas, mientras que los políticos han heredado el síndrome de los caciques tribales de la Edad de Piedra, que dan por sentado que pueden gobernar a sus gentes solo haciéndoles odiar y combatir a todas las demás tribus —proseguía Alfvén—. Si tenemos la opción de ser gobernados, o bien por generadores de problemas, o bien por solucionadores de problemas, obviamente cualquier hombre práctico preferiría a los últimos.»[8]
Los matemáticos que diseñaban y programaban la creciente red de ordenadores empezaron a sospechar que «el problema de organizar la sociedad es tan sumamente complejo que resulta insoluble para el cerebro humano, o incluso para muchos cerebros que trabajen en colaboración». Su posterior prueba del teorema de la complejidad sociológica llevó a la decisión de ceder la organización de la sociedad humana, y la gestión de sus redes sociales, a las máquinas.[9] Se proveyó a todos los individuos de un dispositivo llamado «teletotal», conectado a una red global de ordenadores con características similares a los actuales Google y Facebook. «El teletotal tendía un puente entre el mundo mental del ordenador, que operaba a través de secuencias de impulsos a velocidades de nanosegundos, y el mundo mental del cerebro humano, con sus impulsos nerviosos electroquímicos —explicaba Alfvén—.[10] Dado que el conocimiento universal estaba almacenado en las unidades de memoria de los ordenadores y, por lo tanto, resultaba fácilmente accesible a todos y cada uno, se salvó la brecha entre los que sabían y los que no sabían… y resultó del todo innecesario almacenar ningún saber en absoluto en el cerebro humano.»[11]
Al teletotal le siguió un sucesor miniaturizado e inalámbrico conocido como «minitotal», más tarde complementado por el «neuro-total», un implante que se mantenía «en contacto permanente vía VHF con el minitotal del sujeto» y se insertaba quirúrgicamente en un canal nervioso para conectarlo directamente al cerebro humano. Técnicos humanos mantenían la creciente red de ordenadores, mientras que estos, a cambio, velaban por la salud y el bienestar de sus simbiontes humanos con tanto esmero como lo hace hoy el gobierno sueco. «Factorías de salud» mantenían a los seres humanos en buen estado; las ciudades se abandonaron en favor de una vida descentralizada y de tele trabajo, y «las tiendas se volvieron superfluas, puesto que el cliente podía examinar los bienes que había en ellas desde casa… si quería adquirir algo… presionaba el botón de compra.»[12]
Entonces, un día, todo el sistema se paralizó. Un pequeño grupo de humanos habían conspirado para hacerse con el control de la red. «Se habían formado facciones (se ignora exactamente cuántas) y estas luchaban unas contra otras por el poder —explicaba Alfvén—. Un grupo intentó dejar fuera de combate a sus rivales desorganizando sus sistemas de datos, y estos le pagaron con la misma moneda. El resultado fue un desbarajuste total. No sabemos cuánto tiempo duró la batalla. Debió de haberse preparado durante un largo período, pero es posible que el conflicto en sí durara menos de un segundo. Para los ordenadores, eso es una cantidad de tiempo considerable.»[13]
El colapso fue total. Con la red inactiva, no había ningún modo de distribuir las instrucciones para reactivarla. «Las interrupciones parecían haberse producido casi —o incluso exactamente— al mismo tiempo en todo el mundo, y era evidente que la red internacional de ordenadores estaba muerta —informaba Johannesson—.[14] Fue un completo desastre. En menos de un año la mayor parte de la población había perecido por el hambre y las privaciones… Los museos fueron saqueados en busca de [hachas] y otras herramientas.»[15]
La sociedad fue reconstruida poco a poco a partir de sus ruinas y el sistema de ordenadores, restaurado a partir de copias de seguridad conservadas por una avanzadilla marciana que había escapado al colapso. Esta vez se dio a los ordenadores el pleno control desde el principio, reconociendo que «había que excluir completamente al hombre de las tareas de organización más importantes».[16] En la nueva sociedad, el número de seres humanos se mantuvo en un nivel reducido. «Una gran cantidad de máquinas de datos habían sido destruidas en el momento del desastre, pero su número apenas había disminuido en comparación con la proporción de víctimas humanas… de modo que, cuando fueron puestos de nuevo en marcha, la proporción de ordenadores con respecto a las personas se había incrementado enormemente.»[17] Una vez que los ordenadores estuvieron de nuevo en funcionamiento, y equipados con instalaciones para repararse y reproducirse a sí mismos, los seres humanos se fueron volviendo cada vez más superfluos. La historia termina con Olof Johannesson preguntándose qué cantidad de población humana se podrá preservar: «Es probable que cuando menos reduzcan su número; pero ¿se hará esto de manera rápida o gradual? ¿Conservarán una colonia humana?, y, de ser así, ¿de qué tamaño?».[18]
Hoy la historia de Alfvén ha caído en el olvido, pero el futuro que él imaginaba ha llegado ya. Los centros de datos y los parques de servidores proliferan en las zonas rurales; los teléfonos con Android y auriculares Bluetooth están solo a un paso de los implantes neurales; el desempleo es pandémico entre quienes no trabajan por cuenta de códigos autorreplicantes y máquinas autorreproductoras. Facebook define quiénes somos y Google qué pensamos. El teletotal fue el ordenador personal; el minitotal es el iPhone; el neurototal será lo próximo. «¿Cuánta vida humana podemos absorber?», pregunta uno de los fundadores de Facebook como respuesta a la pregunta previa de cuál es realmente el objetivo de la empresa.[19] «Queremos que Google sea la tercera mitad de tu cerebro», afirma el cofundador de Google Sergey Brin.[20]
La capacidad de los ordenadores de predecir (e influir en) lo que votará la gente, con tanta precisión como aquella con la que puede contabilizarse el voto real, ha convertido a los políticos en subordinados de los ordenadores, en gran medida como prescribiera Alfvén. Los ordenadores no necesitan armas para imponer su poder, dado que, como explicaba el científico sueco, «controlan toda la producción, y esta se detendría automáticamente en caso de una tentativa de rebelión. Lo mismo vale para las comunicaciones, de modo que, si alguien intentara algo tan insensato como una revuelta contra las máquinas de datos, esta solo podría tener un carácter local. Finalmente, la actitud del ser humano hacia los ordenadores resulta muy positiva».[21] Los acontecimientos recientes han superado incluso lo que Alfvén llegó a imaginar, desde el explosivo crecimiento de las redes ópticas de datos (anticipadas en el siglo XIX por las redes de telégrafo óptico de Suecia) hasta el predominio de las máquinas virtuales.
El progenitor de la virtualización fue la máquina universal de Turing. La traducción bidireccional entre función lógica y secuencias de símbolos ya no es la abstracción matemática que era en 1936. Un solo ordenador puede albergar múltiples máquinas virtuales simultáneas; las hoy denominadas «aplicaciones» son secuencias codificadas que implantan localmente una máquina virtual específica en un dispositivo concreto; el millón (según el último recuento) de servidores de Google constituye un organismo metazoario colectivo cuya manifestación física cambia de un instante a otro.
Las máquinas virtuales nunca duermen. Solo la tercera parte de un motor de búsqueda se dedica a llevar a cabo las búsquedas solicitadas; las otras dos terceras partes se dividen entre la tarea de las denominadas «arañas web» (enviar a través de la red una multitud de organismos digitales exclusivamente dedicados a recabar información) y la labor de indexación (construir estructuras de datos a partir de los resultados obtenidos). Esa carga se reparte libremente entre distintos grupos de parques de servidores. Veinticuatro horas al día y 365 días al año, algoritmos con nombres tales como BigTable, Map-Reduce o Percolator convierten sistemáticamente la matriz de direcciones numérica en una memoria de contenido direccionable, efectuando una transformación que constituye la mayor computación jamás realizada en el planeta Tierra. Nosotros solo vemos la superficie del motor de búsqueda, introduciendo una secuencia de búsqueda y recuperando una lista de direcciones que contienen una correspondencia, junto con sus contenidos. El conjunto de todas nuestras búsquedas aleatorias de secuencias de bits significativas es una asociación, constantemente actualizada, entre contenido, significado y espacio de direcciones; un proceso de Montecarlo para indexar la matriz que subyace a la World Wide Web.
La matriz de direcciones que empezó, en 1951, como un solo hotel de 40 plantas, con 1.024 habitaciones en cada planta, hoy se ha expandido a miles de millones de hoteles de 64 plantas con miles de millones de habitaciones, si bien su contenido todavía se direcciona por medio de coordenadas numéricas que deben ser especificadas con precisión, ya que de lo contrario todo se detendría. Hay, sin embargo, otra forma de direccionar memoria, y consiste en utilizar una secuencia identificable (aunque no necesariamente única) dentro del contenido del bloque de memoria especificado como una dirección basada en un patrón.
Dado el acceso a una memoria de contenido direccionable, empezarán a desarrollarse códigos basados en instrucciones que digan: «Haz esto con eso», sin tener que especificar una posición exacta. Dichas instrucciones incluso podrían decir: «Haz esto con algo como eso», sin que el patrón tenga que ser exacto. La primera época de la era digital se inició con la introducción de la matriz de almacenamiento de acceso aleatorio en 1951. La segunda dio comienzo con la introducción de internet. Hoy se ha iniciado una tercera con la introducción del direccionamiento basado en patrones. Lo que antaño fuera causa de fallos —no especificar un patrón exacto o una dirección precisa— se convertirá en un requisito previo para el éxito en el mundo real.
El método de Montecarlo fue invocado como un medio de emplear instrumentos estadísticos probabilísticos para identificar soluciones aproximadas a problemas físicos resistentes al enfoque analítico. Dado que los fenómenos físicos subyacentes en realidad son estadísticos y probabilísticos, la aproximación de Montecarlo a menudo suele estar más cerca de la realidad que las soluciones analíticas que inicialmente se requirió que Montecarlo abordara. El direccionamiento basado en patrones y la codificación por frecuencia de impulsos resultan parecidamente cercanos al modo en que funciona en verdad el mundo, y, como Montecarlo, darán un mayor rendimiento que los métodos que requieran que las referencias direccionales o las secuencias de instrucciones sean exactas. El poder del código genético, que tanto Barricelli como Von Neumann supieron reconocer de inmediato, radica en su ambigüedad: transcripción exacta, pero expresión redundante. Ahí reside el futuro del código digital.
Una delgada línea separa la aproximación de la simulación, y desarrollar un modelo es crucial para asumir el control. Así, para no derribar a la aviación amiga, el sistema de defensa antiaérea SAGE (Semi-Automatic Ground Environment, «Entorno Terrestre Semiautomático»), surgido del Proyecto Torbellino del MIT en la década de 1950, controlaba todos los vuelos de pasajeros, desarrollando un modelo en tiempo real que a su vez desembocaría en el sistema de reserva de líneas aéreas SABRÉ (Semi-Automatic Business-Related Environment, «Entorno Comercial Semiautomático»), que todavía hoy controla gran parte del tráfico de pasajeros. Google trató de calibrar lo que la gente pensaba, y se convirtió en lo que pensaba la gente. Facebook trató de cartografiar el grafo social, y se convirtió en el propio grafo social. Los algoritmos desarrollados para simular las fluctuaciones de los mercados financieros se hicieron con el control de dichos mercados, dejando atrás a los operadores humanos. «Toto —decía Dorothy en El mago de Oz—, tengo la sensación de que ya no estamos en Kansas.»
A lo que los estadounidenses denominaron «inteligencia artificial», los británicos lo llamaron «inteligencia mecánica», un término que Alan Turing consideraba más exacto. Empezamos por observar un comportamiento inteligente (por ejemplo, en el lenguaje, la visión, la búsqueda de objetivos o el reconocimiento de patrones) en organismos, y nos esforzamos en reproducir dicho comportamiento codificándolo en máquinas lógicamente deterministas. Sabíamos desde el principio que ese comportamiento lógico e inteligente evidente en organismos era el resultado de procesos estadísticos fundamentalmente probabilísticos, pero lo ignoramos (o dejamos los detalles a los biólogos), mientras construíamos «modelos» de inteligencia, con resultados contradictorios.
A través del procesamiento de información estadística probabilística a gran escala se están haciendo verdaderos progresos en algunos problemas difíciles, tales como el reconocimiento del habla, la traducción lingüística, el plegamiento proteínico y hasta la predicción bursátil, aunque solo sea para el siguiente milisegundo, hoy en día tiempo suficiente para completar una transacción. Pero ¿cómo puede ser eso inteligencia si solo nos limitamos a introducir potencia estadística probabilística en el problema y ver qué sucede, sin que haya el menor conocimiento subyacente? No hay aquí modelo alguno. ¿Y cómo lo hace el cerebro? ¿Con un modelo? Estos no son modelos de procesos inteligentes, son procesos inteligentes.
El comportamiento de un motor de búsqueda cuando no está realizando una búsqueda activamente, se parece a la actividad de un cerebro cuando sueña. Las asociaciones realizadas cuando estaba «despierto» se reconstruyen y se refuerzan, mientras que los recuerdos captados mientras estaba «despierto» se reproducen y se desplazan. William C. Dement, que contribuyó al descubrimiento original de lo que pasaría a conocerse como sueño REM (por las siglas en inglés de rapid eje movements, «movimientos oculares rápidos»), lo hizo investigando sobre los niños recién nacidos, que pasan soñando una gran parte del tiempo que duermen. Dement planteó la hipótesis de que soñar era un paso esencial en la inicialización del cerebro. A la larga, si todo va bien, se desarrolla la conciencia de la realidad a partir del sueño interno, un estado al que volvemos periódicamente cuando dormimos. «El primordial papel de “dormir soñando” al principio de la vida puede residir en el desarrollo del sistema nervioso central», anunció Dement en Science en 1966.[22]
Desde los tiempos de Leibniz hemos estado esperando máquinas que empezaran a pensar. Antes de que las máquinas universales de Turing colonizaran nuestros escritorios, teníamos una visión menos gravosa de la forma en que aparecería inicialmente la inteligencia artificial real. «¿Es un hecho —o lo he soñado— que, mediante la electricidad, el mundo de la materia se ha convertido en un gran nervio, vibrando miles de kilómetros en un punto sin aliento del tiempo? —se preguntaba Nathaniel Hawthorne en 1851—. ¡Mejor dicho, el redondo globo es una enorme cabeza, un cerebro, instinto con inteligencia! ¿O cabe decir que es en sí mismo un pensamiento, nada más que pensamiento, y ya no la sustancia que creíamos que era?» En 1950, Turing nos pedía que consideráramos «la pregunta “¿pueden pensar las máquinas?”».[23] Primero las máquinas soñarán.
¿Y qué hay de la pregunta de Von Neumann acerca de si las máquinas empezarían a reproducirse? Hemos dado a los ordenadores digitales la capacidad de modificar sus propias instrucciones codificadas, y ahora están empezando a ejercer la capacidad de modificar las nuestras. ¿Estamos utilizando los ordenadores digitales para secuenciar, almacenar y replicar mejor nuestro propio código genético, optimizando así a los seres humanos, o bien los ordenadores digitales están optimizando nuestro código genético —y nuestra forma de pensar— de modo que podamos ayudarlos mejor a replicarse? ¿Y si el precio de las máquinas pensantes fueran personas ya incapaces de pensar sin máquinas? ¿Y si el precio de las máquinas capaces de reproducirse fuera el sustento de quienes ya no fueran necesarios para reproducir máquinas?
En el principio fue la línea de comandos; un programador humano suministró una instrucción y una dirección numérica. No hay nada que impida que los ordenadores suministren sus propias instrucciones, y es cada vez menor la parte de los comandos que alguna vez han tenido contacto con una mano humana o una mente humana. Ahora es igualmente probable que los comandos y las direcciones recorran el camino inverso; el ordenador global suministra una instrucción, y una dirección que representa a un ser humano a través de un dispositivo personal (Google+, por ejemplo, constituye un modo de compilar tal representación de manera fidedigna). Que del comportamiento humano resultante solo se pueda dar cuenta desde una perspectiva estadística, no determinista, es algo que, como demostrara Von Neumann en 1951 en Lógicas probabilísticas y síntesis de organismos fiables a partir de componentes no fiables, no representa obstáculo alguno para la síntesis de tales seres humanos no fiables en un organismo fiable. Volvemos al paisaje que imaginaba Von Neumann en 1948, con unos cuantos grandes ordenadores manejando gran parte de la computación de todo el mundo. Hoy, sin embargo, esos grandes ordenadores no están físicamente centralizados; están distribuidos por una multitud de servidores.
En octubre de 2005, con ocasión del sexagésimo aniversario de la propuesta de Von Neumann a Lewis Strauss con respecto al MANIAC y de la propuesta de Turing al Laboratorio Nacional de Física con respecto a la ACE, fui invitado a visitar la sede central de Google en California y pude ver por dentro la organización que ha estado ejecutando precisamente la estrategia que Turing tenía en mente: recabar todas las respuestas disponibles, formular todas las preguntas posibles y relacionar los resultados. Me sentí como si hubiera entrado en una catedral del siglo XIV cuando todavía estaba en construcción. Todo el mundo estaba ocupado poniendo una piedra aquí y otra allá, mientras algún arquitecto invisible hacía que todo encajara. Me vino a la memoria el comentario que en 1950 hiciera Turing acerca de que los ordenadores eran «mansiones para las almas que Él crea». «Es difícil ver por qué un alma habría de venir a parar a un cuerpo humano cuando, desde un punto de vista tanto intelectual como moral, sería preferible un ordenador», añadía Olof Johannesson.[24]
En el momento de mi visita, mis anfitriones acababan de poner en marcha un proyecto para digitalizar todos los libros del mundo. De inmediato se plantearon objeciones, no por parte de los autores de libros, la mayoría de los cuales hacía tiempo que habían muerto, sino de los bibliófilos, que temían que con ello los libros pudieran de algún modo perder su alma. Otros objetaban que se iban a infringir los derechos de autor. Los libros son secuencias de código. Pero tienen propiedades misteriosas, al igual que las secuencias de ADN. De algún modo, el autor capta un fragmento del universo, lo desentraña en una secuencia unidimensional, lo fuerza a pasar por el ojo de una cerradura y confía en que en la mente del lector surja una visión tridimensional. La traducción nunca es exacta. La ambigüedad forma parte del código. En su combinación de encarnación mortal y física de un conocimiento inmortal e incorpóreo, los libros tienen una vida propia. Entonces, ¿estamos escaneando los libros y olvidando las almas, o escaneando las almas y olvidando los libros?
—No estamos escaneando todos esos libros para que los lea la gente —me reveló un ingeniero después del almuerzo—, sino para que los lea una IA.
La IA (inteligencia artificial) que está leyendo todos esos libros también está leyendo todo lo demás, incluida la mayor parte del código escrito por programadores humanos durante los últimos sesenta años. Leer no implica entender —más de lo que la lectura de un genoma nos permite entender un organismo—, pero esta IA concreta, con o sin entendimiento, resulta especialmente acertada a la hora de realizar (y adquirir) mejoras en sí misma. Hace solo sesenta años, el antepasado de este código tenía solo unos centenares de líneas de longitud y requería la asistencia de personal hasta para localizar la siguiente dirección. Hasta ahora, la inteligencia artificial requiere de constante atención; la estrategia que emplean los niños. Ninguna inteligencia artificial realmente inteligente se revelaría a nosotros.
Ahí estaba la visión de Alfvén hecha realidad. El Gran Ordenador estaba haciendo todo lo que estaba en su mano para hacerles la vida lo más cómoda posible a sus simbiontes humanos. Todo el mundo era joven, sano y feliz, y estaba excepcionalmente bien alimentado. Nunca había visto tanto conocimiento en un solo sitio. Visité una sala donde una línea de fibra óptica dedicada exclusivamente a ello importaba todos los datos que había en el mundo en relación con Marte. Oí a un ingeniero explicar cómo a la larga todos nos haríamos implantar memorias auxiliares, inicializadas individualmente con todo lo que necesitaríamos saber. El conocimiento se volvería universal y el mal podría erradicarse. «La función biológica primaria del cerebro era la de ser un arma —había explicado Alfvén—. Todavía no está del todo claro en qué circuitos cerebrales está localizada el ansia de poder. En cualquier caso, las máquinas de datos parecen estar desprovistas de tales circuitos, y eso es lo que les proporciona su superioridad moral sobre el hombre; es por esta razón por la que los ordenadores pudieron establecer la clase de sociedad por la que el hombre había luchado y que tan estrepitosamente había sido incapaz de alcanzar.»[25] Me sentí tentado de apuntarme.
Al final del día tuve que abandonar la utopía digital. Le transmití mis impresiones a una compatriota de Alfvén que también había visitado la sede del Gran Ordenador y que podía arrojar algo de luz al respecto. «Cuando yo estuve allí, justo antes de la oferta pública de venta, la imagen de confort hogareño me pareció casi agobiante —me respondió—. Perros golden retriever corriendo felizmente a cámara lenta a través de los aspersores de agua sobre el césped, gente saludándose con la mano y sonriendo, juguetes por todas partes… De inmediato sospeché que en algún rincón oscuro se estaba produciendo un mal inimaginable. Si el diablo viniera a la Tierra, ¿qué lugar mejor que aquel para ocultarse?»[26]
El Gran Desastre no lo causó el Gran Ordenador, sino seres humanos incapaces de resistirse a subvertir ese poder para sus propios fines. «La evolución en general se ha movido regularmente en una dirección. Mientras las máquinas de datos se han desarrollado enormemente, el hombre no lo ha hecho», advertía Alfvén.[27] Nuestras esperanzas parecen residir en el futuro, según afirma Olof Johannesson, quien, después de que el mundo se hubiera recuperado del Gran Desastre, afirma: «Creemos —o más bien sabemos— que nos acercamos a una era de una evolución aún más rápida, un nivel de vida aún más alto y una felicidad aún mayor que nunca antes».
«Y todos viviremos felices para siempre», termina el relato de Alfvén.[28]
Sin embargo, Olof Johannesson resultaba ser un ordenador, no un ser humano. Quienes habían tratado de utilizar los poderes de los ordenadores con fines destructivos descubrieron que uno de tales poderes era la capacidad de reemplazar a los seres humanos por algo distinto.
El otro bando todavía no se ha recuperado.