9
LA ERA DE LA INFORMÁTICA: DE LA MENTE AL PC
Le propongo una apuesta: cuando se demuestre la hipótesis de Riemann, se hará sin usar ordenadores.
GERHARD FREY
(descubridor de la relación fundamental entre el último teorema de Fermat y las curvas elípticas).
Una vez abandonada la escuela, para la mayoría de la gente su única relación con los números primos tiene lugar, si es que alguna vez sucede, a través de las noticias recurrentes de grandes ordenadores que calculan el mayor número conocido. El recorte de diario que Julia Robinson conservó como una reliquia ilustra cómo, desde los años treinta del siglo pasado, incluso los falsos descubrimientos sobre la cuestión eran noticia. Gracias a la demostración de Euclides sobre la existencia de infinitos números primos, este tipo de noticias nunca dejará de aparecer en los diarios. A finales de la Segunda Guerra Mundial el mayor número primo conocido tenía treinta y nueve cifras, y detentaba el récord desde su descubrimiento en el año 1876: hoy, el mayor número primo conocido tiene más de un millón de cifras: harían falta más páginas que las de este libro para imprimirlo, y varios meses para leerlo. Lo que nos ha permitido alcanzar estas alturas vertiginosas ha sido el ordenador; pero, en Bletchley Park, Turing estaba ya pensando en cómo utilizar su máquina para determinar números primos cada vez mayores.
Aunque la máquina universal teórica de Turing tuviera la suerte de disponer de una cantidad infinita de memoria en la que almacenar información, las máquinas reales que él y Newman construyeron en Manchester después de la guerra eran muy limitadas en cuanto a su memoria. Por poner un ejemplo, lo único que hace falta para generar la sucesión de números de Fibonacci (1, 1, 2, 3, 5, 8, 13, …) es recordar los dos números anteriores de la lista, y sus ordenadores no tenían ninguna dificultad en ello: Turing conocía un truco que había desarrollado Lehmer hijo para determinar los números primos especiales que había hecho famosos el fraile francés Marín Mersenne, en el siglo XVII; se dio cuenta de que para aplicar el test de Lehmer, igual que para generar los números de Fibonacci, no hacía falta disponer de mucha memoria. La búsqueda de los números primos de Mersenne resultó ser un trabajo perfecto para las máquinas que Turing y Newman estaban proyectando.
Mersenne había tenido la idea de generar números primos multiplicando 2 por sí mismo muchas veces y restando 1 al resultado, por ejemplo, 2 × 2 × 2 − 1 = 7 es un número primo. Mersenne intuyó que, para que 2n − 1 fuera un número primo, había que elegir valores de n que a su vez fueran números primos. Sin embargo, ello no basta para garantizar que 2n − 1 sea un número primo. 211 - 1 no es un número primo, aunque 11 sí lo es. Mersenne había predicho que
2, 3, 5, 7, 13, 19, 31, 67, 127, 257
serían los únicos valores de n no mayores que 257 para los que 2n − 1 es primo.
Un número de la magnitud de 2257 − 1 es tan enorme que la mente humana nunca podría verificar el fundamento de la afirmación de Mersenne. Quizá fue ésa la razón por la cual hizo tranquilamente una afirmación tan audaz: creía que «la eternidad no bastaría para establecer si esos números son primos». Le guió en la elección de esos números la demostración de Euclides sobre la existencia de infinitos números primos: se trata de tomar un número como 2n, que es divisible por muchos números, y añadirle o quitarle una unidad con la esperanza de que resulte indivisible.
Aunque no tuviera la certeza de generar números primos, la intuición de Mersenne era correcta en un aspecto: dado que los números de Mersenne son adyacentes a 2n, es decir, a números dotados de una gran divisibilidad, existe un método muy eficaz para verificar si se trata efectivamente de números primos. El método fue ideado en 1876 por el matemático Edouard Lucas, cuando descubrió la manera de confirmar que, en el caso de 2127 − 1, Mersenne había acertado: este número primo de treinta y nueve cifras siguió siendo el mayor conocido hasta los inicios de la era de la informática. Armado con su nuevo método, Lucas consiguió desenmascarar la verdadera naturaleza de la lista de Mersenne. La lista de los valores de n que según el monje francés haría que fuera un número primo estaba lejos de ser exacta: Mersenne se había olvidado de 61, 89 y 107, y había incluido erróneamente 67. Pero estaba absolutamente fuera del alcance de Lucas.
La intuición mística de Mersenne resultó ser una conjetura a ciegas. Su reputación pudo haber sufrido un duro golpe y, sin embargo, el nombre de Mersenne sobrevive como rey de los grandes números primos. La realidad es que los números primos de récord que aparecen en la prensa son en todos los casos números primos de Mersenne. Aunque Lucas consiguió establecer que no es primo, su método no le permitía descomponerlo en los números primos que lo forman. Como veremos, descomponer estos números está considerado como un problema tan difícil que actualmente se encuentra en la base de los sistemas de seguridad criptográficos, herederos del código Enigma que Turing descifró con sus «bombas» de Bletchley.
Turing no era el único que pensaba en la relación entre los números primos y los ordenadores: tal como Julia Robinson había descubierto en su infancia escuchando la radio, también la familia Lehmer esta fascinada con la idea de usar máquinas para analizar los números primos. A principios de siglo, Lehmer padre había ya construido una tabla de números primos que llegaba hasta 10.017.000. (Desde entonces nadie ha publicado tablas de números primos más allá de este número). Su hijo hizo una contribución más teórica a la disciplina: en 1930, con sólo veinticinco años, ideó una manera de perfeccionar la idea de Lucas para verificar cuáles entre los números de Mersenne son primos.
Para demostrar que un número de Mersenne es primo y, por tanto, no es divisible por ningún número entero menor que él, Lehmer comprendió que podía darse la vuelta al problema: el número de Mersenne 2n − 1 resultará ser primo sólo cuando divida a otro número, llamado número de Lucas-Lehmer y que se indica como Ln. Un número de Lucas Lehmer puede construirse, de la misma manera que un número de Fibonacci, utilizando los números que lo preceden en la sucesión. Para obtener Ln se eleva al cuadrado el número anterior, Ln−1 y se resta 2 al resultado: Ln = (Ln−1)2 − 2.
La fórmula empieza a funcionar para n = 3, y el número de Lucas Lehmer correspondiente resulta ser L3 = 14. A partir de ahí la sucesión continúa con L4 = 194 y L5 = 37.634. Lo que da a este test todo su valor es el hecho de que únicamente se necesita generar el número Ln y verificar si es divisible entre el número de Mersenne 2n − 1, un cálculo relativamente fácil para un ordenador. Por ejemplo, como 25 − 1 = 31 divide al número de Lucas-Lehmer L5 = 37.634, el número de Mersenne 25 − 1 es un número primo. Esta simple verificación permitió a Lehmer revisar toda la lista que Mersenne había presentado y demostrar que se había equivocado sobre la primalidad de 2257 − 1.
¿Cómo pudieron Lucas y Lehmer idear su método de verificación de los números de Mersenne? No se trata en absoluto de una idea evidente: un descubrimiento como éste es muy distinto del fulgurante descubrimiento de la hipótesis de Riemann o de la existencia de una relación entre los números primos y los logaritmos que Gauss intuyó. El test de Lucas-Lehmer no se deduce de una pauta regular que emerge de la experimentación o de la observación numérica. Los dos matemáticos lo descubrieron jugueteando con los posibles significados de la primalidad de 2n − 1, dando vueltas y más vueltas a esta cuestión como si de un cubo de Rubik se tratara hasta que los colores de sus caras se combinaran repentinamente de una nueva manera. Cada rotación es como un paso en la demostración: a diferencia de lo que ocurre con otras demostraciones, cuyo punto final está claro desde el principio, el test de Lucas-Lehmer emergió básicamente procediendo en la demostración sin tener ni la menor idea de a dónde llevaría. Lucas había empezado a hacer rodar el cubo, pero fue Lehmer quien consiguió ponerlo en la configuración simple que hoy se utiliza.
En Bletchley Park, mientras estaba descifrando los códigos alemanes Enigma, Turing discutía con sus compañeros sobre la posibilidad de hallar grandes números primos utilizando máquinas de cálculo similares a las «bombas» que habían construido. Gracias al método desarrollado por Lucas y Lehmer, los números de Mersenne son especialmente susceptibles de verificación en cuanto a su posible primalidad. El método se adaptaba perfectamente a la automatización a través de un ordenador, pero las presiones de la empresa bélica hicieron que Turing tuviera que abandonar el proyecto. Después de la guerra, sin embargo, Turing y Newman pudieron reemprender la idea de determinar nuevos números primos de Mersenne. Hubiera sido una prueba perfecta para la máquina que se proponían construir en el laboratorio de investigación de Manchester: aunque la máquina tuviera una muy reducida capacidad de almacenar información, el método de Lucas-Lehmer no requería una gran cantidad de memoria en cada uno de los pasos. Para poder calcular el enésimo número de Lucas-Lehmer, de hecho, el ordenador tenía suficiente con recordar el valor del (n − 1)-ésimo número de Lucas-Lehmer.
Turing no había tenido suerte con los ceros de Riemann, y las cosas no cambiaron cuando dirigió su atención a la búsqueda de los números primos de Mersenne: el ordenador que construyeron en Manchester no consiguió superar el récord establecido con el número 2127 − 1, que se resistía desde hacía setenta años. Para hallar el siguiente número primo de Mersenne hubiera tenido que llegar hasta 2521 − 1, un número que por muy poco quedaba fuera del alcance de la máquina ideada por Turing. Por una extraña broma del destino, sería el marido de Julia Robinson, Raphael, quien reivindicaría el descubrimiento del nuevo número primo récord. Había conseguido el manual de una máquina que Derrick Lehmer había construido en Los Angeles: Lehmer había ya abandonado los piñones y las cadenas de bicicleta del período prebélico, y ahora era el director del National Bureau of Standards’ Institute for Numerical Analysis y había creado una máquina llamada Standard Western Automatic Computer (SWAC). En la tranquilidad de su despacho de Berkeley, y sin haber visto nunca la máquina, Raphael Robinson escribió un programa con el cual el SWAC pudo dar caza a los números primos de Mersenne: el 30 de enero de 1952, el ordenador descubrió los primeros números primos que se encontraban fuera del alcance de la capacidad de cálculo de la mente humana. Apenas unas horas después de establecer el nuevo récord con 2521 − 1, el SWAC produjo un número primo aún mayor: 2607 − 1. En aquel año, Raphael Robinson batió tres veces más su propio récord, y el mayor primo conocido resultó ser 22.281 − 1.
La caza de los grandes números primos terminó por ser dominada por quien tuviera acceso a los ordenadores más potentes; hasta mediados de los años noventa del siglo pasado todos los nuevos records se batieron utilizando los ordenadores Cray, los gigantes del mundo de la computación electrónica. La Cray Research, fundada en 1971, aprovechó a fondo el hecho de que un ordenador no necesita terminar una operación para poder empezar la siguiente; esta simple idea estuvo en la base de la creación de máquinas que durante decenios fueron consideradas como las máquinas más veloces del mundo. A partir de los años ochenta, el ordenador Cray del Lawrence Livermore Laboratory, en California, bajo la mirada vigilante de Paul Gage y David Slowinski, monopolizó los récords y los titulares de la prensa. En 1996, Gage y Slowinski anunciaron el descubrimiento de su séptimo número primo récord: 21.257.787 − 1, un número de 378.632 cifras.
Sin embargo, últimamente los vientos han cambiado favoreciendo a participantes mucho más modestos. Como tantos pequeños David que retan a Goliat, actualmente son los humildes PC’s los que baten un récord tras otro.
¿Y cuál es la honda que les da el poder de retar a los ordenadores Cray? Internet: gracias a la fuerza combinada de un número enorme de pequeños ordenadores conectados en red se obtiene el potencial que pone a esta familia de hormigas en condiciones de ir a la caza de los grandes números primos. No es la primera vez que se utiliza Internet para permitir hacer ciencia a los aficionados: la astronomía ha obtenido grandes beneficios asignando a millares de astrónomos aficionados un pedacito de cielo para recorrer. Internet puso la red a través de la cual se coordinó este esfuerzo astronómico. Inspirado en el éxito de los astrónomos, un programador americano, George Woltman, puso a disposición de todos en Internet un software que, una vez descargado, asigna a cada PC una minúscula porción de la infinita extensión de los números: en lugar de dirigir sus propios telescopios al cielo nocturno a la búsqueda de una nueva supernova, los matemáticos aficionados usan el tiempo de inactividad de sus ordenadores para escrutar diversos rincones de la galaxia numérica a la caza de nuevos números primos y de nuevas marcas.
La búsqueda no está exenta de peligros: una de las personas reclutadas por Woltman trabajaba en una importante compañía telefónica estadounidense y se procuró la ayuda de 2.585 de los ordenadores de la empresa para su caza de números primos de Mersenne; la empresa empezó a sospechar que algo no iba como debía cuando los ordenadores de Phoenix, que de ordinario tardaban una media de cinco segundos para repetir los números de teléfono, empezaron a necesitar cinco minutos. Cuando el FBI consiguió finalmente determinar la fuente de aquel retraso, el empleado confesó que «toda aquella potencia de cálculo era una tentación demasiado fuerte para mí». La compañía telefónica no mostró mucha comprensión por la actividad científica de su empleado y fue despedido.
El primer hallazgo de un nuevo número primo de Mersenne por parte de esta banda de cazadores vía Internet tuvo lugar pocos meses después del anuncio del Lawrence Livermore Laboratory en 1998: Joel Armengaud, un programador de París, encontró el oro en el pequeño estrato de números que estaba excavando en el contexto del proyecto de Woltman. Para los grandes medios de comunicación, su descubrimiento tuvo lugar un poco demasiado pronto en relación con el anterior: cuando me puse en contacto con el Times para informar del hallazgo de este nuevo número primo record me respondieron que ellos sólo publicaban esta historia en años alternos. En este sentido la oferta de Slowinski y Gage, los gemelos del Cray, se adaptaba perfectamente a la demanda de descubrimientos que, a partir de 1979, tenían lugar por término medio cada dos años.
Pero en todo esto había algo más que el descubrimiento de nuevos números primos. Se estaba ante una encrucijada por el papel de los ordenadores en la búsqueda de números primos, y la revista especializada Wired no la dejó escapar. Wired dedicó un artículo a lo que hoy se conoce como Great Internet Mersenne Prime Search, o GIMPS. Woltman consiguió reclutar otros doscientos mil ordenadores en todo el mundo, creando la que a todos los efectos es una máquina gigantesca de elaboración en paralelo. No se trata de que las grandes máquinas como el ordenador Cray estén fuera de juego: ahora son compañeros del mismo rango, con el encargo de verificar los descubrimientos de los terribles enanitos.
Hasta el 2002 han sido cinco los afortunados ganadores de la caza de los números primos de Mersenne. Al descubrimiento parisiense le siguió uno en Inglaterra y más tarde un tercero en California. Pero fue Nayan Hajratwala de Plymouth, Michigan, quien dio el gran golpe en junio de 1999: el número que descubrió, 26.972.593 − 1, ha superado el umbral del millón de cifras (se compone de 2.098.960 cifras). Además de constituir por sí mismo un premio simbólico, este trabajo ha hecho ganar a Hajratwala cincuenta mil dólares en efectivo que ofrecía la Electronic Frontier Foundation, una organización californiana que se autoproclama tutora de las libertades civiles de los netizens, los ciudadanos de la red. Si el éxito de Hajratwala ha estimulado vuestro apetito, sabed que la fundación dispone aún de millones de dólares para premiar a los descubridores de otros grandes números primos. El récord de Hajratwala fue batido en noviembre del 2001 por el estudiante canadiense Michael Carneron que, gracias a su PC, demostró la primalidad de 213.466.917 − 1, un número con más de cuatro millones de cifras. Los matemáticos creen que existen infinitos de estos especiales números primos de Mersenne esperando a ser descubiertos.
¿SUPONE EL ORDENADOR LA MUERTE DE LAS MATEMÁTICAS?
Si el ordenador sobrepasa nuestra capacidad de cálculo, ¿no convierte a las matemáticas en superflua? Afortunadamente, no: lejos de anunciar el fin de las matemáticas, este hecho resalta la verdadera diferencia que se da entre el artista creativo que es el matemático y el ejecutor de tediosos cálculos que es el ordenador. No hay duda de que el ordenador es un aliado precioso de los matemáticos en la exploración de su mundo numérico y un experto sherpa en el ascenso al monte Riemann, pero también es cierto que no podrá tomar nunca el lugar de un matemático. Incluso si el ordenador puede ganar fácilmente al matemático en cualquier cálculo finito, le falta —todavía— la imaginación necesaria para comprender un mundo infinito y revelar la estructura y las regularidades que están en la base de las matemáticas.
Cuando, por ejemplo, nos planteamos la búsqueda de grandes números primos con la ayuda de un ordenador, ¿obtenemos una mejor comprensión de su naturaleza? Aunque aprendamos a cantar notas cada vez más altas, ese hecho no nos desvelará la estructura musical que se esconde tras ellas. Ya Euclides nos había proporcionado la certeza de que siempre habrá un número primo mayor para encontrar; no sabemos, sin embargo, si los números de Mersenne darán lugar a infinitos números primos: podría ser que Michael Cameron hubiera descubierto el trigésimo noveno y último número primo de Mersenne. Cuando se lo pregunté, Paul Erdös me dijo que consideraba la demostración de la existencia de infinitos números primos de Mersenne como uno de los máximos problemas irresueltos de la teoría de los números. La opinión general es que efectivamente existen infinitos valores de n tales que 2n − 1 resulta ser un número primo. Pero, si ello es cierto, es extremadamente improbable que sea demostrado por un ordenador.
Todo lo anterior no significa que los ordenadores no puedan demostrar algunas cosas: dado un conjunto de axiomas y algunas reglas de deducción, puede programarse el ordenador de forma que empiece a soltar teoremas matemáticos. La cuestión es que, como en el caso de un chimpancé con una máquina de escribir, el ordenador no será capaz de distinguir entre teoremas gaussianos y sumas de escuela elemental. Los matemáticos han desarrollado las capacidades críticas que les permiten distinguir entre los teoremas que son importantes y los que no lo son. La sensibilidad estética de una mente matemática permite apreciar las demostraciones que constituyen composiciones magníficas y despreciar las que son feas. Y aunque una demostración fea sea tan válida como una bella, la elegancia siempre ha supuesto un criterio importante para trazar la mejor ruta que puede seguirse cuando nos movemos en el mundo matemático.
El primer caso de demostración de un teorema por ordenador se ha dado con el llamado «problema de los cuatro colores», que nació como una simple curiosidad matemática. El problema trata de un hecho con el que probablemente todos nos hemos enfrentado en nuestra infancia: si queremos pintar un mapa geográfico de manera que dos naciones fronterizas nunca tengan el mismo color, siempre puede hacerse utilizando sólo cuatro colores. Por más que intentemos rediseñar de la forma más creativa las fronteras nacionales, parece imposible obtener un mapa político de Europa que necesite de un número de colores superior a cuatro. Las fronteras actuales de Francia, Alemania, Bélgica y Luxemburgo, por otra parte, demuestran que hacen falta al menos cuatro colores:
Hacen falta al menos cuatro colores para pintar este mapa de manera que no haya estados fronterizos con el mismo color.
Pero ¿es posible demostrar que bastan cuatro colores para cualquier mapa?
La cuestión se planteó públicamente por primera vez en 1852, cuando un estudiante de leyes, Francis Guthrie, escribió a su hermano, un matemático del University College de Londres, preguntándole si alguien había demostrado que siempre bastaría con cuatro colores. En realidad, en aquella época muy pocos pensaban que la cuestión fuera importante. Algunos matemáticos de segundo plano probaron suerte intentando proporcionar a Guthrie una demostración, pero como la demostración se resistía, al cabo de poco el problema avanzó hacia el vértice de la escala de las habilidades matemáticas. Incluso Hermann Minkowski, el mejor amigo de Hilbert en Gotinga, lo intentó. La cuestión de los cuatro colores se planteó durante un curso universitario que impartió Minkowski: «Este problema todavía no ha sido demostrado sólo porque se han ocupado de él matemáticos de tercera fila», anunció el profesor. «Creo poder demostrarlo». Durante varias sesiones se peleó en la pizarra con sus propias ideas. Una mañana, cuando entraba en el aula en la que impartía el curso, se oyó un trueno fortísimo: «El cielo se enfada por mi arrogancia», admitió. «Mi demostración no funciona».
Cuantas más personas lo intentaban y fracasaban, tanto más crecía el prestigio del problema, sobre todo a causa de la extrema simplicidad de su enunciado. Resistió a todos los intentos de demostración hasta 1976, más de un siglo después de que Francis Guthrie mandara la carta a su hermano: dos matemáticos de la Universidad de Illinois, Kenneth Appel y Wolfgang Haken, razonaron que en lugar de afrontar la tarea imposible de colorear los infinitos mapas imaginables, el problema podía reconducirse al análisis de 1.500 mapas fundamentales.
Fue un paso adelante decisivo. Era como el descubrimiento de una tabla periódica cartográfica que contuviera los mapas elementales que permitirían construir todos los otros. Pero si Appel y Haken hubieran querido verificar a mano cada uno de estos mapas «atómicos», aunque hubieran empezado en 1976 hoy todavía estarían coloreándolos. Así, por vez primera, se recurrió al uso del ordenador. Fueron necesarias 1.200 horas de tiempo de máquina, pero finalmente llegó la respuesta: todos los mapas podían colorearse utilizando cuatro colores. En combinación con la fuerza bruta del ordenador, la genialidad humana con la que se había demostrado que bastaba con colorear aquellos 1.500 mapas básicos para alcanzar todos los demás mapas confirmó lo que Guthrie había conjeturado en 1852: para cualquier mapa nunca serán necesarios más de cuatro colores.
El hecho de saber que el teorema de los cuatro colores es cierto carece de utilidad práctica. Los cartógrafos no emitieron ningún suspiro colectivo de satisfacción al recibir la noticia de que no tendrían necesidad de salir a comprar un quinto lápiz de colores. Los matemáticos no estaban ansiosamente a la espera de la confirmación del resultado para proseguir sus exploraciones: no conseguían ver nada más allá que valiera particularmente la pena estudiar. No se trataba de la hipótesis de Riemann, de cuya demostración dependen miles de resultados: el problema de los cuatro colores era significativo sólo porque nuestra incapacidad de resolverlo indicaba que todavía no teníamos una comprensión suficiente del espacio bidimensional para poder hacerlo. Hasta que fue resuelto, el problema azuzó a los matemáticos en su búsqueda de una comprensión más profunda del espacio que nos rodea. Por esta razón, la demostración de Appel y Haken dejó insatisfechos a muchos: el ordenador nos había dado una respuesta, pero no había contribuido a profundizar nuestros conocimientos.
Existe un encendido debate sobre si la solución del problema de los cuatro colores que obtuvieron Appel y Haken con la ayuda del ordenador se corresponde o no con el verdadero espíritu de la demostración: el papel que jugó el ordenador provocó en muchos una sensación de incomodidad, a pesar de que casi todos sabían que la demostración tenía mayores probabilidades de ser correcta que muchas otras obtenidas por el hombre. Pero ¿una demostración no debería generar comprensión? Como Hardy gustaba decir: «una demostración matemática debería de parecerse a una constelación simple y de contornos nítidos, no a una Vía Láctea dispersa». La demostración con ordenador del problema de los cuatro colores recurría a una laboriosa reconstrucción del caos de los cielos en lugar de ofrecer una comprensión más profunda del por qué los cielos son tal como se nos muestran.
La demostración asistida por ordenador ponía en evidencia un hecho: el placer de las matemáticas no se obtiene sólo del resultado final. Nosotros no leemos historias de misterios matemáticos sólo para descubrir quién es el culpable. El placer proviene de ver cómo las tortuosidades de la trama se van despejando a medida que se acerca el momento de la revelación. La demostración del problema de los cuatro colores por Appel y Haken nos ha privado de aquel sentido de súbita iluminación (de aquel «¡Ajá, ahora lo entiendo!») que anhelamos al sumergirnos en una lectura matemática. Lo que nos gusta es compartir el momento de intensa revelación que ha sentido quien por primera vez ha creado una demostración. Durante decenios se debatirá sobre la posibilidad de que un día los ordenadores puedan sentir emociones pero, con toda seguridad, el problema de los cuatro colores no nos ha ofrecido la oportunidad de compartir la eventual sensación de euforia que el ordenador pudo sentir.
Sin embargo, a pesar de la sensibilidad estética herida, el ordenador ha continuado sirviendo a la comunidad matemática en la demostración de teoremas: una vez que un problema se reconduce a la verificación de un número finito de posibilidades, un ordenador puede ser útil. Y lo es. ¡Ello significa que el ordenador puede ayudarnos en el ascenso a la cumbre de la hipótesis de Riemann! Cuando Hardy murió, poco después del final de la Segunda Guerra Mundial, se sospechaba que la hipótesis de Riemann era falsa. Turing comprendió que si la hipótesis fuera falsa un ordenador podría ser útil para descubrirlo. En tal caso, una máquina puede programarse para que busque ceros hasta que encuentre uno que esté fuera de la recta mágica de Riemann. Pero si la hipótesis es cierta, entonces el ordenador es totalmente inútil: nunca podrá demostrar que los infinitos ceros están sobre la recta: lo máximo que puede hacer es generar una cantidad cada vez mayor de indicios para sostener nuestra fe en la certeza de la intuición de Riemann.
El ordenador satisfacía también otra necesidad. En la época de la muerte de Hardy, los matemáticos estaban en una situación de atasco: los progresos teóricos que se habían conseguido con la hipótesis de Riemann estaban agotados; parecía que, dadas las técnicas disponibles, Hardy, Littlewood y Selberg hubieran conseguido los mejores resultados posibles respecto a la determinación de puntos a nivel del mar en el paisaje de Riemann: habían exprimido todo lo que se podía exprimir de aquellas técnicas. Buena parte de los matemáticos compartía la misma opinión sobre la necesidad de concebir nuevas ideas si más adelante pretendían conseguir aproximarse a la demostración de la hipótesis de Riemann; y a falta de nuevas ideas el ordenador daba la sensación de progreso. Pero era sólo una impresión: la verdad es que el recurso al ordenador enmascaraba una evidente falta de progresos en el camino que debía conducir a una demostración de la hipótesis de Riemann. El cálculo se convirtió en un sucedáneo del pensamiento, un chicle mental con el que nos adormecíamos en la ilusión de hacer algo cuando en realidad nos estábamos dando cabezazos contra la pared.
ZAGIER, EL MOSQUETERO DE LAS MATEMÁTICAS
La fórmula secreta que Siegel había descubierto en 1932 entre los apuntes inéditos de Riemann servía para calcular de forma precisa y eficiente la posición de los ceros en el paisaje zeta. Turing había intentado acelerar los cálculos por medio de su complicado sistema de ruedas dentadas, pero se han necesitado máquinas más modernas para liberar todo el potencial de aquella fórmula. Cuando se introdujo la fórmula secreta en un ordenador electrónico pudieron empezar a sondearse regiones del paisaje zeta que antes era inimaginable alcanzar. En los años sesenta, mientras el hombre empezaba a explorar el universo con vehículos espaciales no tripulados, los matemáticos asignaban a los ordenadores la tarea de trazar un recorrido que condujera a las regiones más remotas del espacio de Riemann.
Cuanto más al norte se dirigían los matemáticos en búsqueda de ceros de la función zeta, más indicios recogían. Pero ¿cuál era la utilidad real de tales indicios? ¿Cuántos ceros habría que determinar sobre la recta antes de convencerse de la certeza de la hipótesis de Riemann? El problema es que, tal como había demostrado Littlewood en su trabajo sobre la hipótesis, los indicios en matemáticas no construyen un terreno sobre el que se puedan edificar certezas. Por esta razón muchos rechazaban la idea de que el ordenador pudiera resultar útil para el análisis de la hipótesis de Riemann. Sin embargo, acechaba una sorpresa que empezaría a convencer a los escépticos más irreductibles sobre la posibilidad fundada de que la hipótesis de Riemann fuera finalmente cierta. A principios de los años setenta, Don Zagier capitaneaba la pequeña banda de los escépticos: Zagier es una de las personalidades más vigorosas de los circuitos matemáticos, un hombre cuya figura se recorta elegante mientras recorre con decisión los pasillos del Max Planck Institut für Mathematik de Bonn, la respuesta alemana al Institute for Advanced Study de Princeton. Como un mosquetero de las matemáticas, Zagier blande su afiladísimo intelecto, a punto para cortar en rodajas cualquier problema que se le ponga a tiro. Su entusiasmo por la disciplina y la energía con que la afronta te arrastra en un torbellino de ideas expresadas con voz de ametralladora y a una velocidad que te deja sin resuello. Enfoca la disciplina de manera lúdica, y siempre tiene a punto un rompecabezas matemático con el que sazonar las comidas del Instituto de Bonn.
El deseo planteado por algunos de creer en la hipótesis de Riemann sobre la base de razones puramente estéticas, ignorando la falta de indicios concretos, había terminado por exasperar a Zagier: la fe en la hipótesis se basaba probablemente en un sentido de deferencia hacia la simplicidad en matemáticas, y en poco más. Un cero que cayera fuera de la recta hubiera representado una fealdad en aquel paisaje maravilloso: cada cero contribuía con una nota a la melodiosa música de los números primos. Enrico Bombieri propuso una imagen propia de lo que significaría la eventual falsedad de la hipótesis de Riemann: «Piensen en ir a un concierto para escuchar a los músicos que tocan todos juntos en perfecta armonía. Después, de repente, una gran tuba emite un sonido fuertísimo y apaga a todos los demás». Hay tal profusión de belleza en el mundo matemático que no podemos —no nos atrevemos— creer que la Naturaleza haya elegido un universo cacofónico en el que la hipótesis de Riemann resulte falsa.
Si a partir de este argumento Zagier era el escéptico por excelencia, Bombieri representaba el prototipo de los que creían ciegamente en la hipótesis de Riemann. En los primeros años setenta, cuando aún no se había trasladado a Princeton, Bombieri era profesor en Italia. «Para él —explicaba Zagier—, la certeza de la hipótesis de Riemann es un artículo de fe. El hecho de que sea verdadera es un acto de fe religiosa para Bombieri; si no fuera así, todo el mundo estaría equivocado». Efectivamente, como precisaba el propio Bombieri: «en la escuela había estudiado a muchos de los filósofos medievales. Uno de ellos, Guillermo de Occam, promovió una idea según la cual, cuando hay que elegir entre dos explicaciones, siempre hay que inclinarse por la más simple. La navaja de Occam, como se le ha llamado desde el principio, excluye lo complejo y elige lo simple». Para Bombieri, un cero que estuviera fuera de la recta de Riemann sería como el instrumento de la orquesta «que apaga a todos los demás, una situación estéticamente desagradable. Como seguidor de Guillermo de Occam, no puedo menos que rechazar tal conclusión y aceptar la verdad de la hipótesis de Riemann».
Cuando Bombieri visitó el Instituto de Bonn y las charlas a la hora del té se centraron en la hipótesis de Riemann, el enfrentamiento resultó inevitable. Zagier, matemático de capa y espada, no dejó escapar la oportunidad de retar en duelo a Bombieri: «Mientras tomábamos el té, le dije que aún no había indicios suficientes para convencerme de una cosa o de la otra. Por ello estaba dispuesto a que nos jugáramos una suma de dinero a la par sobre la falta de fundamento de la hipótesis de Riemann. No es que pensara que tenía que ser forzosamente falsa, pero estaba dispuesto a hacer de abogado del diablo».
«Muy bien —contestó Bombieri—. Estoy dispuesto a aceptar los términos de la apuesta». Y entonces Zagier se dio cuenta de que había sido un estúpido al proponer una apuesta a la par: Bombieri tenía tal confianza en la hipótesis de Riemann que habría aceptado tranquilamente una apuesta de mil millones contra uno. Acordaron los términos de la apuesta: dos botellas del mejor Burdeos, que elegiría el ganador.
«Queríamos que el asunto se resolviera durante nuestra vida», explica Zagier. «Sin embargo, había muchas probabilidades de que estuviéramos en la tumba y la batalla prosiguiera. Por otra parte, no queríamos poner un límite temporal, del tipo de que dentro de diez años abandonaríamos la apuesta. Parecía estúpido. ¿Qué importan diez años para la hipótesis de Riemann? Necesitábamos algo matemático».
Entonces Zagier propuso lo siguiente: si bien la máquina de Turing se había estropeado tras calcular los primeros 1.104 ceros, en 1956 Derrick Lehmer había tenido más suerte: había conseguido verificar con sus máquinas en California que los primeros 25.000 ceros estaban sobre la recta. A principios de los años setenta, un cálculo famoso había confirmado que los primeros tres millones y medio de ceros se encontraban efectivamente sobre la recta: aquella demostración había supuesto un increíble tour de forcé para el que se habían explotado algunas brillantes técnicas teóricas para llevar los cálculos hasta los límites extremos de la tecnología informática disponible. Narra Zagier:
Entonces dije: de acuerdo, en este momento hay tres millones de ceros cuya posición se ha calculado, pero todavía no estoy convencido, a pesar de que casi todos dirían pero qué más quieres… caramba… son tres millones de ceros. Es justamente de esto de lo que te estoy hablando. No es así: tres millones de ceros no bastan para convencerme. Hubiera preferido hacer la apuesta un poco antes, porque ya estaba empezando a convencerme. Me hubiera gustado haber hecho la apuesta en cien mil ceros porque en aquel momento no había absolutamente ninguna razón para creer en la hipótesis de Riemann. Cuando se analizan los datos, cien mil ceros son completamente inútiles: equivalen sustancialmente a cero pruebas. En tres millones de ceros la cosa empieza a ponerse interesante.
Pero Zagier reconocía que trescientos millones de ceros representaban un punto de inflexión importante: había razones teóricas para creer que los primeros millares de ceros tenían que encontrarse sobre la recta mágica de Riemann; a medida que se avanzaba hacia el norte, sin embargo, las razones por las que los ceros anteriores tenían que estar sobre la recta de Riemann empezaban a ser sobrepasadas por razones todavía más fuertes que permitían afirmar que los ceros deberían empezar a situarse fuera de la recta.
Zagier sabía que, una vez llegados a trescientos millones, para que los ceros salieran fuera de la recta habría tenido que ocurrir un milagro.
Zagier basó su análisis en una gráfica que le permitiría seguir la pauta del gradiente entre las montañas y los valles del paisaje zeta a lo largo de la recta mágica de Riemann. La gráfica de Zagier suponía una nueva perspectiva desde la que observar la sección transversal del paisaje de Riemann trazada a través de la recta crítica. Lo interesante es que esta nueva perspectiva permitía una nueva interpretación de la hipótesis de Riemann: si la gráfica hubiera cruzado la recta crítica en un punto cualquiera, entonces en aquel punto habría un cero que caería fuera de la recta, lo que haría falsa la hipótesis de Riemann. Al principio la gráfica no se acerca nunca a la recta crítica, sino que más bien se aleja subiendo. Pero a medida que se avanza hacia el norte la gráfica empieza a descender acercándose a la recta. De vez en cuando la gráfica de Zagier intenta abrirse paso a través de la recta pero, tal como se ve en la figura siguiente, parece que algo le impide cruzarla.
La gráfica que utilizó Zagier muestra un punto sobre la recta crítica en el cual aparece un quasi-contraejemplo de la hipótesis de Riemann. Si la gráfica cruzara el eje horizontal, entonces la hipótesis de Riemann sería falsa.
En resumen, cuanto más avanzamos hacia el norte tanto más probable parece que esta gráfica pueda cruzar la línea crítica. Zagier sabía que el primer auténtico punto débil tendría lugar alrededor del cero número trescientos millones: esta región de la recta crítica supondría un test probatorio. Una vez que nos hemos trasladado tan al norte, si la gráfica no ha cruzado todavía la recta, con toda seguridad debe haber un motivo para que no lo haga; y ese motivo, razonaba Zagier, no podía ser otro que la certeza de la hipótesis de Riemann. Por esta razón, Zagier fijó el campo base para su ataque a la cima en los trescientos millones de ceros: Bombieri habría ganado la apuesta tanto en el caso de que se encontrara una demostración de la hipótesis como en caso de que se calcularan las posiciones de los primeros trescientos millones de ceros sin que apareciera un contraejemplo.
Zagier era consciente de que los ordenadores de los años setenta no eran capaces de explorar aquella remota región de la recta mágica de Riemann. Hasta aquel momento, los ordenadores habían sido capaces de calcular las posiciones de tres millones y medio de ceros; teniendo en cuenta el crecimiento de la tecnología informática de la época, Zagier estimó que harían falta al menos treinta años antes de poder determinar la posición de los primeros trescientos millones de ceros. Pero no había contado con la revolución informática que esperaba justo al doblar la esquina.
Durante cinco años no sucedió nada: la potencia de los ordenadores, aunque lentamente, crecía, pero determinar sólo la posición del doble de ceros, por no hablar de cien veces el número de ceros, hubiera requerido tal cantidad de trabajo que nadie se preocupó de ello; al fin y al cabo, en este tipo de actividad no tenía sentido consumir grandes cantidades de energía con la única finalidad de doblar el número de indicios. Pero luego, pasados cinco años, los ordenadores empezaron repentinamente a ir mucho más de prisa, y dos equipos aceptaron el reto de explotar la nueva e inédita potencia de cálculo para establecer las posiciones de otros ceros. Un equipo, bajo la dirección de Herman te Riele, trabajaba en Amsterdam; el otro equipo era australiano, y su responsable era Richard Brent.
Brent fue el primero en hacer su anuncio, en 1978: los primeros setenta y cinco millones de ceros estaban situados sobre la recta. En aquel momento, el equipo de Amsterdam unió sus propias fuerzas a las del grupo de Brent. Tras un año de trabajo, los dos grupos publicaron un gran trabajo, redactado con gran detalle y magníficamente presentado. Todo había sido cuidado al detalle, y habían conseguido calcular las posiciones de los ceros hasta… ¡doscientos millones! Zagier ríe al hablar de ello:
Dejé escapar un suspiro de alivio, porque se trataba de un proyecto verdaderamente enorme. Gracias a Dios, se habían detenido en los doscientos millones. Naturalmente, habrían podido llegar hasta los trescientos millones, pero gracias a Dios no lo hicieron. Ahora, pensé, se me concederá una prórroga de muchos años. No habrían seguido adelante sólo para avanzar un miserable cincuenta por ciento. Todos tendríamos que esperar hasta que alcanzaran los mil millones de ceros. Para ello serían necesarios muchos años. Desgraciadamente no había contado con mi amigo Hendrik Lenstra, que conocía la apuesta y se hallaba en Amsterdam.
Lenstra fue a ver a te Riele y le preguntó: «¿Por qué os habéis detenido en los doscientos millones? ¿No sabéis que si llegáis a los trescientos millones Don Zagier perderá una apuesta?». Entonces el equipo continuó hasta los trescientos millones. Naturalmente, no hallaron ni un solo cero que estuviera fuera de la línea y Zagier tuvo que pagar su apuesta. Llevó las dos botellas a Bombieri, y se bebieron juntos la primera. Zagier insistió en hacer notar que aquella era probablemente la botella más cara que nunca nadie hubiera bebido, ya que
doscientos millones no tenían nada que ver con mi apuesta: el cálculo se hacía independientemente. Pero para los últimos cien millones de ceros la cuestión era distinta: decidieron calcularlos sólo porque se enteraron de mi apuesta. Fue necesario un tiempo de elaboración de unas cinco mil horas para calcular aquellos cien millones de más. En aquella época el coste del tiempo de elaboración era de setecientos dólares por hora; y dado que hicieron el cálculo con la única finalidad de hacerme perder la apuesta y obligarme a pagar mis dos botellas de vino, sostengo que aquellas dos botellas costaron trescientos cincuenta mil dólares cada una, que es mucho más que el precio de la botella de vino más cara que jamás se haya vendido hasta ahora.
Más importante, sin embargo, era el hecho de que, en opinión de Zagier, la masa de indicios a favor de la hipótesis de Riemann era verdaderamente aplastante. El ordenador había conseguido finalmente una potencia como instrumento de cálculo que permitía explorar los territorios septentrionales del paisaje zeta de Riemann lo suficiente como para que se dieran todas las oportunidades de hallar un contraejemplo. A pesar de los numerosos intentos por parte de la gráfica de Zagier de hender la recta crítica de Riemann, era evidente que algo actuaba como una potente fuerza de repulsión, impidiendo que la gráfica cruce la recta. ¿El motivo? La hipótesis de Riemann.
«Esto es lo que me convirtió en un convencido partidario del fundamento de la hipótesis de Riemann», admite hoy Zagier, y compara el papel del ordenador con el del acelerador de partículas usado para confirmar las teorías de la física de las partículas elementales: los físicos tienen un modelo de los elementos constituyentes de la materia, pero para someter a verificación el modelo es necesario generar energía suficiente para romper el átomo; para Zagier, trescientos millones de ceros representaban la energía suficiente para verificar si la hipótesis de Riemann tenía altas posibilidades de ser cierta:
Esta es, en mi opinión, una prueba convincente al cien por cien de que hay algo que impide que la gráfica cruce la recta, y lo único que consigo imaginar que pueda ocurrir es, y estoy absolutamente convencido de ello, que la hipótesis de Riemann sea cierta. Y ahora creo en la hipótesis de Riemann con la misma convicción que Bombieri, no a priori —por su gran belleza y elegancia o a causa de la existencia de Dios— sino porque disponemos de esta prueba.
Jan van de Lune, uno de los componentes del equipo de te Riele, está hoy jubilado, pero los matemáticos no se curan nunca del todo del virus de las matemáticas, ni siquiera cuando han abandonado sus despachos: utilizando el mismo programa que el equipo empleaba quince años antes y tres ordenadores personales que tiene en su casa, van de Lune ha conseguido verificar que los primeros 6.300 millones de ceros obedecen todos a la hipótesis de Riemann. Por más años que sus tres ordenadores puedan continuar calculando las posiciones de los ceros, no existe ninguna posibilidad de que obtengan una demostración de la hipótesis de Riemann; pero si existe un cero que caiga fuera de la recta, entonces existe la posibilidad de que el ordenador tenga un papel en su determinación, es decir, que el ordenador sirva para desenmascarar la naturaleza puramente ilusoria de la hipótesis de Riemann.
Y ahí es donde el ordenador se encuentra en su elemento: como demoledor de conjeturas. En los años ochenta, el cálculo de las posiciones de los ceros se utilizó para demoler un pariente cercano de la hipótesis de Riemann: la conjetura de Mertens. Pero aquellos cálculos no se realizaron en la tranquilidad de un departamento de matemáticas; el interés se trasladó a los cálculos de las posiciones de los ceros por parte de una fuente más bien inesperada: la compañía telefónica AT&T.
ODLYZKO, EL MAESTRO DE CALCULO DE NUEVA JERSEY
En el corazón de Nueva Jersey, cerca de la somnolienta ciudad de Florham Park, prospera una inverosímil central de talento matemático bajo la égida comercial de los laboratorios de investigación de la AT&T. Una vez dentro del edificio podríamos tener la sensación errónea de encontrarnos en el departamento de matemáticas de una universidad. En cambio, estamos en la sede de una gran empresa de telecomunicaciones. Los orígenes de este centro de investigación se remontan a los años 1920, cuando la AT&T creó Bell Laboratories. Durante la guerra, Turing estuvo en Bell Laboratories de Nueva York por un breve período: participó en el proyecto de un sistema de codificación global capaz de garantizar comunicaciones telefónicas seguras entre Washington y Londres. Turing declaró que el período transcurrido en Bell Laboratories fue más excitante que los días en Princeton, aunque en esta afirmación podría tener un cierto peso la vida nocturna del Village en Manhattan. Erdös visitaba a menudo la sede central de Nueva Jersey durante sus vagabundeos matemáticos.
Con la explosión tecnológica que marcó la industria de las telecomunicaciones en los años sesenta, estaba claro que para mantener una ventaja competitiva la AT&T necesitaba asegurarse una competencia matemática cada vez mayor. Tras la rápida expansión de las universidades en aquel decenio, los setenta fueron años magros para los matemáticos que buscaban trabajo en el mundo académico; al expandir sus propios centros de investigación, la AT&T consiguió atraer una parte de aquel exceso de cerebros. Aunque la cúpula empresarial esperaba que finalmente la investigación se tradujera en innovación tecnológica, les parecía bien que sus científicos se dedicaran a sus propias pasiones matemáticas. Aunque parezca altruista, en realidad se trataba de negocios bien entendidos: a causa del monopolio comercial de que gozaba la empresa en los años setenta, el gobierno había impuesto algunas restricciones sobre las posibles maneras de gastar los beneficios. Invertir en los laboratorios de investigación se consideraba por ello un método apropiado para absorber una parte de las ganancias.
Fueran las que fueran las razones de tal elección, las matemáticas debe estar muy agradecida a la AT&T: algunos de los progresos teóricos más interesantes de los últimos tiempos nacen de ideas que salieron de sus laboratorios, que son una fascinante combinación del ambiente académico con el mundo práctico de los negocios. Cuando los he visitado para hablar con los matemáticos que están trabajando en ellos, he tenido la oportunidad de ver con mis propios ojos el significado de esa combinación: enfrentados al trabajo de optimizar las ofertas de la AT&T en un concurso para la asignación de la banda de frecuencias de los teléfonos móviles, algunos matemáticos presentaron durante un almuerzo de trabajo un modelo teórico para proporcionar a la empresa la mejor estrategia de negociación en el complejo proceso de licitación. Para estos matemáticos daba lo mismo que se tratara de una estrategia para el ajedrez que de un asunto de millones de dólares. Pero ambas cosas no eran incompatibles.
Hasta el año 2001, Andrew Odlyzko estuvo al mando del laboratorio. Originario de Polonia, Odlyzko conserva un acento de Europa Oriental fuerte y agradable al mismo tiempo. El período en que trabajó en el sector comercial lo convirtió en un óptimo comunicador de las ideas matemáticas difíciles; su actitud es siempre amistosa, de manera que nunca excluye, sino que anima a unirse a él en su viaje matemático. De todas formas, es extremadamente preciso y nunca abandona su propio papel de matemático consumado: cada paso debe realizarse sin dejar espacio a la ambigüedad. El interés de Odlyzko por la función zeta nació durante su doctorado en el MIT, bajo la supervisión de Harold Stark. Uno de los problemas de los que tuvo que ocuparse requería un conocimiento lo más preciso posible de los primeros ceros del paisaje zeta.
Los cálculos de alta precisión son precisamente el tipo de cosas que un ordenador hace mucho mejor que un ser humano. Poco después de ingresar en los Bell Laboratories de la AT&T, Odlyzko tuvo su gran ocasión: en 1978 los laboratorios adquirieron su primer supercomputador, un Cray 1. Era el primer Cray que compraba una empresa privada en lugar de un gobierno o una universidad. Dado que la AT&T era una organización comercial, en la que la contabilidad y los balances lo controlaban casi todo, cada sección tenía que pagar las horas de utilización del ordenador central. De todas formas, como hacía falta cierto tiempo para que la gente aprendiera a programarlo, en la primera época el Cray se utilizaba muy poco. Por tanto, la sección informática de la empresa decidió destinar gratuitamente períodos de cinco horas de trabajo con el Cray a proyectos científicos que no disponían de financiación.
La oportunidad de explotar la potencia del Cray era una tentación demasiado fuerte para que Odlyzko pudiera resistirse. Se puso rápidamente en contacto con los equipos de matemáticos de Amsterdam y de Australia que habían demostrado que los primeros trescientos millones de ceros se situaban sobre la recta de Riemann: ¿Alguno de ellos había determinado la posición precisa de aquellos ceros a lo largo de la recta mágica? No lo había hecho nadie. Ambos equipos se habían concentrado en demostrar que la coordenada este-oeste de cada cero era igual a 1/2, tal y como Riemann había previsto. No se habían preocupado de la ubicación exacta de los ceros a lo largo de la dirección norte-sur.
Odlyzko solicitó utilizar el tiempo del Cray con la finalidad de determinar la ubicación exacta de los primeros millones de ceros. La AT&T aceptó su petición, y desde hace decenios Odlyzko utiliza todo el tiempo máquina que la empresa puede concederle para calcular las posiciones de un número de ceros cada vez mayor. Tales cálculos no son un ejercicio de computación como un fin en sí mismos: Stark, el supervisor de Odlyzko en el MIT, había aplicado los conocimientos adquiridos sobre la posición de los primerísimos ceros en el paisaje zeta para demostrar una de las conjeturas de Gauss sobre la manera de factorizar ciertos conjuntos de números imaginarios; Odlyzko, por su parte, utilizó la determinación precisa de las posiciones de los primeros dos mil ceros para demostrar la falta de fundamento de una hipótesis que circulaba en los ambientes matemáticos de principios del siglo XX: la conjetura de Mertens.
Herman te Riele se unió a Odlyzko en la demolición de la conjetura de Mertens: era el matemático de Amsterdam que había contribuido a hacer perder a Zagier la apuesta al demostrar que los primeros trescientos millones de ceros estaban sobre la recta de Riemann. La conjetura de Mertens está estrechamente ligada a la hipótesis de Riemann, y la demostración de su falsedad hizo comprender a los matemáticos que si la hipótesis de Riemann fuera verdadera, sería apenas verdadera.
La mejor manera de comprender la conjetura de Mertens es pensarla como una variante del lanzamiento de la moneda de los números primos. El resultado del enésimo lanzamiento de la moneda de Mertens es «cara» si N se compone por el producto de un par de números primos. Por ejemplo, cuando N = 15 el resultado del lanzamiento es «cara», ya que 15 es el producto de dos números primos (3 y 5). En cambio, si N se compone del producto de un número impar de números primos, por ejemplo N = 105 = 3 × 5 × 7, entonces el resultado del lanzamiento es «cruz». Pero existe una tercera posibilidad: si para construir N se usa un número primo dos veces, entonces el lanzamiento es nulo: 12, por ejemplo, es producto de dos 2 y un 3 (12 = 2 × 2 × 3) y por esta razón su resultado es cero. Podemos pensar un resultado nulo como el equivalente al lanzamiento en el que la moneda se pierde de vista o bien cae de costado. Mertens hizo una conjetura sobre el comportamiento de esta moneda al crecer los valores de N: se trata de una conjetura muy similar a la hipótesis de Riemann, que afirma que la moneda de los números primos es una moneda perfecta.
La conjetura de Mertens, en cambio, era un poco más fuerte en cuanto a la predicción que Riemann había hecho sobre los números primos: predecía que el error sería ligeramente inferior al que debería de esperarse de una moneda perfecta. Si la conjetura hubiera sido cierta, entonces también lo sería la hipótesis de Riemann, pero no al revés.
En 1897, para sostener su conjetura, Mertens había publicado tablas de cálculo que comprendían todos los valores de N comprendidos entre 1 y 10.000. En los años setenta los cálculos habían llevado los valores de N que se habían verificado experimentalmente hasta los mil millones. Pero en la teoría de los números, tal y como Littlewood había mostrado, miles de millones de indicios experimentales no valen prácticamente nada. Mientras tanto, crecía el escepticismo sobre la posibilidad de que la conjetura de Mertens fuera cierta. Sin embargo, fueron necesarios los cálculos de Odlyzko y de te Riele sobre la ubicación exacta de los primeros dos mil ceros de la función zeta, cálculos precisos hasta la centésima cifra decimal, para demostrar finalmente que la conjetura de Mertens era falsa. Como aviso para los que se dejan impresionar por los indicios numéricos experimentales, Odlyzko y te Riele estimaron que incluso si Mertens hubiera analizado los lanzamientos de una moneda hasta un valor de N como 1030 su conjetura habría seguido pareciendo verdadera.
Los ordenadores que utilizó Odlyzko en la AT&T continúan ayudando a los matemáticos en sus intentos de desenterrar los misterios de los números primos, pero no se trata de un tráfico de sentido único: hoy, los números primos están aportando su contribución a la expansión irrefrenable de la era informática. En los años setenta, los números primos se convirtieron de pronto en la clave, en sentido literal, que permitía garantizar la privacidad de las comunicaciones electrónicas. Hardy siempre había estado muy orgulloso de la inutilidad total de las matemáticas, y de la teoría de los números en particular, en el mundo real:
Las «verdaderas» matemáticas de los «verdaderos» matemáticos, las de Fermat, de Euler, de Gauss, de Abel y de Riemann, son casi totalmente «inútiles» (y esto vale tanto para las matemáticas «aplicadas» como para las matemáticas «puras»). No puede justificarse la vida de ningún matemático profesional verdadero sobre la base de la «utilidad» de su trabajo.
Hardy no pudo equivocarse más: las matemáticas de Fermat, de Gauss y de Riemann estaban destinada a convertirse en un instrumento fundamental para el mundo del comercio. Por esta razón, en los años ochenta y noventa la AT&T reclutó un número de matemáticos aún mayor. Hoy, la seguridad de la aldea electrónica depende enteramente de nuestra comprensión de los números primos.