9
Pautas en los primos
La hipótesis de Riemann

En el capítulo 2 vimos las propiedades de los números primos como individuos, y yo las comparé con el comportamiento frecuentemente errático e impredecible de los seres humanos. Los seres humanos tienen libre albedrío; pueden tomar sus propias decisiones por sus propias razones. Los primos tienen que hacer lo que les imponga la lógica de la aritmética, pero a menudo parecen tener también una voluntad propia. Su comportamiento está gobernado por extrañas coincidencias y con frecuencia carecen de cualquier estructura razonable.

De todas formas, el mundo de los primos no se rige por la anarquía. En 1835 Adolphe Quetelet sorprendió a sus contemporáneos al encontrar genuinas regularidades matemáticas en eventos sociales que dependían de decisiones humanas conscientes o de la intervención del destino: nacimientos, matrimonios, muertes, suicidios. Las pautas eran estadísticas: no se referían a individuos, sino al comportamiento promedio de un gran número de personas. Así es como los estadísticos extraen orden a partir del libre albedrío de los individuos. Casi al mismo tiempo, los matemáticos empezaron a darse cuenta de que el mismo truco funciona con los primos. Aunque cada uno de ellos es un rudo individualista, colectivamente se atienen al imperio de la ley. Existen pautas ocultas.

Las pautas estadísticas aparecen cuando pensamos en primos comprendidos dentro de grandes intervalos. Por ejemplo, ¿cuántos primos hay hasta algún límite especificado? Esta es una pregunta muy difícil de responder exactamente, pero hay excelentes aproximaciones, y cuanto mayor es el límite, mejores se hacen estas aproximaciones. A veces la diferencia entre la aproximación y la respuesta exacta puede hacerse muy pequeña, pero habitualmente eso es demasiado pedir. La mayoría de las aproximaciones en esta área son asintóticas, lo que significa que la razón de la aproximación a la respuesta exacta puede hacerse muy próxima a 1. El error absoluto en la aproximación puede alcanzar cualquier tamaño, incluso si el error porcentual se contrae hacia cero.

Si usted se está preguntando cómo es esto posible, suponga que para alguna abstrusa propiedad de los primos la secuencia aproximada de números es la constituida por las potencias de 10:

100     10.000     1.000.000     100.000.000

pero los números exactos son:

101     10.010     1.000.100     100.001.000

donde el 1 extra se mueve un lugar hacia la izquierda en cada etapa. Entonces las razones de los números correspondientes se hacen cada vez más próximas a 1, pero las diferencias son:

1     10     100     1000

que se hacen tan grandes como queramos. Este tipo de comportamiento se da si los errores —las diferencias entre la aproximación y la respuesta exacta— crecen sin límite pero aumentan más lentamente que los propios números.

La búsqueda de fórmulas asintóticas relacionadas con los primos inspiró nuevos métodos en teoría de números, basados no en los números naturales sino en el análisis complejo. El análisis es la formulación rigurosa del cálculo infinitesimal, que tiene dos aspectos claves. Uno, el cálculo diferencial, trata del ritmo al que una cantidad, llamada una función, cambia con respecto a otra cantidad. Por ejemplo, la posición de un cuerpo depende —es una función— del tiempo, y el ritmo al que dicha posición cambia a medida que pasa el tiempo es la velocidad instantánea del cuerpo. El otro aspecto, el cálculo integral, trata de calcular áreas, volúmenes y similares sumando muchísimas piezas muy pequeñas, un proceso llamado integración. Es notable que la integración resulta ser la inversa de la diferenciación. La formulación original del cálculo infinitesimal por parte de Newton y Gottfried Leibniz requería algunas maniobras con cantidades infinitamente pequeñas, lo que planteaba cuestiones sobre la validez lógica de la teoría. Con el tiempo estas cuestiones conceptuales se resolvieron definiendo la noción de límite, un valor al que una función puede aproximarse tanto como sea requerido pero que no es necesario que se alcance realmente. Cuando se presenta de esta forma más rigurosa, la disciplina se denomina análisis.

En la época de Newton y Leibniz las cantidades de interés eran números reales, y la disciplina que nació era el análisis real. Cuando los números complejos llegaron a ser ampliamente aceptados entre los matemáticos, fue natural extender el análisis a cantidades complejas. Esta disciplina es el análisis complejo. Resultó ser extraordinariamente bello y potente. En lo que respecta al análisis, las funciones complejas se comportan mucho mejor que las reales. Tienen sus peculiaridades, desde luego, pero las ventajas de trabajar con funciones complejas compensan con creces sus desventajas.

Fue una gran sorpresa cuando los matemáticos descubrieron que las propiedades aritméticas de los números naturales podían reformulares con provecho en términos de funciones complejas. Previamente, estos dos sistemas de números habían planteado preguntas muy diferentes y utilizado métodos muy diferentes. Pero ahora, el análisis complejo, un cuerpo de técnicas en extremo potentes, podía utilizarse para descubrir propiedades especiales de funciones en teoría de números; de estas podían extraerse fórmulas asintóticas y muchas otras cosas.

En 1859 un matemático alemán, Bernhard Riemann, retomó una vieja idea de Euler y la desarrolló de una forma nueva y espectacular, al definir la denominada función zeta. Una de las consecuencias era una fórmula exacta para el número de primos hasta un límite dado. Era una suma infinita, pero los analistas estaban acostumbrados a esto. No era tan solo un truco inteligente pero inútil; proporcionaba nuevas y genuinas ideas sobre los primos. Solo tenía una pega. Aunque Riemann pudo demostrar que su fórmula era exacta, sus consecuencias potenciales más importantes dependían de una simple proposición sobre la función zeta, y Riemann no pudo demostrar dicha proposición. Siglo y medio más tarde, seguimos sin poder hacerlo. Se denomina la hipótesis de Riemann, y es el Santo Grial de las matemáticas puras.

En el capítulo 2 vimos que los primos tienden a hacerse más escasos a medida que se hacen más grandes. Puesto que obtener resultados exactos sobre su distribución parecía imposible, ¿por qué no buscar en su lugar pautas estadísticas? En 1797-1798 Legendre contó cuántos primos hay hasta varios límites, utilizando tablas de primos que recientemente habían proporcionado Jurij Vega y Anton Felkel. Parece que a Vega le gustaban los cálculos largos; construyó tablas de logaritmos y en 1789 tenía el récord mundial de cálculo de π, hasta 140 cifras decimales (126 correctas). A Felkel solo le gustaba calcular primos. Su trabajo más importante es Tafel aller Einfachen Factoren der durch 2, 3, 5 nicht theilbaren Zahlen von 1 bis 10 000 000 («Tabla de todos los factores primos de números hasta diez millones, excepto los divisibles por 2, 3 o 5») de 1776. Hay maneras fáciles de comprobar factores 2, 3 y 5, mencionadas en el capítulo 2, y por ello ahorró mucho espacio omitiendo dichos números. Legendre descubrió una aproximación empírica para el número de primos menores que un número dado χ, que se denota por π(χ). Si usted solo ha visto π como un símbolo para el número 3,14159, le costará un poco acostumbrarse, pero no es difícil entender lo que se pretende, incluso si no se advierte que utilizan tipos de letra diferentes. El texto de Legendre de 1808 sobre teoría de números afirmaba que π(χ) parece estar muy próximo a x / (log χ - 1,08366).

En una carta de 1849 al astrónomo Johann Encke, Gauss decía que cuando tenía quince años escribió una nota en sus tablas de logaritmos donde afirmaba que el número de primos menores o iguales que χ es χ / log χ para χ grande. Como sucede con muchos de sus descubrimientos, Gauss no publicó esta aproximación, quizá porque no tenía ninguna demostración de la misma. En 1838 Dirichlet informó a Gauss de una aproximación similar que él había descubierto, que se reduce a la función integral logarítmica[61]:

La razón de Li(χ) a χ / log χ tiende a 1 cuando χ se hace grande, lo que implica que si una es asintótica a π(χ) también lo es la otra, pero la Figura 34 sugiere (correctamente) que Li(χ) es una mejor aproximación que χ / log χ. La precisión de Li(χ) es impresionante; por ejemplo:

π (1.000.000.000) = 50.847.534

Li (1.000.000.000) = 50.849.234,9

La de χ / log χ es peor: en este caso es 48.254.942,4.

La fórmula de aproximación —ya sea utilizando Li(χ) o χ / log χ— llegó a conocerse como el teorema de los números primos, donde «teorema» se utilizaba en el sentido de «conjetura». La búsqueda de una demostración de que estas fórmulas eran asintóticas a π(x) se convirtió en uno de los problemas clave abiertos en la teoría de números. Muchos matemáticos lo atacaron utilizando métodos tradicionales del área, y algunos llegaron cerca; sin embargo, siempre parecía haber alguna hipótesis engañosa que esquivaba la demostración. Se necesitaban nuevos métodos. Estos llegaron de una curiosa reformulación de dos de los antiguos teoremas de Euclides sobre los primos.

FIGURA 34. En esta escala π(χ) y Li(χ) (gris) son indistinguibles. Sin embargo, χ / log χ (negro) es visiblemente menor. Aquí χ se representa en el eje horizontal y el valor de la función en el eje vertical.

El teorema de los números primos era una respuesta al teorema de Euclides que dice que los primos no terminan nunca. Otro teorema euclidiano básico es la unicidad de la factorización en primos: todo entero positivo es un producto de números primos exactamente de una manera. En 1737 Euler se dio cuenta de que el primer teorema puede reenunciarse como una fórmula muy sorprendente en el análisis real, y el segundo enunciado se convierte en una simple consecuencia de dicha fórmula. Empezaré presentando la fórmula, y luego trataré de darle sentido. Es esta:

Aquí p recorre todos los primos y s es constante. Euler estaba interesado sobre todo en el caso en que s es un número natural, pero su fórmula funciona también para números reales con tal de que s sea mayor que 1. Esta condición es necesaria para hacer que la serie del segundo miembro converja: que tenga un valor significativo cuando se prolonga indefinidamente.

Esta es una fórmula extraordinaria. En el primer miembro multiplicamos infinitas expresiones que solo dependen de los primos. En el segundo miembro sumamos infinitas expresiones que dependen de todos los números enteros positivos. La fórmula expresa, en lenguaje analítico, cierta relación entre números naturales y números primos. La relación más importante de este tipo es la unicidad de la factorización en primos, y esta es la que justifica la fórmula.

Voy a esbozar el paso principal para mostrar que hay una idea razonable detrás de todo esto. Utilizando el álgebra de la escuela podemos desarrollar en serie la expresión en p, de forma parecida al segundo miembro de la fórmula pero incluyendo solo potencias de p. En concreto:

Cuando multiplicamos todas estas series, sobre todos los primos p, y «desarrollamos» para obtener una suma de términos simples, obtenemos toda combinación de potencias primas; es decir, todo número natural. Cada uno aparece como el recíproco (1 dividido por) de su s-ésima potencia, y cada uno aparece exactamente una vez por la unicidad de la factorización en primos. Así obtenemos la serie de la derecha.

Nadie ha encontrado nunca una fórmula algebraica sencilla para esta serie, aunque hay muchas que utilizan integrales. Por eso le damos un símbolo especial, la letra griega zeta (ζ), y definimos una nueva función:

Euler no utilizó realmente el símbolo ζ, y solo consideró valores enteros positivos de s, pero yo llamaré a la serie anterior la función zeta de Euler. Utilizando su fórmula, Euler dedujo que existen infinitos primos permitiendo que s estuviera muy próximo a 1. Si hay un número finito de primos, el primer miembro de la fórmula tiene un valor finito, pero el segundo miembro se hace infinito. Esto es una contradicción, de modo que debe haber infinitos primos. El objetivo principal de Euler era obtener fórmulas como ζ(2) = π2/ 6, que da la suma de la serie para enteros pares s. Él no llevó esta idea revolucionaria mucho más lejos.

Otros matemáticos detectaron lo que Euler había pasado por alto y consideraron valores de s que no son enteros. En dos artículos de 1848 y 1850, el matemático ruso Pafnuty Chebyshev tuvo una idea brillante: tratar de demostrar el teorema de los números primos utilizando el análisis[62]. Partió del vínculo entre los números primos y el análisis que proporcionaba la función zeta de Euler. No tuvo mucho éxito, porque supuso que s era real y las técnicas analíticas disponibles en el análisis real eran demasiado limitadas. Pero consiguió demostrar que cuando χ es grande, la razón de π(χ) a χ/log χ está comprendida entre dos constantes: una ligeramente mayor que 1 y otra ligeramente menor. Tuvo una auténtica recompensa, incluso con su resultado más débil, porque le permitió demostrar el teorema de Bertrand, conjeturado en 1845: si se toma un entero y se duplica, existe un primo entre los dos.

El escenario estaba ahora preparado para Riemann. Él también reconoció que la función zeta tiene la clave para el misterio del teorema de los números primos, pero para hacer esta aproximación tenía que proponer una ambiciosa ampliación: definir la función zeta no solo para variable real, sino también para una variable compleja. La serie de Euler es un buen lugar donde empezar. Converge para todo s real mayor que 1, y si se utiliza exactamente la misma fórmula para s complejo, entonces la serie converge siempre que la parte real de s sea mayor que 1. Sin embargo, Riemann descubrió que podía hacer algo mucho mejor. Utilizando un procedimiento llamado prolongación analítica extendió la definición de ζ(s) a todos los números complejos distintos de 1. Dicho valor de s está excluido porque la función zeta se hace infinita cuando s = 1.[63]

En 1859 Riemann reunió sus ideas sobre la función zeta en un artículo cuyo título se traduce como «Sobre el número de primos menores que una cantidad dada[64]». En él daba una fórmula explícita y exacta para π(x[65]). Yo voy a describir una fórmula más simple, equivalente a la de Riemann, para mostrar cómo aparecen los ceros de la función zeta. La idea es contar cuántos primos y potencias de primos hay hasta cualquier límite escogido. Sin embargo, en lugar de contar cada uno de ellos una vez, que es lo que hace π(x) en el caso de los primos, a los primos más grandes se les da un peso extra. De hecho, cualquier potencia de un primo se cuenta de acuerdo con el logaritmo de dicho primo. Por ejemplo, hasta un límite de 12 las potencias de primos son:

2, 3, 4 = 22, 5, 7, 8 = 23, 9 = 32, 11

de modo que la cuenta ponderada es

log 2 + log 3 + log 2 + log 5 + log 7 + log 2 + log 3 + log 11

que es aproximadamente 10,23.

Utilizando análisis, la información sobre esta forma más sofisticada de contar primos puede convertirse en información sobre la forma habitual. Sin embargo, esta forma lleva a fórmulas más sencillas, un pequeño precio que hay que pagar por la utilización del logaritmo. En estos términos, la fórmula exacta de Riemann afirma que esta cuenta ponderada hasta un límite χ es igual a:

donde ∑ indica una suma sobre todos los números ρ para los que ζ(ρ) es cero, excluidos los enteros pares negativos. Los primeros se denominan ceros no triviales de la función zeta. Los ceros triviales son los enteros pares negativos -2, -4, -6… La función zeta es cero en estos valores debido a la fórmula utilizada en la definición de la prolongación analítica, pero estos ceros no son importantes para la fórmula de Riemann, ni para muchas otras cosas.

Por si la fórmula asusta un poco, déjeme señalar el punto principal: una manera sofisticada de contar primos hasta un límite χ, que puede convertirse en la manera habitual con unos pocos trucos analíticos, es exactamente igual a una suma extendida a todos los ceros no triviales de la función zeta de la simple expresión /ρ más una función sencilla de x. Si usted es un analista complejo, vera inmediatamente que el teorema del número primo es equivalente a demostrar que la cuenta ponderada hasta el límite χ es asintótica a χ. Utilizando análisis complejo, esto será cierto si todos los ceros no triviales de la función zeta tienen partes reales entre 0 y 1. Chebyshev no pudo demostrarlo, pero llegó bastante cerca para obtener información útil.

¿Por qué son tan importantes los ceros de la función zeta? Un teorema básico en el análisis complejo establece que, sujeta a ciertas condiciones técnicas, una función de una variable compleja está completamente determinada por los valores de la variable para los que dicha función es cero o infinito, junto con alguna otra información sobre su comportamiento en dichos puntos. Estos lugares especiales son conocidos como los ceros y los polos de la función. Este teorema no funciona en el análisis real; esta es una de las muchas razones por las que el análisis complejo se convirtió en el escenario preferido, pese a requerir la raíz cuadrada de menos uno. La función zeta tiene un polo, en s = 1, de modo que todo lo relativo a ella está determinado por sus ceros siempre que tengamos en mente este único polo.

Por conveniencia, Riemann trabajó sobre todo con una función relacionada, la función xi ξ(x), que está íntimamente relacionada con la función zeta y surge del método de prolongación analítica. Él comentó que

es muy probable que todos [los ceros de la función xi] sean reales. Pero a uno le gustaría tener una demostración rigurosa de ello; sin embargo, después de algunos intentos fugaces y fútiles, yo he dejado de lado provisionalmente la investigación de la misma, pues parece innecesaria para el próximo objetivo de mi investigación.

Esta afirmación sobre la función xi es equivalente a otra sobre la función zeta relacionada. A saber: todos los ceros no triviales de la función zeta son números complejos de la forma ½ + it, es decir, se encuentran en la recta crítica «parte real igual ½» (véase Figura 35). Esta versión de su comentario es la famosa hipótesis de Riemann.

El comentario de Riemann es más bien informal, como si la hipótesis de Riemann no fuera sumamente importante. No lo era para su programa de demostrar el teorema de los números primos. Pero para muchas otras preguntas, su importancia era crucial. De hecho, la hipótesis de Riemann es por lo general considerada como la más importante pregunta no respondida en matemáticas.

Para entender por qué, debemos seguir un poco más lejos el pensamiento de Riemann. Él tenía la vista puesta en el teorema de los números primos. Su fórmula exacta sugería un modo de conseguirlo: entender los ceros de la función zeta, o lo que es equivalente, de la función xi. No se necesita la hipótesis de Riemann plena; solo hay que demostrar que todos los ceros no triviales de la función zeta tienen partes reales entre 0 y 1. Es decir, se encuentran a menos de una distancia ½ de la recta crítica de Riemann, en la denominada banda crítica. Esta propiedad de los ceros implica que la suma sobre todos los ceros de la función zeta, en la fórmula exacta anterior, es una constante finita. Asintóticamente, para χ grande, podría también no existir. Entre los términos de la fórmula, el único que sigue siendo importante cuando χ se hace muy grande es χ. Todas las cosas complicadas desaparecen asintóticamente en comparación con χ. Por consiguiente, la cuenta ponderada es asintótica a χ, y eso demuestra el teorema de los números primos. Así pues, irónicamente, el papel de los ceros de la función zeta es demostrar que la contribución de los ceros de la función zeta a la fórmula exacta no es importante.

FIGURA 35. Ceros, recta crítica y banda crítica de la función zeta.

Riemann nunca llevó este programa hasta una conclusión. De hecho, ya no volvió a escribir sobre el tema. Pero otros dos matemáticos asumieron el reto y demostraron que la corazonada de Riemann era correcta. En 1896 Jacques Hadamard e, independientemente, Charles Jean de la Vallée Poussin dedujeron el teorema de los números primos al demostrar que todos los ceros no triviales de la función zeta se encuentran en la banda crítica. Sus demostraciones eran muy complicadas y técnicas; en cualquier caso, funcionaban. Nació una nueva y potente área de las matemáticas: la teoría de números analítica. Tenía aplicaciones en toda la teoría de números al resolver viejos problemas y revelar nuevas pautas. Otros matemáticos encontraron demostraciones analíticas más sencillas del teorema de los números primos, y Atle Selberg y Paul Erdős descubrieron una demostración muy complicada que no requería en absoluto el análisis complejo. Pero para entonces la idea de Riemann había sido utilizada para demostrar muchos teoremas importantes, incluidas aproximaciones a muchas funciones de teoría de números. Así, su nueva demostración añadía una irónica nota a pie de página, pero por lo demás tuvo poco efecto. En 1980 Donald Newman encontró una demostración mucho más simple, que utilizaba solamente uno de los resultados más básicos del análisis complejo, conocido como teorema de Cauchy.

Aunque Riemann declaró que su hipótesis era innecesaria para sus objetivos inmediatos, resultó ser vital para muchas otras preguntas en teoría de números. Antes de discutir la hipótesis de Riemann, vale la pena echar una mirada a algunos de los teoremas que se seguirían si pudiera demostrarse que la hipótesis es cierta.

Una de las implicaciones más importantes es el tamaño del error en el teorema de los números primos. El teorema afirma que para χ grande, la razón de π(χ) a Li (χ) se hace cada vez más próxima a 1. Es decir, el tamaño de la diferencia entre estas dos funciones se contrae a cero, con relación al tamaño de x. Sin embargo, la diferencia real puede hacerse (y se hace) cada vez mayor. Sencillamente lo hace a un ritmo más lento que la propia χ[66]. Experimentos por ordenador sugieren que el tamaño del error es casi proporcional a √χlogχ. Si la hipótesis de Riemann es cierta, esta afirmación puede demostrarse. En 1901 Helge von Koch demostró que la hipótesis de Riemann es lógicamente equivalente a la estimación:

para todo x ≥ 2657. Aquí las barras verticales | | indican el valor absoluto: la diferencia multiplicada por ±1 para hacerla positiva. Esta fórmula proporciona la mejor cota posible a la diferencia entre π(x) y Li(x).

La hipótesis de Riemann implica muchas estimaciones para otras funciones en teoría de números. Por ejemplo, es equivalente a que la suma de los divisores de n es menor que

eγ n log log n

para todo n ≥ 5040, donde γ = 0,57721… es la constante de Euler[67]. Estos hechos pueden parecer simples curiosidades, pero buenas estimaciones para funciones importantes son vitales para muchas aplicaciones, y muchos teóricos de números darían su brazo derecho por demostrar cualquiera de ellas.

La hipótesis de Riemann nos dice también cuán grandes pueden ser los intervalos entre números primos consecutivos. Podemos deducir el tamaño típico de este intervalo a partir del teorema de los números primos: en promedio, el intervalo entre un primo p y el siguiente es comparable a log p. Algunos espaciados son menores, otros son mayores, y la vida de los matemáticos sería más fácil si conocieran qué tamaño podrían llegar a tener los espaciados más grandes. Harald Cramér demostró en 1936 que si la hipótesis de Riemann es cierta, el espaciado en el primo p no es mayor que una constante multiplicada por √ p log p.

La verdadera importancia de la hipótesis de Riemann es mucho más profunda. Hay generalizaciones de gran alcance, y un fuerte presentimiento de que quien pueda demostrar la hipótesis de Riemann, probablemente podrá demostrar la correspondiente hipótesis de Riemann generalizada. Lo que a su vez daría a los matemáticos mucho control sobre áreas muy amplias de la teoría de números.

La hipótesis de Riemann generalizada surge de una descripción más fina de los números primos. Todos los primos distintos de 2 son impares, y vimos en el capítulo 2 que los impares pueden clasificarse en dos tipos: los que superan en 1 a un múltiplo de 4, y los que superan en 3 a un múltiplo de 4. Se dice que son de la forma 4k + 1 o 4k + 3, donde k es lo que se multiplica por 4 para obtenerlos. He aquí una corta lista de los primeros primos de cada tipo, junto con los correspondientes múltiplos de 4:

El punto indica que el número concernido no es primo.

¿Cuántos primos de cada tipo hay? ¿Cómo están distribuidos entre los primos, o entre todos los enteros? La demostración de Euclides de que hay infinitos primos puede modificarse sin mucho esfuerzo para demostrar que existen infinitos primos de la forma 4k + 3. Es mucho más difícil demostrar que hay infinitos primos de la forma 4k + 1; puede hacerse, pero solamente utilizando algunos teoremas nada sencillos. La diferencia se debe a que cualquier número de la forma 4k + 3 tiene algún factor de dicha forma; lo mismo no es siempre cierto para los números 4k + 1.

No hay aquí nada sagrado sobre los números. Aparte de 2 y 3, todos los primos son o bien de la forma 6k + 1 o de la forma 6k + 5, y podemos plantear preguntas similares. Para lo que importa, todos los primos excepto 5 toman una de las formas 5k +1, 5k + 2, 5k + 3, 5k + 4. Dejamos fuera 5k porque estos son múltiplos de 5, de modo que ninguno de ellos salvo 5 es primo.

No es difícil dar con una conjetura razonable para todas las cuestiones de este tipo —primos en una secuencia aritmética—. El caso 5k es típico. El experimento sugiere rápidamente que los cuatro tipos enumerados tienen la misma probabilidad de ser primos. He aquí una tabla similar:

De modo que debería haber infinitos primos de cada tipo individual, y en promedio alrededor de una cuarta parte de los primos, hasta algún límite dado, debería ser de cualquier forma específica.

Demostraciones sencillas muestran que algunas formas llevan a infinitos primos, demostraciones más complicadas funcionan para otras formas, pero hasta mediados del siglo XIX nadie pudo demostrar que hay infinitos primos de cada forma posible, y mucho menos que las proporciones son aproximadamente iguales. Lagrange lo supuso sin demostración en su trabajo sobre la ley de reciprocidad cuadrática —una profunda propiedad de los cuadrados respecto a un módulo primo— en 1785. Evidentemente los resultados tenían consecuencias útiles, y era el momento justo para que alguien los demostrara. En 1837 Dirichlet probó cómo adaptar las ideas de Riemann sobre el teorema de los números primos para demostrar ambas proposiciones. El primer paso consistía en definir funciones análogas a la función zeta para estos tipos de primos. Las funciones resultantes se denominan L-funciones de Dirichlet. Un ejemplo, que aparece en el caso 4k + 1/4k + 3, es:

L(s,χ) = 1 - 3-s + 5-s - 7-s + 9-s

donde los coeficientes son +1 para números de la forma 4k + 1, -1 para números 4k + 3, y 0 para los demás. La letra griega χ se denomina un carácter de Dirichlet, y nos recuerda que utilicemos estos signos.

En el caso de la función zeta de Riemann lo que importa no es solo la serie sino también su prolongación analítica, que da a la función un significado para todos los números complejos. Lo mismo sucede con la L-función, y Dirichlet definió una prolongación analítica adecuada. Adaptando las ideas utilizadas para demostrar el teorema de los números primos, él fue capaz de demostrar un teorema análogo para primos de formas específicas. Por ejemplo, el número de primos de la forma 5k + 1 menores o iguales que χ es asintótico a Li(χ) / 4, y lo mismo sucede para los otros tres casos 5k + 2, 5k + 3, 5k + 4. En particular, hay infinitos primos de cada forma.

La función zeta de Riemann es un caso especial de una L-función de Dirichlet para primos de la forma 1k + 0, es decir, todos los primos. La hipótesis de Riemann generalizada es la generalización obvia de la hipótesis de Riemann original: los ceros de cualquier L-función de Dirichlet o bien tienen parte real 1/2 o bien son «ceros triviales» con parte real o bien negativa o bien mayor que 1.

Si la hipótesis de Riemann generalizada es cierta, entonces también lo es la hipótesis de Riemann. Muchas de las consecuencias de la hipótesis de Riemann generalizada son análogas a las de la hipótesis de Riemann. Por ejemplo, pueden demostrarse cotas de error similares para las versiones análogas del teorema de los números primos, aplicado a primos de cualquier forma específica. Sin embargo, la hipótesis de Riemann generalizada implica muchas cosas que son muy diferentes de cualquier cosa que podamos derivar utilizando la hipótesis de Riemann ordinaria. Así, en 1917 Godfrey Harold Hardy y John Edensor Littlewood demostraron que la hipótesis de Riemann generalizada implica una conjetura de Chebyshev, que afirma que (en un sentido preciso) los primos de la forma 4k + 3 son más abundantes que los de la forma 4k + 1. Ambos tipos son igualmente probables, a la larga, por el teorema de Dirichlet, pero eso no impide que los primos 4k + 3 superen a los primos 4k + 1 si se fija el juego correcto.

La hipótesis de Riemann generalizada también tiene importantes implicaciones para los tests de primalidad, tales como el test de Miller de 1976 mencionado en el capítulo 2. Si la hipótesis de Riemann generalizada es cierta, entonces el test de Miller proporciona un algoritmo eficiente. Las estimaciones de la eficiencia de tests más recientes también dependen de la hipótesis de Riemann generalizada. También hay aplicaciones importantes a la teoría de números algebraica. Recordemos del capítulo 7 que la reformulación de Dedekind de los números ideales de Kummer llevó a un concepto nuevo y fundamental, los ideales. Existe la factorización en primos en anillos de enteros algebraicos, pero quizá no sea única. La factorización en primos de ideales es mucho más rígida: existencia y unicidad son ambas válidas. Por ello tiene sentido reinterpretar todas las preguntas sobre factores en términos de ideales. En particular, existe una noción de un «primo ideal», un análogo razonable y tratable de un número primo.

Sabiendo esto, es natural preguntar si el vínculo de Euler entre primos ordinarios y la función zeta tiene un análogo para los primos ideales. Si es así, toda la poderosa maquinaria de la teoría de números analítica se hace disponible para los números algebraicos. El caso es que puede hacerse, con implicaciones profundas y vitales. El resultado es la función zeta de Dedekind: una función semejante para cada sistema de números algebraicos. Hay un vínculo profundo entre las propiedades analíticas complejas de la función zeta de Dedekind y la aritmética de los números primos para los enteros algebraicos correspondientes. Y, por supuesto, existe un análogo de la hipótesis de Riemann: todos los ceros no triviales de la función zeta de Dedekind se encuentran en la recta crítica. Ahora la expresión «hipótesis de Riemann generalizada» incluye también esta conjetura.

Ni siquiera esta generalización es el final de la historia de la función zeta. Ha inspirado la definición de funciones análogas en otras diversas áreas de las matemáticas, desde el álgebra abstracta a la teoría de sistemas dinámicos. En todas estas áreas existen proposiciones análogas a la hipótesis de Riemann de alcance aún mayor. De algunas de ellas se ha demostrado que son ciertas. En 1974 Pierre Deligne demostró una proposición análoga semejante para variedades sobre campos finitos. Generalizaciones conocidas como funciones zeta de Selberg satisfacen una proposición análoga a la hipótesis de Riemann. Lo mismo sucede con la función zeta de Goss. Sin embargo, existen otras generalizaciones, las funciones zeta de Epstein, para las que el análogo adecuado de la hipótesis de Riemann es falso. Aquí infinitos ceros no triviales yacen en la recta crítica, pero algunos no lo hacen, como demostró Edward Titchmarsh en 1986. Por otra parte, estas funciones zeta no tienen una fórmula de tipo producto como la de Euler, de modo que deja de parecerse a la función zeta de Riemann en lo que muy bien puede ser un aspecto crucial.

Las pruebas circunstanciales a favor de la verdad de la hipótesis de Riemann —ya sea la original o sus generalizaciones— son numerosas. Muchas cosas hermosas se seguirían de la verdad de la hipótesis. Ninguna de estas cosas ha sido refutada: hacerlo sería refutar la hipótesis de Riemann, pero no se conoce demostración ni refutación. Hay una sensación ampliamente extendida de que una demostración de la hipótesis de Riemann original también abriría el camino a una demostración de sus generalizaciones. De hecho, podría ser mejor atacar la hipótesis de Riemann generalizada en todo su esplendor, explotando la riqueza de métodos ahora disponibles, y luego deducir la hipótesis de Riemann original como un caso especial.

Hay también una enorme cantidad de pruebas experimentales a favor de la verdad de la hipótesis de Riemann, o lo que ciertamente parece una enorme cantidad hasta que alguien arroje agua fría sobre dicha afirmación. Según Carl Ludwig Siegel, Riemann calculó los primeros pocos ceros de su función zeta numéricamente pero no publicó los resultados: están localizados en:

Los ceros no triviales se dan siempre en pares ± como este. He escrito aquí 1/2 en lugar de 0,5 porque la parte real se conoce exactamente en estos casos, explotando resultados generales en análisis complejo y propiedades conocidas de la función zeta. Lo mismo sucede con los cálculos por ordenador citados más abajo. No solo muestran que los ceros están muy cerca de la recta crítica; en realidad, están sobre ella.

En 1903 Jorgen Gram demostró numéricamente que los diez primeros (pares ± de) ceros se encuentran en la recta crítica. Para 1935 Titchmarsh había aumentado el número hasta 195. En 1936 Titchmarsh y Leslie Comrie demostraron que los primeros 1041 pares de ceros están en la recta crítica; fue la última vez que alguien hizo cálculos de este tipo a mano. Alan Turing es más conocido por su trabajo en tiempo de guerra en Bletchley Park, donde ayudó a descifrar el código alemán Enigma, y por su trabajo sobre los fundamentos de la computación y de la inteligencia artificial. Pero también se interesó en la teoría de números analítica. En 1953 descubrió un método más eficiente para calcular ceros de la función zeta, y utilizó un ordenador para deducir que los primeros 1104 pares de ceros están sobre la recta crítica. Se acumularon las pruebas de que todos los ceros hasta un límite estaban sobre la recta crítica; el récord actual, obtenido por Yannick Saouter y Patrick Demichel en 2004, es diez billones (1013). Varios matemáticos y científicos de la computación han comprobado también otros rangos de ceros. Hasta la fecha, todo cero no trivial que ha sido computado se encuentra sobre la recta crítica.

Esto podría parecer concluyente, pero los matemáticos son ambivalentes sobre este tipo de evidencias, por buenas razones. Números como diez billones pueden sonar grandes, pero en teoría de números lo que suele importar es el logaritmo del número, que es proporcional al número de dígitos. El logaritmo de diez billones está por debajo de 30. De hecho, muchos problemas dependen del logaritmo del logaritmo, o incluso el logaritmo del logaritmo del logaritmo. En dichos términos, diez billones es minúsculo, de modo que la evidencia numérica hasta diez billones apenas tiene peso.

Hay también alguna evidencia analítica general, que no está sujeta a esta objeción. Hardy y Littlewood demostraron que infinitos ceros se encuentran sobre la recta crítica. Selberg demostró que una proporción no nula de ceros se hallan sobre la recta crítica. Norman Levinson demostró que esta proporción es al menos un tercio, una cifra ahora mejorada hasta al menos el 40 por 100. Todos estos resultados sugieren que si la hipótesis de Riemann es falsa, los ceros que no se encuentran sobre la recta crítica son muy grandes, y muy raros. Por desgracia, la implicación más importante es que si tales excepciones existen, hallarlas será extraordinariamente difícil.

¿Por qué molestarse? ¿No debería esta evidencia numérica satisfacer a cualquier persona razonable? Por desgracia, no. No satisface a los matemáticos, y en este caso no se trata solo de pedantería: realmente están actuando como personas razonables. En matemáticas en general, y sobre todo en teoría de números, la evidencia «experimental» aparentemente amplia suele tener mucho menos peso que el que cabría imaginar.

Una lección la proporciona la conjetura de Pólya, enunciada en 1919 por el matemático húngaro George Pólya. Él sugirió que al menos la mitad de todos los números naturales hasta cualquier valor concreto tienen un número impar de factores primos. Aquí los factores repetidos se cuentan por separado, y empezamos en 2. Por ejemplo, hasta 20 el número de factores primos se parece a la Tabla 2, donde la columna «porcentaje» da el porcentaje de números hasta este tamaño con un número impar de factores primos.

TABLA 2. Porcentajes de números, hasta un tamaño dado, que tienen un número impar de factores primos.

Todos los porcentajes en la última columna son mayores que el 50 por 100, y cálculos más extensos hacen razonable conjeturar que esto es siempre cierto. En 1919, sin disponer de ordenadores, los experimentos no pudieron encontrar números que refutaran la conjetura. Pero en 1958 Brian Haselgrove utilizó la teoría de números analítica para demostrar que la conjetura es falsa para algún número —menor que 1,845 × 10361—, para ser exactos. Una vez que los ordenadores entraron en escena, Sherman Lehman demostró que la conjetura es falsa para 906.180.359. En 1980 Minoru Tanaka demostró que el menor de tales ejemplos es 906.150.257. De modo que pese a que la conjetura es falsa, podría haberse acumulado evidencia experimental a su favor para casi todos los números hasta mil millones.

Además, es bueno saber que el número 906.150.257 es inusualmente interesante.

Por supuesto, los ordenadores actuales refutarían la conjetura en pocos segundos si se programaran de modo adecuado. Pero a veces ni siquiera los ordenadores sirven de ayuda. Un ejemplo clásico es el número de Skewes, donde aparentemente enormes cantidades de pruebas numéricas sugerían en principio que una famosa conjetura debería ser cierta, pese a que de hecho es falsa. Este número gigantesco aparecía en un problema íntimamente relacionado con la hipótesis de Riemann: la aproximación de π(x) por Li(χ). Como acabamos de ver, el teorema de los números primos afirma que la razón de estas dos cantidades tiende a 1 cuando χ se hace grande. Los cálculos numéricos parecen indicar algo más fuerte: la razón es siempre menor que 1; es decir, π(x) es menor que Li(χ). En 2008 las computaciones numéricas de Tadej Kotnik demostraron que esto es cierto siempre que χ sea menor que 1014. Para 2012 Douglas Stoll y Demichel habían mejorado esta cota hasta 1018, una cifra obtenida independientemente por Andry Kulsha. Resultados de Tomás Oliveira e Silva sugieren que puede aumentarse hasta 1020.

Esto podría sonar definitivo. Es más fuerte que los mejores resultados numéricos que tenemos a favor de la hipótesis de Riemann. Pero en 1914 Littlewood demostró que esta conjetura es falsa, y lo es de forma espectacular. Conforme χ recorre los números reales positivos, la diferencia π(x) - Li(χ) cambia de signo (de negativo a positivo o al revés) infinitamente a menudo. En particular, π(χ) es mayor que Li(χ) para algunos valores de χ suficientemente grandes. Sin embargo, la demostración de Littlewood no daba ninguna indicación del tamaño de dicho valor.

En 1933 su estudiante, el matemático surafricano Stanley Skewes, estimó cuán grande debe ser χ: no mayor que 10101034, donde indica «elevado a la potencia». Ese número es tan gigantesco que si todos sus dígitos se imprimieran en un libro —un libro bastante aburrido, consistente en un 1 seguido por una ristra interminable de 0— el universo no sería lo bastante grande para contenerlo, incluso si cada dígito fuera del tamaño de una partícula subatómica. Además, Skewes tuvo que suponer la verdad de la hipótesis de Riemann para que su demostración funcionase. Para 1955 había encontrado una manera de evitar la hipótesis de Riemann, pero a un precio: su estimación aumentó a 101010963.

Estos números son demasiado grandes incluso para el adjetivo «astronómico», pero investigación adicional los redujo a algo que podía calificarse de cosmológico. En 1966 Lehman reemplazó los números de Skewes por 101165. Te Riele lo redujo a 7 × 10370 en 1987, y en 2000 Carter Bays y Richard Hudson lo redujeron a 1,39822 × 10316. Kuok Fai Chow y Roger Plymen rasparon un poco más, y redujeron el número a 1,39801 × 10316. Esto puede parecer una mejora despreciable, pero es alrededor de 2 × 10313 veces menor. Saouter y Demichel hicieron una mejora adicional hasta 1,3971667 × 10316. Mientras, en 1941 Aurel Wintner había demostrado que una proporción pequeña pero no nula de enteros satisfacen π(x) > Li(χ). En 2011 Stoll y Demichel computaron los primeros doscientos mil millones de ceros de la función zeta, que controlan π(x) cuando χ es algo hasta 1010.000.000.000.000, y encontraron evidencia de que si χ es menor que 3,17 × 10114 entonces π(x) es menor que Li(χ[68]). De modo que para este problema particular, la evidencia hasta al menos 1018, y muy posiblemente hasta 10114 o más, es completamente engañosa. Los veleidosos dioses de la teoría de números están divirtiéndose a costa de los seres humanos.

Durante años se han hecho muchos intentos para demostrar o refutar la hipótesis de Riemann. La página web de Matthew Watkins, «Demostraciones propuestas de la hipótesis de Riemann», da una lista de unas cincuenta de ellas desde 2000[69]. Se han encontrado errores en muchos de estos intentos, y ninguna ha sido aceptada como correcta por expertos cualificados.

Uno de los esfuerzos más ampliamente publicitados en años recientes fue el de Louis de Branges en 2002. Hizo circular un extenso manuscrito en donde pretendía deducir la hipótesis de Riemann aplicando una rama del análisis que trataba con operadores en espacios de dimensión infinita, conocida como análisis funcional. Había razones para tomar en serio a De Branges. Previamente había hecho circular una demostración de la conjetura de Bieberbach sobre desarrollos en serie de funciones complejas. Aunque su demostración original tenía errores, al final quedó establecido que la idea subyacente funcionaba. Sin embargo, ahora parece haber buenas razones para pensar que el método propuesto por De Branges para demostrar la hipótesis de Riemann no tiene posibilidad de conseguirlo. Algunos obstáculos aparentemente fatales han sido señalados por Brian Conrey y Xian-Jin Li[70].

Quizá la mayor esperanza de una demostración proceda de modos nuevos o radicalmente diferentes de considerar el problema. Como hemos visto de modo reiterado, los avances importantes en grandes problemas surgen a menudo cuando alguien los vincula con alguna área de las matemáticas totalmente diferente. El último teorema de Fermat es un claro ejemplo: una vez que fue reinterpretado como una cuestión sobre curvas elípticas, el progreso fue rápido.

La táctica de De Branges parece ahora cuestionable, pero su enfoque es estratégicamente válido. Tiene sus raíces en una sugerencia verbal hecha alrededor de 1912 por David Hilbert, e independientemente por George Pólya. El físico Edmund Landau preguntó a Pólya si había una razón física por la que la hipótesis de Riemann debiera ser cierta. Pólya contó en 1982 que había dado con una respuesta: los ceros de la función zeta deberían estar relacionados con los valores propios de un denominado operador autoadjunto. Estos son números característicos asociados con tipos de transformaciones especiales. En física cuántica, donde tienen aplicaciones importantes, estos números determinan los niveles energéticos del sistema en cuestión, y un sencillo teorema estándar afirma que los valores propios de este tipo de operador son siempre reales. Como hemos visto, la hipótesis de Riemann puede reformularse como la afirmación de que todos los ceros de la función xi son reales. Si algún operador autoadjunto tuviera valores propios que fueran los mismos que los ceros de la función xi, la hipótesis de Riemann sería una fácil consecuencia. Pólya no publicó esta idea; él no pudo encontrar tal operador, y hasta que alguien pudiera hacerlo era un castillo en el aire. Pero en 1950 Selberg demostró su «fórmula de la traza», que relaciona la geometría de una superficie con los valores propios de un operador asociado. Esto hacía la idea algo más plausible.

En 1972 Hugh Montgomery estaba visitando el Instituto de Estudio Avanzado en Princeton. Había advertido algunas sorprendentes propiedades estadísticas de los ceros no triviales de la función zeta. Se las mencionó al físico Freeman Dyson, quien inmediatamente detectó una similitud con las propiedades estadísticas de matrices hermíticas aleatorias, otro tipo especial de operador utilizado para describir sistemas cuánticos tales como núcleos atómicos. En 1999 Alain Connes dio con una fórmula de la traza, similar a la de Selberg, cuya validez implicaría la verdad de la hipótesis de Riemann generalizada. Y en 1999 los físicos Michael Berry y Jon Keating sugirieron que el operador requerido podría surgir al cuantizar un concepto bien conocido de la física clásica relacionado con el momento lineal. La conjetura de Berry resultante puede verse como una versión más específica de la conjetura de Hilbert-Pólya.

Estas ideas, que relacionan la hipótesis de Riemann con áreas nucleares de la física matemática, son notables. Muestran que el progreso puede venir, tal vez, de áreas de las matemáticas aparentemente no relacionadas, y despierta esperanzas de que la hipótesis de Riemann pueda resolverse algún día. Sin embargo, aún no han llevado a ningún avance trascendental y definitivo que nos anime a pensar que la solución está a la vuelta de la esquina. La hipótesis de Riemann sigue siendo uno de los enigmas más desconcertantes e irritantes en el conjunto de las matemáticas.

Hoy hay una nueva razón para tratar de demostrar la hipótesis de Riemann: un premio sustancial.

No hay un premio Nobel en matemáticas. El premio más distinguido en matemáticas es la medalla Fields, o mejor dicho la Medalla Internacional para Descubrimientos Sobresalientes en Matemáticas. Debe su nombre al matemático canadiense John Fields, que dotó el premio en su testamento. Cada cuatro años, en el Congreso Internacional de Matemáticos, hasta cuatro de los más destacados matemáticos jóvenes (menores de cuarenta años) del mundo reciben una medalla de oro y un premio en metálico, actualmente quince mil dólares. Por lo que respecta a los matemáticos, la medalla Fields es equivalente en prestigio a un premio Nobel.

Muchos matemáticos consideran que la falta de un Nobel en su disciplina es una buena cosa. En la actualidad un premio Nobel asciende a algo más de un millón de dólares, una cantidad que fácilmente podría distorsionar los objetivos de la investigación y llevar a discusiones sobre prioridad. Sin embargo, la ausencia de un premio matemático importante también puede haber distorsionado la percepción que tiene el público del valor y la utilidad de las matemáticas. Es fácil imaginar que si nadie está dispuesto a pagar por ello, no puede ser de mucho valor.

Recientemente han nacido dos nuevas recompensas matemáticas de gran prestigio. Una es el premio Abel, concedido anualmente por la Academia Noruega de Ciencias y Letras, y así llamado en honor del gran matemático noruego Niels Henrik Abel. El otro nuevo galardón consiste en los siete premios del milenio del Instituto Clay de Matemáticas. El Instituto Clay fue fundado por Landon Clay y su esposa Lavinia. Landon Clay es un hombre de negocios norteamericano que opera con fondos de pensiones, y que tiene amor, y respeto, por las matemáticas. En 1999 creó una nueva fundación para las matemáticas en Cambridge, Massachusetts, que convoca reuniones, concede becas de investigación, organiza conferencias públicas y administra un premio de investigación anual.

En 2000 sir Michael Atiyah y John Tate, destacados matemáticos en Gran Bretaña y Estados Unidos, anunciaron que el Instituto Clay de Matemáticas había establecido un nuevo premio con el objetivo de animar a la solución de siete de los más importantes problemas abiertos en matemáticas. Serían conocidos como los problemas del milenio, y una solución adecuadamente publicada y evaluada de cualquiera de ellos valdría un millón de dólares. En conjunto, estos problemas dirigían la atención a algunas de las cuestiones centrales sin respuesta en matemáticas, cuidadosamente seleccionadas por algunos de los matemáticos de más prestigio del mundo. El premio sustancial transmite un mensaje muy claro al público: las matemáticas son valiosas. Todos los implicados son conscientes de que su valor intelectual puede ser más profundo que el mero dinero, pero un premio en metálico ayuda a concentrar la mente. El problema del milenio más conocido, y uno de los que se remonta más atrás en la historia, es la hipótesis de Riemann. Es la única cuestión que aparece tanto en la lista de Hilbert de 1900 como en la lista de problemas del milenio. Los otros seis problemas del milenio se discuten en los capítulos 10-15. Los matemáticos no están especialmente obsesionados por los premios, y trabajarían en la hipótesis de Riemann aunque no hubiera uno. Una idea nueva y prometedora sería toda la motivación que necesitaran.

Vale la pena recordar que las conjeturas, por consagradas que estén, pueden no ser ciertas. Hoy día la mayoría de los matemáticos parecen pensar que finalmente se encontrará una demostración de la hipótesis de Riemann, No obstante, algunos piensan que puede ser falsa: en algún lugar en las tierras vírgenes de los números muy grandes puede esconderse un cero que no se sitúa en la recta crítica. Si existe un «contraejemplo» semejante es probable que sea muy muy grande.

Sin embargo, las opiniones cuentan poco en las fronteras de las matemáticas. La intuición experta suele ser muy buena, pero ha habido muchas ocasiones en que resultó errónea. La sabiduría convencional puede ser convencional y sabia, sin ser verdadera. Littlewood, uno de los grandes expertos en análisis complejo, era inequívoco: en 1962 dijo que estaba seguro de que la hipótesis de Riemann era falsa, y añadía que no había ninguna razón imaginable para que fuera cierta. ¿Quién tiene razón? Solo nos queda esperar y ver.