Matemáticas vacías y matemáticas significativas

Jean Dieudonné

Lo que voy a decirles constituye esencialmente la introducción de mi libro Panorama des mathématiques purés: le choix bourbachique.[17] Hacia el tercio final de mi conferencia trataré de explicarles lo que entiendo por matemáticas bourbáquicas.

Pero antes de decirles qué son esas matemáticas, creo que quizás no resulte inútil, sobre todo para aquéllos de ustedes que no son matemáticos profesionales, tratar de explicarles cómo ven actualmente los matemáticos a la matemática. Procuraré, por un lado, mostrarles el estado actual de las matemáticas; y por otro —lo que constituirá la mayor parte de mi conferencia—, intentaré hacer ver cómo han evolucionado los problemas, pues no puede entenderse una ciencia si se ignora su evolución. No se trata de una conferencia polémica; puedo respaldar con citas y referencias todo lo que voy a decirles: no diré nada que no esté reconocido e impreso en alguna parte.

Nunca las matemáticas han gozado, cuantitativa y cualitativamente, de mejor salud que hoy en día.

Empecemos por los aspectos cuantitativos: he aquí un número de las «Mathematical Reviews», que se publican cada mes; digo bien, cada mes y no cada año. En sus comienzos, en 1940, esta revista publicaba un volumen anual de trescientas páginas; en la actualidad, trescientas páginas son las que corresponden a un volumen mensual. Y no crean que en ellas se encuentra, in extenso, toda la matemática que se produce: se trata de recensiones o de informes de trabajos matemáticos, más o menos proporcionales a su extensión (según la importancia del trabajo). Cada página de este volumen en cuarto consta, en dos columnas, de una media de cinco a diez reseñas. Por ejemplo, aquí aparece una memoria de cuarenta y una páginas cuya reseña ocupa media columna. En resumidas cuentas, puede decirse que este volumen representa entre un veinteavo y un treintavo de la longitud de las matemáticas in extenso; es decir que, cada mes, se publican en el mundo aproximadamente de dos mil a dos mil quinientas páginas de textos matemáticos. Esto por lo que se refiere al punto de vista cuantitativo.

Pero las matemáticas no se valoran por su peso en papel y hay que hacer distinciones. No hablaré de estas distinciones porque pueden ser polémicas. Digamos, en todo caso, que los matemáticos más competentes están de acuerdo en pensar que, de toda esta enorme producción cuantitativa, hay una parte que es excelente desde el punto de vista cualitativo. Creo que puede afirmarse que nunca se han encontrado tantos resultados nuevos e importantes como en la actualidad; y que, sin exagerar, se han producido más matemáticas fundamentales a partir de 1940 que las producidas desde Tales hasta dicha fecha. Ello puede demostrarse haciendo una lista de las cuestiones que habían permanecido abiertas durante décadas, incluso siglos, y que se han resuelto desde 1940. Así pues, desde todos los puntos de vista, puede decirse que las matemáticas conocen actualmente una prosperidad extraordinaria.

1. Lógica y matemáticas

De manera perfectamente natural y excusable, los filósofos y los lógicos tienden a creer que los matemáticos se interesan mucho por su trabajo. Desengáñense, no es verdad: al 95% de los matemáticos les importa un bledo lo que puedan hacer todos los lógicos y todos los filósofos. Por supuesto, existe una parte de la lógica, la llamada lógica matemática, que —para satisfacción de todos— ha alcanzado un desarrollo considerable desde hace cincuenta años y que posee en su haber éxitos extraordinarios. Pero, para que se hagan una idea de la proporción que guardan los trabajos de lógica matemática con los trabajos de matemáticas que nada tienen que ver con la lógica, constatemos simplemente que, de las casi trescientas páginas de este número de las «Mathematical Reviews» (febrero de 1976), sólo ocho están consagradas a la lógica matemática.

Pero ¿por qué los matemáticos no se interesan por la lógica? De hecho, hubo un período —la famosa crisis de fundamentos, que empezó hacia 1895 y se prolongó hasta 1930, aproximadamente— durante el cual muchos matemáticos se sintieron fuertemente turbados por las paradojas y las dificultades de razonamiento que parecían surgir por todas partes. Creo que los matemáticos de esa generación y de la mía —que es posterior— pasaron todos por una crisis personal; durante un año entero, yo me pasé el tiempo fabricando un sistema lógico que me resultara satisfactorio —no lo publiqué, por supuesto—, porque estaba preocupado hasta el punto de necesitar demostrarme a mí mismo que era posible hacer matemáticas de manera totalmente coherente. El sistema que actualmente satisface a, digamos, el 95% por lo menos de los matemáticos es el bien conocido sistema de Zermelo-Fraenkel, ordenado y formalizado —puesto que no lo estaba enteramente aún en los trabajos de Zermelo y de Fraenkel (véase el apéndice 5: «La axiomatización de la teoría de conjuntos», pág. 309).

Este sistema responde exactamente a las necesidades de todos los matemáticos, exceptuando, por supuesto, a los lógicos y también a todos aquellos a quienes su actitud filosófica les impide aceptar las premisas de un tal sistema; es decir, a los matemáticos llamados intuicionistas o constructivistas. Existen, por un lado, los constructivistas rusos —hacen matemáticas que ellos llaman constructivas, pero que nada tienen que ver con los fundamentos— y, por otro lado, los constructivistas americanos, como Bishop y sus discípulos, que están fuertemente preocupados por las dificultades de las relaciones entre las matemáticas y la realidad, etc.; cosas todas ellas que a los matemáticos, al otro 95%, les importan un pepino.[18]

En todo caso, lo cierto es que hay lógicos que trabajan; incluso trabajan mucho y lo hacen muy bien. ¿Qué hacen, esencialmente? Nosotros, los matemáticos, ¿cómo juzgamos su trabajo? Pues bien, por un lado, exploran las posibilidades de nuestro sistema lógico, aquél con el que trabajamos, el de Zermelo-Fraenkel; por otra parte —y ello nos interesa mucho menos— elaboran y exploran un sinfín de otros sistemas lógicos. Y así, cuando nos vienen a hablar de lógica de primer y segundo orden, de funciones recursivas y de modelos, teorías muy simpáticas y bellas que han producido resultados notables, nosotros, los matemáticos, no encontramos ninguna objeción en que alguien se ocupe de ellas, pero el asunto nos deja completamente fríos.[19]

Quedan, sin embargo, uno o dos comentarios por hacer. En primer lugar, hay personas que le preguntan a uno: «¿Y qué me dice usted del análisis no estándar?». ¡Ah!, ése sí que es un buen invento, que data de hace quince años y que, por lo que yo puedo juzgar, nos viene de los lógicos.[20] Históricamente, son los lógicos quienes inventaron este método; de él extrajeron algunos bellos resultados y no puede asegurarse que en manos de gente muy astuta no vaya a dar origen a algo todavía mucho mejor. Pero, en realidad, se trataba simplemente de un método matemático como otro cualquiera, basado en la noción de ultraproducto.[21] Admitiendo el axioma de elección, puede incorporársele inmediatamente y sin dificultad en el sistema Zermelo-Fraenkel. Digamos que el método se ha convertido en una parte de las matemáticas, pero que las aplicaciones que de él se hacen para nuestras matemáticas ya no tienen nada que ver con la lógica.[22]

El segundo comentario concierne a las repercusiones de lo que hacen los lógicos, por lo demás inspirados por problemas surgidos de las matemáticas. Por su condición de parapetos, nos interesan mucho las demostraciones de indecidibilidad y de imposibilidad. Han habido matemáticos que han pasado años de su vida tratando de demostrar la hipótesis del continuo, un problema que los ha atormentado durante muchísimo tiempo. Recuerdo haber oído decir a mi maestro Polya, quien por su parte lo sabía por Alexandroff, que Alexandroff había trabajado durante un año en la demostración de la hipótesis del continuo y que después había parado porque sintió que se volvía loco. Hizo bien. Así que, cuando Gödel y Cohen vinieron a decirnos que era inútil fastidiarnos las meninges y que nunca demostraríamos ni la hipótesis del continuo ni su contradicción, dijimos: «¡Uf! ¡Qué suerte! Ya no tendremos que preocuparnos más por este abominable problema» (véase el apéndice 6: «La hipótesis del continuo y el axioma de elección», pág. 311 y sigs.).

Es lo mismo que sucede, por lo demás, con el décimo problema de Hilbert sobre la resolución de los problemas diofánticos, solventado recientemente por Matijasevic. Por otra parte, confieso que, pese a mi enorme admiración por ese matemático de primera magnitud que fue Hilbert, nunca he comprendido cómo pudo creer que una máquina pudiera proporcionar automáticamente todas las respuestas a todos los problemas diofánteos. Así que estoy encantado de que Matijasevic haya demostrado que era imposible, cosa que la mayoría de matemáticos, creo, como yo mismo, considerábamos de simple sentido común. No se sustituye al cerebro por una máquina (véase el apéndice 4: «El décimo problema de Hilbert», pág. 307 y sigs.).

Para acabar con la lógica, hay que decir que todas estas cuestiones, por interesantes que sean (filosóficamente sobre todo), no afectan, como veremos en seguida, más que a un sector muy reducido de las matemáticas, en particular de las matemáticas bourbáquicas. Diría incluso que son cuestiones que están ausentes de las matemáticas bourbáquicas, las cuales no tropiezan jamás con un ejemplo de matemáticas donde haya que aplicar el axioma de elección general o la hipótesis del continuo, porque en ellas nunca se necesita más que el axioma de elección numerable. ¡Ah!, por lo que a este último respecta, no hay nada a hacer. En la actualidad, es imposible hacer análisis sin el axioma de elección numerable, y esto lo admite todo el mundo. Pero es muy raro que se tenga verdadera necesidad del axioma general de elección, no numerable, el cual no interviene en ninguna parte de lo que voy a describirles en seguida[23]. ¿Por qué? Pues porque se trata siempre de espacios que son generalmente metrizables y separables; y, en esos espacios, las buenas sucesiones de siempre son suficientes con mucho. Así que, en realidad, se da al respecto un cierto rechazo por parte de muchos matemáticos; pero ¿por qué ese rechazo? En mi juventud, éramos todos unos grandes entusiastas de la escuela de Cantor y de todos sus resultados, del axioma de elección, de Zermelo; Zermelo era bueno para todo y se había hallado incluso la manera de meterlo allí donde no era necesario, para hacer rabiar a los viejos, que no gustaban de ello. Al final, se acabó por caer en la cuenta de que los viejos tenían, a pesar de todo, una intuición imponente; porque, aunque desprovistos de elementos de juicio, no por ello dejaron de percibir que aquello olía mal. Después de Gödel y Cohen, sabemos que existe una especie de centro de las matemáticas que reposa sobre Zermelo-Fraenkel —¡cuidado! Zermelo-Fraenkel sin el axioma de elección general sino con el axioma de elección numerable— y nada más. He aquí un bloque de axiomas al que no podemos renunciar, so pena de no poder hacer ya ni análisis ni ninguna otra cosa. ¿Qué sucede más allá? Cohen y Gödel nos dicen que más allá hay cuanta matemática se quiera. Se puede decidir que el continuo es «alef treinta y seis», a menos que no sea «alef setenta y cinco», o cualquier otra cosa. En tal caso, ¿por qué habría de ser «alef uno»?

Mejor aún: a lo largo de los últimos años, se ha caído en la cuenta de que, con tal que se consienta en darle el pasaporte al axioma de elección no numerable, conservando desde luego el axioma de elección numerable, se podían hacer cosas muy interesantes con otros axiomas en los que nadie había pensado nunca. Un ejemplo que llena de gozo el corazón de todo analista, lo constituye el axioma de Solovay. Desde Lebesgue sabemos que, en principio y desgraciadamente, la mayoría de los conjuntos con los que nos topamos sobre la recta no son medibles… lo cual es un fastidio. En cierto sentido, incluso es una idiotez. Una idiotez, porque se sabe —no estoy seguro de que sea, desde el punto de vista lógico, completamente demostrable—, se sabe, digo, que nunca se fabrican conjuntos no medibles si no es con el axioma de elección no numerable. Es decir, que hay que fabricarlos. Ahora bien, en análisis, nos encontramos constantemente con conjuntos que no son en absoluto fabricados; por ejemplo, conjuntos de soluciones de ecuaciones que intervienen de manera natural y de los que es preciso saber si son medibles. Entonces, aun estando seguro de que el conjunto en cuestión es medible, uno se rompe la cabeza para saber por qué; y, para demostrar esa estupidez, uno se lanza a una demostración que puede ocupar dos, tres o cuatro páginas. Si se supiera que todos los conjuntos son medibles, se estaría la mar de tranquilo y no se tendrían que demostrar cosas que se sabe, de antemano, que son verdad. De hecho, Solovay ha puesto de manifiesto que se puede fabricar un sistema tan consistente como el actual de Zermelo-Fraenkel sin más que añadir, en lugar, naturalmente, del axioma de elección general, el axioma de Solovay que dice que todos los conjuntos de n son medibles en el sentido de Lebesgue (véase el apéndice 7: «El axioma de Solovay», pág. 315 y sigs.). Para muchos analistas, se trataría de un axioma mucho más agradable que el axioma de elección general. Todo esto viene a cuento para hacerles ver que existe una infinidad de posibilidades más allá del núcleo central de la matemática, digamos de la matemática bourbáquica. Por el momento, no parece existir ningún tipo de razón para escoger una de esas posibilidades mejor que otra. Cuando se haya trabajado suficientemente con las posibilidades abiertas por diversos sistemas de axiomas, quizá dentro de veinte años, de cincuenta, o de doscientos, los matemáticos volverán un buen día a estar de acuerdo en estimar que un sistema determinado es más agradable que los otros y en incorporarlo a las matemáticas para no hacer, a partir de ese momento, más matemática que la basada sobre dicho sistema. También podría ser que esto no sucediera jamás y que, a partir de ahora, aparezcan tantos sistemas surgidos del sistema central como posibilidades hay, según el estilo de cada matemático. No lo sé. Sólo el futuro puede decirlo.

Esto liquida la cuestión de las relaciones entre las matemáticas y la lógica. Así pues, a partir de ahora, no voy a hablar más de lógica en absoluto.

2. Origen de las teorías matemáticas

Un segundo punto sobre el que quizás hay que extenderse un poquito, es la cuestión de la utilidad, de la aplicabilidad, etc., de las matemáticas puras por lo que hace a las matemáticas aplicadas. Se ha dicho al respecto una enorme cantidad de majaderías en ambos sentidos y quisiera intentar, a pesar de todo, poner las cosas en su lugar, manteniéndome en un plano tan objetivo como sea posible. ¿Qué vemos al contemplar las matemáticas y sus aplicaciones actuales?

En primer lugar, no hay duda de que, históricamente, las matemáticas tuvieron como origen problemas de orden práctico: numeraciones, medidas de figuras… Existe una multitud de documentos que atestiguan el origen de las matemáticas en lo real. Es absurda la actitud de quienes pretenden que nunca han existido en matemáticas motivaciones otras que la aplicación de la ciencia pura a diversos problemas del mundo real, de la ciencia aplicada, de la técnica; a este respecto, tan absurda es la negativa como la afirmación sin matices.

Desde el Renacimiento y, sobre todo, luego de la aparición del cálculo infinitesimal, una parte muy importante de las matemáticas posee aplicaciones directas a las ciencias de la naturaleza; sobre todo a la física, ciencia verdaderamente adaptada a la aplicación de las matemáticas.[24] Estas aplicaciones, muy numerosas y variadas, plantean constantes problemas a los matemáticos; los han planteado sin cesar, siguen planteándolos y desempeñan un considerable papel en el desarrollo de las matemáticas puras. ¿Por qué? Pues porque un matemático que recibe un problema de un colega del campo de las ciencias de la naturaleza, trata primero de formularlo de modo que le resulte comprensible (lo que no es siempre el caso). Después, cuando lo ha comprendido y le ha dado una forma puramente matemática, procura resolverlo, lo cual plantea montones de cuestiones que acaban por fructificar y proporcionan a menudo resultados muy notables. No cabe duda de que toda la teoría de las ecuaciones funcionales, las ecuaciones diferenciales en derivadas parciales, integrales, integrodiferenciales, etc., ha constituido, desde hace trescientos años, una fuente de inspiración constante para los matemáticos; y ello no sólo por los problemas que suscita, sino a veces por sus métodos. En efecto, los físicos poseen ideas propias acerca de los problemas que plantean. Como conocen su ciencia mucho mejor que nosotros, tienen razones para creer que los fenómenos físicos deben satisfacer determinadas leyes, precisamente; por ejemplo, principios de máximo y de mínimo. Ello inspira entonces al matemático, que se dice: «Para encontrar una solución, tomemos una función que dé un mínimo; quizás sea la solución». Este procedimiento, que tiene efectivamente éxito en muchos casos, proporciona un ejemplo típico de cómo la física inspira, de alguna manera, a la matemática, no sólo por lo que hace a los problemas sino también en cuanto a los métodos; y pone así de manifiesto una vinculación sumamente estrecha de las matemáticas con la física y las aplicaciones. Por añadidura, desde hace, digamos, cincuenta o cien años, han aparecido las estadísticas, los ordenadores; y el álgebra, así como la teoría de probabilidades, se han vuelto, a su vez, inmediatamente aplicables a una gran cantidad de cuestiones en las que, antaño, las matemáticas no intervenían. Valga todo ello para reconocer que sería ridículo afirmar que las matemáticas actuales no tienen relación ninguna con la realidad. Pero la inversa es igualmente ridícula. Decir que el resto de las matemáticas no tiene importancia y que nunca ha resultado interesante para nada, es algo que queda enteramente contradicho por toda la historia.

A veces le dicen a uno: «Si no son las aplicaciones las que han suscitado las matemáticas, entonces ¿qué ha sido?». Algunos invocan razones sociológicas. Sea, pero nunca he visto nada demasiado convincente en ese sentido. Es evidente —y del todo trivial— que no pueden hacerse matemáticas cuando el nivel social no permite un cierto ocio y una cierta posición social a quienes precisan de mucho tiempo para reflexionar y resolver sus problemas. Por consiguiente, hay que proporcionar a los matemáticos en potencia un cierto nivel de vida que les permita consagrar enormes esfuerzos y concentración a sus investigaciones, sin estar siempre preocupados por la cuestión de saber si comerán al cabo de tres días o de dos horas. Pero afirmando esto no se ha explicado nada en absoluto. Es una de esas trivialidades que uno apenas se atreve a repetir. Para los interesados en el asunto, vaya este problemita: en 1976, al joven Gauss, que tenía por entonces dieciocho o diecinueve años, se le metió en la cabeza encontrar una construcción del polígono regular de diecisiete lados con regla y compás. A quien me explique por qué el medio social de las pequeñas cortes alemanas del siglo XVIII, en el que Gauss vivía, hubo de llevarle inevitablemente a preocuparse por la construcción del polígono regular de diecisiete lados, a quien me lo explique, bueno, le daré una medalla de chocolate. Bien, procuremos ser serios y volvamos a la cuestión de saber qué pone en marcha a las matemáticas. Creo que no se quiere tomar en cuenta algo completamente trivial y visible por todas partes a nuestro alrededor: he tenido hijos y nietos, y veo que los críos se pasan el rato planteándole a uno acertijos, ejercitando su sagacidad y su curiosidad sumergidos en enigmas, rompecabezas y crucigramas, con una alegría que nada consigue enturbiar. Se trata de un hecho universal, observable en todos los países y épocas: existe una especie de curiosidad natural e innata en el ser humano, que lo impulsa a la resolución de adivinanzas. Sin ir más lejos, las nueve décimas partes de las matemáticas, aparte de las que tienen su origen en necesidades de orden práctico, consisten en la resolución de adivinanzas. Por si no lo creen ustedes, veamos algunos ejemplos:

Para empezar, antes del 1700 aproximadamente, nadie se hubiese atrevido nunca a defender esa opinión un poco estúpida de que las matemáticas sólo tienen su origen en la técnica. Los griegos mantuvieron el punto de vista exactamente contrario. Diversos textos de Platón y de Arquímedes fulminan con desprecio a los desventurados que se sirven de la matemática para despreciables tareas de cálculo o medida.[25] El propio Arquímedes dice —según el testimonio de Plutarco[26]— sentirse avergonzado por haber construido sus famosas máquinas para el sitio de Siracusa; y añade que nunca se hubiese atrevido a consagrarles un escrito porque se trataba de aplicaciones y él despreciaba profundamente a quienes eran tan ruines como para ocuparse de cosas semejantes. Así pues, no hay duda: la idea de que las matemáticas provienen de necesidades técnicas es sumamente reciente y —como ya he dicho— completamente falsa. Empecemos por ejemplos extraídos de la antigüedad, porque fueron precisamente los griegos quienes empezaron en el siglo V a. de C., e incluso antes, con Pitágoras, a plantearse problemas para los que resulta visiblemente imposible señalar un eventual origen práctico. La mayoría de los problemas sobre números nos han llegado a través del tratado de Diofanto, que es tardío.[27] No voy a entrar en detalles históricos —Diofanto representa una tradición un tanto heterodoxa— pero veamos dos de sus problemas (existen entre cien y doscientos, todos de la misma índole) que ilustran el tipo de cuestiones por las que se interesaban los griegos:

  • 1.ºHallar tres números x1, x2, y x3 tales que xixj + xi + xj sea un cuadrado para todas y cada una de las tres combinaciones posibles de dos números (por «números», Diofanto entiende siempre «números racionales», no necesariamente enteros, sino sobre todo no irracionales; sabe lo que son tales números, pero no quiere oír hablar de ellos).
  • 2.ºHallar un triángulo rectángulo, de lados a, b, c (a es la hipotenusa), tal que ab y ac sean cubos.

Se convencerán ustedes, creo, de que las posibilidades de un origen técnico para estos dos problemas son absolutamente impensables. Se trata de adivinanzas que se perpetúan en las ramas de la matemática actual tales como la teoría de números, la combinatoria, la teoría de grupos. La resolución de todos esos problemas exige además, por regla general, un ingenio enorme. El matemático húngaro Paul Erdös es, sin duda, el rey de los problemas ingeniosos y difíciles: a lo largo de su vida ha resuelto más de un millar. He aquí dos ejemplos, extraídos de sus obras:

El primero no es suyo; es un problema que Sylvester planteó y no supo resolver, y que fue resuelto por un amigo de Erdös: se dan n puntos situados al azar sobre el plano, de modo que no estén todos ellos alineados sobre la misma recta. Hay que demostrar que existe siempre una recta que pasa exactamente por dos de dichos puntos.

Otro problema de este tipo es el siguiente: en un disco de radio 2, ¿cuántos puntos pueden situarse de manera que uno de ellos esté en el centro y los restantes en cualquier lugar, con la condición de que las distancias mutuas entre dos puntos sean siempre mayores que 1? La respuesta (esta vez, de Erdös) es veinte. Intenten demostrarlo. Seguro que no es fácil. Nada de lo que Erdös hace es fácil, siempre rebosa astucia.

En conclusión, digamos que los problemas matemáticos poseen siempre un origen doble: por un lado están los problemas surgidos de problemas técnicos y que se le plantean al matemático, quien los resuelve lo mejor que puede o no los resuelve en absoluto; por otro lado tenemos los problemas de pura curiosidad, los acertijos.

3. Tipologías de las teorías matemáticas

Lo esencial de mi conferencia va a consistir ahora en explicarles, basándome en textos históricos, qué sucede con esos problemas una vez que han sido planteados. Hay varias posibilidades.

En primer lugar, hay problemas que no evolucionan, es decir, que permanecen planteados. Digamos que son, provisionalmente, los que han nacido muertos. Se han planteado, se ha intentado resolverlos, no se ha sabido hacerlo y se sigue sin saberlo, a veces durante milenios. Un problema célebre de esta categoría, que nos viene de los griegos, se refiere a los números perfectos. Un número perfecto es un número que es igual a la suma de todos sus divisores exceptuado él mismo. Conocemos muy bien todos los números perfectos pares —Euclides proporcionó un bellísimo teorema al respecto—, pero, desde Euclides, nos preguntamos en vano si hay números perfectos impares. Nunca se ha encontrado ninguno y nunca se ha demostrado que no existiera. Estamos en punto muerto.

Otro ejemplo: los famosos números de Fermat, de la forma 22n + 1; intervienen en la división del círculo y uno de ellos, el 17, fue el que Gauss hubo de tomar en consideración al estudiar la construcción de un polígono de diecisiete lados.

Fermat calculó los cuatro primeros de dichos números y advirtió que eran primos; entonces afirmo que todos ellos debían serlo. ¡En mala hora! Ya saben que incluso los más grandes matemáticos, a veces, como dicen los norteamericanos, talk through their hat, lo que significa que dicen disparates. Un siglo después, Euler calculó el quinto y constató que no era primo. Desde entonces, el problema ha permanecido abierto: para n ≥ 5, ¿no hay ningún número de Fermat que sea primo? ¿Los hay en número finito? ¿Existe una infinidad que lo son? Nada se sabe. Ni siquiera estoy seguro de que se hayan calculado muchos de ellos después de Euler.

En una situación análoga se hallan los números de Mersenne de la forma 2p − 1, con p primo. En este caso, existen bastantes de dichos números que son primos. Todavía no se sabe si hay una infinidad de ellos.[28]

Otro problema: la constante de Euler, a propósito de la cual se ha planteado siempre, desde que lo hiciera el propio Euler, la cuestión de saber si es un número racional, irracional o trascendente. No se sabe nada.[29]

Segunda posibilidad: el problema se ha resuelto, pero su solución no ha tenido consecuencias. Ocurre que alguien coge el problema y lo resuelve por medio de una idea ingeniosa, pero ahí se queda todo. Los quinientos cincuenta ejemplos de Erdös entran casi todos en esta categoría. Ello es muestra de un ingenio asombroso —no creo que ningún matemático actualmente vivo posea tal facilidad para inventar a cada momento un nuevo truco para resolver un problema—. Lo molesto es que, una vez resuelto el problema, pasa a engrosar las obras completas del autor y luego… se acabó. A nadie aprovecha; no se ve absolutamente nada en la solución que pueda servir para resolver otro problema. A veces, hay quien de pronto se apercibe de que, en el fondo, allí había una idea y que nadie había sido aún lo suficientemente listo como para ahondar en ella; la profundizan y le sacan algún partido. Pero, en definitiva, la inmensa mayoría de problemas se paran en seco, como por ejemplo los del tipo de los planteados por Diofanto.

La tercera posibilidad presenta ya una pequeña mejora. Es lo que se llama el descubrimiento de un método. Un matemático resuelve el problema y caemos en la cuenta de que los artificios utilizados pueden servir para resolver otro problema, después otro más y, finalmente, comprendemos que toda una clase de problemas, dependientes a veces de parámetros, está sometida a la jurisdicción del método que acaba de encontrarse. Pero ¿de dónde sale ese método y por qué va tan bien? Ni el inventor lo sabe. Todo lo que puede hacerse es refinarlo, mejorarlo, diversificarlo… pero sin comprenderlo todavía.

La teoría de números rebosa métodos de este tipo, inventados por matemáticos geniales que han conseguido fabricar métodos, instrumentos de razonamiento aplicables a un gran número de problemas. Creo que el más antiguo es el famoso método de descenso infinito, inventado por Fermat para demostrar que la ecuación x4 + y4 = z4 no tiene solución entera (se trata de un caso particular del famoso problema de Fermat). Digamos brevemente en qué consiste la artimaña de Fermat: con una serie de manipulaciones aritméticas consigue demostrar que, si existe una solución, existe también otra menor, es decir, tal que uno al menos de los números que la integran es menor que los que componen la primera solución. Este procedimiento no puede seguirse indefinidamente sin alcanzar forzosamente un mínimo, lo cual es manifiestamente imposible. He aquí una bonita artimaña que se ha generalizado y aplicado a innumerables situaciones, caballo de batalla de los especialistas en teoría de números, pero de la que se sigue sin saber, en el fondo, por qué funciona.[30]

Todos los métodos con los que se ha conseguido demostrar la trascendencia de un número (el primer método de Hermite, por ejemplo; Hermite demostró que el número e, base de los logaritmos neperianos, es trascendente) son de ese tipo. Revisándolos y aplicándolos cada vez mejor, se logró demostrar la irracionalidad de π y de una buena cantidad de otros números, aunque permaneciendo en la ignorancia de la razón profunda de tales éxitos.[31]

Y llegamos finalmente al paraíso de los matemáticos; se trata de esos problemas que, a fuerza de reflexión, han engendrado ideas nuevas que, a menudo, superan de manera inconmensurable al problema que les dio origen. No se trata solamente de métodos, de artimañas cada vez más refinadas, sino que, en esas ocasiones, los matemáticos tenemos la impresión de que, al analizar el problema y las nuevas ideas que ha suscitado, comprendemos lo que pasa. Ése es el objetivo de todo hombre de ciencia: llegar a comprender qué pasa en el asunto objeto de sus estudios. Es, desde luego, una simple impresión que la próxima generación comprenderá mucho mejor todavía que nosotros, calificándonos de imbéciles. Ello forma parte de la evolución natural de las ciencias, pero de todos modos no cabe duda de que se produce una ganancia en comprensión formal. Los ejemplos típicos son los famosos problemas que se plantearon los analistas y algebristas a partir del siglo XVII. Desde el punto de vista de quienes pretenden que lo que cuenta es la técnica únicamente, esos problemas eran idiotas. Veamos por qué.

El primer problema, famoso, que se remonta a los babilonios, es el de la resolución de ecuaciones por radicales. Sabrán cómo se fastidia a los alumnos de bachillerato con la famosa fórmula para resolver la ecuación de segundo grado. Durante mucho tiempo no se dispuso más que de esa fórmula. Un buen día, surgió la pregunta: «¿Y por qué no ha de haber también una fórmula para el tercer grado y para los demás?». En efecto, a principios del siglo XVI, un italiano, Scipione del Ferro, encontró una fórmula análoga para el tercer grado.[32] ¡Qué maravilla! Una treintena de años después, Ferrari, un alumno de Cardano, hizo aún más: encontró una fórmula análoga para el cuarto grado. ¡De maravilla en maravilla! Entonces se dijeron: «Ya está, ya lo tenemos, ¡hay fórmulas de resolución para todos los grados!». Y se pusieron a buscar montones de fórmulas, por desgracia sin éxito. A todas esas, se descubrió el cálculo infinitesimal, una de cuyas repercusiones fue, precisamente, la de permitir la determinación, en un número finito de pasos, de las raíces de cualquier ecuación con tantos decimales como se quiera (pongamos veinte). Es un método estándar, que se conoce bien desde Newton y que, en el ordenador, proporciona el resultado muy rápidamente, en pocos segundos, cuando antes eran necesarios tres o cuatro días de trabajo duro. No hay duda, por lo tanto, de que el método era perfecto para los usuarios y para los técnicos. ¿Por qué esos idiotas de matemáticos siguieron buscando soluciones por radicales, cuando éstas son, por lo general, mucho más difíciles de calcular así que por los métodos de aproximación? Prueben ustedes una vez las fórmulas de Cardano; ¡ya verán lo que es bueno! Pues bien, aquí tienen un problema tonto que siguió, sin embargo, preocupando a los matemáticos durante siglo y medio.

En una situación análoga están las integrales y el cálculo de la longitud de un arco de elipse. Este problema se planteó en los comienzos del cálculo diferencial, hacia 1750, cuando se sabía calcular las longitudes de un cierto número de curvas y la emprendieron con la elipse, aparentemente la curva más fácil luego del círculo y la espiral. De hecho, fue el origen de una integral que no se sabía evaluar de la misma manera, expresándola mediante otras funciones conocidas. Pero también en este caso se dispone de métodos para la aproximación de una integral. Si un ingeniero les pregunta cuál es la longitud de un determinado arco de elipse, el ordenador les da la respuesta en pocos segundos, porque dispone de un método estándar para calcular todas esas integrales, cualesquiera que sean. También en este caso el problema es tonto. Y sin embargo, estos dos problemas tan tontos han abierto las puertas de dos de los aposentos del paraíso de la matemática actual.

Durante mucho tiempo se trabajó en el problema de la resolución de ecuaciones por radicales. Incluso Euler, uno de los más grandes matemáticos de aquella época, hizo innumerables tentativas de encontrar fórmulas, sin llegar nunca a nada. Poco después, Lagrange planteó por vez primera la siguiente cuestión: «¿Por qué funcionan todas esas fórmulas? ¿Qué se esconde tras ello?». Lo más notable del caso es que encontró una respuesta; no fue una respuesta completa, pero le valió para ser el primero en tomar el camino que había de conducir a algún resultado. Sabrán ustedes que el número de las raíces de una ecuación polinómica es, en general, igual a su grado; que dichas raíces pueden permutarse y que determinadas funciones permanecen invariantes por tales permutaciones.

Analizando esta idea, Lagrange acabó por darse cuenta que el éxito de los métodos de Cardano y de otros para resolver las ecuaciones de tercer y cuarto grado residía en la existencia de ciertas funciones no simétricas de las raíces, las cuales poseían determinadas propiedades de invariancia por permutaciones. Poco a poco, una cosa llevó a otra y la cuestión central de las preocupaciones de los algebristas pasó a ser la siguiente: ¿qué sucede cuando se permutan las raíces de una ecuación? A lo largo de un período de unos sesenta años, ello dio origen a lo que se llama la teoría de grupos, porque por vez primera se empezó a pensar en una operación. Es muy difícil pensar en una operación, porque se trata de algo bastante abstracto, que no se ve en la pizarra, que no puede representarse. En la actualidad, se intenta hacer entrar en la conciencia de los niños, lo antes posible, la idea de que una operación también es un objeto, aunque no se la vea (se la representa por flechas). Pero los matemáticos tardaron un tiempo inverosímil en concebir esta idea y, a partir de esta concepción de la operación, y luego, de la composición e inversión de operaciones, se llegó insensiblemente al concepto de grupo. Fueron todavía necesarios casi un centenar de años para que el concepto adquiriese su verdadera naturaleza, es decir, abandonara el origen fortuito de la operación, de la transformación, para convertirse en una operación que se realiza sobre los objetos de un conjunto. Y ello fue motivo para una expansión prodigiosa de toda la matemática, porque se cayó progresivamente en la cuenta de que por todas partes existían grupos, desde la aritmética más abstracta hasta la teoría cuántica, la relatividad y todo el análisis, por no hablar de la geometría, etc. Y cada vez que se ha descubierto un nuevo grupo en una teoría matemática, ésta ha experimentado un gran avance. La de grupo es una de esas nociones primeras que se encuentran por doquier y que los matemáticos buscamos en todos los campos.

Lo mismo sucedió con las integrales elípticas. Gracias a matemáticos como Abel, Jacobi, Weierstrass y, sobre todo, Riemann, nació la geometría algebraica. También ésta es una disciplina que ha invadido progresivamente todas las matemáticas.

He aquí, pues, dos ejemplos típicos de problemas —incluso de problemas un poco tontos, en apariencia un tanto fútiles— que, una vez profundizados y analizados con amplitud, han revelado posibilidades completamente insospechadas y han abierto el camino para aplicaciones asimismo insospechadas.

¿Cuántos de esos paraísos matemáticos existen? Por desgracia, no muchos; aunque hay miles de problemas de ese tipo, no sé si se llegaría a encontrar una docena que hayan dado origen a teorías tan grandiosas, tan fundamentales y tan profundas —porque hacen comprender el sentido de las cosas— como aquéllas a las que me acabo de referir. Así pues, se trata en verdad de la excepción y no de la regla.

¿Qué sucede después? Pues bueno, se precisa un tiempo enorme, uno o dos siglos por lo general, para esclarecer todas las ideas y poner en forma asimilable por todos lo que los genios han visto adelantándose a su tiempo. (Algunos textos de Galois y de Riemann han permanecido casi incomprendidos durante cincuenta años. Estos matemáticos eran una especie de visionarios, que gozaban de una visión mucho más amplia que la de sus contemporáneos, reducidos éstos a una lectura mecánica y a tentativas de análisis condenadas al fracaso). Luego, progresivamente, se consigue captar lo que los genios han querido decir y, cuando se llega a asimilar sus ideas, a enseñarlas y a utilizarlas generalizadamente, entonces es cuando, de verdad, se entra en el paraíso. Con todo, ese paraíso evoluciona todavía para engendrar lo que se llaman las estructuras. Hoy en día, los matemáticos saben expresar de una manera completamente técnica qué es una estructura. Existe una veintena larga de estructuras fundamentales (de grupo, de espacio vectorial, de álgebra…), y luego muchas más obtenidas por combinación. Si se quiere saber utilizar todo lo que revela el estudio de los grandes problemas, es indispensable estudiar a fondo esas estructuras y aprender a manejarlas cada vez mejor, lo que acarrea, inevitablemente, una abstracción creciente.

Actualmente, por ejemplo, lo que importa no es saber si tal grupo es un grupo de permutaciones o un grupo de transformaciones de un cubo, o el grupo de los enteros racionales, sino saber más bien si es finito, conmutativo, simple, etc.

Cuando, después de largos años de pacientes estudios, se llega por fin a una teoría bien hecha, buena de enseñar y utilizar, entonces parece que las cosas deberían quedarse ahí. ¡Pero no! Las cosas no quedan ahí porque hay quienes por razones diversas, sociológicas o de otra índole, se preguntan: «¿Qué sucedería si se modificara uno de los axiomas de esa teoría?». Y van y modifican el axioma treinta y seis bis, lo que, al fin y a la postre, produce una nueva teoría. Si se les preguntan las razones que los han llevado a ello, la respuesta es: «Lo hice por las buenas, para escribir un artículo». Si he hablado de razones sociológicas es porque existen países, y cada vez son más, donde la promoción de un universitario se hace a peso de papel. Entonces, por supuesto, la producción es obligada; y cuando no hay nada que producir genuinamente, uno se pone a modificar el axioma treinta y seis bis. Sea como sea, esto es lo que sucede. Es lo que cabe denominar como matemáticas no motivadas o el desleimiento. Se me objetará que, a lo mejor, el axioma treinta y seis bis modificado será un día tan fundamental como la noción de grupo. Efectivamente, no hay que excluir esa posibilidad; yo he visto a lo largo de mi vida, en dos o tres ocasiones, cómo una teoría a la que se consideraba absolutamente desprovista de interés se encontraba, de pronto, agarrada a algo que le hacía comprender a uno el fondo de las cosas. Pero se trata de casos completamente excepcionales; el resto no es más que desleimiento acumulado en los innumerables artículos que se escriben y publican, de los que incluso se hacen reseñas y que, luego, nunca más menciona nadie salvo aquellos, por supuesto, que deslíen esos desleimientos, proceso éste que, al parecer, se prolonga indefinidamente.

Existen, por último, teorías que se marchitan progresivamente, que poco a poco se extinguen no porque los matemáticos se tornen menos ingeniosos —al contrario, lo son quizás más—, sino porque los problemas que tratan merman, se hacen cada vez más especiales, se aíslan y acaban por no tener relación más que con la propia teoría; mientras que los matemáticos se sienten considerablemente estimulados por el hecho de que un problema tenga relación con otras teorías.

4. Las matemáticas bourbáquicas

Luego de haber tratado de reseñarles la manera en que evolucionan los problemas matemáticos, es muy fácil explicarles qué son las matemáticas bourbáquicas. Esencialmente, son las que conciernen a las teorías vivas, que reposan sobre una estructura; y, hasta cierto punto, son las que dependen de un método. El epíteto bourbáquicas quiere decir que se trata de teorías expuestas en el Seminario Bourbaki. Este seminario es una institución, creada en 1948, que se presenta de la siguiente manera: tres veces al año, se exponen seis memorias en el transcurso de seis sesiones que tienen lugar en París el sábado, el domingo y el lunes.[33] Esas memorias las escoge un grupo de miembros del equipo Bourbaki (nunca he participado en la elección de los textos y, por consiguiente, puedo hablar de ello con total imparcialidad); se las distribuye a voluntarios que tienen ganas de exponerlas, se exponen en el seminario y, a continuación, se difunden; durante mucho tiempo, Benjamín cuidó de la difusión, y ahora se encarga de ella la Springer en las «Lecture Notes in Mathematics».[34] En la actualidad, existen cerca de seiscientas memorias que cubren, creo, prácticamente todas las matemáticas comprendidas en las categorías bajo las que dichas memorias se distribuyen.

No hay que confundir el Seminario Bourbaki con el tratado de Bourbaki, que tiene un objetivo completamente distinto y que es el de exponer la parte elemental de las estructuras, aquella parte que debe conocer todo matemático que pretenda hacer matemáticas en serio. Pero las grandes aplicaciones no figuran en el tratado sino que, precisamente, están expuestas en las memorias del seminario; están ausentes del tratado simplemente porque son, con mucho, demasiado difíciles para ser expuestas en libros destinados, más o menos, a la enseñanza —a la enseñanza de un cierto nivel, pero a la enseñanza a pesar de todo—. El libro de Bourbaki contiene los rudimentos de aquello en lo que consisten las matemáticas bourbáquicas, y éstas son las que se exponen en el seminario. Puede hacerse una clasificación de dichas matemáticas ordenándolas según la densidad bourbáquica. La densidad bourbáquica de una teoría es, grosso modo, la razón entre el número de memorias expuestas y el número de trabajos publicados sobre esa teoría. Ciertas teorías poseen una densidad muy grande: la topología algebraica y diferencial, la teoría de los grupos de Lie y de sus representaciones de dimensión infinita, la geometría algebraica, la geometría analítica (es decir, la teoría de funciones de varias variables complejas), la teoría de números. Después vienen las teorías que tienen una densidad bourbáquica menor: el análisis armónico conmutativo, el álgebra homológica, la teoría de las álgebras de von Neumann. Se habla un poco de lógica y de probabilidades, pero sin exagerar. Luego están las teorías de las que se habla muy poco: el álgebra conmutativa por ejemplo, los espacios vectoriales topológicos (creo que se ha hablado de ellos dos veces en veinte años). De álgebra general, de la teoría de conjuntos ordenados, de los cardinales y de los ordinales, de todo eso no se trata nunca.[35]

Ése es el panorama que quería esbozarles aquí y que encontrarán abundantemente desarrollado en mi libro.

5. Lo que debería ser en la actualidad la filosofía de la matemática

Un poco al margen de esta conferencia, quisiera acabar con unas reflexiones sobre la manera en que puede concebirse la epistemología de las matemáticas. «Estudio de las ciencias que tiene por objeto apreciar su valor para el espíritu humano»: así es como el Petit Larousse define la epistemología, y los matemáticos no pueden sino alegrarse de que los filósofos se interesen por lo que hacen y reflexionen sobre ello desde un punto de vista diferente del suyo. Pero es también necesario que estas reflexiones tengan por objeto la ciencia tal y como existe y la vemos vivir, en lugar de referirse a un fantasma de la ciencia. Esto es lo que Lautman, por ejemplo, comprendió perfectamente: se adueñó de la matemática de su tiempo para hacer de ella un objeto de estudio filosófico. Por desgracia, tengo la impresión de que su ejemplo no se ha seguido mucho; la mayoría de lo que oigo decir a los filósofos acerca de las matemáticas prueba a todas luces que no tienen la menor idea de lo que hacemos.

Por un lado atribuyen una importancia considerable a los desarrollos de la lógica matemática, lo que, en sí, está del todo justificado y es digno de alabanza, porque es muy natural que exista también una epistemología de la lógica; pero ya he insistido en varias ocasiones sobre el carácter cada vez más tenue de los lazos que unen a la lógica matemática con los grandes problemas de las matemáticas de nuestro tiempo.

Por otro lado, existe una tendencia pareja consistente en consagrar gran número de estudios detallados a las corrientes de ideas heterodoxas, como el intuicionismo, que no influyen sobre más de un matemático de cada cien, ignorando completamente lo que hacen los noventa y nueve restantes. Cierto que es legítimo que un filósofo sienta curiosidad por conocer y analizar todas las opiniones, pero no me parece que ésta sea la mejor manera de hacer epistemología; se tendría una visión muy deformada de los viajes espaciales si uno se limitara a consultar a las sectas religiosas que todavía creen que la Tierra es plana.

Es innegable que la complejidad y la extensión de las actuales disciplinas matemáticas hacen necesario un gran esfuerzo de información para captar cómo se ordenan y evolucionan; pero el ejemplo de Lautman muestra que tal esfuerzo no es sobrehumano y que sólo requiere resolución y una inteligencia viva. Creo que éste es el precio que hay que pagar por un futuro de fecunda colaboración entre matemáticos y filósofos en materia de epistemología, y es mi deseo que este futuro se haga realidad.

Bibliografía

N. Bourbaki, «L’architecture des mathématiques: la mathématique ou les mathématiques», en F. Le Lionnais (dir. de publ.), Les grands courants de la pensée mathématique, Paris, A. Blanchard, 1962, 2.ª ed., págs. 35-47.

J. Dieudonné (dir. de publ.), Abrégé d’histoire des mathématiques (1700-1900), 2 vols., Paris, Hermann, 1978. Ver en particular la «Introduction» de J. Dieudonné, vol. 1, páginas 1-17: «1. La carriere du mathématicien», «2. La communauté mathématique», «3. Évolution et progrès des mathématiques».

J. Dieudonné, Panorama des mathématiques pures: le choix bourbachique, Paris, Gauthier-Villars, 1977.

— «Avant-propos» al libro de Albert Lautman, Essai sur l’unité des mathématiques et divers écrits, Paris, Union générale d’éditions, colección «10/18», n.º 1100, 1977.

— «Present trends in pure mathematics», Advances in Mathematics, vol. 27, 1978, págs. 235-255.

— «Louis Couturat et les mathématiques de son époque», Coloquio internacional celebrado en la École normale supérieure de la rue d’Ulm los días 8 y 9 de junio de 1977: L’Œuvre de Louis Couturat (1868-1914).

Les grands lignes de l’évolution des mathématiques, Irem Paris-Nord, colección «Philosophie-Mathématiques», 1980, 10 págs.

C. Houzel, La recherche mathématique des dernières années, prepublicaciones de la universidad de Paris-Nord, fasc. 6, 1978-1979, 6 págs.; version abreviada en La Recherche, n.º 100, mayo de 1979, págs. 507-508 («Les mathématiques retournent au concret»).

Langage et pensée mathématiques, Actas del coloquio internacional organizado en el centro universitario de Luxemburgo los días 9, 10 y 11 de junio de 1976.