9

¿ESTA «PI» REALMENTE EN EL CIELO[16]?

Mirad el cielo, la tierra, el mar; todo lo que resplandece en ellos o por encima de ellos; todo lo que se arrastra, vuela o nada; todo ello tiene forma, porque todo tiene número. Eliminad el número y no serán nada… Preguntad qué es lo que os deleita del baile y el número responderá: «¡Eh! aquí estoy yo». Examinad la belleza de las formas corpóreas y hallaréis que todas las cosas ocupan su lugar gracias al número. Examinad la belleza del movimiento corpóreo y hallaréis que todo sucede a su debido tiempo gracias al número.

SAN AGUSTÍN

En el centro de las inmensidades

No iré tan lejos como para afirmar que edificar una historia del pensamiento sin un estudio profundo de las ideas matemáticas de las sucesivas épocas es como omitir a Hamlet en la obra que lleva su nombre. Eso sería exigir demasiado. Pero es ciertamente análogo a eliminar el papel de Ofelia. Este símil es particularmente exacto; pues Ofelia es esencial en la obra, es muy cariñosa, y está un poco loca. Admitamos que la práctica de las matemáticas es una locura divina del espíritu humano, un refugio de la apremiante urgencia de los acontecimientos contingentes.

A. N. WHITEHEAD

¿Qué es el hombre para pensar y preocuparse por el universo? Si tomamos en consideración los siglos de historia humana durante los que hemos permanecido ajenos a los vastos océanos del espacio exterior y a todo el espacio interior de las partículas elementales, reconoceremos que el siglo XX marca un giro decisivo en nuestra apreciación de la amplitud y profundidad de la estructura del universo. Nuestra búsqueda en pos de alguna explicación fundamental acerca del origen y estructura del universo da testimonio de una fe inquebrantable en nuestra capacidad para entender la estructura básica de la realidad. Pero cuán extraño es esto. Nuestras mentes son producto de las leyes de la naturaleza; pero se encuentran en disposición de reflexionar sobre ellas. ¡Qué casualidad que nuestras mentes (o al menos las mentes de algunos) estuviesen abocadas a penetrar en las profundidades de los secretos de la naturaleza! Esta circunstancia accidental presenta dos ramificaciones: una cuantitativa y otra cualitativa. El aspecto cuantitativo es obvio: ¿por qué habríamos de ser nosotros lo suficientemente listos como para desentrañar la Teoría del Todo? Sabemos de la existencia de teoremas matemáticos que en principio no pueden ser demostrados, y de otros cuya verificación llevaría a nuestros ordenadores más rápidos toda la edad del universo. ¿Por qué habría de ser la Teoría del Todo más simple que éstos? Estas limitaciones cuantitativas vienen determinadas en último término por el tamaño del cerebro humano, la capacidad de nuestra memoria, o las aptitudes de cualquier otro cerebro artificial que seamos capaces de fabricar. Pero todavía no sabemos si existen límites fundamentales a las capacidades del cerebro y de los ordenadores (vistos como sistemas de recogida y utilización de información) que vengan impuestos por las leyes de la naturaleza. Es muy probable que sí existan. Pues si construimos un cerebro artificial de tamaño cada vez mayor, como un ordenador, el volumen de su red de circuitos integrados aumentará con mayor rapidez que el área de su superficie, y ésta es lo que determina cuán efectivamente podrá radiar hacia fuera el calor residual de manera que se evite el sobrecalentamiento. Para soslayar el inconveniente del aumento de tamaño, uno podría seguir uno de los ejemplos del mundo natural y desarrollar la estructura almenada de una esponja, desplegando así un área de superficie mucho mayor que la de un objeto sólido de la misma masa y el mismo volumen. Pero esta estrategia aumenta considerablemente la longitud del circuito integrado que se precisa para coordinar todo el sistema, y reduce por consiguiente la velocidad a la que éste puede enviar señales de uno a otro de sus extremos.

El grado al que cerebro está cualitativamente adaptado para entender el universo plantea un problema todavía mucho más interesante. ¿Por qué deberían sus categorías de pensamiento y entendimiento ser capaces de hacer frente al alcance y naturaleza del mundo real? ¿Por qué la Teoría del Todo habría de estar escrita en un «lenguaje» que nuestras mentes pudieran descifrar? ¿Por qué el proceso de selección natural nos ha dotado de sobradas facultades mentales para entender la estructura entera del universo muy por encima de lo que se requiere para nuestra supervivencia tanto en el pasado como en el presente?

Hay un aspecto cualitativo de la realidad que sobresale entre los demás, tanto en profundidad como en misterio. Se trata del éxito invariable de las matemáticas en la descripción de los mecanismos de la realidad y de la capacidad de la mente humana para descubrir e inventar las verdades matemáticas. Y es justamente este misterio el que nos proponemos ahora explorar, porque nos acerca más al enigma de por qué el universo es del todo inteligible.

El número de la rosa

Dios se parece más a la gravitación que a la vergüenza.

MARY HESSE

«Una rosa tendría la misma dulce fragancia bajo cualquier otro nombre», pero no así una rosa bajo otro número cualquiera. Nosotros hemos aprendido que existe una gran diferencia entre las palabras y los números. Si uno llama cardo a una rosa, no pretende redefinir ninguna propiedad intrínseca de esas cosas que llamamos rosas: como mucho sería necesario revisar unos cuantos catálogos de horticultura, pero la naturaleza de las cosas no se vería alterada por ello. Sin embargo, si una cosa posee una propiedad numérica, el cambiarla requerirá una modificación profunda y esencial del entramado de la realidad. Esta impresión es producto de la suposición de que las propiedades matemáticas de las cosas son reales e intrínsecas a las mismas. Son algo más que etiquetas. Nosotros las descubrimos, no las inventamos meramente. Es más, aun cuando utilicemos el habla para describir el mundo, no parece que exista una correspondencia natural entre las reglas de la gramática y la composición que determine la forma en que debemos utilizar el habla. No obstante, la matemática es un lenguaje con una lógica interna que se ajusta sorprendentemente a la lógica de la realidad.

La ciencia moderna descansa casi por completo sobre las matemáticas. Esta ocupación con lo numérico, como la vía hacia la comprensión de lo físico, parece tener sus orígenes en la doctrina pitagórica según la cual el significado verdadero de la naturaleza sólo puede hallarse en las armonías manifestadas por los números. Su concepción de la creación se fundaba en la noción de una unidad básica a partir de la cual podían construirse todas las demás cosas. Los números tenían un significado profundo. Los números pares eran vistos como femeninos y simbolizaban aquellas cosas que pertenecían a la madre tierra; los números impares eran masculinos y se asociaban a los cielos. Cada número individual tenía un significado: el cuatro era la justicia, el cinco, la unión matrimonial, etc. Nosotros hemos heredado esta predilección por los números, pero nos hemos visto obligados a apartarnos de ella en un punto crucial. Mientras que los pitagóricos se hallaban persuadidos de que los números estaban dotados en sí mismos de algún significado especial, nosotros hemos encontrado más ventajoso adscribir significado al hecho de que existen relaciones numéricas entre las cosas. Así pues, nosotros dirigimos nuestra atención a las «simetrías» y a las «transformaciones», o a las «aplicaciones» y a los «programas». Esta visión de las cosas alcanzó su plena madurez paralelamente a la concepción mecánica del mundo gestada en las obras de Galileo, de Newton, y de los discípulos que continuaron su tradición. La descripción matemática de la naturaleza hizo posible que el pensamiento humano sobre ésta trascendiese los sesgos culturales mediante la identificación del mínimo irreducible que caracteriza la legalidad de la naturaleza. Creó un lenguaje universal que contribuyó a un pensamiento y una deducción eficientes, al incorporar en su misma fábrica unos cuantos sencillos requisitos lógicos que se satisfacen automáticamente siempre que se hace uso del lenguaje. En efecto, traslada una serie de operaciones lógicas del reino de la conciencia al de la mente subconsciente.

Bajo esta perspectiva, las matemáticas pueden parecer más bien una forma de arte y, de hecho, en algunas universidades podrían estar asociadas más estrechamente a las artes y las humanidades que a las ciencias propiamente dichas. Pero difieren de las artes en muchos aspectos llamativos. Así, mientras que en las matemáticas se da el descubrimiento simultáneo, en las artes no; de hecho, esto es algo que podemos presentir intuitivamente. Matemáticos independientes, trabajando en culturas diferentes, movidos por motivaciones diferentes y utilizando notaciones y métodos diferentes, llegan a menudo a los mismos descubrimientos finales o «teoremas». Tales coincidencias no se dan en la literatura o en la música. El descubrimiento simultáneo e independiente de Macbeth, o de una sinfonía de Beethoven, sería impensable, pues asociamos una buena parte de su naturaleza esencial a la mente de su creador. Su unicidad es un reflejo de la unicidad del individuo. El hecho de que las matemáticas, así como las ciencias, den cabida al descubrimiento simultáneo apunta hacia un elemento objetivo en el seno de su materia subjetiva que es independiente de la psique del investigador. Podríamos confiar sin más en que una máquina inteligente probara teoremas que fueran similares, y en algunos casos hasta idénticos, a los hallados por matemáticos humanos. Otro contraste interesante entre las matemáticas y las humanidades subjetivas lo hallamos en los hábitos de trabajo de sus practicantes. Es habitual que los matemáticos y los científicos teóricos trabajen en colaboración. Mis artículos de investigación en estos campos están firmados por varios autores. En algunos casos, estas colaboraciones reflejan la naturaleza complementaria de las aptitudes de los colaboradores —uno puede ser bueno en la formulación de problemas interesantes, mientras que otro podría poseer más talento en la ejecución técnica de su solución—, pero en muchos otros casos no existe una demarcación tan clara. Todos los autores participarán a todos los niveles y destilarán sus resultados finales a través de un proceso continuo de interacción o diálogo. En mi caso personal, he escrito artículos de investigación junto con otros dos individuos que nunca he llegado a conocer y con quienes no he mantenido conversación alguna por teléfono. Tales colaboraciones son raras en las humanidades. Existen colaboraciones famosas, como la de Gilbert y Sullivan, pero éstas se basan invariablemente en la combinación de oficios distintos. En el caso de Gilbert y Sullivan, uno creaba la música, y el otro la lírica de sus operetas. ¿Cuántas novelas u obras de arte se pueden nombrar que hayan sido realizadas por más de un autor? Uno podría sospechar una vez más que esto es indicativo de la subjetividad intrínseca y, por tanto, de la unicidad de la creación artística. La facilidad con que se da la colaboración en la investigación matemática y el singular parecido de los frutos de dicha colaboración con los del trabajo individual apunta sugerentemente hacia un poderoso elemento objetivo tras los acontecimientos que es descubierto antes que inventado.

Filosofías de la matemática

La abrogación de las leyes físicas a la manera de los milagros bíblicos no preocupó a los filósofos religiosos tanto como la abrogación de las leyes matemáticas. Así pues, a la matemática se le otorga una posición distinguida, y la sola posibilidad de que sus verdades eternas sean abrogadas, aun por un Dios omnipotente, es perturbadora.

PHILIP DAVIS Y REUBEN HERSH

La matemática es una ciencia de cosas que se han pensado. No todos están persuadidos de que la matemática es meramente descubierta, ni siquiera de que la única alternativa a ello es que se trate de una creación de la mente humana. Y, así, antes de dirigir nuestra mirada a la irrazonable eficacia de la matemática para explicar los mecanismos del mundo físico, conviene tener presentes las opciones que se han propuesto en relación a la naturaleza de esa «cosa» que llamamos matemática. Cuando aprendemos o enseñamos matemáticas, no parece que planteemos, y mucho menos que respondamos a, esta cuestión en apariencia tan sencilla. Sin embargo, no se trata de un problema nuevo y resulta interesante iluminar algunas de las cuestiones que tiñeron su estudio en un pasado remoto, cuando en una atmósfera más propensa a las presuposiciones sobre el mundo se buscaba inspiración en fuentes muy diferentes a las del presente. Podemos lograr hacernos una idea de algunas de las cuestiones más polémicas tomando algunas instantáneas de tres épocas en las que el debate sobre la naturaleza del conocimiento matemático fue particularmente intenso. La primera comprende la controversia entre los puntos de vista platónico y aristotélico en la Grecia antigua. La segunda, el prolijo comentario de Roger Bacon y sus contemporáneos medievales. Y la última abarca los desarrollos conjuntos de la física y la matemática de finales del siglo XIX.

Platón mantenía que el mundo material de las cosas visibles no era más que una sombra de la verdadera realidad de las formas eternas. Procedió a explicar el mundo inferior de las ideas eternas con todo detalle, principalmente en el caso de los elementos de la materia: la tierra, el aire, el fuego y el agua. A éstos los representa por sólidos geométricos: la tierra por un cubo, el agua por un icosaedro, el aire por un octaedro y el fuego por un tetraedro. Defiende que los elementos son en último término estas formas geométricas sólidas justamente, y no que la posesión de formas geométricas sea sencillamente una de sus propiedades. La transmutación de unos elementos en otros se explica entonces por la fusión y disolución de triángulos. Esta descripción puramente matemática es característica de la discusión por Platón de muchos otros problemas físicos. Para él, la matemática es un indicador de la realidad última de ese mundo de formas eclipsado por el mundo visible de los datos sensoriales. Cuanto mejor podamos comprenderla, más cerca nos encontraremos del verdadero conocimiento. Por tanto, para Platón la matemática es más fundamental, más verdadera, y se encuentra más próxima a las formas eternas, de las que el mundo visible es un reflejo imperfecto, que los objetos de la ciencia física. Como el mundo es matemático en su nivel más profundo, todos los fenómenos visibles presentarán aspectos matemáticos y podrán ser descritos en mayor o menor medida por las matemáticas, dependiendo de su proximidad a las formas subyacentes.

La visión posterior de Aristóteles acerca de la relación entre las matemáticas y la naturaleza no pudo ser más diferente. Aristóteles quería rescatar a la ciencia física del dominio absoluto de la matemática al que Platón la había sometido.

Así, creía que existían tres reinos completamente autónomos del conocimiento teórico puro —la metafísica, la matemática y la física—, cada uno con sus propios métodos de explicación y un objeto de estudio apropiado. Pero, englobando estas divisiones, existía un principio más general de «homogeneidad» —según el cual, de lo igual se sigue lo igual— que siempre debía satisfacerse:

Parece que las cosas perceptibles requieren principios perceptibles; las cosas eternas, principios eternos; las cosas corruptibles, principios corruptibles; y, en general, cada campo de estudio, principios homogéneos a sí mismo.

La explicación que Platón da de las cosas viola claramente este principio, pues busca explicaciones matemáticas de las cosas físicas, en lugar de explicaciones físicas de las cosas físicas. Para comprender la concepción de Aristóteles de la relación entre la matemática y la física, debemos considerar que su división tripartita del conocimiento teórico, en metafísica, matemática y física, era jerárquica, y muy diferente del tratamiento dado por Platón a los tres mismos pilares del conocimiento. La física se ocupa del mundo ordinario de las cosas tangibles de cada día, desprovisto de toda abstracción teórica. Es el reino del pragmático. Las matemáticas solamente llegan a ocuparse de las cosas después de haber alcanzado un cierto nivel de refinamiento, abstrayendo ciertas propiedades esenciales a las cosas y despreciando otras. Finalmente, el rechazo de todas las propiedades, excepto la del ser puro, se considera resultado de un nivel superior de abstracción necesario para trasladar nuestro estudio al reino de la metafísica. Actualmente, podríamos establecer una jerarquía paralela constituida por los mecanismos de las leyes de la naturaleza, las leyes de la naturaleza propiamente dichas, y el metamundo en el que consideramos varias leyes alternativas de la naturaleza, ya sea en potencia o en acto.

Aristóteles traza una clara línea divisoria entre las actividades del físico y las del matemático. El matemático limita su investigación a los aspectos cuantificables del mundo y, de esta manera, restringe drásticamente lo que puede ser descrito en términos matemáticos. La física, para Aristóteles, tenía un alcance mucho mayor y abarcaba la realidad terrenal de las cosas sensibles. Mientras que Platón había mantenido que la matemática era la realidad verdadera y profunda de la que el mundo físico no era más que un pálido reflejo, Aristóteles defendía que no era más que una representación superficial de una parte de la realidad física. Tal es la antítesis entre idealismo y realismo en el mundo antiguo.

En la Edad Media, el conflicto entre las concepciones platónica y aristotélica acerca de la relación entre la matemática y el mundo volvió a renacer después de siglos de letargo. Esta cuestión llegó a entrelazarse de manera intrincada con la síntesis laberíntica de las ideas aristotélicas y platónicas realizada en el seno de la teología cristiana. Influyentes pensadores, como Agustín y Boecio, respaldaron implícitamente el énfasis platónico en el carácter primario de las matemáticas. Ambos señalaron el hecho de que en un principio las cosas fueron creadas «de acuerdo a la medida, el número y el peso» o «según el modelo de los números». Esto lo interpretaron como la manifestación de una característica intrínseca de la mente de Dios y, en consecuencia, la matemática, sin la cual la búsqueda de cualquier conocimiento se vería perjudicada, ocupó su lugar como parte esencial del quadrivium medieval. No obstante, Boecio se inclinó más tarde hacia el punto de vista aristotélico, según el cual se da un acto de abstracción mental en route de la física a las matemáticas, por el que estas dos materias pasan a ser cualitativamente diferentes.

El siglo XII fue testigo de un resurgimiento de la erudición y la investigación. Existía un interés tanto en la perspectiva platónica como en la aristotélica acerca de la relación entre la matemática y el mundo físico. Los estudiosos más eminentes de esta cuestión en el siglo siguiente serían los eruditos ingleses Robert Grosseteste y Roger Bacon. Grosseteste defendió que no todo el conocimiento del mundo físico reposa sobre la matemática y, con frecuencia, parece hacerse eco solamente de la postura aristotélica tradicional. Pero fue algo más lejos al señalar cómo algunas ciencias están subordinadas a otras y, en sus minuciosos estudios sobre la luz, subrayó que la matemática era imprescindible para la explicación de lo que se veía, «ya que la fuerza y la debilidad de toda acción natural varía de acuerdo a la variación de rectas, ángulos y figuras». Grosseteste ejerció su influencia en las ideas de Roger Bacon acerca de las matemáticas y la naturaleza. Bacon escribió cientos de páginas sobre este tema y, de hecho, no hay figura histórica que muestre una preocupación más profunda por la cuestión que él. Bacon creía que el conocimiento matemático era inherente a la mente humana y que la matemática era una forma singular de pensamiento afín tanto a nosotros como a la naturaleza. Su unicidad se caracteriza por el hecho de que permite lograr una certeza absoluta y, por tanto, nuestro conocimiento de la naturaleza puede afianzarse sólo en la medida en que lo cimentemos sobre principios matemáticos:

Solamente… la matemática permanece cierta y demostrable dentro de los límites de la certidumbre y de lo verificable. En consecuencia, todas las otras ciencias deben ser abordadas y verificadas mediante la matemática.

Es más, Bacon era adicto al uso de la matemática para probar las propiedades del universo. Lo que resulta más sorprendente son las primeras pruebas «topológicas» sobre la naturaleza del universo que nos ha dejado. Arguye que el universo debe ser esférico, pues de otra forma su rotación crearía un vacío. Además, sólo puede existir un universo porque si hubiese otro, debería ser esférico por la misma razón y existiría entonces un vacío antiaristotélico entre dicho universo y el nuestro. La postura de Bacon se encuentra a medio camino entre la de Platón y la de Aristóteles y en deuda con la de Grosseteste. Bacon otorgó a la matemática un papel más amplio en las cosas, pero sin llegar a considerarla el centro de todas ellas. En la práctica, hizo un uso efectivo de las matemáticas, tanto en la ciencia práctica, como en la defensa de sus ideas religiosas.

Pese al legado del estudio matemático de la naturaleza por Galileo y Newton, una corriente filosófica escéptica en el continente europeo consiguió que hacia el siglo XIX se otorgase al campo, en rápida expansión, de las matemáticas una relevancia cada vez menor en las ciencias físicas. La matemática sufrió una explosión espectacular, pero comenzaron a escindirse en las categorías de las, así denominadas, matemática «pura» y matemática «aplicada». Influyentes físicos, como Drude y Kirchhoff, defendieron que la tarea de la ciencia era describir cómo era el mundo tan sencilla y completamente como fuera posible. La ciencia, argüían, no nos puede decir nada sobre la realidad: es sólo «una representación del mundo de los fenómenos». De hecho, Drude mantenía que corríamos el grave riesgo de creer que el mundo era intrínsecamente matemático, pues nos podíamos ver inducidos ciegamente a error por el rígido formalismo de los matemáticos puros. Semejantes opiniones no eran raras. Además de ser expresadas por los filósofos operacionalistas, eran también compartidas por físicos como Maxwell, Hertz, Boltzmann y Helmholtz. Sobre este telón de fondo surgió a principios del siglo XX un debate acerca del significado y la relevancia de la vieja idea de Leibniz sobre la «armonía preestablecida» entre las intuiciones matemáticas de la mente y la estructura del mundo externo. En el vocabulario filosófico más abstruso de la época, ésta es la cuestión que nosotros planteamos ahora en relación a la irrazonable eficacia de las matemáticas en la descripción del mundo físico.

A Leibniz le hubiera gustado haber hallado una explicación convincente de la relación armoniosa entre las capacidades y percepciones de nuestras mentes y la estructura del mundo físico de la experiencia. Esto supuso un problema porque él defendió que estos dos reinos, el de la mente y el de la materia, estaban totalmente separados. Para evitar la tensión, propuso la idea de que existe una «armonía preestablecida» entre los dos reinos.

Hubo muchas reacciones a esta cuestión en su tiempo. Algunos, como Fourier, habían defendido que el conocimiento matemático debía derivarse principalmente del estudio de la naturaleza. La armonía tripartita preestablecida entre la mente, la matemática y el mundo físico contaba con el apoyo de Hermite, quien veía una identidad metafísica entre el mundo de las matemáticas y de la física que la mente compartía. Hoy en día, la idea de una armonía preestablecida no es más que una versión encubierta de platonismo. Implícitamente, apunta a nociones matemáticas abstractas que son la fuente común de nuestras ideas matemáticas y de los aspectos matemáticos del mundo físico. Tanto las unas como los otros son un reflejo, si bien de diferente intensidad, de los proyectos matemáticos ubicados en el cielo platónico. Pero cuando matemáticos de la talla de Minkowski y Hilbert hallaron una armonía sorprendente entre sus resultados puramente matemáticos y los mecanismos del mundo físico, muchos encontraron difícil resistirse a los argumentos en favor de dicha armonía. Así, en los primeros años del siglo XX, vemos cómo la aplicación por Minkowski de los números complejos a la descripción del espacio y del tiempo fue saludada por un físico como «una de las grandes revoluciones en nuestras concepciones establecidas».

El enigma que se presentó ahora fue saber hasta qué punto se requerían las particularidades del mundo real necesarias para identificar su unicidad —los valores precisos de las constantes de la física, la elección entre una forma u otra de ecuación—, además de las matemáticas. Aunque parezca que una buena parte de una teoría física del tipo de la teoría general de la relatividad de Einstein consiste en matemáticas y sólo matemáticas, el acoplamiento entre la materia y la geometría espacio-temporal no está determinado únicamente por las matemáticas: debe incorporar la conservación de la energía y del momento. Es más, no hay razón alguna por la que la geometría del espacio y el tiempo haya de venir descrita por los tipos particulares de geometrías curvas definidos por Riemann. Existen otras variedades más complicadas que en principio podrían haber sido igualmente empleadas por la naturaleza. Únicamente la observación puede decirnos en el momento actual cuál de ellas ha sido utilizada. Así pues, las matemáticas son incapaces de decirnos por sí solas qué clase de matemáticas ha elegido la naturaleza para aplicarlas en situaciones particulares. Esto puede ser, claro está, sólo una manifestación transitoria de nuestro relativo desconocimiento de esa imagen superior en la que todo aquello que no se excluye, se demanda.

Demos la última palabra sobre la noción de una armonía preestablecida, que tanto ocupó a los físicos de principios del siglo XX, a Albert Einstein, quien en su juventud fue un devoto creyente de la explicación dada por Leibniz al problema de por qué la naturaleza debía conformarse al pensamiento humano abstracto:

Nadie que haya profundizado verdaderamente en la cuestión podrá negar que, en la práctica, el mundo de los fenómenos determina unívocamente el sistema teórico, pese a no existir un puente lógico entre los fenómenos y sus principios teóricos; esto es lo que Leibniz describió con tanto acierto como una «armonía preestablecida».

Más tarde, sus concepciones tomaron un rumbo que le habría hecho sentirse como en casa en la Grecia antigua:

Estoy convencido de que por medio de construcciones puramente matemáticas podemos descubrir los conceptos y las leyes que operan entre conceptos, que proporcionan la llave del entendimiento de los fenómenos naturales. La experiencia puede sugerir los conceptos matemáticos apropiados, pero éstos no pueden ciertamente deducirse de aquélla. La experiencia sigue siendo, claro está, el único criterio para juzgar la utilidad física de una construcción matemática. Pero el principio creativo reside en la matemática. En cierto sentido, por tanto, creo que es cierto que el pensamiento puro puede comprender la realidad, tal y como soñaron los antiguos.

Tras este cambio de postura se encuentra un cambio interesante en la actitud de Einstein hacia la matemática. En sus primeros trabajos sobre la teoría especial de la relatividad, sobre el movimiento browniano, y también sobre el efecto fotoeléctrico, por el que recibió el premio Nobel, vemos que su modo de proceder se caracteriza por evitar la matemática complicada y hacer hincapié en sencillos argumentos físicos que van al centro del fenómeno en cuestión. Pero la creación de la teoría general de la relatividad le inició a un potente formalismo matemático y a la forma en que las creaciones de los matemáticos puros sirven para algo más que para describir simplemente el mundo. Pueden arropar en una forma universal a las mismas nociones físicas que uno intentaría de otra manera imponer por la fuerza en una teoría de la naturaleza. Impresionado por el éxito de la matemática superior en la formulación de la teoría general de la relatividad en 1915, vemos que la exploración, a la que Einstein se dedicó el resto de su vida, de una teoría de campos unificada estuvo dominada en todo momento por la búsqueda de un formalismo matemático más general que pudiera agrupar las descripciones existentes de la gravedad y el electromagnetismo. Aquí no encontramos nada de los atractivos experimentos mentales, o de los razonamientos físicos de seductora simplicidad que caracterizan los logros iniciales de Einstein. Según muestra la última cita, Einstein había llegado a convencerse de que la sola persistencia en los formalismos matemáticos pondría al descubierto la atractiva simplicidad de una descripción unificada del mundo.

¿Qué es la matemática?

Un desgraciado accidente les ha sucedido a los matemáticos franceses en Perú. Parece ser que estaban galanteando a la manera francesa con las mujeres de los nativos, y éstos han asesinado a sus sirvientes, han destruido sus instrumentos y han quemado sus papeles, salvándose por los pelos los propios caballeros. ¡Qué noticia tan nefasta para una revista!

COLIN MACLAURIN

[Carta a James Stirling (1740)]

Al final del siglo pasado se adoptaron diversas posturas en respuesta a la cuestión acerca de la naturaleza e identidad de la matemática. Aquéllas se vieron motivadas por una serie de problemas contemporáneos acerca del alcance de la matemática y del significado de las paradojas lógicas. Se concretaron en cuatro sencillas filosofías de la matemática antagónicas.

La primera, el formalismo, rehúye cualquier discusión sobre el significado de la matemática, definiendo a ésta como el conjunto, ni más ni menos, de todas las deducciones posibles mediante todas las reglas de inferencia posibles a partir de todos los conjuntos posibles de axiomas consistentes. El entramado resultante de conexiones lógicas es lo que los primeros formalistas eligieron para abarcar toda la verdad matemática. Cualquier proposición que estuviese formulada en el lenguaje de la matemática podía ser examinada con el fin de determinar si se trataba, o no, de una inferencia correcta a partir de axiomas autoconsistentes. No podía concebirse la aparición de una sola paradoja si se aplicaban correctamente las reglas de inferencia. Es evidente que esta imagen, algo claustrofóbica, de la matemática no puede ayudarnos a resolver el problema de por qué la matemática «funciona». Esta es sólo un juego lógico, como el ajedrez o el «tres en raya». No significa nada. No obstante, como ahora sabemos bien, esta grandiosa tentativa de atar bien las cosas fracasó.

Kurt Gödel fue el primero en mostrar que deben existir proposiciones cuya verdad o falsedad nunca podrá demostrarse a partir de las reglas de deducción, si aquéllas y los axiomas iniciales son lo suficientemente ricos como para abarcar nuestra consabida aritmética de los números enteros. Esto lo discutimos desde otro punto de vista en el capítulo 3. Por lo tanto, uno no puede definir la matemática de una manera estrictamente formalista, como podríamos, por ejemplo, definir todas las jugadas posibles de tres en raya.

La segunda opción a nuestra disposición es una filosofía de la matemática que yo denomino invencionismo. Esta considera las matemáticas como una invención puramente humana. Al igual que la música o la literatura, son un producto de la mente humana. La matemática no es ni más ni menos que eso que los matemáticos hacen. La inventamos, hacemos uso de ella, pero no la descubrimos. No existe ningún «otro mundo» de verdades matemáticas esperando a ser descubierto. Nosotros hemos hallado que la matemática es el andamiaje mental más útil que podemos erigir para llegar a hacernos con la fábrica del mundo físico. La realidad no es intrínsecamente matemática. Antes bien, sucede que sólo somos capaces de dilucidar aquellos aspectos de la realidad que son asequibles a la descripción matemática. Así pues, se arguye que su eficacia en la descripción del mundo no es más que la de una descripción, una que es eficaz porque hemos inventado o seleccionado aquellas herramientas matemáticas que hacen mejor el trabajo en cada caso individual. Esta concepción predomina sobre todo entre los economistas, los sociólogos y otros consumidores de matemática, que han de tratar con sistemas muy complejos en los que la simetría no juega ningún papel, o donde los sucesos son los productos caóticos y arbitrarios del proceso de selección natural. En muchos casos, estas materias dirigen la atención hacia los resultados de los procesos organizadores (o a la ausencia de ellos) que discutimos en un capítulo anterior. Estos se encuentran lejos de las prístinas leyes de la naturaleza. Esta concepción considera la destreza matemática de la mente humana como una consecuencia de la evolución, lo cual contribuye en algo a explicar por qué nuestra representación mental del mundo encaja tan bien con la realidad misma. Nuestros cerebros son el resultado de una historia evolutiva que no cuenta con un objetivo preconcebido. Pero el resultado más probable de esta historia será un aparato matemático que reúna, represente y utilice información sobre el mundo con el fin de predecir su curso futuro; una representación que logre reflejar cada vez con más precisión la verdadera realidad subyacente. Una burda categorización mental del mundo físico tendría una probabilidad de supervivencia pequeña comparada con una que fuera exacta. Cualquier criatura que pensara que el aquí es allí o el antes es después, que fallara en reconocer el proceso de causa y efecto, tendría escasas probabilidades de sobrevivir y reproducirse, y se convertiría así en un contribuyente cada vez menor a la reserva genética. Esto da un crédito histórico a la imagen realista del mundo —hasta cierto punto. Pues hay partes de la realidad, como el mundo de las partículas elementales o la cosmología, la superconductividad a altas temperaturas o la mecánica cuántica, de las que no supimos, ni necesitamos saber, durante la historia evolutiva crucial que condujo a nuestra destreza mental. Quizá estas áreas esotéricas sólo hagan un uso complicado de conceptos básicos, cuya representación fidedigna fue modelada por la selección natural durante nuestro pasado primitivo. La alternativa que Niels Bohr propuso, como solución a nuestra pugna por admitir la interpretación de la complementariedad cuántica, es que hay conceptos y dominios de la realidad física sobre los que poseemos un escaso entendimiento conceptual, precisamente porque las ideas necesarias para ello podrían no haber jugado ningún papel en nuestra historia evolutiva. De acuerdo con Bohr, nuestras «categorías de pensamiento», esos filtros mentales de los datos sensoriales que extraemos del mundo, «se desarrollaron para que pudiéramos orientarnos en nuestro entorno y para hacer posible la organización de comunidades humanas». Así, Bohr anticipó que, cuando topamos con sucesos apartados de la experiencia cotidiana, podrían surgir «dificultades al tratar de orientarnos en un dominio de la experiencia lejos de aquel a cuya descripción se adecúan nuestros medios de expresión». Por supuesto, uno puede extrapolar todavía más este enfoque y «explicar» así toda suerte de misterios, pero debe cuidar de identificar una adaptación neurofisiológica concreta para que no se dé una degeneración en meros relatos del tipo «justo así». En muchos casos una forma de análisis juego-teórico puede resultar sugerente. Por ejemplo, podríamos intentar entender sobre una base evolutiva por qué los individuos dicen la verdad la mayoría de las veces, pero no siempre. Si todos dijeran siempre la verdad, la ventaja potencial que se ganaría con cualquier mentira perversa sería enorme. Por otro lado, si todos mintieran siempre, la sociedad se vendría abajo. Entre estos dos extremos parece existir un estado natural estable en el que la mayoría de la gente dice la verdad casi todo el tiempo, pero en el que las mentiras son lo suficientemente corrientes como para impedir que nos convirtamos en las víctimas crédulas de un mentiroso empedernido.

Para el invencionista, la matemática es una de nuestras categorías de pensamiento y las limitaciones fundamentales a su alcance, como la descubierta por Gödel, se asocian antes a nuestras categorías de pensamiento que a la realidad misma.

La siguiente opción respecto a la naturaleza de la matemática es la interpretación realista o platónica. En apariencia la más sencilla, mantiene que las matemáticas existen realmente —«pi» está realmente en el cielo—, y que los matemáticos simplemente las descubren. La verdad matemática existe con independencia de la existencia de los matemáticos. Es una forma de verdad universal objetiva. Así, el hecho de que las matemáticas cosechen un éxito tan notable en su descripción de la forma en que el mundo funciona, se debe a que el mundo es esencialmente matemático. Cualesquiera límites al razonamiento matemático, como los descubiertos por Gödel, no son pues meramente límites impuestos a nuestras categorías mentales, sino propiedades intrínsecas de la realidad y, en consecuencia, límites a cualquier tentativa de entender la naturaleza fundamental del universo.

Para esta interpretación, la Teoría del Todo ha de ser una teoría matemática. Por supuesto los defensores de esta concepción citan la afortunada descripción matemática del mundo como una prueba a su favor. Pero, aun así, uno podría preguntarse cómo es posible que conceptos matemáticos tan elementales puedan describir una parte tan considerable del mundo. Quizá no hayamos ahondado lo suficiente para averiguar algo sobre su estructura, sin duda profunda y difícil. Ciertamente, los problemas planteados por el modelo de cuerdas de la materia en su nivel más elemental han inducido a sus creadores a argüir que ha sido descubierto demasiado prematuramente, mucho antes de que nuestro conocimiento matemático haya madurado lo suficiente para hacer frente a las cuestiones que plantea. Ciertamente, se trata de un notable ejemplo de una teoría física que se ha encontrado con que la matemática «confeccionada» es insuficiente para sus propósitos y ha orientado, de hecho, a los matemáticos hacia nuevas y fructíferas áreas de la investigación matemática pura.

Junto a las cuestiones tradicionales de dónde está, o qué es, en realidad el mundo platónico de las ideas matemáticas perfectas, esta concepción nos adentra en una serie de cuestiones profundas y fascinantes. Eleva a las matemáticas a un estatus muy próximo al que se confiere a Dios en la teología tradicional. Basta con tomar cualquier obra de teología medieval y cambiar, siempre que aparezca, la palabra «Dios» por la de «matemática», y se obtendrá algo con perfecto sentido. La matemática es parte del mundo, empero lo trasciende. Debe existir antes y después del universo. A este respecto, es reminiscente de nuestro análisis sobre la naturaleza del tiempo en capítulos anteriores. En la imagen newtoniana del mundo, tanto el espacio como el tiempo eran absolutos e independientes de los sucesos que acontecían en su seno. Luego, la transformación einsteiniana de nuestros conceptos de espacio y tiempo (cuya radicalidad se ve ensombrecida por el hecho de que los conceptos retienen los mismos nombres) vinculó a ambos con los sucesos que acaecían en el universo. Quizá se dé una evolución similar de esta interpretación de la matemática. Aunque por el momento las matemáticas parecen trascender al universo, pues los cosmólogos piensan que pueden efectivamente describirlo en su totalidad por medio de la matemática y utilizar ésta para estudiar el proceso de creación y aniquilación de universos, quizá terminemos asociando estrechamente la naturaleza de las matemáticas a procesos físicos realizables como el contar o el calcular.

La mayoría de los científicos y de los matemáticos operan como si el platonismo fuese verdadero, sin importar si realmente creen que es así. Es decir, trabajan como si existiese un reino desconocido de verdades por descubrir[17].

Los físicos de partículas son, con diferencia, los más platónicos, pues todo su campo de estudio está cimentado sobre la creencia de que los mecanismos más profundos del mundo están basados en simetrías. Ellos examinan una simetría tras otra, convencidos de que la mayor y la mejor hallará uso en el gran sistema de las cosas. Pero la filosofía platónica no es tan corriente como lo era hace cien años, cuando los victorianos llenaron confiadamente sus bibliotecas de libros que portaban títulos como La teoría del sonido o Hidrodinámica. Hoy en día, el temor del invencionista a la sola existencia de una cualquiera de dichas representaciones matemáticas de las cosas, independiente de la mente del matemático, se refleja en títulos más de moda como Modelos matemáticos de los fenómenos del sonido o Conceptos sobre el flujo de los fluidos, que subrayan la imagen subjetiva y la no unicidad de la historia contenida en ellos.

Una de las consecuencias espectaculares del punto de vista platónico es que la vida debe existir en todos los sentidos porque hay un modelo matemático de ella. Si tuviésemos que construir una simulación por ordenador de la evolución de una pequeña parte del universo que incluyera, por ejemplo, un planeta como la Tierra, este modelo podría en principio perfeccionarse al punto de comprender la evolución de seres sensibles que serían conscientes de sí mismos. Éstos sabrían de la existencia de, y se comunicarían con, otros seres similares que surgieran en el marco de la simulación, y también podrían deducir las reglas de programación que designarían como «leyes de la naturaleza». Sabemos que semejante programa existe simplemente porque nosotros hemos evolucionado y la secuencia de sucesos que condujo hasta nosotros podría en principio ser simulada. Pero, dado que el programa existe en principio, puede argüirse que los seres sensibles existen forzosamente en el único sentido que tiene significado para ellos. De hecho, nosotros podríamos ser los componentes de una simulación de esta índole en la mente de Dios. Frank Tipler resume la interpretación más radical de este tipo de prueba ontológica fundada en la computación como sigue:

Existe necesariamente un programa lo suficientemente complejo como para contener observadores. La idea es que todos los procesos físicos pueden ser representados por un programa de ordenador. Así pues, un programa lo suficientemente complicado puede simular todo el universo. De hecho, si la simulación es perfecta, será por definición absolutamente indiscernible del universo real. Cada persona y cada acción de cada persona en el universo real tendrían un exacto análogo en la simulación. Estos son reales, existen, de acuerdo a las observaciones simuladas de las personas simuladas en el universo simulado. Nosotros mismos podríamos ser una de dichas simulaciones por ordenador. No habría forma de decir desde dentro de la simulación si estamos dentro de ella; el software no puede decir en qué hardware está siendo utilizado. De hecho, no hay ninguna razón por la que tenga que existir algún hardware, como Minsky dice: «el universo simplemente no existe». Así pues, si un programa —o más en general, una teoría física— que contiene observadores, existe matemáticamente, existe por fuerza físicamente en el único sentido razonable de la existencia física: los observadores observan que ellos mismos existen.

El lector habrá detectado un guiño peligroso en este argumento —que todo proceso físico puede ser simulado por un programa de ordenador. No sabemos si esto es verdad; ciertamente, no toda operación matemática puede ser simulada en esta forma. Existen teoremas «verdaderos» que no pueden ser deducidos paso a paso a la manera de un programa de ordenador. Tendremos mucho más que decir sobre esta cuestión en breve; aquí la hemos planteado porque nos conduce de manera natural a la última de nuestras posibles interpretaciones de la matemática.

El constructivismo fue concebido en la atmósfera de incertidumbre de finales del siglo XIX creada por las paradojas lógicas de la teoría de conjuntos y por las extrañas propiedades cantorianas de los conjuntos infinitos que ya introdujimos en el capítulo 3. Sintiendo que las matemáticas podrían verse conducidas a un serio error y contradicción por la manipulación de conceptos como el de infinito, sobre los que no tenemos una experiencia concreta, algunos matemáticos propusieron la adopción de una postura conservadora donde se definiese la matemática de manera que sólo incluyera aquellas proposiciones que pudieran ser deducidas paso a paso, mediante una secuencia finita de construcciones, a partir de los números naturales que se suponían de procedencia divina y fundamentales. En un principio, esto suena más bien a una fórmula burocrática consumidora de tiempo, pero resulta tener consecuencias muy importantes en toda la extensión y significado de las matemáticas.

El sometimiento de las pruebas lógicas al dictado de los constructivistas elimina algunos procedimientos familiares como la prueba por contradicción (la llamada «reducción al absurdo»), en la que uno da por supuesto que una proposición es verdadera y, a partir de dicha suposición, procede a deducir una contradicción lógica y, por tanto, a la conclusión de que la suposición inicial debe ser falsa. Si se adopta la filosofía constructivista, el contenido de la matemática se ve considerablemente reducido. Los resultados de dicho reduccionismo son también importantes para el científico. De hecho, nos veríamos obligados a renunciar a deducciones tan célebres como las de los «teoremas de singularidad» de la relatividad general, los cuales especifican, en caso de ser satisfechas por la estructura de un universo y su contenido material, las condiciones suficientes para la existencia de un momento pasado en el que las leyes de la física tuvieron que colapsar —una singularidad que hemos dado en llamar el big bang. Pues estos teoremas no construyen este momento pasado explícitamente, antes bien utilizan el procedimiento por reducción al absurdo para mostrar que su no existencia daría lugar a una contradicción lógica. La lección importante que extraemos de esto es que la noción de lo que es «verdadero» acerca del universo parece depender de nuestra filosofía de la matemática. Este es el inconveniente de vivir en un mundo que es tan manifiestamente matemático.

Está claro que el constructivista es un primo cercano del filósofo operacionalista que define las cosas mediante el procedimiento por el que pueden ser aplicadas o construidas. La cantidad física más interesante a este respecto es «el tiempo», el cual, si se define a través del procedimiento por el que se registra, deja abierta la posibilidad de concebir un universo con un pasado infinito, siempre que haya medidas fundamentales de los sucesos en el universo que se vayan aminorando conforme uno retrocede más y más en el tiempo.

La filosofía constructivista conduce de manera natural al concepto de los ordenadores, pues la construcción secuencial de las proposiciones matemáticas es justamente lo que hacen los ordenadores. La esencia de todos los ordenadores plausibles consiste meramente en la capacidad de leer una cadena de enteros y transformarla en otra cadena de enteros. Esta capacidad, a pesar de su aparente trivialidad, es todo lo que se exige al funcionamiento de los ordenadores más potentes del mundo. Su magnificencia como máquinas calculadoras reside en la velocidad a la que pueden realizar dichas operaciones, junto a su capacidad para ejecutar ocasionalmente varias de dichas operaciones de forma simultánea. Esta capacidad, esencial a todas las máquinas calculadoras, es denominada máquina de Turing, en honor al matemático inglés Alan Turing. El término «máquina de Turing» se utiliza para caracterizar la capacidad de cualquier dispositivo lógico secuencial

En un principio, se confió en que dicho hipotético dispositivo podría ser capaz de realizar cualquier operación matemática y de permitir así catalogar mecánicamente todas las verdades decidibles de la matemática. Alan Turing, Alonzo Church y Emil Post fueron los primeros en demostrar que esto no podía ser así. Existen operaciones matemáticas —llamadas funciones no computables— que no pueden ser llevadas a cabo por ninguna máquina de Turing. Por supuesto, también existen operaciones matemáticas que la máquina puede realizar de manera secuencial, pero que llevaría millones de años completarlas utilizando las máquinas más rápidas disponibles. Tales operaciones son no computables a todos los efectos prácticos y, de hecho, forman la base de muchas formas modernas de codificación. Sin embargo se diferencian cualitativamente de las funciones no computables en que cualquier máquina de Turing necesitaría un período de tiempo infinito para ejecutar una de estas últimas: la máquina de Turing no alcanzaría nunca el estadio de imprimir el resultado final.

Si esto es cierto, la imagen constructivista de la matemática revelará algunas cosas esclarecedoras sobre el universo matemático. Arroja una nueva luz sobre la cuestión de por qué la matemática es tan irrazonablemente eficaz en la descripción del mundo real. Esta eficacia es equivalente al hecho de que muchas operaciones matemáticas simples son operaciones computables en el sentido de Turing. Las funciones computables son operaciones matemáticas que pueden ser simuladas por un dispositivo real, un artefacto del mundo físico formado por partículas elementales sujetas a las leyes de la naturaleza. Recíprocamente, el hecho de que dispositivos reales o «fenómenos naturales» estén bien descritos por funciones matemáticas simples es equivalente al hecho de que muchas de dichas funciones son computables. Si todas las funciones simples de la matemática fueran no computables, no hallaríamos en ella un vehículo útil para la descripción del mundo. Podríamos tener teoremas o verdades no constructivas sobre el mundo, pero poco que fuese de alguna utilidad práctica.

Matemática y física: la trenza de oro eterna

No infectéis vuestra mente debatiéndoos por lo extraño de este negocio.

WILLIAM SHAKESPEARE

La notable simbiosis de la matemática y la física cuenta con ejemplos que abarcan muchos siglos. Esta relación posee asimismo una simetría sorprendente: hay ejemplos donde las matemáticas clásicas están hechas a medida para favorecer la descripción de lo físico, y hay ejemplos donde el deseo de avanzar en nuestro entendimiento del mundo físico ha llevado a la creación de nuevas matemáticas, las cuales son desarrolladas subsiguientemente por los matemáticos debido al interés que presentan en sí mismas. Consideremos una serie de ejemplos notables de cada categoría. Primero, algunos ejemplos donde las ideas matemáticas hayan sido desarrolladas debido a su interés en sí mismas por matemáticos impresionados por la simetría, la lógica intrínseca y la generalidad de los conceptos involucrados, pero que después hayan resultado ser un vehículo perfecto para la descripción y elucidación de nuevos aspectos de la naturaleza.

Cónicas

Apolonio de Pérgamo vivió aproximadamente desde el año 262 hasta el 200 a. C., y fue contemporáneo de Arquímedes. Aprendió matemáticas en la escuela fundada por los sucesores de Euclides y, a pesar de que la mayoría de sus trabajos originales se han perdido, se le considera uno de los más grandes matemáticos de la antigüedad debido a su trabajo sobre las cónicas. Éste establece todas las propiedades geométricas y algebraicas de las elipses, las parábolas y las hipérbolas. Sin estas investigaciones, Kepler habría carecido de las descripciones matemáticas requeridas por la teoría de los movimientos planetarios que formuló en 1609. Más tarde, la deducción por Newton de las leyes de Kepler sobre el movimiento planetario, a partir de su propia ley del inverso del cuadrado de la fuerza gravitatoria, puso de manifiesto el pleno significado físico de las curvas parabólicas, hiperbólicas y elípticas en la descripción de las órbitas de los cuerpos en movimiento bajo campos de fuerzas atractivas como la gravitación.

Geometría riemanniana y tensores

El desarrollo por Riemann de la geometría no euclidiana como una rama de la matemática pura en el siglo XIX, y el estudio de objetos matemáticos llamados tensores, fue un don de los cielos al desarrollo de la física del siglo XX. Los tensores se definen por el hecho de que sus partes constituyentes cambian de una manera muy peculiar cuando los índices de sus coordenadas se alteran de forma completamente arbitraria. Esta esotérica maquinaria matemática resultó ser precisamente lo que Einstein necesitaba en su formulación de una teoría general de la relatividad. La geometría no euclidiana describía la distorsión del espacio y el tiempo en presencia de la energía del contenido material, mientras que el comportamiento de los tensores aseguraba que cualquier ley de la naturaleza escrita en lenguaje tensorial mantendría automáticamente la misma forma con independencia del estado de movimiento del observador. De hecho, Einstein tuvo la gran fortuna de que su viejo amigo, el matemático puro Marcel Grossmann, pudiera iniciarle en estas técnicas matemáticas. Si éstas no hubieran existido, Einstein no podría haber formulado la teoría general de la relatividad.

Grupos

Hemos subrayado reiteradamente el papel universal de la simetría en la física moderna. El estudio sistemático de las simetrías cae bajo el apartado de la «teoría de grupos» para el matemático. Este campo de estudio fue creado en su mayor parte hacia mediados del siglo XIX sin contar, una vez más, con una motivación física; se dividió en el estudio de los grupos finitos que describen cambios discretos como las rotaciones, y en el de los grupos que describen transformaciones continuas. Estos últimos fueron estudiados con todo detalle por el noruego Sophus Lie. De hecho, el poder y la profundidad de estos desarrollos del siglo XIX, y la manera en que arrojaron luz sobre lo que parecían áreas totalmente separadas de la matemática, indujeron a Henri Poincaré a afirmar que los grupos eran «toda la matemática». Sin embargo, por aquel entonces no había ninguna conexión evidente con los problemas de la física, al punto que en 1900 sir James Jeans, discutiendo con un colega suyo aquellos dominios de la matemática de cuyo conocimiento el físico podía sacar más provecho, aseguró que «podemos también eliminar la teoría de grupos, ésta es una materia que nunca será de utilidad alguna en la física». Muy al contrario, la clasificación sistemática de las simetrías y su entronización como objeto de estudio en la teoría de grupos es lo que forma la base de una buena parte de la física fundamental moderna. A la naturaleza le gusta la simetría y los grupos constituyen en consecuencia una parte fundamental de su descripción.

Espacios de Hilbert

Hay dos grandes teorías en la física del siglo XX. La primera, la relatividad general, debe su creación, según acabamos de ver, a la disponibilidad de una estructura superior formada por la geometría no euclidiana y el cálculo tensorial. La segunda, la mecánica cuántica, no está en menor deuda con los matemáticos. En este caso, fue David Hilbert quien medió involuntariamente en su concepción. Hilbert concibió la idea de construir versiones infinito-dimensionales del espacio euclidiano. Éstas se llaman ahora espacios de Hilbert. Un espacio de Hilbert es un espacio cuyos puntos se encuentran en correspondencia biunívoca con una colección de cierto tipo de operaciones matemáticas. Estos espacios forman la base de la formulación matemática de la teoría de la mecánica cuántica y de la mayoría de las teorías modernas de las interacciones entre partículas elementales. Una gran parte de esta matemática abstracta fue inventada en los primeros años del siglo XX y veinte años después estuvo lista para ser explotada por los físicos, cuando la revolución cuántica liderada por Bohr, Heisenberg y Dirac se vio completamente formalizada.

Variedades complejas

El interés reciente en las teorías de supercuerdas como candidatas a una Teoría del Todo ha hecho que los físicos se apresurasen una vez más en busca de sus libros de matemáticas. En esta ocasión necesitaban ideas sobre la estructura de las variedades complejas y otras generalizaciones matemáticas puras, igualmente esotéricas, de conceptos más familiares. Sin embargo, en esta ocasión, no hallaron nada en los libros. Por primera vez en la historia reciente de este campo, los físicos han encontrado que las matemáticas confeccionadas no alcanzan para sus propósitos y los matemáticos se han puesto a trabajar para extender su campo de estudio en las direcciones que la física reclama.

Las partes de la matemática requeridas para desarrollar el concepto de las cuerdas como entidades más fundamentales del mundo físico están en la frontera del conocimiento matemático. Pocos físicos están bien preparados para entenderlas totalmente y el estilo de investigación presentado por los matemáticos es a menudo exasperante para el físico. El físico quiere entender las cosas de una manera que le permita utilizarlas en su trabajo. Esto requiere el desarrollo de un fino sentido intuitivo para las ideas en cuestión y a menudo éste se logra con mayor efectividad imaginando ejemplos sencillos de los conceptos abstractos involucrados. Esto es, al físico le gusta aprender mediante las ilustraciones particulares de un concepto abstracto general. Los matemáticos, por otro lado, evitan con frecuencia lo particular en aras de una formulación lo más abstracta y general posible. Aun cuando el matemático piense a partir, o a través, de ejemplos concretos particulares para llegar a demostrar la aparente verdad de proposiciones muy generales, ocultará por lo general todos estos pasos intuitivos cuando haya de presentar las conclusiones de su trabajo. Como resultado de ello, la literatura sobre la investigación matemática pura es virtualmente impenetrable para los profanos. Presenta los resultados de la investigación como una jerarquía de definiciones, teoremas y demostraciones a la manera de Euclides; esto ahorra palabras innecesarias, pero disimula de manera muy efectiva el curso natural de pensamiento que condujo a los resultados originales. En gran medida, este rasgo desafortunado se vio estimulado por el proyecto Bourbaki. Bourbaki es el seudónimo de un grupo variable de matemáticos franceses, que en los últimos cincuenta años han colaborado en la edición de una serie de monografías sobre las «estructuras» fundamentales de la matemática. Ellos representan las últimas esperanzas de los formalistas: la axiomática, el rigor y la elegancia prevalecen; los diagramas, los ejemplos y los detalles se excluyen. Aunque la veintena, o más, de volúmenes publicados por Bourbaki no han aportado nuevos resultados matemáticos, han presentado dominios conocidos de este campo de estudio en formas originales y más abstractas. Éstos constituyen los libros de texto fundamentales del cognoscenti. Incluso en los círculos matemáticos, Bourbaki es abiertamente criticado por su «escolasticismo» y su «hiperaxiomática»; uno de sus defensores, Laurent Schwarz, intenta, empero, justificar su enfoque y la contraposición del mismo al de los inventores de nuevas ideas de la forma siguiente:

Las mentes científicas son esencialmente de dos tipos, ninguno de los cuales ha de considerarse superior al otro. Hay quienes gustan del detalle fino, y quienes sólo están interesados en las grandes generalidades… En el desarrollo de una teoría matemática, el camino es desbrozado generalmente por los científicos de la escuela «detallista», quienes tratan los problemas mediante métodos nuevos, formulan las cuestiones importantes que deben ser establecidas y buscan tenazmente soluciones sin importar el grado de dificultad. Una vez que éstos han realizado su tarea, las ideas de los científicos propensos a la generalidad entran en juego. Ellos examinan y seleccionan, conservando sólo material vital para el futuro de las matemáticas. Su trabajo es pedagógico, antes que creativo, pero es indudablemente tan vital y difícil como el de los pensadores de la categoría contraria… Bourbaki pertenece a la escuela de pensamiento «generalista».

No obstante, la corriente principal de las matemáticas ha comenzado a alejarse del altiplano del formalismo extremo y a regresar al estudio de los problemas particulares, principalmente de aquellos que implican fenómenos caóticos no lineales, así como a buscar motivación en el mundo natural. Se trata de un retorno a una distinguida tradición, pues al igual que hay ejemplos de las matemáticas clásicas apropiados para iniciarnos en una nueva física, también hay ejemplos contrapuestos en los que nuestro estudio del mundo físico ha motivado la invención de nuevas matemáticas. La contemplación del movimiento continuo por Newton y Leibniz y su deseo de adscribir un significado a la noción de razón instantánea de cambio de una cantidad dada condujeron a la creación del cálculo. El trabajo de Jean-Baptiste Fourier sobre las series de curvas trigonométricas, conocidas hoy como «series de Fourier», surgió del estudio de la conducción del calor y de la óptica. En el siglo XX, la consideración de fuerzas impulsivas condujo a la invención de nuevos tipos de entidades matemáticas llamados «funciones generalizadoras». Éstas fueron utilizadas portentosamente por Paul Dirac en su formulación de una mecánica cuántica, y después axiomatizadas y generalizadas en un subconjunto de las matemáticas puras. Esta evolución fue célebremente recapitulada por James Lighthill, autor del primer libro de texto sobre la materia, al otorgar el crédito a Dirac, Laurent Schwarz (quien aportó la justificación matemática pura y rigurosa de las nociones utilizadas intuitivamente por Dirac) y George Temple (quien mostró cómo el edificio lógico de Schwarz podía ser explicado en términos sencillos a quienes quisieran hacer uso de él). Lighthill dedica su trabajo, así:

A Paul Dirac, quien vio que esto debía ser cierto. A Laurent Schwarz, quien lo demostró. Y a George Temple, quien mostró cuán simple podía ser todo ello.

Recientemente, esta propensión a las aplicaciones específicas se ha perpetuado en la creación de un gran número de teorías de sistemas dinámicos y, muy notablemente, del concepto de atractor extraño, como resultado del intento de describir los movimientos turbulentos en los fluidos. El interés creciente en la descripción del cambio caótico, que se caracteriza por la rápida escalada en el tiempo de cualquier error en su descripción exacta, ha conducido a una filosofía completamente nueva respecto a la descripción matemática de los fenómenos. En lugar de buscar ecuaciones matemáticas cada vez más exactas para describir un fenómeno dado, uno explora aquellas propiedades que son comunes a casi todas las ecuaciones posibles que gobiernan el cambio. Podría esperarse por consiguiente que dichas propiedades «genéricas», como se las denomina, se manifiesten asimismo en fenómenos que no poseen propiedades muy especiales. Esta clase de fenómenos es la que seguramente se encuentra con más facilidad en la práctica.

Finalmente, podríamos regresar a la situación de las cuerdas y de las variedades complejas. Este dominio de la física, aunque no cuente todavía con resultados que puedan ser verificados experimentalmente, ha señalado el camino hacia nuevos tipos de estructuras matemáticas, y sus proponentes más eminentes están al borde de convertirse en matemáticos puros en todo salvo en el nombre. Si la teoría de supercuerdas se las arreglase para hacer alguna predicción observable en un futuro no muy distante, puede que presenciásemos el interesante espectáculo que supondría ver de nuevo a las matemáticas puras recibiendo órdenes marciales de la física experimental. Sin embargo, si las cuerdas fuesen proscritas definitivamente como una descripción del mundo físico de las partículas elementales, los matemáticos puros seguirían de nuevo interesados por su estructura matemática propiamente dicha. Como un genio, una vez sacado de su lámpara, no es fácil hacer que vuelva a meterse en ella.

La inteligibilidad del mundo

Ellos dicen que se precisan tres generaciones para aprender a cortar un diamante, una vida entera para aprender a montar un reloj de pulsera, y que sólo tres personas en el mundo entero comprendieron totalmente la teoría de la relatividad de Einstein. Pero todos los entrenadores de fútbol americano sin excepción están convencidos de que nada de lo anterior es comparable en complejidad a jugar como defensa lateral en la NFL [Liga Nacional de Fútbol Americano]. Pues los relojes de pulsera no mezclan las defensas en tu juego, los diamantes no descargan de una vez y Einstein disponía de todo el día para lanzar. E=mc2 no rota a los que cubren.

Informe deportivo de Los Angeles Times

Una de las características más sorprendentes del mundo es que sus leyes parecen simples, mientras que la plétora de estados y situaciones que manifiesta es extraordinariamente complicada. Para resolver esta discrepancia, debemos trazar de nuevo una clara línea divisoria, como ya hicimos en el capítulo 6, entre leyes de la naturaleza y resultados de esas leyes, entre ecuaciones de la física y sus soluciones. El hecho de que los resultados de las leyes de la naturaleza no tengan por qué poseer las simetrías de las leyes subyacentes hace de la ciencia una empresa difícil, y nos enseña por qué las complejas estructuras colectivas que encontramos en la naturaleza pueden ser los resultados de leyes extremadamente simples de cambio e invariancia. Pero, por muy necesario que sea el reconocer este punto, no es ni con mucho suficiente para dotar de significado al mundo físico.

A la vista de ello, podríamos pensar que para el mundo sería bastante más fácil ser un caos ininteligible, y no el cosmos relativamente coherente que el científico disfruta desvelando. ¿Cuáles son las características del mundo que juegan un papel importante a la hora de hacerlo inteligible para nosotros? Aquí ofrecemos una lista de aquellos aspectos que parecen jugar un papel sutil, pero vital, en la inteligibilidad de la naturaleza.

Linealidad

Los problemas lineales son problemas fáciles. Se trata de problemas en los que la suma o la diferencia de cualesquiera dos soluciones particulares son también una solución. Si L es una operación lineal, y su acción sobre una cantidad A produce el resultado a, mientras que su operación sobre B produce el resultado b, entonces el resultado de la operación de L sobre A más B será a más b. Así pues, si una situación es lineal, o está sometida a influencias que son lineales, será posible confeccionar un cuadro de su comportamiento global examinándolo en pequeñas partes. El todo estará compuesto por la suma de sus partes. Por fortuna para el físico, una gran parte del mundo es lineal en este sentido. En esta parte del mundo, uno puede cometer pequeños errores al determinar el comportamiento de las cosas en un momento dado y esos errores se verán amplificados muy lentamente conforme el mundo cambia en el tiempo. Los fenómenos lineales admiten, pues, un modelado matemático muy exacto. El resultado de una operación lineal varía constante y suavemente con cualquier cambio en sus variables iniciales. Los problemas no lineales son muy diferentes. Amplifican los errores tan rápidamente que la más mínima incertidumbre en el estado presente del sistema puede dar al traste en un período muy breve de tiempo con cualquier predicción futura de su estado. Sus outputs responden de manera discontinua e impredecible a cambios muy pequeños en sus inputs. No se pueden sumar los comportamientos locales particulares para construir uno global: se requiere un punto de vista holístico en el que el sistema sea considerado como un todo. Nosotros estamos familiarizados con muchos problemas complicados de esta naturaleza: la salida de agua por un grifo, el desarrollo de una economía compleja, las sociedades humanas, el comportamiento de los sistemas climáticos —su totalidad es mayor que la suma de sus partes. Pero nuestra educación e intuición están dominadas por los ejemplos lineales porque son simples. Los profesores muestran en clase las soluciones de las ecuaciones lineales y los escritores de libros de texto presentan el estudio de los fenómenos lineales porque son los únicos ejemplos que pueden resolverse con facilidad: los únicos fenómenos que admiten un entendimiento inmediato y completo. Muchos científicos sociales, interesados en hallar modelos matemáticos de comportamiento social, consideran invariablemente modelos lineales porque son los más sencillos y los únicos de los que se les ha hablado, mientras que las ecuaciones no lineales más simples que podamos concebir exhiben un comportamiento de una profundidad y sutileza insospechadas que es, a todos los efectos prácticos, completamente impredecible.

Pese a la ubicuidad de la no linealidad y de la complejidad, las leyes fundamentales de la naturaleza a menudo dan lugar a fenómenos que son lineales. Así pues, si tenemos un fenómeno físico que puede ser descrito por la acción de una operación matemática f sobre una variable x, que denotamos por f(x), podemos en general expresar esto como una serie de la forma:

f(x) = f0 + xf1 + x2f2 +…,

donde la serie podría continuar indefinidamente. Si f(x) es un fenómeno lineal, podrá ser aproximado a un alto grado de precisión por los dos primeros términos de la serie que figura a la derecha de la ecuación; los términos restantes son, o bien todos ceros, o bien disminuyen en magnitud tan rápidamente de un término al siguiente que su contribución es despreciable. Por fortuna, la mayoría de los fenómenos físicos poseen esta propiedad. Esta es crucial para que el mundo sea inteligible y está estrechamente vinculada a otros aspectos de la realidad, siendo el más notable el que expondremos a continuación.

Localidad

El sello distintivo de todo el mundo no cuántico es que las cosas que ocurren aquí y ahora están causadas directamente por sucesos que acaecieron en su proximidad inmediata en el espacio y en el tiempo: a esta propiedad la denominamos «localidad» con la intención de reflejar el hecho de que son justamente los sucesos más locales los que ejercen una mayor influencia sobre nosotros. Habitualmente, la linealidad es necesaria para que una ley de la naturaleza posea esta propiedad, aunque no es suficiente para garantizarla. La intensidad de las fuerzas fundamentales de la naturaleza, como la gravedad, disminuye a medida que aumenta su distancia de la fuente a una velocidad que asegura que el efecto total en cualquier punto esté dominado por las fuentes próximas y no por las del otro lado del universo. Si la situación se invirtiese, el mundo estaría dominado de manera irregular por influencias imperceptibles en los confines más lejanos del universo y nuestras posibilidades de comenzar siquiera a entenderlo serían muy remotas. Curiosamente, el número de dimensiones espaciales que experimentamos a gran escala juega un papel importante en la preservación de este estado de cosas. También asegura que los fenómenos ondulatorios se comporten de manera coherente. Si el espacio tuviese cuatro dimensiones, las ondas simples no viajarían a la misma velocidad en el espacio libre y, por tanto, recibiríamos simultáneamente ondas que habrían sido emitidas en diferentes tiempos. Es más, en cualquier universo, salvo en uno con tres dimensiones espaciales a gran escala, las ondas se verían distorsionadas a medida que se fuesen propagando. Semejantes reverberación y distorsión harían imposible cualquier señalización de alta fidelidad. El hecho de que una parte considerable de nuestro universo físico, desde las ondas cerebrales hasta las ondas cuánticas, descanse sobre ondas que se propagan a su través, nos lleva a reconocer el papel clave que juega la dimensionalidad de nuestro espacio en hacer su contenido inteligible para nosotros.

No todo fenómeno natural posee la propiedad de localidad. Cuando miramos el mundo cuántico de las partículas elementales, descubrimos que el mundo es no local. Éste es el significado del famoso teorema de Bell. Éste nos muestra algo de la ambigüedad entre el observador y lo observado que emerge cuando entramos en el mundo cuántico de lo muy pequeño, donde la influencia del acto de observación sobre lo que está siendo observado es invariablemente significativa. En nuestra experiencia cotidiana esta ambigüedad cuántica nunca se hace manifiesta. Nosotros tomamos, confiadamente, nociones como la posición o velocidad por bien definidas, inambiguas, e independientes de quien haga uso de ellas. Pero el hecho de que nuestro universo actual admita dicha definibilidad no deja de ser un misterio. Cuando miramos hacia atrás, a los primeros instantes del big bang, nos encontramos con el mundo cuántico que describimos en el capítulo 3. De dicho estado, en el que de causas iguales no se siguen efectos iguales, debe emerger de alguna manera un mundo semejante al nuestro, donde los resultados de la mayoría de las observaciones son claros. Esto no es en absoluto inevitable y puede requerir que el universo haya emergido de un estado prístino bastante especial.

La conexión local-global

La presencia favorable de linealidad y localidad en el mundo de la observación y la experiencia cotidiana fueron esenciales para empezar a entender el mundo. Dicho entendimiento comienza localmente y encuentra causas locales para efectos locales. Pero ¿cómo debe ser el mundo para que podamos confeccionar una descripción global a partir de lo local? En algún sentido, la imagen global del universo debe estar compuesta por muchas copias de su estructura local. Asimismo, deben existir algunas invariancias del mundo frente a los cambios de ubicación en el espacio y en el tiempo de todas sus entidades más elementales, de manera que la fábrica más básica de la realidad sea universal y no dependa de cuestiones parroquiales. Los físicos de partículas han descubierto que el mundo está misteriosamente estructurado de dicha manera y que las teorías gauge locales, que ya introdujimos anteriormente en el capítulo 4, dan testimonio del poder de esta conexión local-global. El requisito de que se dé esta correspondencia natural entre la estructura local y global implica la existencia de las fuerzas de la naturaleza que vemos. Esto no debemos entenderlo en un sentido teleológico. Se trata tan sólo de un reflejo del acuerdo entre consistencia y economía en la estructura natural de las cosas. Las fuerzas de la naturaleza no se requieren como un ingrediente adicional ad hoc.

Cuando profundizamos en aquellas estructuras matemáticas que son más eficaces en la descripción del mundo, y nos planteamos, de hecho, el porqué de su existencia, nos hallamos ante una situación increíblemente sutil. Nos encontramos en presencia de operaciones matemáticas como el desarrollo en serie de una función mostrado más arriba, o el «teorema de la función implícita» que afirma que si una cantidad está completamente determinada por los valores de dos variables x e y, y se encuentra que es constante, la variable y podrá siempre expresarse como una función de la variable x únicamente. Estas dos propiedades matemáticas imponen restricciones a la información local acerca del mundo que puede ser deducida de la información global (o a gran escala). Aplicando estas restricciones locales sobre ellas mismas, una y otra vez, de manera iterativa, podemos elaborar información cada vez más global sobre el mundo matemático. Por contraposición, existen ejemplos de lo contrario. El famoso teorema integral de Stokes y el proceso de prolongación analítica, con los que se encuentran familiarizados los estudiantes de licenciatura, son dos ejemplos donde se imponen restricciones para pasar de la información local a la global. Ellos ejemplifican uno de los objetivos de la investigación humana de la naturaleza: extender nuestro conocimiento del mundo del dominio local, al que tenemos acceso directo, a una escala mayor, de la que todavía no sabemos nada. El teorema de Stokes no permite por sí solo llevar a cabo sin ambigüedades dicha extensión. Deja una cantidad constante indeterminada al final del proceso de extensión. El poder de las teorías gauge en física reside en su capacidad para barrer esta arbitrariedad del proceso de extensión y determinar unívocamente la constante desconocida imponiendo simetría e invariancia en dicho proceso.

Todas las teorías físicas de importancia están asociadas a ecuaciones que permiten extender al futuro los datos definidos en el presente y, en consecuencia, permiten la predicción. Pero esta situación requiere que el espacio y el tiempo posean un tipo muy particular de propiedad matemática, que llamaremos «estructura natural». Otras teorías que aspiran a utilizar las matemáticas para la predicción, como las que describen resultados estadísticos o probabilísticos, carecen con frecuencia de un substrato matemático con una «estructura natural» de esta clase, por lo que no hay ninguna garantía de que sus estados futuros sean una continuación suave de los actuales.

Una de las características del mundo de las partículas elementales, absolutamente desconcertante si se la compara con nuestra experiencia de las cosas cotidianas, es el hecho de que las partículas elementales se presentan en poblaciones de partículas universalmente idénticas. Cada electrón que hemos detectado, ya fuera proveniente del espacio exterior o de un experimento de laboratorio, es idéntico a los demás. Todos tienen la misma carga eléctrica, el mismo spin y la misma masa, dentro de los límites de precisión de la medida. Todos se comportan de la misma forma al interaccionar con otras partículas. Pero esta fidelidad no es exclusiva de los electrones: se extiende a todas las poblaciones de partículas elementales, desde los quarks y leptones a las partículas intercambiadas entre las cuatro fuerzas fundamentales de la naturaleza. No sabemos por qué las partículas presentan una identidad de este tipo. Podríamos imaginar un mundo en el que los electrones fueran como balones de fútbol —cada uno ligeramente diferente a todos los demás. El resultado sería un mundo ininteligible.

De hecho, ni siquiera en un mundo poblado por colecciones de partículas elementales idénticas, existirían poblaciones de sistemas superiores idénticos, compuestos por sistemas de dichas partículas, si la energía no está cuantizada en alguna forma. Aunque a menudo se subrayan las incertidumbres introducidas por la imagen cuántica de la realidad, esta misma estructura cuántica es absolutamente vital para la estabilidad, consistencia e inteligibilidad del mundo físico. En un mundo newtoniano, toda cantidad física, como la energía y el spin, puede tomar cualquier valor arbitrario. Éstos recorren el continuo entero de números. Así pues, si uno quisiera formar un «átomo de hidrógeno newtoniano» poniendo un electrón en órbita circular en torno a un único protón, el electrón podría moverse en una órbita cerrada de radio arbitrario ya que podría poseer cualquier velocidad orbital. En consecuencia, cada par electrón-protón sería diferente. Los electrones se encontrarían en órbitas distintas de una manera arbitraria. Las propiedades químicas de cada átomo serían distintas y sus tamaños diferentes. Aun cuando se pudiera crear una población inicial de electrones en la que las velocidades fueran todas iguales y los radios de sus órbitas idénticos, cada uno se alejaría del estado inicial de una manera diferente en cuanto sufriese el impacto de la radiación y de otras partículas. No podría existir un elemento bien definido llamado hidrógeno con propiedades universales, aun cuando existieran poblaciones universales de electrones y protones idénticos. La mecánica cuántica nos enseña por qué hay estructuras colectivas idénticas. La cuantización de la energía sólo permite que ésta se presente en paquetes discretos, de manera que cuando un electrón y un protón se juntan, sólo existe un estado en el que puedan residir. La misma configuración se da para cualquier par de electrones y protones que se quiera elegir. Este estado universal es lo que llamamos el átomo de hidrógeno. Es más, una vez que existe, sus propiedades no se ven afectadas por la plétora de perturbaciones infinitesimales provocadas por otras partículas. Para que la órbita del electrón en torno al protón varíe, el primero debe ser alcanzado por una perturbación lo suficientemente importante como para modificar su energía en un paquete cuántico entero. Así pues, la cuantización de la energía se encuentra en la raíz de la reiterabilidad de estructuras en el mundo físico y de la alta fidelidad de todos los fenómenos idénticos en el mundo atómico. Con la ambigüedad cuántica del mundo microscópico, el mundo macroscópico no sería inteligible, ni tampoco habría inteligencias para adquirir conocimiento de semejante realidad no cuántica enteramente heterodoxa.

Las simetrías son pequeñas

Las posibilidades al alcance de una partícula elemental de la naturaleza vienen dadas por todo lo que sea compatible con la conservación de alguna simetría. La preservación de algún modelo global frente a todas las arbitrariedades locales del cambio es equivalente a una ley de conservación de la naturaleza, y todas las leyes de cambio pueden ser reformuladas en función de la invariancia de alguna cantidad. Los modelos particulares que se generan surgen de la concatenación de un número finito de ingredientes. Por ejemplo, se podría crear una colección de modelos a partir de una combinación de rotaciones y movimientos rectilíneos en el espacio. El número de modelos será mayor cuanto mayor sea el número de operaciones distintas, o generadores, incluidas en la colección total de modelos. Si este número es muy grande, no habrá ninguna simetría discernible a efectos prácticos. Los generadores de aquellas simetrías que determinan las posibles interacciones entre partículas elementales son equivalentes a las partículas mediadoras entre las fuerzas de la naturaleza en cuestión. Por tanto, la inteligibilidad del mundo descansa en el hecho de que hay un número relativamente pequeño de tipos diferentes de partículas elementales. Éstos se cuentan por decenas, antes que por millares o millones.

Existe otro nexo más entre la población del mundo de las partículas elementales y la simplicidad general de la naturaleza. La unificación de las fuerzas de la naturaleza que hemos analizado en capítulos anteriores descansa en la propiedad de «libertad asintótica», la cual se manifiesta en la fuerza fuerte entre partículas como los quarks y los gluones, portadores de la carga de color. Esto significa que, conforme la energía de interacción entre las partículas aumenta, la intensidad de sus interacciones disminuye, de manera que «asintóticamente» no se dará ninguna interacción y las partículas quedarán libres. Esta propiedad es la que hace posible la unificación a altas energías de las fuerzas dispares de la naturaleza que observamos a bajas energías. No obstante, esta característica no se manifestaría si existiese un número excesivo de partículas elementales. Por ejemplo, si hubiese ocho tipos de neutrinos, en lugar de los tres que los experimentos nos dicen que hay, las interacciones se harían más fuertes, en lugar de más débiles, al movernos hacia energías superiores, y el mundo se volvería de una complejidad intratable conforme fuésemos escrutando dimensiones cada vez más finas del mundo microscópico.

No pretendemos que esta lista de las propiedades supuestamente necesarias para la inteligibilidad del mundo sea exhaustiva, sino meramente ilustrativa. El lector no habrá pasado por alto que muchas de las propiedades que hemos desvelado son probablemente también propiedades necesarias para la existencia de sistemas complejos estables en el universo, a uno de cuyos subconjuntos lo denominaríamos «vivo». Podríamos concebir universos en los que no pudieran existir observadores vivos (no necesariamente parecidos a nosotros), y, quizá de forma inesperada, encontrásemos que hay una conexión íntima entre los elementos más básicos de la fábrica del universo y las condiciones requeridas para que la evolución de la vida tenga una probabilidad con un valor distinto de cero.

La compresibilidad algorítmica cabalga de nuevo

El cerebro es un órgano maravilloso; comienza a trabajar desde el momento en que te levantas por la mañana, y no para hasta que llegas a la oficina.

ROBERT FROST

En definitiva, todas las condiciones necesarias para la inteligibilidad del mundo que hemos estado analizando no son sino condiciones que nos permiten entender lo que de otra forma sería un caos intratable. «Entender» las cosas equivale a reducirlas a las dimensiones adecuadas, ordenarlas, hallar regularidades, factores comunes, y simples recurrencias, que nos digan por qué las cosas son como son y cómo van a ser en el futuro. Deberíamos reconocer en esto la búsqueda en pos de compresibilidad algorítmica que introdujimos en nuestro primer capítulo.

En la práctica, la inteligibilidad del mundo equivale al hecho de hallar que éste es compresible algorítmicamente. Podemos reemplazar secuencias de hechos y datos observacionales por proposiciones abreviadas que incorporan el mismo contenido de información. Con frecuencia denominamos a estas abreviaciones «leyes de la naturaleza». Si el mundo no fuera compresible algorítmicamente, no existirían leyes de la naturaleza sencillas. En lugar de utilizar la ley de gravitación para calcular las órbitas de los planetas en cualquier momento de la historia en que queramos conocerlas, tendríamos que guardar registros exactos de las posiciones de los planetas en todo momento pasado; pero esto tampoco nos ayudaría en lo más mínimo a predecir dónde se encontrarían en cualquier momento en el futuro. El mundo es potencial y actualmente inteligible porque en algún nivel es compresible algorítmicamente en extensión. En el fondo, a esto se debe que la matemática pueda funcionar como una descripción del mundo físico. Es el lenguaje más expeditivo que hemos encontrado para expresar estas compresiones algorítmicas.

Sabemos que el mundo no es compresible algorítmicamente en su totalidad. Existen procesos caóticos particulares que no son compresibles algorítmicamente, al igual que existen operaciones matemáticas que son no-computables. Y es este vislumbre de aleatoriedad el que nos da una idea de cómo sería un mundo totalmente incompresible. Sus científicos serían bibliotecarios en lugar de matemáticos, catalogando un hecho tras otro sin ninguna relación entre sí.

Nosotros vemos en la ciencia, entendida como la búsqueda de compresiones algorítmicas del mundo de la experiencia, así como de una única Teoría del Todo global, la expresión básica de la fe profunda de algunos científicos en la posibilidad de comprimir algorítmicamente la estructura esencial del universo como un todo. Pero reconocemos que la mente humana juega un papel no trivial en esta evaluación. La capacidad de la mente humana para realizar compresiones está inextricablemente vinculada a la aparente compresibilidad algorítmica del mundo. Nuestras mentes han evolucionado a partir de los elementos del mundo físico y han sido cinceladas, al menos en parte, en su estado presente por el proceso incesante de la selección natural. Su eficacia como sensores del entorno, y su significado para la supervivencia, están obviamente relacionados con sus capacidades como compresores algorítmicos. Cuanto más eficazmente puedan almacenar y codificar la experiencia de un organismo del mundo natural, más eficazmente podrá ese organismo combatir los peligros que presenta un entorno por lo demás impredecible. En la fase más reciente de nuestra historia como Homo sapiens esta capacidad ha alcanzado nuevos niveles de sofisticación. Somos capaces de pensar sobre el propio pensamiento. En lugar de aprender meramente de la experiencia como una parte del proceso evolutivo, tenemos suficiente capacidad mental para poder simular o imaginar los resultados probables de nuestras acciones. De esta forma, nuestras mentes están generando simulaciones de experiencias pasadas inmersas en nuevas situaciones. Pero para realizar esto de manera efectiva es necesario que el cerebro esté muy finamente equilibrado. Es obvio que la capacidad mental debe estar por encima de algún umbral para lograr compresiones algorítmicas efectivas. Nuestros sentidos tienen que ser lo suficientemente sensibles para reunir una cantidad significativa de información de nuestro entorno. Pero es comprensible por qué no hemos llegado a ser demasiado buenos en esto. Si nuestros sentidos fueran tan perfectos como para registrar cualquier cantidad de información posible sobre las cosas que vemos u oímos —todas las minucias de los enlaces atómicos—, nuestras mentes se verían saturadas de información. El procesamiento se haría más lento, los tiempos de reacción más largos, y se requeriría toda clase de circuitos adicionales para filtrar la información en imágenes de diferentes grados de intensidad y profundidad.

El hecho de que nuestras mentes no sean muy exigentes respecto a su capacidad de reunir y procesar información significa que el cerebro efectuará una compresión algorítmica sobre el universo con independencia de que éste sea, o no, intrínsecamente compresible. En la práctica, el cerebro lleva esto a cabo por truncamiento. Nuestros sentidos solos son capaces únicamente de registrar a lo sumo una cierta cantidad de información sobre el mundo hasta algún nivel de resolución y sensibilidad. Aun cuando contemos con la ayuda de sensores artificiales, como telescopios y microscopios, para aumentar la escala de nuestras facilidades, habrá todavía límites fundamentales al alcance de dicha extensión. Este proceso de truncamiento llega con frecuencia a formalizarse en una rama de la ciencia aplicada propiamente dicha. Un buen ejemplo nos lo ofrece la estadística. Cuando estudiamos un fenómeno amplio, o muy complicado, podemos tratar de comprimir algorítmicamente la información disponible mediante un muestreo selectivo. Así, los encuestadores de opinión pública que pretendiesen predecir los resultados de unas elecciones generales deberían preguntar a cada individuo del país por quién votarían. En la práctica, encuestan a un subconjunto representativo de la población y logran siempre una predicción asombrosamente buena de los resultados de la votación entera.

El secreto del universo

Este principio es tan absolutamente general que es imposible aplicarlo de alguna forma particular.

GEORGE POLYA

Hemos visto que es natural describir una secuencia como aleatoria si no es posible comprimir su contenido de información. Es más, es imposible en principio probar que una secuencia dada es aleatoria, aunque es claramente posible demostrar que es no aleatoria hallando simplemente una compresión. Así pues, nunca podremos probar que la suma total de información contenida en todas las leyes de la naturaleza podría no ser expresable en alguna forma más sucinta, a la que nos referiremos como el «secreto del universo». Por supuesto, dicho secreto podría no existir y, aun cuando existiese, su contenido de información podría estar enterrado tan profundamente que llevaría una enorme cantidad de tiempo (incluso un tiempo infinito) extraer información útil de él por computación.

La cuestión de la existencia de un «secreto del universo» viene a ser equivalente a descubrir si existe algún principio profundo del cual se sigue todo el conocimiento restante del mundo físico. Un «secreto» algo más débil vendría dado por la proposición de la cual se siga una cantidad mayor de información. Es interesante especular sobre la forma que probablemente tendría dicha proposición. ¿Sería lo que los filósofos llaman una proposición «analítica», o una «sintética»? Una proposición analítica requiere sólo que analicemos la proposición en orden a averiguar su verdad. Un ejemplo es «todos los solteros no están casados». Se trata obviamente de una verdad necesaria, de una consecuencia de la lógica únicamente. Las proposiciones sintéticas son proposiciones dotadas de significado, que no son analíticas. Las teorías físicas que utilizamos para entender el universo son siempre sintéticas. Nos dicen cosas que sólo pueden ser comprobadas mirando al mundo. No son lógicamente necesarias. Afirman algo sobre el mundo, mientras que éste no es el caso en las proposiciones analíticas. Algunos buscadores de la Teoría del Todo parecen estar esperando que la unicidad y completitud de alguna teoría matemática particular convierta a aquélla en la única descripción lógicamente consistente del mundo, lo cual hará que pase de ser una proposición sintética a una analítica. Sin embargo, si queremos que el «secreto del universo» cuente con predicciones verificables, deberá ser una proposición sintética. Pero ésta no es una conclusión enteramente satisfactoria porque nuestro «secreto» deberá entonces contener algunos ingredientes que necesitan ser deducidos de algún principio más fundamental y, por tanto, no podrá ser el secreto de la estructura de todo el universo: pues posee ingredientes que requieren una explicación adicional mediante algún principio más profundo.

Este dilema se extiende al problema del papel desempeñado por las matemáticas en la física. Si todas las proposiciones matemáticas son analíticas —consecuencias tautológicas de algún conjunto de reglas y axiomas—, entonces nos vemos confrontados con la tentativa de obtener proposiciones sintéticas sobre el mundo a partir de proposiciones matemáticas puramente analíticas. En la práctica, si las condiciones iniciales permanecen indeterminadas mediante alguna forma de autoconsistencia, éstas suministran un elemento sintético que debe añadirse a cualquier estructura matemática analítica definida por ecuaciones diferenciales. Incluso esquemas como la condición de «no contorno», esbozada en el capítulo 3, introducen simplemente ciertas «leyes» nuevas de la física como axiomas.

¿Qué hace necesarias a las verdades necesarias? Presumiblemente, es la característica de que sean cognoscibles a priori. Si tenemos que realizar algún acto de observación para comprobar si una proposición es verdadera, sólo podremos saber si es verdadera a posteriori. Un famoso problema filosófico es el de si todas las proposiciones a priori son analíticas. La mayor parte de las proposiciones que encontramos en la vida son, o bien sintéticas a posteriori, o bien analíticas a priori. Pero ¿hay proposiciones no analíticas sobre el mundo que tengan un contenido de información real y que sean cognoscibles a priori? ¿Es un a priori sintético realmente posible? El problema más engorroso será ahora cómo poder saber si dicha proposición nos está aportando información no trivial sobre el mundo sin hacer alguna nueva observación que necesitase ser verificada. Tradicionalmente, los filósofos empíricos han mantenido que las verdades sintéticas a priori no pueden existir, mientras que los racionalistas han mantenido que existen, aunque no han sido capaces de ponerse de acuerdo sobre cuáles son. Desde que Immanuel Kant introdujo su distinción entre proposiciones analíticas y sintéticas, ha habido candidatos a un a priori sintético que hace tiempo se relegaron al olvido —proposiciones como «rectas paralelas no se encuentran» o «todo suceso tiene su causa»—, propuestos antes del advenimiento de la geometría no euclidiana y de la teoría cuántica.

¿Cómo podemos entonces tener alguna forma de conocimiento sintético a priori sobre el universo? Kant sugirió que la mente humana está configurada de forma tal que comprende de manera natural algunos aspectos sintéticos a priori del mundo. Mientras el mundo real posee características inimaginables, nuestras mentes filtran de manera natural ciertos aspectos de la realidad, como si portásemos unas gafas con cristales de color rosa. Nuestras mentes captarán solamente ciertos aspectos del mundo y este conocimiento será, pues, sintético y a priori. Pues es una verdad a priori que nunca entenderemos nada que no esté registrado en nuestras categorías mentales particulares. Para nosotros existen por consiguiente ciertas verdades necesarias sobre el mundo observable. Podríamos confiar en dar forma a este tipo de idea de una manera diferente, considerando el hecho de haberse hallado que existen condiciones cosmológicas necesarias para la existencia de observadores en el universo. Estas condiciones «antrópicas», que ya introdujimos anteriormente, apuntan a ciertas propiedades que el universo debe poseer a priori, pero que son lo suficientemente no triviales para ser tomadas por sintéticas. Lo a priori sintético empieza a parecerse al requisito de que todo principio físico cognoscible que forme parte del «secreto del universo» no debe impedir la posibilidad de que lo conozcamos. El universo pertenece a la colección de conceptos matemáticos; pero sólo aquellos conceptos lo suficientemente complejos como para contener subprogramas que puedan representar «observadores» serán actualizados en la realidad física.

¿Es el universo un ordenador?

¡La enemistad sea entre vosotros! Es demasiado pronto para una alianza. Buscad por caminos separados, pues sólo así la verdad os será revelada.

FRIEDRICH VON SCHILLER

Hay dos grandes corrientes de pensamiento en la ciencia contemporánea que, después de discurrir paralelamente durante tanto tiempo, han comenzado a seguir seductores derroteros que apuntan a su futura convergencia. Las circunstancias de este encuentro determinarán cuál de ellos será visto en el futuro como mero tributario del otro. Por un lado está la creencia del físico en las «leyes de la naturaleza», dotadas de simetría, como la trama más fundamental de la lógica en el universo. Estas simetrías están entrelazadas a la imagen del espacio y el tiempo como continuos indivisibles. En contraposición a esto se encuentra la idea de computación abstracta, en lugar de la de simetría, como la más fundamental de todas las nociones. Esta imagen de la realidad exhibe una lógica en su base que gobierna algo discreto en lugar de continuo. El gran enigma a resolver en el futuro es decidir qué es más fundamental: la simetría o la computación. ¿Es el universo un calidoscopio cósmico o un ordenador cósmico, un modelo o un programa? ¿O ninguna de las dos cosas? La elección requiere que sepamos si las leyes de la física constriñen la capacidad básica de la computación abstracta. ¿Limitan su velocidad y alcance? ¿O controlan las reglas que gobiernan el proceso de computación cuáles son las leyes de la naturaleza posibles?

Antes de analizar lo poco que podemos decir acerca de esta elección, conviene estar prevenidos respecto a la elección misma. A lo largo de la historia del pensamiento humano ha habido paradigmas dominantes sobre el universo. Estas imágenes mentales nos suelen decir muy poco del universo, pero mucho de la sociedad que se ocupaba de su estudio. Para aquellos primeros griegos que adoptaron una perspectiva teleológica del mundo a resultas de los primeros estudios sistemáticos de las cosas vivas, el mundo era un gran organismo. Para otros, que consideraron la geometría digna de veneración por encima de todas las otras categorías de pensamiento, el universo era una armonía geométrica de formas perfectas. Más tarde, en la era en que se fabricaron los primeros mecanismos pendulares y de relojería, se impuso la imagen posnewtoniana del universo como un mecanismo, lo cual provocó una cruzada de apologéticos en busca del relojero cósmico. En la era victoriana de la revolución industrial, prevaleció el paradigma de la máquina de vapor, y las cuestiones físicas y filosóficas que se plantearon entonces concernientes a las leyes de la termodinámica y al destino último del universo llevan el sello distintivo de esa era de las máquinas. Por lo tanto, quizá la imagen actual del universo como un ordenador no sea más que la última extensión previsible de nuestros hábitos de pensamiento. Mañana puede que haya un nuevo paradigma. ¿Cuál será? ¿Hay algún concepto profundo y simple que se encuentre detrás de la lógica, de la misma forma que la lógica se encuentra detrás de la matemática y la computación?

Al principio, las nociones de simetría y computación parecen muy distantes una de la otra y la elección entre ellas insustancial. Pero las simetrías determinan los posibles cambios que pueden darse y las «leyes» que resultan de los mismos podrían ser consideradas como una forma de software que se ejecuta sobre algún hardware, el hardware material de nuestro universo físico. Dicho punto de vista suscribe uno de los puntos de vista particulares sobre la relación entre las leyes de la naturaleza y el universo físico que introdujimos en el capítulo 2. Considera disjuntas e independientes a las dos concepciones. Así, uno podría imaginar que el software está siendo ejecutado sobre diferentes tipos de hardware. Este punto de vista parece conducirnos, pues, a un conflicto potencial con la creencia en alguna Teoría del Todo única que unifique las condiciones que determinan la existencia de partículas elementales con las leyes que las gobiernan.

El éxito de la concepción del continuo por el físico en la explicación del mundo físico parece a primera vista impugnar la perspectiva computacional discreta. Pero los lógicos han librado una batalla de atrición contra la noción del continuo numérico durante los últimos cincuenta años. Matemáticos como Quine defienden que

así como la introducción de los números irracionales… es un mito conveniente [que] simplifica las leyes de la aritmética… así los objetos físicos son entidades postuladas que completan y simplifican nuestro relato del flujo de la existencia… El esquema conceptual de los objetos físicos es un mito conveniente, más simple que la verdad literal y, con todo, conteniendo esa verdad literal como una parte dispersada.

Hasta ahora no hemos encontrado, empero, la pregunta correcta que hemos de formular al universo de manera que su respuesta nos diga si la computación es más primitiva que la simetría: si, en palabras de John Wheeler, podemos obtener

IT de BIT.

Mi punto de vista personal es que esta esperanza no puede ser completamente satisfecha. Para poder probar que la computación es el aspecto más básico de la realidad, sería preciso que el universo hiciese únicamente cosas computables. El alcance de las manifestaciones matemáticas del universo se vería constreñido a permanecer entre la remesa de los constructivistas. Ésta es la penalización por abdicar del continuo y apelar a los aspectos computables del mundo como fundamento para explicar la totalidad. Pero hemos descubierto muchas operaciones matemáticas no computables y los físicos han encontrado muchas de ellas escondidas en ese trozo de matemáticas que se requiere ordinariamente para nuestro entendimiento del mundo físico. En el estudio de la cosmología cuántica se han encontrado ejemplos en los que se predice que una cantidad en principio observable tendrá un valor igual a una suma infinita de cantidades variables, cada una de las cuales debe evaluarse sobre un tipo particular de superficie. Sin embargo, la enumeración de las superficies requeridas resulta ser una operación no computable. No puede ser producida sistemáticamente por un número finito de pasos computacionales del tipo Turing. Se requiere una idea feliz para generar cada miembro del conjunto. Puede que haya, por supuesto, otra forma de calcular la cantidad observable en cuestión que nos evite el realizar esta operación no computable, pero puede que no sea así. De hecho, hay otras características del mundo discontinuo en el que vive la computación discreta que efectivamente hacen poco probable la computabilidad.

Supongamos que tomamos una simple ecuación diferencial ordinaria del tipo

dy/dx = F(x, y),

la cual es central a todas las teorías físicas, donde F(x, y) es una función discontinua de x e y, no diferenciable dos veces. Esto significa que, aunque podamos dibujar la superficie F sin separar la punta de nuestro lápiz del papel (la propiedad de continuidad), la superficie podrá poseer dobleces y bordes punzantes, como el del vértice de un cono. Así, aun cuando F sea ella misma una función computable, no tiene por qué existir una solución computable de la ecuación diferencial. Si examinamos las ecuaciones en derivadas parciales que describen la propagación de ondas de cualquier tipo, ya sean ondas cuánticas u ondas gravitatorias ondulando a través de la geometría del espacio-tiempo, encontramos el mismo problema. Cuando el perfil inicial de la onda se describe por una función continua, pero no diferenciable dos veces, puede que exista una solución no computable de la ecuación de ondas en dos o más dimensiones espaciales. La ausencia de suavidad en el perfil inicial es la cruz del problema. Si el perfil inicial es dos veces diferenciable, todas las soluciones de la ecuación de ondas son computables. Pero si en el nivel más fundamental, las cosas son discretas y discontinuas, puede que topemos con el problema de la no computabilidad.

Las respuestas a estas dificultades, si es que pueden hallarse, se encuentran seguramente en un concepto extendido de lo que entendemos por computación. Tradicionalmente, los científicos de la informática han definido la capacidad básica de cualquier ordenador, ya sea real o imaginario, como la de una máquina de Turing idealizada. De hecho, la capacidad de dicha máquina define lo que entendemos por el panegírico «computable». Pero en los últimos años ha quedado claro que uno puede fabricar ordenadores que son de una naturaleza intrínsecamente mecánico-cuántica, y explotar en consecuencia las incertidumbres cuánticas del mundo para realizar operaciones que superan la capacidad de una máquina de Turing idealizada. Como el mundo es en esencia un sistema cuántico, todo intento de explicar su mecanismo interno en términos de un paradigma computacional debe descansar en un entendimiento sólido de lo que es en realidad la computación cuántica y de lo que ésta puede lograr que no pueda una máquina de Turing convencional. El paradigma computacional presenta en muchos sentidos una afinidad con la imagen cuántica del mundo. Los dos son discretos, los dos poseen aspectos duales como la evolución y la medida (computar y leer). Pero mayores vindicaciones podrían hacerse para la relación entre lo cuántico y las simetrías de la naturaleza. Medio siglo de minuciosos estudios por los físicos ha entrelazado a los dos en una unión indisoluble. ¿Cuál sería el estatus del paradigma computacional después de una inversión similar de pensamiento y energía?

Lo incognoscible

Odio las citas. Dime lo que tú sabes.

RALPH WALDO EMERSON

«¿Por qué el mundo es matemático?», nos preguntamos. Pero pensándolo bien, ¿no se parecen muchas de las cosas que encontramos en nuestra vida cotidiana a casi todo menos a las matemáticas? Las matemáticas están relegadas a la descripción de un armazón peculiar que, se nos asegura, yace detrás de las meras apariencias, un mundo que es más simple que el mundo en el que participamos diariamente. Sin embargo, no encontramos nada matemático en las emociones y los juicios, en la música o el arte. ¿Cómo, pues, cuando hablamos de «Teorías del Todo» y las desarrollamos mediante las matemáticas, confiando en que toda la diversidad se evaporará no dejando más que el número, podemos trazar la línea que separa esos fenómenos esquivos, intrínsecamente no matemáticos, de aquellos que son abarcados por una Teoría del Todo? ¿Cuáles son las cosas que no pueden ser incluidas en la concepción del «todo» por el físico? Dichas cosas parecen existir; sin embargo, se las excluye con frecuencia de la discusión con la excusa de que no son «científicas» —una respuesta no muy diferente de la del infame Maestro de Balliol de quien se decía que «lo que él no sabía, no era conocimiento».

Todos nosotros tenemos una cierta idea de la dirección en la que deberíamos mirar para burlar a una Teoría del Todo. La misma respuesta de nuestras mentes ante ciertas variedades de información nos da una pista sugerente. El difunto Heinz Pagels ha escrito sobre sus experiencias dispares al leer literatura científica «basada en los hechos», en contraposición a los comentarios subjetivos que se pueden encontrar en las páginas literarias de los periódicos:

En una ocasión me encontraba en una reunión en la ciudad de Nueva York con un grupo de gente bien educada. Eran escritores, editores e intelectuales; yo era el único científico del grupo. De alguna manera la conversación fue a girar en torno a The New York Review of Books, una buena revista de recensión de libros que iba más allá de la mera crítica de texto… Yo la leía con avidez y me gustaba… Pero pasé a exponer mi problema: no podía recordar nada de lo que había leído en ella. La información iba a parar al saco de la memoria a corto plazo y nunca alcanzaba el de la memoria a largo plazo. Yo había llegado a la conclusión de que la razón de ello era que, a pesar de la consistente brillantez del estilo de redacción y de la calidad de la narración, lo único que contaba en último término era la opinión de una persona sobre el pensamiento o las acciones de otra persona. A mí me resulta muy difícil recordar las opiniones de la gente (incluso las mías propias). Lo que yo recuerdo son conceptos y hechos, los invariantes de la experiencia, no lo efímero de la opinión, el gusto y los estilos humanos. Tales trivialidades no deben ser consideradas por la gente seria, excepto como una recreación intelectual.

Tras mis breves comentarios se hizo el silencio y yo me sentí aislado. La fisura entre las dos culturas —ciencia y humanismo— se hizo notablemente más amplia. Me di cuenta de que, en mi torpeza, había profanado los recintos sagrados del templo sacrosanto de los otros invitados. Esas personas rendían culto en ese templo que estaba dedicado a la opinión política, al gusto y al estilo, a una consciencia dominada por la autorreflexión, las creencias y los sentimientos, y por un chismorreo y una actividad intelectual de interés en sí mismos, sometidos sólo levemente a las ligaduras del conocimiento. Traté de pensar en un chiste para salir de una situación tan embarazosa, pero no lo conseguí.

Lo que esta sugerente pieza de introspección nos revela es que Pagels percibe una dificultad personal en extraer y organizar el contenido de algunas variedades de información. Como científico, su mente ha sido entrenada para actuar y responder de ciertas formas a tipos particulares de variables. Mientras que la información basada en los hechos, o estructurada lógicamente, posee un marco previo en el que puede ser acomodada, otras clases de información no lo poseen. Éstas desafían la compresión en formas ordenadas y fácilmente reproducibles. Esta tendencia presenta algunos aspectos atractivos.

Ya hemos visto cómo el cerebro realiza compresiones algorítmicas sobre la información a su disposición. Cuando cadenas de hechos pueden ser comprimidos algorítmicamente de manera significativa, estamos en vías de crear una «ciencia». Es evidente que algunas ramas de la experiencia se avienen mejor a esta sublimación que otras. En las ciencias «duras», la característica más importante de su objeto de estudio capaz de estimular la compresión algorítmica es la existencia de idealizaciones sensibles de fenómenos complicados que garantizan aproximaciones muy buenas al verdadero estado de hechos. Si deseásemos desarrollar una descripción matemática pormenorizada de las características observadas en una estrella típica como el Sol, una aproximación excelente consistiría en tratar el Sol como si fuese esférico y tuviese la misma temperatura en toda su superficie. Por supuesto, ninguna estrella real es exactamente esférica y superficialmente isoterma en esta forma. Pero todas las estrellas están hechas de forma tal que puede confeccionarse alguna colección de idealizaciones de este tipo, siendo las descripciones resultantes muy precisas. Posteriormente, las idealizaciones pueden relajarse un poco y uno puede avanzar hacia una descripción más realista que dé cabida a pequeñas desviaciones de la esfericidad; después a una que introduzca un mayor realismo; y así en adelante. Semejante serie secuencial de aproximaciones cada vez mejores a los fenómenos bajo estudio es lo que se entiende por una operación «computable» en el sentido de Turing. Por el contrario, muchas de las ciencias «blandas» que pretenden aplicar las matemáticas a cosas como el comportamiento social, las revueltas en prisión, o las reacciones psicológicas, fracasan en producir un cuerpo importante de conocimiento sólido porque sus objetos de estudio no proporcionan idealizaciones obvias y fructíferas. Los fenómenos complicados, especialmente aquellos que poseen aspectos que podrían ser comprimidos algorítmicamente, o que, como las opiniones personales, son intrínsecamente impredecibles porque se resisten a ser investigados, no son suplantables por aproximaciones simples. No es fácil ver cómo uno puede modelar «una sociedad aproximada» o «una paranoia aproximada». Estos fenómenos no admiten el uso efectivo del procedimiento más fructífero de la mente dirigido a entender la complejidad.

En la práctica, esto puede ser un fallo de nuestras mentes al encontrar el camino correcto en la búsqueda de idealizaciones, o puede ser consecuencia de alguna incompresibilidad intrínseca asociada con el fenómeno en cuestión. Conocemos, claro está, muchos ejemplos de la primera situación; siempre que tenemos una nueva idea que da un nuevo sentido a lo que sólo era un montón de hechos confusos, observamos la fuerza de esta posibilidad. De la segunda posibilidad ¿qué podemos decir? ¿Podemos afirmar siquiera que existen ejemplos de esta categoría? ¿Qué tipos de cosas son los que no superan el test de las matemáticas?

La ciencia se encuentra más en su elemento atacando problemas que requieren técnica, antes que penetración. Por técnica entendemos la aplicación sistemática de un procedimiento secuencial —una receta. El hecho de que este acercamiento al mundo dé fruto con tanta frecuencia da testimonio del poder de la generalización. La naturaleza utiliza la misma idea básica una y otra vez en situaciones diferentes. El sello distintivo de estas reiteraciones es su carácter matemático. La búsqueda en pos de la Teoría del Todo es la exploración de esa técnica cuya aplicación podría descifrar el mensaje de la naturaleza en todas las circunstancias. Pero sabemos que tienen que existir circunstancias en las que la mera técnica no es suficiente.

El lógico norteamericano John Myhill ha propuesto una extensión metafórica de la lección que los teoremas de Gödel, Church y Turing nos enseña sobre el alcance y las limitaciones de los sistemas lógicos. Los aspectos más accesibles y cuantificables del mundo tienen la propiedad de ser computables. Existe un procedimiento definido para decidir si un candidato dado posee, o no posee, la propiedad requerida. Los seres humanos pueden ser entrenados para responder a la presencia o ausencia de esta clase de propiedad. La verdad no es, en general, una propiedad de esta índole de las cosas; el ser número primo, sí. Un conjunto más escurridizo de propiedades está constituido por aquellas que son meramente enumerables. Para estas podemos construir un procedimiento capaz de enumerar todas las cantidades que poseen la propiedad requerida (aun cuando puede que tengas que esperar un tiempo infinito para que la enumeración se complete), pero no hay forma alguna de generar sistemáticamente todas las entidades que no poseen la propiedad requerida. La mayoría de los sistemas lógicos tienen la propiedad de ser enumerables, pero no la de ser computables: podemos enumerar todos sus teoremas, pero no existe un procedimiento automático para inspeccionar una proposición o decidir si es, o no es, un teorema. Si el mundo matemático no contase con un teorema de Gödel, toda propiedad de cualquier sistema que abarcase a la aritmética sería enumerable. Podríamos escribir un programa definido para realizar todo tipo de actividad. Sin las restricciones impuestas por Turing o Church a la computabilidad, todas las propiedades del mundo serían computables. El problema de decidir si esta página es un ejemplo de gramática española, es un problema computable. Las palabras pueden ser cotejadas con las de un diccionario de referencia y las construcciones gramaticales empleadas podrían ser comprobadas secuencialmente. Pero el texto podría pese a ello carecer de significado para un lector que no supiera español. Con el tiempo, este lector podría aprender gradualmente la lengua española, de manera que la página cada vez adquiriría un mayor significado para él. Pero no hay forma de predecir de antemano qué bits de esta página serán los que adquieran significado. La propiedad de la significación es, pues, enumerable, pero no computable. Por otro lado, la cuestión de si esta página es algo que el lector pueda querer escribir en el futuro es una propiedad enumerable, pero no una propiedad computable.

No toda característica del mundo es, o bien enumerable, o bien computable. Por ejemplo, la propiedad de ser una proposición verdadera en un sistema matemático particular no es ni enumerable ni computable. Uno puede aproximarse a la verdad con un grado de precisión cada vez mayor, introduciendo cada vez más reglas de razonamiento y añadiendo suposiciones axiomáticas adicionales, pero ésta nunca podrá ser aprehendida por un conjunto finito de reglas. Estos atributos, que carecen de las propiedades de enumerabilidad y computabilidad —las características «prospectivas» del mundo—, son los que no podemos reconocer o generar mediante series secuenciales de pasos lógicos. Ellos dan testimonio de la necesidad de ingenuidad y originalidad; pues no pueden ser abarcados por ninguna colección finita de reglas o leyes. Belleza, simplicidad y verdad son todas ellas propiedades prospectivas. No hay fórmula mágica alguna que podamos conjurar para generar todas las variedades posibles de estos atributos. Estos no se pueden agotar completamente. Ningún programa o ecuación puede generar toda la belleza o toda la fealdad; de hecho, no hay una forma segura de reconocer a ninguno de estos atributos cuando los ves. Las restricciones impuestas por las matemáticas y la lógica evitan que estas propiedades prospectivas se conviertan en víctimas de la mera técnica, aun cuando habitualmente podemos crearnos ideas de belleza y fealdad. Las propiedades prospectivas de las cosas no pueden ser trasmalladas en el seno de una Teoría del Todo lógica. Ningún relato no poético de la realidad puede ser completo.

El alcance de las Teorías del Todo es infinito, pero limitado; hay partes necesarias de un entendimiento completo de las cosas, pero no son ni mucho menos suficientes para desvelar las sutilezas de un universo como el nuestro. En las páginas de este libro hemos visto algo de lo que una Teoría del Todo podría aspirar a enseñarnos acerca de la unidad del universo y de la forma en que puede contener elementos que trasciendan nuestra actual visión compartimentada de los ingredientes de la naturaleza. Pero también hemos aprendido que no es Todo, lo que ven nuestros ojos. A diferencia de muchos otros que podamos imaginar, nuestro mundo contiene elementos prospectivos. Quizá las Teorías del Todo no influyan para nada en la predicción de estos atributos prospectivos de la realidad; pero, curiosamente, muchas de estas cualidades serán utilizadas en la selección y aprobación humana de una Teoría del Todo estéticamente aceptable.

No hay fórmula que pueda proveer toda la verdad, toda la armonía, toda la simplicidad. Ninguna Teoría del Todo podrá proveer nunca una penetración total. Pues el ver a través de todas las cosas nos dejaría sin ver nada en absoluto.