6

SIMETRÍAS ROTAS

¿Fuera de estos pétreos desechos? Hijo del Hombre,

tú no puedes hablar, o adivinar, pues tan sólo conoces

un montón de imágenes rotas.

T. S. ELIOT

La historia interminable

La búsqueda de una Teoría del Todo es la búsqueda de una trivialización universal, un «sólo» universal.

JEAN-CARLO ROTA

Pese a la idea popular de que el trabajo del científico es el descubrimiento —la creación de nuevas ideas y el descubrimiento de nuevos hechos sobre el universo—, muchos de los libros y artículos que los científicos publican están dedicados a una tercera empresa: al refinamiento de las ideas existentes en formas más sencillas, más intuitivamente abarcables; a la difuminación de lo complejo en lo trivial.

Cuando se descubre por vez primera una idea nueva y profunda, puede que aparezca en un burdo lenguaje pensado principalmente para expresar un conjunto bastante diferente de ideas. Con el tiempo, otros volverán a examinar el descubrimiento y encontrarán representaciones más sucintas que lo relacionan de forma más natural a las ideas existentes. Puede que esta nueva relación sea el resultado de una simple progresión lógica a partir de ideas conocidas, o que surja del choque entre contrarios, en el que uno se ve forzado a hacer una elección radical entre alternativas contendientes. Esta destilación del conocimiento existente, para hacerlo más simple y más claro, para depurar el verdadero metal de la verdad profunda de la escoria superficial que lo rodea, es una parte permanente y vital de la empresa científica. Algunos científicos están especialmente capacitados para esta tarea y puede que dediquen su vida al logro de sus objetivos antes que a hacer avanzar las distantes fronteras del descubrimiento.

Las consecuencias de este proceso de refinamiento se manifiestan de muchas maneras diferentes. Actúa sobre la historia de la ciencia para desviar su progreso por cauces artificiales que conducen desde un pasado imaginado de ignorancia y desaciertos a un presente culto de pensamiento certero. Suaviza los bordes ásperos e inventa motivaciones. Sitúa a los individuos más dispares en una comunidad ficticia de buscadores en pos de la verdad que comparten una misma opinión. Pero hace muchas de estas cosas ilusorias con la mejor de las intenciones. ¿No es más eficiente enseñar una asignatura de una forma lógica antes que histórica? El hecho de que algunos investigadores siguieran en el pasado caminos equivocados no es razón para enviar a otros por los mismos vericuetos, antes de revelarles un sendero mejor. El resultado de esta destilación histórica es indudablemente hacer que las leyes de la naturaleza parezcan a nuestras mentes cada vez más simples, atractivas y completamente inevitables. En las últimas décadas, el descubrimiento de que la simetría es la llave maestra que abre la puerta secreta a las estructuras fundamentales de la naturaleza ha sido el principal impulsor de esta búsqueda sin fin en pos de una imagen de las cosas cada vez más elemental. La tan anhelada Teoría del Todo promete suministrar el descubrimiento final, tras el cual toda la física se transformará en el refinamiento de su contenido, la simplificación de su explicación. Al principio, «la Teoría» será inteligible sólo para los iniciados y, más tarde, para un círculo más amplio de físicos teóricos. A continuación será presentada en formas que la hagan accesible a científicos dedicados a otras disciplinas, a estudiantes y, finalmente, a los advenedizos y a los profanos en la materia con una cierta formación. Con el tiempo aparecerá en las camisetas. En todos los estadios de este proceso, se creerá que la ruta que conduce de lo complicado a lo transparentemente obvio es un camino hacia la imagen «verdadera» de la naturaleza[10].

Pese a estas tendencias actuales, somos conscientes del hecho de que no importa cuán a menudo los científicos nos digan que las leyes de la naturaleza son sencillas, simétricas y elegantes, el mundo real no lo es. Es desordenado y complicado. La mayoría de las cosas que vemos no son simétricas y no se comportan de acuerdo con alguna ley sencilla de la naturaleza. De alguna forma el mundo inanimado que contemplamos parece estar muy lejos de las leyes intemporales que gobiernan las partículas elementales y las fuerzas de la naturaleza. La razón es clara. Nosotros no observamos las leyes de la naturaleza: observamos sus resultados. Puesto que la representación más eficaz de estas leyes viene dada por ecuaciones matemáticas, podríamos decir que vemos sólo las soluciones de esas ecuaciones y no las ecuaciones mismas. Éste es el secreto que reconcilia la complejidad observada en la naturaleza con la apreciada simplicidad de sus leyes. Los resultados son mucho más complicados que las leyes; las soluciones mucho más sutiles que las ecuaciones. Pues aunque una ley de la naturaleza pueda poseer una cierta simetría, ello no significa que todos los resultados de la ley necesiten manifestar la misma simetría. El hecho de que nuestros corazones se encuentren todos situados en la parte izquierda de nuestro cuerpo no puede ser tomado a modo de demostración de que las leyes de la naturaleza son zurdas.

Otro dominio en el que nos aventuramos en la sutil distinción entre leyes y resultados, ecuaciones y soluciones, es en la frontera que separa la mecánica clásica de la cuántica. Desde que se inventó el formalismo moderno de la mecánica cuántica, hemos sabido cómo proceder a la «cuantización» de un problema particular de la física clásica con el fin de extender nuestro entendimiento del mismo al reino de lo muy pequeño donde el acto de la observación ejerce un impacto en el estado de lo observado. Pero todo lo que este procedimiento puede hacer es mostrarnos cómo generar un conjunto de ecuaciones (o leyes) cuánticas a partir de las clásicas. No hay ninguna receta conocida para generar soluciones cuánticas directamente de las clásicas. Y, de hecho, no podría existir un principio de esta índole, pues existen soluciones (como las que describen los procesos de túnel cuánticos) que son intrínsecamente cuánticas en carácter y no tienen ninguna contrapartida clásica.

Ruptura de simetría

Al igual que la estación de esquí, llena de chicas buscando marido y de maridos buscando chica, la situación no es tan simétrica como pudiera parecer.

ALAN MACKAY

La situación en la que se rompe la simetría de los resultados de una ley se denomina «ruptura de simetría». Se conoce, aunque sin haberse llegado a reconocer completamente, desde hace milenios; y a ella se debe la vasta diversidad y complejidad del mundo real.

En Aristóteles y sus comentaristas encontramos el problema clásico de la criatura moribunda atrapada a medio camino entre dos montones de comida. El asno de Buridan fue la versión más célebre de este problema de decisión, inventado para dilucidar la idea de que toda elección debe contar con una razón suficiente. Leibniz discrepó de ello, arguyendo que las dos opciones nunca eran idénticas. Siempre existía algún desequilibrio que llevaba a elegir una de las dos, y no la otra. En la física moderna esta cuestión surge en muchas situaciones donde una simetría subyacente hace igualmente probables toda una colección de resultados. En la práctica debe darse un resultado particular y la simetría subyacente se rompe consiguientemente en el resultado. Por ejemplo, si un palo estrecho se equilibra verticalmente, caerá a un lado o al otro, pero esto no significa que las leyes de la naturaleza subyacentes prefieran una dirección particular en el universo. Un ejemplo más elaborado nos lo proporciona el fenómeno de la magnetización. Si una barra de metal se calienta por encima de cierta temperatura, la agitación térmica de sus átomos constituyentes será suficiente para destruir cualquier tendencia a alinearse y a definir una dirección preferida de magnetización que pudiera haber poseído con anterioridad. La barra no poseerá en consecuencia una magnetización global en dicho estado caliente. Pero a medida que su temperatura disminuye, la intensidad de la agitación térmica decrece, y ésta ya no alcanzará a desordenar las orientaciones de los átomos. Entonces deja de ser energéticamente favorable para la barra el permanecer en el estado de magnetización cero y, en consecuencia, se mueve hacia uno de dos estados perfectamente simétricos, según se muestra en la figura 6.1. Estos estados se caracterizan por la alineación de las moléculas en el interior de la barra metálica en una dirección o en la opuesta. En el primer caso obtendríamos una barra magnética con los polos norte y sur según se indica, mientras que en el otro estaría orientada en el sentido opuesto. Así pues, el estado final es asimétrico. Tiene una orientación característica. La simetría original está oculta entre bastidores porque a priori es igualmente probable que la barra se magnetice en la dirección norte-sur o en la sur-norte.

Estos ejemplos ilustran por qué la ciencia es una empresa tan difícil. Nosotros observamos las simetrías rotas en las cosas particulares del mundo y a partir de ellas debemos inferir las simetrías ocultas que caracterizan las leyes de la naturaleza. La naturaleza está plasmada en un elegante tapiz hilado armoniosamente, pero nosotros lo estamos viendo por detrás. A partir de los cabos sueltos debemos crear una imagen del motivo oculto tras él.

Figura 6.1 Magnetización. (a) Cuando la temperatura sobrepasa un valor crítico, las fuerzas que actúan sobre los átomos en una barra de metal no distinguen ninguna dirección preferida; se encuentran distribuidas de manera simétrica porque las agitaciones térmicas son lo suficientemente poderosas como para combatir cualquier tendencia a apuntar en direcciones preferidas. (b) Cuando la temperatura disminuye por debajo del nivel crítico, a los átomos les resulta energéticamente económico orientarse en la misma dirección; cualquier dirección podría ser elegida aleatoriamente; una vez elegida, sin embargo, se rompe la simetría direccional de (a) y se establecen los polos norte y sur en la barra magnética.

La teología natural: una historia de dos historias

A veces la verdad entra en la historia cabalgando a lomos del error.

REINHOLD NIEBUHR

Antes de ahondar algo más en las consecuencias de esta dicotomía entre leyes y resultados, es ilustrativo discutir cómo una parte de la historia de la teología natural puede ser comprendida mejor si nos centramos en esta distinción.

Desde la revolución newtoniana han existido dos tendencias en relación al tradicional Argumento del Designio sobre la existencia de Dios. Ha habido quienes, como el apologista contemporáneo de Newton, Richard Bentley, se han centrado en la universalidad y precisión matemática de las propias leyes de la naturaleza para defender la existencia de un Autor de esas leyes. Nuestros libros de himnos dan testimonio elocuente de la persuasión de esas

Leyes que nunca serán violadas

pues fueron hechas por Él para que nos sirvieran de guía.

Esta forma de Argumento del Designio, derivada de las leyes de la naturaleza (y en ocasiones denominada el Argumento del Designio eutaxiológica), atrajo muy poderosamente a los físicos y a los astrónomos. Esto no fue accidental, pues se trataba de los científicos cuyo trabajo afectaba más directamente a las simetrías y armonías prístinas ejemplificadas por las leyes de la naturaleza. La prueba es sencilla desde un punto de vista lógico, pero difícil de valorar sin el concurso de un conocimiento especializado. Por ello no fue considerada de inmediato por los legos con un interés en la materia. Por contraposición, hubo otra forma de Argumento del Designio teleológica que extrajo sus ejemplos de las asombrosas adaptaciones manifiestas en el mundo natural. Su materia prima consistió en evidentes ingenios como el ojo y la mano humana, o de la forma en que el entorno natural estaba hecho a medida para las criaturas que se encontraban en él. Esta prueba, pese a ser un campo de minas lógico, es gráfica y se reconoce con facilidad. En consecuencia, logró persuadir singularmente a los no especialistas. Así, dominó entre los naturalistas y otros perspicaces observadores de las minuciosidades de la flora y de la fauna. Se trata de una prueba que se centra en los accidentes de las leyes de la naturaleza —las simetrías rotas—, antes que en las leyes mismas. Escoge las innumerables particularidades de la naturaleza y señala sus correlaciones con otras particularidades que a primera vista son por completo independientes y, sin embargo, resultan estar entrelazadas armoniosamente con ellas en una forma singularmente apropiada.

Cuando se propuso la hipótesis darwiniana de la selección natural, aportó una explicación general y sencilla de los mecanismos del mundo natural —las simetrías rotas—, pero apenas tuvo consecuencias para la otra forma de Argumento del Designio fundado en las propias leyes de la naturaleza. Pues éstas son tomadas como invariantes inmutables del universo. Si estudiamos una obra clásica de teología natural, como la Natural Theology de William Paley, encontramos las dos lecturas del Argumento del Designio expuestas por un escritor licenciado en matemáticas, que era al mismo tiempo un perspicaz naturalista. Paley aporta ejemplo tras ejemplo de los asombrosos dispositivos de la naturaleza —el ojo, la atracción ejercida por las flores sobre las abejas, el idóneo camuflaje de los animales—, y también encomia el hecho de que la ley particular de la gravitación, que Newton había revelado, posea una multitud de propiedades especiales que son condiciones necesarias para la existencia y estabilidad del sistema solar y, por tanto, para nuestra propia existencia. Sin embargo, cuando se lee la crítica inmediata a Paley, se encuentra que ésta cita su obra Natural Theology sólo como paradigma del estilo anterior del (ahora) ingenuo Argumento del Designio derivado de la adaptación biológica especial. No se hace mención alguna a la segunda parte de su estudio, la cual trata de las propiedades de las leyes newtonianas del movimiento y la gravitación. Curiosamente, el propio Paley dio preferencia a los ejemplos biológicos por estar más firmemente arraigados en la observación, y rechazó los ejemplos astronómicos porque ahí se veía divorciado de su estilo retórico favorito —la analogía. La propia competencia y los intereses de Paley se hallaban bien compensados por estos dos acentos. Aunque se había formado como matemático antes de entrar en la Iglesia, era un perspicaz naturalista aficionado.

Hay otra explicación más de este Argumento del Designio que es de interés para nosotros por proporcionar un vínculo entre las dos formas de la prueba que influyeron en el trabajo de los teólogos naturales durante los siglos XVII y XVIII. Existía en esa época una fuerte creencia en la idea de que alguna Divinidad omnipotente controla el comportamiento de resultados que se achacan superficialmente al azar al no poderse identificar una causa concreta. Este control se manifiesta en el mantenimiento de valores medios estables de cantidades físicas importantes. Esta idea es particularmente interesante porque se entrelaza con los primeros tanteos dirigidos a la creación de un estudio sistemático de la probabilidad y la estadística. Newton, como ya hemos dicho, fue el promotor de un Argumento del Designio fundado en la exactitud y universalidad de las leyes del movimiento y de la gravitación que él había descubierto. Pero también se vio impresionado por la disposición peculiar del sistema solar, reconociendo que se trataba de una característica que no podía ser explicada por medio de sus leyes de la naturaleza. Para ello se requería una combinación de condiciones iniciales y «azar», lo cual equivale en la práctica a una colección de caóticos procesos de ruptura de simetría. En su Óptica de 1704 pregunta:

¿Cómo es que los planetas se mueven todos de una misma forma en órbitas concéntricas, mientras los cometas se mueven de todas las maneras posibles en órbitas muy excéntricas?… Un Destino ciego no podría nunca hacer que todos los planetas se movieran de una misma forma en órbitas concéntricas, a excepción de algunas irregularidades irrelevantes que podrían haber surgido debido a las acciones que los cometas y los planetas ejercen unos sobre otros y que podrán aumentar hasta que este sistema exija una reforma. Debería admitirse que tan sorprendente uniformidad en el sistema planetario es consecuencia de una elección. Lo mismo debe decirse respecto a la uniformidad en los cuerpos de los animales.

William Derham, el autor de dos obras notablemente populares de teología natural, tituladas Physico-theology (1713) y Astro-theology (1715), escribió a John Conduitt en julio de 1733 sobre una

clase peculiar de Prueba de Dios que sir Isaac [Newton] mencionó en un discurso que él y yo dimos, poco después de que yo publicase mi Astro-theology. Él dijo que había 3 cosas en los Movimientos de los Cuerpos Celestes que evidenciaban plenamente la Omnipotencia y el Consejo divinos. 1. Que el Movimiento impreso en esos Globos era Lateral, o en una Dirección perpendicular a sus radios; no a lo largo de, o paralelamente a, ellos. 2. Que los Movimientos de ellos seguían el mismo camino. 3. Que sus órbitas tenían todas la misma inclinación.

El reconocimiento por Newton del estado singular del sistema solar ejerció una gran influencia impulsora en los estudios matemáticos posteriores, llevados a cabo por Laplace y Bernoulli, sobre la probabilidad de que la estructura del sistema solar surgiese del azar, y en el dominio entero de la ciencia newtoniana a través de Abraham de Moivre, quien dedicó su obra Doctrina del azar a Newton con la intención expresa de aportar un

Método para calcular los Efectos del Azar… y con ello fijar ciertas Reglas para estimar en qué medida algunos tipos de Sucesos pueden deberse antes al Designio [es decir, a causas determinadas] que al Azar… para estimular en otros el deseo de… aprender de tu filosofía [de Newton], cómo reunir, mediante un sencillo Cálculo, las maravillosas Evidencias de Sabiduría y Designio presentes en los Fenómenos de la naturaleza que se dan en todo el universo.

Laplace, por supuesto, se hizo célebre al explicar todos los movimientos conocidos del sistema solar por medio de las leyes newtonianas del movimiento y de la gravitación, acabando así con la necesidad de una intervención divina que efectuase «reformas» periódicas de sus movimientos, como Newton había propuesto. La estabilidad a largo plazo de la estructura media del sistema solar pudo así ser explicada en términos de las propiedades de las leyes de la gravitación y del movimiento, aunque la disposición especial del sistema solar siguió sin poderse explicar al no contarse con una teoría detallada sobre cómo se había formado el sistema solar. Más tarde, un desarrollo similar influyó en la interpretación de muchas de las evidencias especiales de un supuesto designio en el mundo natural. La teoría de la evolución mediante selección natural propuesta por Darwin es en la práctica una teoría estadística porque somos incapaces de seguir todos los lazos causales en el proceso histórico. Así pues, se consideró que la uniformidad en la estructura de especies particulares era una consecuencia del carácter estable de los valores medios de dicho desarrollo, en lugar del resultado de alguna elección especial en el estado de partida. En 1901, Biometrika, la revista fundada para el estudio estadístico de los problemas biológicos, publicó un editorial sobre su creación que capta bellamente la diferencia existente entre los físicos de la época victoriana, preocupados por las leyes de la naturaleza y sus resultados exactos, y el complicado mundo de productos aleatorios que preocupaba al científico de la vida:

El problema de la evolución es un problema de estadística… debemos tornar a la matemática de los grandes números, a la teoría de los fenómenos de masa, para interpretar con precisión nuestras observaciones… La tendencia característica de la mente de C. Darwin le condujo a establecer la teoría de los orígenes sin concepciones matemáticas; de la misma manera trabajó la mente de Faraday en el caso del electromagnetismo. Pero, así como cada idea de Faraday admite una definición matemática y requiere análisis matemático…, así cada idea de Darwin —variación, selección natural…— parece adaptarse a su vez a una definición matemática y requerir análisis estadístico.

Los fallos de la naturaleza

No hay ninguna posibilidad de reducir todas las leyes a una ley… ningún medio por el que excluir del mundo lo singular a priori.

JOSIAH ROYCE

No podemos esperar todo de una Teoría del Todo. Ésta podría darnos la totalidad de las leyes de la naturaleza, pero sólo este don no es suficiente para poder inferir todo lo que observamos en el universo de los principios inherentes a la Teoría del Todo. Indaguemos en el contenido de esta afirmación algo más detenidamente.

En nuestros anteriores ejemplos de rupturas de simetría existe un estado perfectamente simétrico que se decanta a un lado o al otro debido a la ruptura de simetría. En la práctica, esto significa normalmente que alguna fluctuación microscópica ha inclinado el fiel de la balanza en un sentido o en el otro. Si esta fluctuación es de origen mecánico-cuántico, no podrá ser atribuida a una causa local determinada y, por consiguiente, será intrínsecamente aleatoria, en lugar de efectivamente aleatoria sólo porque somos incapaces de adivinar su causa particular. Así pues, la ruptura de simetría podría ser atribuida a procesos aleatorios a un nivel cuántico. Si se nos diera un imán y se nos pidiera que explicásemos su estructura y comportamiento en términos de las leyes de la naturaleza aportadas por alguna Teoría del Todo, nuestra intuición sobre las cosas nos diría que habría ciertos aspectos de los fenómenos que no podríamos explicar por la Teoría del Todo. En particular, no intentaríamos explicar por qué un extremo del imán es el polo norte, y no el otro, o por qué el imán tiene una longitud determinada. De la misma forma, a lo largo de todo el espectro de la física de laboratorio hay aspectos de los fenómenos físicos que son cuasi aleatorios como resultado de la ruptura espontánea de alguna simetría. En el estudio del sistema solar no buscaríamos explicar por qué éste tiene un número determinado de planetas. Esta es una cuestión demasiado específica para una teoría general de la formación planetaria en la que muchos aspectos se decantan a un lado o al otro sencillamente por las condiciones de partida particulares o las fluctuaciones aleatorias. En el caso del sistema solar no es muy difícil aislar esas particularidades que uno no pretendería explicar en función de las leyes de la naturaleza únicamente. Pero cuando nos enfrentamos a los problemas de la estructura a gran escala del universo, nos resulta mucho más difícil trazar la línea de separación. De hecho, es imposible hacerlo con nuestro estado actual de conocimiento.

El fenómeno de la ruptura de simetría introduce un elemento esencialmente aleatorio en la evolución del universo. Ciertas cualidades del universo, como el equilibrio entre materia y antimateria, podrían estar determinadas en cada lugar en concreto por la forma particular en que las cosas se decantan ahí. En el marco del laboratorio solemos tener claro qué aspectos de una situación física pueden ser atribuidos a rupturas aleatorias de simetría, por lo que no se buscan para ellas explicaciones acabadas en función de las leyes fundamentales de la naturaleza. Esta situación es característica de nuestro entendimiento de ese mundo intermedio de las formas condensadas de la materia, cuya escala ni es submolecular ni es astronómica. Por contraposición, en un dominio como el de la cosmología, no sabemos todavía qué aspectos de la estructura a gran escala del universo deberían ser atribuidos a las leyes de la naturaleza y cuáles a esos mecanismos aleatorios de las leyes donde las simetrías subyacentes se han roto. Ésta es una distinción vital que hemos de hacer, pues si una característica del universo es consecuencia de las leyes, o incluso de las condiciones iniciales, hay razón para considerarla como una característica necesaria del universo que no habría podido ser de otra forma. Si, por otro lado, dicha característica es resultado de una ruptura de simetría, podría haber sido de otra forma y no debería ser considerada como un indicador clave de la estructura de la naturaleza. No sabemos, por ejemplo, si los tamaños de los grandes cúmulos de galaxias se siguen necesariamente de las leyes de la naturaleza, de las condiciones iniciales que imperaron en el big bang, o son el resultado de rupturas espontáneas de simetría en los primeros estadios del universo.

Así pues, aun cuando dispongamos de información acerca de las leyes de la naturaleza, de las condiciones iniciales y de las fuerzas, las partículas y las constantes de la naturaleza, nuestro entendimiento del universo seguirá estando seriamente incompleto mientras no comprendamos la forma en que las simetrías de las leyes de la naturaleza y las condiciones iniciales han sido ocultadas por la jerarquía de rupturas aleatorias de simetría que se han dado durante su historia.

Caos

Hubo una batalla en el cielo.

Apocalipsis 12,7

Hay una forma auténtica de ruptura de simetría que se ha convertido en un tópico de considerable interés. Se conoce como «caos». Los fenómenos caóticos son aquellos cuya evolución muestra una sensibilidad extrema respecto al estado inicial. El más mínimo cambio en el estado inicial se transforma en una diferencia colosal en los estados futuros que se siguen de él. La mayoría de los fenómenos complicados y desordenados, como la turbulencia o el tiempo, tienen esta propiedad. La importancia de dicho comportamiento fue reconocida por primera vez por James Clerk Maxwell en la segunda mitad del siglo XIX. Al pedírsele que dirigiera un coloquio sobre el problema de la voluntad libre en su universidad de Cambridge, llamó la atención de sus colegas sobre los sistemas en los que una mínima incertidumbre en su estado actual nos impide predecir con exactitud su estado futuro. Sólo en caso de conocerse con toda precisión el estado inicial (lo cual no es posible) serían de utilidad las ecuaciones deterministas. La omisión de semejantes sistemas, que son la regla antes que la excepción en la naturaleza, había derivado sutilmente en un sesgo a favor del determinismo en la filosofía natural. La preocupación tradicional por los fenómenos simples, estables e insensibles había originado una sobreconfianza en la influencia universal de las leyes de la naturaleza. Maxwell sugiere, antes bien, que

es posible que la consideración de la estabilidad y la inestabilidad arroje mucha luz sobre algunas de estas cuestiones. Cuando el estado de cosas es tal que una variación infinitamente pequeña en el estado actual alterará sólo en una cantidad infinitamente pequeña el estado en un tiempo futuro, se dice que la condición del sistema, ya se encuentre en reposo o en movimiento, es estable. Pero cuando una variación infinitamente pequeña en el estado presente puede producir una diferencia finita en un tiempo finito en el estado del sistema, la condición del sistema se dice inestable.

Es evidente que la existencia de condiciones inestables hace imposible la predicción de sucesos futuros mientras nuestro conocimiento del estado presente sea sólo aproximado, y no exacto… Es una doctrina metafísica que de los mismos antecedentes se siguen las mismas conclusiones. Nadie puede negar esto. Pero no es de mucha utilidad en un mundo como el nuestro, en el que los mismos antecedentes nunca se dan otra vez, y donde no hay nada que suceda dos veces… El axioma físico que presenta un aspecto algo parecido dice que «De antecedentes similares se siguen conclusiones similares». Pero aquí hemos pasado de la igualdad a la semejanza, de la precisión absoluta a una aproximación más o menos burda. Hay ciertas clases de fenómenos, como he dicho, en los que un pequeño error en los datos sólo introduce un pequeño error en el resultado… El curso de los sucesos en estos casos es estable.

Hay otras clases de fenómenos que son más complicados, y en los que se pueden dar casos de inestabilidad…

Maxwell fue el primer físico de relevancia de la era posnewtoniana que dirigió la atención a los resultados de las leyes de la naturaleza antes que a la forma de dichas leyes. El éxito cosechado por Newton descansaba en el reconocimiento de leyes generales simples que permitían entender una gran variedad de fenómenos terrestres y celestes en apariencia dispares. Tan grande fue su influencia sobre el curso del desarrollo científico, especialmente en Gran Bretaña, que mientras las sociedades primitivas se habían preocupado fundamentalmente por los sucesos particulares de la naturaleza, los newtonianos estaban sólo interesados en los aspectos legislables de la naturaleza. El newtonismo fue más que un método científico: fue una actitud que penetró en todas las ramas del pensamiento humano.

En retrospectiva, es curioso que llevara tanto tiempo reconocer la sensibilidad extrema de muchos fenómenos a su estado inicial; pues hay muchas circunstancias en la vida donde el efecto de una causa es desproporcionado y evidente. Una temprana y fascinante referencia a esta sensibilidad se encuentra en los escritos médicos de Galeno en el siglo II a. C., donde reconoce las consecuencias del azar en el tratamiento médico:

En aquellos que están sanos… el cuerpo no se altera ni siquiera por causas extremas; pero en los ancianos, hasta las causas más pequeñas producen el mayor cambio.

De hecho, Galeno creía que la buena salud era un estado de equilibrio entre dos extremos donde el «justo medio entre todos los extremos» es el mismo «en todas las partes del cuerpo». En consecuencia, observa que es necesario que cualquier desviación aleatoria de este equilibrio ocasionada por factores externos sea muy pequeña:

La salud es un tipo de armonía… toda armonía se realiza y manifiesta en una doble manera, primero alcanzando la perfección… y, segundo, desviándose sólo ligeramente de esta perfección absoluta…

El estudio de los fenómenos caóticos se ha llevado a cabo mediante una metodología que difiere significativamente de la empleada en las aplicaciones tradicionales de la matemática al mundo físico. En el pasado, un fenómeno físico complicado, como la turbulencia en fluidos, habría sido modelado con el propósito de generar una ecuación tan precisa como fuera posible para describir sus movimientos. Ahora bien, la sensibilidad extrema de este tipo de fenómenos a su estado inicial significa asimismo que por lo general será también extremadamente sensible a la forma de esta ecuación. Si la ecuación que utilizamos contiene la más mínima imprecisión u omisión, muy pronto el comportamiento predicho por el modelo se desviará dramáticamente del que tendrá lugar en el mundo real. Como consecuencia de esta sensibilidad, el interés se ha dirigido a dilucidar las características generales compartidas por la mayor parte de las ecuaciones que podemos formar.

Estrictamente hablando, no puede haber propiedades comunes a todas las ecuaciones posibles, pues cualquier propiedad que uno quiera tomar en consideración será expresada por alguna ecuación. No obstante, si uno ciñe sus expectativas a las propiedades de casi todas las ecuaciones, esto es, excluyendo sólo un conjunto de casos muy especiales que son altamente improbables y poco reales, entonces existen propiedades generales comunes al resto de las ecuaciones. Su descubrimiento ha sido uno de los asombrosos logros de la matemática moderna.

Estos estudios sobre las ecuaciones en general, en lugar de una ecuación en particular, nos han revelado que el comportamiento caótico es la regla antes que la excepción. Hemos llegado a considerar que los fenómenos lineales, predecibles y simples prevalecen en la naturaleza porque estamos inclinados a elegirlos para nuestro estudio. Son los más fáciles de entender. Pero ahora debemos dar un giro a la cuestión y considerar como un misterio el que haya una cantidad más que razonable de fenómenos simples y lineales en la naturaleza. En el fondo el mundo nos es inteligible por esta razón. Los fenómenos lineales simples pueden ser analizados por partes. El todo no es más que la suma de sus partes. Así pues, podemos entender algo sobre un sistema sin entender todo sobre él. Los sistemas caóticos no lineales son diferentes. Requieren un conocimiento del todo para poder entender sus partes, porque el todo equivale a más que la mera suma de sus partes. Tendremos más que decir sobre esto en el capítulo 9.

Algunos de los modelos que la teoría de la gravitación de Einstein ofrece como descripciones posibles de los primeros instantes de la expansión del universo muestran esta sensibilidad caótica a las condiciones iniciales. Si, según discutimos en el capítulo anterior en el contexto de las imágenes inspiradas en las supercuerdas de esta evolución temprana, el universo atraviesa alguna etapa de transición en la que algunas dimensiones del espacio se ven confinadas a una extensión despreciablemente pequeña, el número de las que escapan a este destino podría venir determinado en un modo sensiblemente caótico por las condiciones que existieron en el universo muy temprano. Como mínimo se esperaría que éstas variasen de un lugar a otro. Qué parte del universo somos capaces de deducir a partir de principios físicos o lógicos puede depender por consiguiente precariamente de cuán delicada sea la sensibilidad a cualesquiera condiciones iniciales que hayan existido.

Azar

La estadística es la física de los números.

P. DIACONIS

El estudio moderno de los procesos caóticos considera que éstos son característicos de las clases de cambio más típicas. Sólo cuando, debido a la situación, se imponen restricciones muy particulares, la insensibilidad a las condiciones de partida tiende a ser la regla antes que la excepción. Es un hecho que los tipos más generales de cambio continuo son a menudo los que manifiestan una sensibilidad más delicada a sus condiciones de partida particulares, lo cual deriva en fenómenos observables con un comportamiento muy complicado. Un gran torrente de fluido turbulento podría comenzar con una corriente bastante uniforme cuyas diferentes partes presentan una velocidad y una dirección de movimiento muy similares. Sin embargo, después de caer por la catarata, estas pequeñas diferencias iniciales entre los movimientos del agua en lugares contiguos se amplifican notablemente. Antes de que la idea de caos estuviera bien establecida, los científicos habían abordado el estudio de procesos complicados de esta índole como un problema originariamente estadístico. Esto es, consideraban que el proceso sometido a análisis era, a todos los efectos prácticos, «aleatorio».

Una de las curiosidades de la historia es que los campos de estudio ahora pujantes de la probabilidad y la estadística no existían antes de mediados del siglo XVII. Esto es tanto más sorprendente cuanto que estos temas aparecieron como parte de las matemáticas y se inspiraron en la observación de los juegos de envite, dados, cartas y toda clase de juegos de azar. Dichos juegos se venían practicando en el mundo entero desde hacía milenios. De hecho, la palabra «azar» deriva del árabe al-zahr que significa «jugar a los dados», un juego que se practicaba en el antiguo Egipto, así como en Grecia, Roma y durante toda la Edad Media. ¿Por qué entonces la cuestión de la probabilidad —la cuantificación del azar— no prosperó en estas culturas como lo hizo la geometría, la aritmética o el álgebra? Desafortunadamente, no parece haber una respuesta convincente a esta sencilla pregunta. La gente era consciente de esas imprevisibilidades que nosotros llamaríamos «azar» y las distinguía claramente de otros sucesos esperados. Sólo que no las estudiaron como una rama de la ciencia o la matemática. La mayoría de las veces utilizaron la distinción para proscribir lo que era legítimo y merecía estudiarse científicamente.

En algunas sociedades esta negación del azar puede estar asociada a creencias religiosas. No es inusual que los fenómenos de azar, como echar suertes, sean tratados como un medio de comunicarse directamente con Dios (o con los dioses). Recordemos que el profeta judío Jonás del Antiguo Testamento fue echado por la borda al mar después de que sus compañeros en el barco lo echaran a suertes y que la elección de Mateo por los once apóstoles para sustituir a Judas Iscariote se hizo de la misma forma. También pueden hallarse referencias bíblicas a la práctica de la rabdomancia, que consiste en lanzar al aire unos palos de forma que se puede predecir el futuro observando las direcciones en que caen. El Antiguo Testamento también habla en varias ocasiones de los misteriosos Urim y Tumim, que eran guardados en el interior o sobre la toga de lino («epodo» como era denominado) del sumo sacerdote. Se les consultaba con frecuencia cuando se necesitaba alguna guía nacional y parece que sus respuestas eran simples «sí» o «no», lo que sugiere que se trataba de alguna forma de sorteo y que, o bien eran lanzados, o bien eran extraídos de una bolsa, por el sumo sacerdote. Otra propuesta, más convincente, es que consistían en dos objetos planos, en una de cuyas caras estaba el Urim derivado de arar, en hebreo «excomulgar», y en la otra cara estaba el Tumim, derivado de tamam, que significa «ser perfecto». Así pues, un doble Tumim indicaba un «sí», un doble Urim, un «no», y una cara diferente en cada uno se leía como «sin respuesta». En todos estos ejemplos, y hay muchos más del mismo tipo, el énfasis recae en la utilización de procesos que los humanos no pueden prever como medio para que la Divinidad revele una causa desconocida pero muy definida. Así, el sorteo para identificar a Jonás como la causa de la tormenta no reconoce ningún elemento intrínsecamente aleatorio en la naturaleza o algún misterioso proceso llamado «azar» que opera con independencia de sus acciones normalmente ordenadas. Antes bien, busca a quién atribuir la culpa, así como descubrir información que sólo es accesible a Dios en ese contexto porque, como el caso de Jonás ilustra, era una acción contra Dios que los marineros consideraron suficientemente grave como para provocar el castigo en la forma de una tormenta. Aquí, y en otros lugares de las escrituras del Antiguo Testamento, los procesos aleatorios se introducían principalmente para contrarrestar la posibilidad de que algún sesgo humano influyera en la decisión. Lo más cerca que se llega al reconocimiento de una idea de sucesos «azarosos» no guiados por Dios es en la historia de Guideón extendiendo lanas en el suelo. Lo hizo dos veces. La primera noche buscó rocío en la lana pero no en el suelo, mientras que la segunda miró si había ocurrido lo contrario. Presumiblemente, la segunda prueba fue para eliminar alguna posibilidad que el primer signo pudiera haber borrado por «azar», y el cambio buscado en el segundo estado para eliminar lo que nosotros ahora llamaríamos sesgos sistemáticos.

Estos ejemplos nos inducen a pensar que el tratar con objetos de azar era un serio asunto teológico, no algo con lo que se pudiera jugar o estudiarse meramente por diversión. Es más, los resultados no son aleatorios en ningún sentido que pudiera ser aceptado por sus testigos. No eran fenómenos naturales. Antes bien, eran las respuestas de Dios a las que no tenían acceso por otras formas de revelación. Así pues, aunque muchos estudiosos señalan las historias del Antiguo Testamento como ejemplos tempranos de una familiaridad, firmemente arraigada, con nuestra noción moderna de azar, no tienen nada que ver con eso.

En otras culturas antiguas encontramos una asociación inmediata de la aleatoriedad con el caos y la oscuridad. Estas cosas son aspectos indeseables de un lado oscuro del universo del cual la parte visible ha escapado gracias a las acciones heroicas de los dioses. Los fenómenos y desastres naturales ocasionales son destellos de este lado oscuro de las cosas. El azar para estos pensadores es en el fondo algo indeseable, porque se le asocia a la incertidumbre y a la impredecibilidad y, por consiguiente, al peligro. Si las cosas no son ciertas —si la cosecha y la lluvia no llegan—, hay graves consecuencias que se identifican ipso facto con el castigo divino.

Estas primitivas ideas sobre el azar nos hacen pensar asimismo que éste no se convertirá meramente en otro concepto de investigación. No es secular. Siempre habrá, claro está, fenómenos que, por ignorancia, nos parecen desordenados, pero que terminan siendo aceptados en el canon de las cosas ordenadas cuando alguien indica cuál es realmente su aspecto predecible. De hecho, esto podría verse como la historia del progreso científico humano. Al principio todo parece aleatorio, oculto, y atribuible al capricho de los dioses. Conforme aparecen las regularidades, las personalidades de algunos de los dioses deben evolucionar para poder mantenerse a tono con las nuevas regularidades reconocidas, mientras que otros son relegados a un segundo plano para que actúen entre bastidores y proporcionen una explicación de las irregularidades. Según pasa el tiempo se encuentran y se reconocen cada vez más regularidades. Éstas se muestran tan beneficiosas que la atención se centra casi exclusivamente sobre ellas, y la idea del azar, junto con el estudio de los sucesos sin causa discernible, resulta sencillamente postergada.

Pese a los tabúes religiosos y sociales en contra del estudio de las cosas que suceden por «azar», uno todavía podría defender que en muchas sociedades existía tal espectro de creencias que siempre habría grupos de individuos impíos haciendo de las suyas, como pensar en la forma de asegurarse que ganarían en el juego[11]. Muchas de estas personas eran ricas y cultas. Uno podría pensar que la motivación para un estudio detallado de mecanismos de azar particulares debía de haber sido grande. Habrían proporcionado a su dueño una considerable ventaja financiera a largo plazo. Es posible que esto haya sido sencillamente demasiado difícil si se recuerda que la mayor parte de las antiguas parafernalias de juegos de azar consistían en objetos, como huesos o palos de formas irregulares, que no poseían un número de resultados igualmente probables. De hecho, el uso de un «dado» irregular de este tipo debe de haber sido suficiente para que su dueño le saque partido a largo plazo simplemente a resultas de la experiencia. Observando sus tendencias en un número muy grande de jugadas, es posible aprender sus sesgos. Poseyendo muchos de tales objetos y jugando contra una lista variable de oponentes, uno podría explotar el conocimiento adquirido con bastante efectividad. No hay por consiguiente una necesidad real de una teoría general de tales objetos; de hecho, como cada objeto de azar difería de todos los demás, no parecía existir una teoría general en ningún caso.

Sin embargo, pese a no disponerse de una teoría matemática del azar y de la aleatoriedad en los tiempos antiguos, existe un reconocimiento del concepto general de azar, así como un acalorado y pertinaz debate sobre cómo se debería interpretar la existencia de sucesos sin causas identificables. Una de las características comunes a los estoicos, implícita en el punto de vista bíblico que mencionamos arriba, es reconocer el azar como un antropomorfismo que surge sólo debido a una falta de conocimiento de las causas ocultas, pero definidas, de las cosas. Esta concepción es expuesta por Cicerón, a la luz de las concepciones estrictamente deterministas de los estoicos, en la siguiente forma:

Nada ha sucedido que no estuviera destinado a suceder, y, asimismo, nada va a suceder que no encuentre en la naturaleza todas las razones suficientes para suceder… Si hubiese un hombre cuya alma pudiera discernir los lazos que unen cada causa a todas las otras causas, a buen seguro no se equivocaría en ninguna de las predicciones que llegara a hacer. Pues quien conoce las causas de los sucesos futuros conoce necesariamente los sucesos futuros que acaecerán.

Esta concepción fatalista resuena por los corredores de la historia, hasta que reconocemos sus sentimientos reflejados de manera enérgica en los famosos pasajes de Laplace donde introduce su noción de determinismo y la capacidad de un Ser Omnisciente para prever íntegramente el comportamiento futuro del universo en un mundo determinista gobernado por las leyes del movimiento de Newton. Para este Intelecto, «no habría nada incierto».

El Ser Omnisciente oculto tras los pensamientos de Laplace acerca del azar jugó un papel mucho más importante en otra corriente de pensamiento concerniente a las probabilidades y el azar. La teología natural fue una parte integrante importante de la filosofía natural hasta mediados del siglo XIX. Una de sus ramas, como explicamos más arriba, se ocupaba de las leyes de la naturaleza, la otra, de los resultados fortuitos de esas leyes. El estudio de estos dos aspectos condujo a un gran cuerpo de opinión a favor de la noción de que nuestro universo era un universo improbable. Siguiendo a Newton, no era inusual que los apologistas hicieran referencia a las indeseables consecuencias que obtendríamos si los resultados de las leyes de la naturaleza fueran diferentes, o si las leyes mismas fueran ligeramente alteradas. La conclusión invariable derivada de estos razonamientos era que nuestro universo es extremadamente improbable, bajo la suposición implícita de que todas las alternativas eran más o menos igualmente probables, y por consiguiente nuestro conjunto particular de leyes y sus mecanismos especiales requerían una explicación adicional. La explicación dada con más frecuencia era que habían sido elegidas para que pudiera existir la vida humana. Esto era una parte necesaria del Plan Divino.

La imprevisibilidad del sexo

La reductio ad absurdum es el razonamiento favorito de Dios.

HOLBROOK JACKSON

Una cuestión que ocupó notablemente las mentes de muchos teólogos naturales fue la cuestión del sexo. O, al menos, digamos que estaban interesados en un aspecto particular del mismo: la igualdad promedio a largo plazo de las tasas de nacimiento de varones y mujeres (de hecho, el ligero exceso de varones sobre mujeres también había sido detectado). Un ingenuo suscriptor natural del Argumento del Designio teleológico como William Derham no atribuía la regularidad general o el leve exceso de varones a algún sesgo matemático a largo plazo, antes bien a un designio providencial de un tipo muy peculiar, porque

el excedente de varones es muy útil para el aprovisionamiento de la guerra, los mares y otras funciones de los varones sobre las mujeres. Que esto es obra de la divina Providencia y no una cuestión de azar, lo muestran las mismas leyes del azar.

El escritor recurre, pues, a un Argumento del Designio. Más tarde surgirían explicaciones estadísticas contrapuestas de los hechos. Bernoulli mostró que el pequeño exceso observado de varones sobre mujeres se daría si la probabilidad de nacimiento de un varón era efectivamente 18/35, en lugar de un medio.

Ninguno de estos estudios teológicos naturales involucraba el concepto de azar, que hubiera sido visto como la antítesis del plan dispuesto por la mano de Dios. El azar estaba representado como un tipo de causa que simbolizaba todo lo que se oponía a la imagen cristiana establecida acerca del origen y gobierno del mundo material. Sólo a partir de Maxwell comenzaron a reconocerse los atributos positivos de procesos aparentemente aleatorios como generadores de muchos tipos diferentes de comportamiento[12].

Los teólogos naturales que estudiaban el mundo de lo vivo deseaban construir en el mundo cualquier pequeña cosa que necesitara darse. No se les ocurrió que podían sencillamente dotar al mundo de una lógica que respondiera a cualquier eventualidad: sería Darwin quien con el tiempo nos persuadiría de ello. El interesante descubrimiento que hemos realizado gradualmente a lo largo del último siglo es que los procesos aleatorios poseen esta capacidad de respuesta. No requieren que los sistemas vivos estén dotados de una preprogramación para tratar con cualquier eventualidad posible. Semejante situación los haría seguramente inviables, aunque sólo fuera por razones de tamaño y de complejidad interna.

Estas pruebas teológicas naturales sobre un «plan» dirigido a asegurar que las medias estadísticas se mantuvieran en un saludable equilibrio contaron con una gran diversidad de defensores, siendo uno de ellos la pionera enfermera victoriana Florence Nightingale, quien lo llamó «el pensamiento de Dios». Éstos mantuvieron que la igualdad entre nacimientos y muertes, así como entre sexos, era sustentada por la divinidad. Florence se vio muy impresionada por las tendencias estables manifestadas por sucesos individualmente impredecibles y fue de las primeras en utilizarlas como un Argumento del Designio para la intervención benigna de Dios. Esto la convirtió inopinadamente en una estudiosa de la estadística, de quien un historiador escribió:

[Para] ella la estadística era más que un estudio, era de hecho su religión. Quetelet era su héroe científico, y la copia de presentación de su Physique sociale tiene anotaciones de su puño y letra en cada página. Florence Nightingale creía —y en todas las acciones de su vida actuó basándose en esa creencia— que el administrador sólo podía tener éxito si era guiado por un conocimiento estadístico… Pero fue más lejos; mantuvo que el universo —incluyendo las comunidades humanas— estaba evolucionando según un plan divino; que era la tarea del hombre el intentar entender este plan y dirigir sus actos en acuerdo con él. Pero para entender los pensamientos de Dios, afirmaba, debíamos estudiar estadística, pues ésta era la medida de Su propósito. Así, el estudio de la estadística era para ella un deber religioso.

Lo que es interesante acerca de los pormenorizados estudios estadísticos que se llevaron a cabo para apoyar estas panegíricas predarwinianas es que revelaban por primera vez una creencia en leyes matemáticas que gobernaban el desarrollo y la variación de las cosas vivas. Reconocían la existencia de un elemento estadístico en las raíces de la reproducción, cuya uniformidad a largo plazo requería una explicación. La explicación buscada no era científica; sin embargo, al igual que sucedió con las versiones más amplias del Argumento del Designio, jugó un importante papel en el reconocimiento de las adaptaciones y de los equilibrios clave en el mundo natural sobre los que Darwin y sus seguidores pudieron centrar la búsqueda de explicaciones alternativas.

Ruptura de simetría en el universo

Aquí yace Martin Englebrodde, ten piedad de mi alma, Señor, como yo la tendría si yo fuese Dios, y tú, Martin Englebrodde.

Inscripción de una sepultura inglesa

Hicimos hincapié al comienzo de este capítulo en que la distinción entre las leyes de la naturaleza y sus resultados hace doblemente difícil nuestro entendimiento del universo. La corriente general de la física fundamental ha revelado que la naturaleza tiene una estructura observada que es fuertemente sensible a la temperatura. Cuando observamos el comportamiento de las partículas elementales de la materia a energías y temperaturas cada vez más altas encontramos que se tornan más simétricas y en algún sentido más simples. A las temperaturas extremadamente altas de los primeros instantes del big bang, el universo pudo haber sido máximamente simétrico. Pero, conforme se expande, su temperatura disminuye, de manera que se dan diferentes opciones para el comportamiento de la materia y las simetrías se van rompiendo sucesivamente, aquí de una forma, allí de otra.

Hoy vivimos en un universo frío de baja energía donde la bioquímica es posible. Si el universo fuese significativamente más caliente o más frío en nuestro entorno local, no podríamos haber evolucionado. Así pues, nos encontramos mal ubicados para reconstruir las simetrías de la naturaleza. Vivimos por fuerza en una era en la que las simetrías profundas de la naturaleza hace tiempo que se han roto y encubierto la verdadera simplicidad subyacente a las cosas. Es más, muchas de las cosas que presenciamos en el universo puede que hayan sido determinadas principalmente por la forma aleatoria en que la ruptura de simetría se ha llevado a cabo.

Figura 6.2 El universo inflacionario. Representación esquemática de la imagen de universo inflacionario, en la que el universo visible evoluciona a raíz de la expansión acelerada de una sola región causalmente coherente y de extensión microscópica. Sin el fenómeno de la expansión acelerada, estas regiones microscópicas suaves habrían evolucionado a regiones de un tamaño mucho más pequeño que el del universo observado hoy en día.

Un ejemplo muy específico de este problema es la noción de «universo inflacionario», que introdujimos en el capítulo 3, y que penetra una gran parte de la cosmología moderna. El universo inflacionario no es tanto una teoría cosmológica nueva como un aditamento a la teoría del big bang del universo en expansión, que ha sido en realidad la única imagen aceptable de la evolución global del universo desde que la teoría del estado estacionario colapsó ante la enorme evidencia observacional contraria en la década de 1960. El modelo del big bang convencional defendía una imagen del universo en la que éste se expandía a partir de un estado inicial en un tiempo finito en el pasado. Esta expansión se ve desde un principio decelerada de manera progresiva por el tirón retardador de la gravedad. Esta propiedad da pie a un enigma al afirmar que el universo se expande de manera relativamente lenta en sus primeros estadios, tan lentamente de hecho que el enorme globo de quince mil millones de años luz de diámetro que actualmente denominamos «universo visible» debe de haberse desarrollado a partir de una región bastante grande en los primeros instantes. Al decir «bastante grande» nos referimos a que era considerablemente mayor que cualquier región que las señales de luz hubieran tenido tiempo suficiente de atravesar desde el comienzo de la expansión. Por tanto, la uniformidad a gran escala del universo visible hoy en día, junto al hecho de que se expande a la misma velocidad en cualquier dirección salvo error del uno por mil, es algo misterioso. El universo inflacionario propone que en los primeros instantes de la expansión existió cierta forma de materia de un tipo que los físicos de partículas consideran de manera rutinaria en las teorías matemáticas que estudian sobre el papel como modelos de la física de altas energías. El efecto de esta forma especial de materia es hacer que la expansión se acelere durante un breve período de tiempo. Como resultado de ello, la gran esfera imaginaria a nuestro alrededor, que llamamos el universo visible actualmente, puede haberse expandido a partir de una región mucho más pequeña durante los primeros instantes de la historia del universo. De hecho, no es difícil conseguir que esa región embrionaria sea lo suficientemente pequeña para que las señales de luz la atraviesen en el tiempo transcurrido desde que comenzó la expansión. El éxito de este escarceo especulativo es que ahora se hace de inmediato inteligible por qué el universo es tan regular a gran escala. La uniformidad a gran escala es meramente un reflejo de la uniformidad microscópica mantenida por la acción suavizante de todo tipo de procesos de fricción durante sus primeros instantes (véase la figura 6.2).

Imaginemos ahora que el universo comenzó en un estado bastante caótico o aleatorio, de manera que no tengamos que hacer ninguna suposición especial sobre cómo era su estado inicial. La variación en las condiciones locales significará que algunas regiones atravesarán períodos más largos de «inflación», en los que la expansión se acelera, durante los primeros estadios de la historia del universo. Las rupturas de simetría determinan cómo las propiedades físicas varían de una región a otra poco después de que la expansión del universo haya comenzado. Por tanto, regiones diferentes inflacionarán en cantidades diferentes. Sólo aquellas que inflacionen por encima de una cantidad particular podrán vivir el tiempo suficiente para que la vida pueda evolucionar. Nosotros habitamos una de dichas regiones inflacionadas. Hay muchas otras (un número infinito de ellas si el universo es de tamaño infinito) que se encuentran más allá del horizonte de nuestro universo visible. Estas podrían ser muy diferentes a la región que alcanzamos a ver. Así pues, vemos por qué una Teoría del Todo no nos dice todo lo que queremos saber.

La Teoría del Todo admite la posible existencia de muchos universos visibles bajo la sola condición de autoconsistencia; sin embargo, sólo los universos grandes serán vistos por los físicos. Nosotros residimos justamente en una de las posibilidades compatibles con las condiciones necesarias para la evolución biológica. Así pues, para entender por qué nuestra parte observada de universo posee las propiedades particulares que tiene, necesitamos algo más que leyes de la naturaleza. Muchas de las notables propiedades de la estructura a gran escala del universo pueden ser asociadas a la forma en que las rupturas aleatorias de simetría se producen de una región a otra. Si es así, puede que busquemos en vano una explicación directa de estas características del universo en una Teoría del Todo, aun cuando ésta prescriba las condiciones iniciales en el big bang. Los pormenores del universo visible no se podrán derivar de una Teoría del Todo si el universo incluye algún elemento intrínsecamente aleatorio, como las rupturas de simetría, que puedan variar de un lugar a otro en sus primeros instantes.

Para ser más específicos acerca de este problema vamos a dar un ejemplo que bien podría resultar aplicable a nuestro universo. Una de las propiedades más sorprendentes del universo visible es el predominio de materia sobre antimateria. Aunque los aceleradores de partículas producen rutinariamente materia y antimateria en las mismas cantidades y hay una relación democrática entre las dos, no vemos antiplanetas, ni antiestrellas, ni antigalaxias, y no hay evidencia de alguna antimateria en los rayos cósmicos que nos llegan desde el exterior de nuestro sistema solar. Ni tampoco encontramos evidencia alguna de la aniquilación total de materia y antimateria que se produciría en cualquier parte del universo en la que las dos entrasen en contacto. Así pues, por alguna misteriosa razón, existe una forma de favoritismo cósmico. El universo observable está hecho de materia en lugar de antimateria. La otra cosa de la que consiste más claramente es de radiación. De hecho, en un recuento directo, los fotones ganan, pues, por término medio, en el universo se encuentran alrededor de dos mil millones de fotones de luz por cada protón. Como cada vez que un protón choca con un antiprotón y se aniquila se producen dos fotones de luz, podemos ver que un universo como el nuestro, el cual posee cerca de dos mil millones de fotones por cada protón, necesita haber surgido de un estado denso muy caliente en el que hubiera por término medio mil millones y un protones por cada mil millones de antiprotones. Mil millones de antiprotones acaban con mil millones de protones, produciéndose dos mil millones de fotones por cada protón restante. Pero ¿por qué habría de poseer el universo inicial un desequilibrio tan raro de materia y antimateria en sus comienzos?

A principios de los años ochenta, el estudio de las teorías unificadas de las interacciones fuerte, electromagnética y débil aportó una sugerente explicación de esta unilateralidad cósmica. La asociación de dichas fuerzas puso de manifiesto la existencia natural de una asimetría debido a una diferencia ínfima en la velocidad de desintegración de partículas y antipartículas en estas teorías, lo cual habría jugado un papel importante en los primeros estadios del universo. El desequilibrio final entre protones y antiprotones —el sesgo de «mil millones y uno frente a mil millones»— podría haber surgido de esta asimetría en las velocidades de desintegración. Pero sigue en pie la cuestión de ¿cuál es esta asimetría? En algunas teorías, se encuentra determinada por un valor constante dado por otras constantes de la naturaleza, las cuales podrían ser medidas siempre y cuando determinasen otras características observables del mundo de las partículas elementales. Pero, en otras, esta componente universalmente constante sólo forma parte de la asimetría total. Y se ve aumentada por otro elemento que varía aleatoriamente de un lugar a otro en el universo, ya que surge de algún proceso de ruptura aleatoria de simetría que es sensible a las condiciones físicas locales de densidad y temperatura. Así, en este caso, el desequilibrio entre materia y antimateria varía de una región a otra en el universo. No está determinado por la «Teoría del Todo» únicamente. De nuevo habrá lugares donde el desequilibrio sea tan pequeño que se producirán muchas aniquilaciones y no podrán surgir las condiciones necesarias para la evolución y la persistencia de la vida. Sólo en aquellas regiones en las que el equilibrio se encuentre entre límites aceptables —una de ellas es obviamente nuestro trozo visible del universo entero—, evolucionarán los observadores. Para éstos, la explicación del desequilibrio entre materia y antimateria que ven no se encuentra en las leyes de la naturaleza solamente, y mucho menos en las condiciones iniciales. En cierta forma, no hay explicación en un contexto científico convencional. Se dan condiciones de todas las formas posibles en lugares diferentes. Nosotros observamos el desarrollo de una de las posibilidades que permitió a la vida evolucionar. Esto no es algo impuesto por las leyes de la naturaleza, sino simplemente permitido. El hecho de que pudiera tratarse de un universo bastante improbable tampoco debería preocuparnos. Si los resultados probables de la Teoría del Todo son mundos con cantidades similares de materia y antimateria, se tratará de mundos inhabitados. Nosotros tendríamos que encontrarnos viviendo en una de las alternativas improbables con independencia de cuán grande sea su improbabilidad intrínseca.

Estos ejemplos sólo son ilustraciones de cómo el universo puede ser sutil y malicioso a un mismo tiempo. Las leyes de la naturaleza no nos permitirán inferir lo que veremos en el universo. Y nosotros no sabemos siquiera dónde trazar la línea divisoria entre los aspectos del universo que son atribuibles a las leyes y aquellos que surgen del umbral caótico del azar.