7
El origen de la masa

El descubrimiento de E = mc2 supuso un punto de inflexión en la manera que los físicos tenían de ver la energía, ya que nos enseñó que existe una enorme cantidad de energía almacenada en el interior de la propia masa. Es una cantidad muchísimo mayor de lo que nadie había osado imaginar: la energía que contiene la masa de un solo protón es casi mil millones de veces superior a la que se libera en una reacción química típica. A primera vista, parece que hemos dado con la solución para los problemas energéticos del mundo y, en cierta medida, puede que a largo plazo así sea. Pero con una importante salvedad: es muy difícil destruir la masa por completo. En una central eléctrica de fisión nuclear, únicamente se destruye una fracción muy pequeña del combustible original; el resto se transforma en elementos más ligeros, algunos de los cuales constituyen residuos altamente tóxicos. Incluso en el interior del Sol, los procesos de fusión son extraordinariamente poco efectivos a la hora de convertir masa en energía, y esto no se debe solo a que la proporción de masa que se destruye sea muy pequeña: la probabilidad de que tenga lugar la fusión de un protón en particular es extremadamente baja, porque el paso inicial de convertir un protón en un neutrón es extraordinariamente poco habitual (tanto que, de hecho, un protón en el núcleo del Sol tarda de media alrededor de 5.000 millones de años en fusionarse con otro protón para dar lugar a un deuterón, desencadenando así la liberación de energía). En realidad, el proceso ni siquiera llegaría a producirse nunca de no ser porque a escalas tan pequeñas la teoría cuántica es soberana: en la imagen del mundo anterior a la cuántica, la temperatura del Sol no era suficiente como para comprimir a los protones tanto como para que la fusión tuviese lugar (debería haber estado unas 1.000 veces más caliente que la temperatura actual de su núcleo, de unos 10 millones de grados). Cuando el físico británico sir Arthur Eddington propuso por primera vez, en 1920, la hipótesis de que la fusión era la fuente de la energía del Sol, enseguida se le planteó esta posible objeción a su teoría. Sin embargo, Eddington estaba convencido de que la fusión del hidrógeno para dar helio era la fuente de energía, y confiaba en que se tardaría poco en resolver el enigma de la temperatura. «El helio que manejamos se ha tenido que crear en algún momento y en algún lugar —dijo—. No buscamos llevarle la contraria a quien argumenta que las estrellas no tienen la temperatura suficiente para este proceso, pero sí le sugerimos que busque un lugar más caliente».

La conversión de protones en neutrones es tan laboriosa que, «kilogramo por kilogramo», el Sol es varios miles de veces menos eficiente que el cuerpo humano a la hora de transformar masa en energía. Un kilogramo del Sol genera de media únicamente 1/5.000 vatios de potencia, mientras que el cuerpo humano suele generar algo más de 1 vatio por kilogramo. Evidentemente, el Sol es muy grande, cosa que compensa más que de sobra su relativa ineficiencia.

Como no nos hemos cansado de repetir a lo largo del libro, la naturaleza se rige por leyes. No tiene mucho sentido entusiasmarse demasiado con una ecuación que solo nos dice, como E = mc2, lo que podría suceder. Hay una enorme diferencia entre nuestra imaginación y lo que en realidad ocurre y, aunque nos fascinen las posibilidades que E = mc2 nos ofrece, debemos saber cuál es el proceso por el que las leyes de la física permiten que se destruya la masa y se libere la energía. Desde luego, la ecuación por sí sola no implica necesariamente que tengamos la posibilidad de transformar masa en energía a nuestro antojo.

Uno de los asombrosos avances de la física en el último siglo ha sido la constatación de que, en apariencia, bastan unas pocas leyes para explicar prácticamente toda la física, al menos en principio. Eso mismo fue lo que creyó que había logrado Newton cuando, a finales del siglo XVII, escribió sus leyes del movimiento. Y durante los doscientos años siguientes escasearon las evidencias científicas que le llevasen la contraria. Newton, más bien modesto a ese respecto, dijo una vez: «Era como un niño jugando a la orilla del mar, distraído constantemente con una piedra más pulida o una concha más hermosa de lo habitual, mientras que el gran océano de la verdad permanecía ante mí, aún por descubrir». Estas frases reflejan perfectamente el asombro y la humildad que la práctica de la física puede provocar. Frente a la belleza de la naturaleza, parece innecesario, por no decir ridículo, pretender que hemos descubierto la teoría definitiva. A pesar de lo apropiado de esta modestia filosófica respecto a la empresa científica, la visión del mundo después de Newton afirmaba que todas las cosas estaban compuestas por pequeñas partes que obedecían fielmente las leyes de la física que Newton había articulado. Nadie negaba que quedaban aún por resolver varias cuestiones en apariencia menores: ¿cómo se mantienen unidas las cosas entre sí en realidad? ¿De qué están compuestas realmente esas pequeñas partes? Pero poca gente dudaba de que la teoría de Newton fuese el centro de todo, y que solo era cuestión de ir completando los detalles. Sin embargo, a lo largo del siglo XIX se fueron observando nuevos fenómenos cuya explicación contradecía a Newton, y que acabarían dando pie a la relatividad de Einstein y a la teoría cuántica. Newton fue derrocado, o, para ser más exactos, sus ideas pasaron a considerarse una aproximación de una visión más precisa de la naturaleza y, cien años más tarde, henos aquí de nuevo, ignorando tal vez las lecciones del pasado y afirmando que disponemos de una teoría de (casi) todos los fenómenos naturales. Es muy posible que nos equivoquemos de nuevo, lo cual no sería malo. Merece la pena recordar una vez más que la historia con frecuencia ha demostrado no solo que la arrogancia científica es absurda, sino también lo perjudicial que ha sido y probablemente será siempre para el intelecto humano la pretensión de que sabemos lo suficiente, no digamos ya todo lo que hay que saber, sobre el funcionamiento de la naturaleza. En una conferencia que ofreció en 1810, Humphry Davy lo expresó magníficamente: «Nada hay tan perjudicial para el progreso de la mente humana como suponer que nuestra visión de la ciencia es definitiva; que ya no existen misterios por descubrir en la naturaleza; que nuestras victorias son completas; que no quedan nuevos mundos por conquistar».

Puede que toda la física que conocemos no sea más que la punta del iceberg, como también es posible que nos estemos aproximando realmente a una «teoría del todo». Sea como sea, lo cierto es que disponemos de una teoría que, gracias al concienzudo trabajo de miles de científicos de todo el mundo, se ha demostrado que permite explicar una amplia variedad de fenómenos. Es una teoría cuya capacidad de unificación resulta asombrosa, y cuya ecuación central cabe en una servilleta.

ECUACIÓN 7.1

Nos referiremos a esta ecuación central como la ecuación maestra, que constituye el núcleo de lo que se conoce como modelo estándar de la física de partículas. Aunque es poco probable que, a primera vista, la ecuación les diga algo a la mayoría de nuestros lectores, no podemos resistirnos a reproducirla aquí.

Evidentemente, solo los físicos profesionales entenderán en detalle qué es lo que representa la ecuación, pero no es a ellos a quienes se la queremos enseñar. En primer lugar, queríamos mostrar una de las ecuaciones más maravillosas de la física (enseguida dedicaremos un rato a explicar por qué es tan maravillosa). Pero también es posible hacerse una idea de qué es lo que representa simplemente hablando sobre los símbolos sin tener ningún conocimiento de matemáticas. Para entrar en calor, empezaremos describiendo el alcance de la ecuación maestra: ¿cuál es su función? ¿Para qué sirve? Su función es especificar las reglas según las cuales interactúan entre sí dos partículas cualesquiera en cualquier lugar del universo. La única excepción es que, por desgracia, no permite dar cuenta de la gravedad. A pesar de esta limitación, su alcance sigue siendo admirablemente ambicioso. Haber llegado a deducir la ecuación maestra constituye sin duda uno de los grandes logros de la historia de la física.

Aclaremos a qué nos referimos con la interacción entre dos partículas. Queremos decir que, como consecuencia de esta interacción, algo le sucede al movimiento de las partículas. Por ejemplo, dos partículas pueden dispersarse mutuamente, cambiando de dirección al hacerlo. O pueden también orbitar la una alrededor de la otra, atrapándose recíprocamente en lo que los físicos denominan un «estado ligado». Un átomo es un ejemplo de ello y, en el caso del hidrógeno, un solo electrón y un solo protón están ligados según las reglas que establece la ecuación maestra. La ecuación maestra incorpora las reglas para calcular la energía de enlace de un átomo, molécula o núcleo atómico, de la que tanto hemos oído hablar en el capítulo anterior. En cierto sentido, conocer las reglas del juego significa que estamos describiendo la forma en que opera el universo a un nivel muy fundamental. ¿Cuáles son entonces esas partículas de las que están compuestas todas las cosas, y cómo interactúan entre ellas?

El modelo estándar parte de la existencia de la materia. Para ser más precisos, supone la existencia de seis tipos de «quarks», tres clases de «leptones cargados», entre los que se cuenta el electrón, y tres tipos de «neutrinos». Puedes ver cuáles son las partículas de materia que aparecen en la ecuación maestra: se representan mediante el símbolo ψ (que se pronuncia «psi»). Para cada partícula debe existir también la antipartícula correspondiente. La antimateria no es ciencia ficción, sino que es uno de los componentes necesarios del universo. El físico teórico británico Paul Dirac fue el primero en constatar, a finales de la década de 1920, la necesidad de la antimateria, al predecir la existencia de un compañero del electrón llamado positrón, que debía tener exactamente la misma masa, pero una carga eléctrica opuesta. Ya nos hemos topado con los positrones, como subproductos del proceso por el que dos protones se fusionan para dar lugar a un deuterón. Una de las características más convincentes de una teoría científica válida es su capacidad para predecir algo que nunca antes se haya visto. La posterior observación de ese «algo» en un experimento proporciona una evidencia concluyente de que hemos comprendido algo real sobre el funcionamiento del universo. Llevando este argumento un poco más allá, cuantas más predicciones sea capaz de ofrecer una teoría, más impresionados deberíamos estar si los experimentos la confirman. En sentido contrario, si los experimentos no encuentran ese «algo» que cabía esperar, la teoría no puede ser correcta y hemos de abandonarla. En esta tarea intelectual no cabe la discusión: el experimento tiene la última palabra. El momento de gloria de Dirac llegó apenas unos años después, cuando Carl Anderson, utilizando rayos cósmicos, realizó la primera observación directa de los positrones. Dirac compartió el premio Nobel de 1933, que Anderson también logró en 1936. Aunque el positrón pueda parecer muy esotérico, se utiliza habitualmente en los hospitales de todo el mundo. Los escáneres PET (siglas de Positron Emission Tomography, «tomografía por emisión de positrones») utilizan positrones para permitir a los médicos recrear mapas tridimensionales del cuerpo humano. Parece poco probable que Dirac tuviese en mente sus aplicaciones médicas cuando trataba de dar forma a la idea de la antimateria. Una vez más, se pone de manifiesto lo útil que puede ser entender cuáles son los mecanismos internos del universo.

Hay otra partícula cuya existencia se presume, aunque nos precipitaríamos si la mencionásemos a estas alturas. Se representa mediante el símbolo griego φ (que se pronuncia «fi») y su presencia puede sentirse en las líneas tercera y cuarta de la ecuación maestra. Salvo por esta «otra partícula», todos los quarks, leptones y neutrinos (y sus respectivas partículas de antimateria) se han detectado en los experimentos. Evidentemente, no han sido ojos humanos los que las han visto, sino detectores de partículas, similares a cámaras de alta resolución que permiten captar imágenes de las partículas elementales durante sus fugaces existencias. Muy a menudo, el hecho de detectar alguna de ellas ha venido acompañado de un premio Nobel. La última en descubrirse fue el neutrino tau, en el año 2000. Este misterioso primo de los neutrinos electrónicos que fluyen desde el Sol como consecuencia del proceso de fusión completó el conjunto de las doce partículas de materia conocidas.

Los quarks más ligeros, que forman los neutrones y los protones, se denominan up («arriba») y down («abajo»). Los protones están compuestos básicamente por dos quarks up y un quark down, mientras que los neutrones están formados por dos quarks down y un quark up. La materia ordinaria está formada por átomos, que a su vez constan de un núcleo atómico compuesto por protones y neutrones, rodeado, a una distancia relativamente grande, por electrones. Por lo tanto, los quarks up y down, junto con los electrones, son las partículas que más abundan en la materia ordinaria. Por cierto, los nombres de las partículas carecen por completo de significado técnico. El físico estadounidense Murray Gell-Mann tomó la palabra «quark» de Finnegan’s Wake, una novela del escritor irlandés James Joyce. Gell-Mann necesitaba tres quarks para poder explicar las partículas que se conocían en esa época, y este breve pasaje de Joyce le pareció apropiado:

¡Tres quarks para Muster Mark!

Seguro que no tiene una gruesa corteza,

y seguro que la que tiene le sirve de bien poco.

Gell-Mann ha explicado que su idea original era que la palabra se pronunciase «cuorc», y de hecho ya tenía ese sonido en mente cuando se topó con la cita de Finnegan’s Wake. Puesto que, en el original en inglés, «quark» ha de rimar con «Mark» y «bark» («corteza»), esto resultó algo problemático. Gell-Mann optó entonces por argumentar que la palabra podía significar «cuarto» («quart»), una unidad de volumen de líquidos, en lugar de su sentido más habitual, que es el de «graznido de gaviota», lo que le permitió mantener la pronunciación original. Quizá nunca lleguemos a saber cómo debería pronunciarse. El descubrimiento de tres quarks adicionales, que culminó en 1995 con el del quark top («cima»), ha hecho que la etimología de la palabra sea aún menos precisa, y podría servir de lección para los físicos que en el futuro sientan la tentación de buscar oscuras referencias literarias para dar nombre a sus hallazgos.

A pesar de los problemas con el nombre, la hipótesis de Gell-Mann de que los protones y los neutrones están compuestos por objetos más pequeños se confirmó cuando un acelerador de partículas en Stanford, en California, detectó finalmente los quarks en 1968, cuatro años después de la predicción teórica. Tanto Gell-Mann como los físicos que obtuvieron la evidencia experimental recibieron el premio Nobel por sus trabajos.

Aparte de las partículas de materia de las que acabamos de hablar, y del misterioso φ, existen otras partículas que debemos mencionar. Son las partículas W y Z, el fotón y el gluón, responsables de las interacciones entre todas las demás partículas. Sin ellas, los objetos no interaccionarían entre sí, y el universo sería entonces un lugar tremendamente aburrido. Se dice que su tarea es la de transportar la fuerza de las interacciones entre las partículas de materia. El fotón es la partícula encargada de comunicar la fuerza entre las partículas con carga eléctrica, como los electrones y los quarks. Puede decirse que forma la base de toda la física que descubrieron Faraday y Maxwell y, además, constituye la luz visible, las ondas de radio, de infrarrojo y de microondas, y los rayos X y gamma. Es perfectamente correcto imaginar que una bombilla emite un haz de fotones, que rebota en la página del libro y fluye hasta tus ojos, que no son más que sofisticados detectores de fotones. Un físico diría que la fuerza electromagnética está mediada por el fotón. La presencia del gluón no es tan habitual en nuestra vida diaria como la del omnipresente fotón, pero no por ello su papel es menos importante. En el interior de cada átomo se encuentra el núcleo atómico, una bola de carga eléctrica positiva (recuerda que los protones poseen carga eléctrica, pero los neutrones no), en el que, como sucede cuando tratas de juntar los polos iguales de dos imanes, los protones se repelen entre sí debido a la fuerza electromagnética. Aunque no les gusta estar juntos, y preferirían salir disparados en distintas direcciones, por suerte no es eso lo que sucede, y los átomos sí existen. El gluón es el intermediario de la fuerza que mantiene los protones «pegados» en el interior del núcleo, de ahí su ridículo nombre[14], y también se encarga de mantener unidos los quarks que componen los protones y los neutrones. La intensidad de esta fuerza debe ser superior a la de la repulsión electromagnética entre los protones, y por esa razón se denomina fuerza fuerte. Desde luego, no nos estamos cubriendo de gloria al poner nombres.

En el contexto de este libro, podemos tratar conjuntamente las partículas W y Z. Sin ellas, las estrellas dejarían de brillar. En concreto, la partícula W es la encargada de la interacción que transforma un protón en un neutrón durante la formación del deuterón en el núcleo solar. Convertir protones en neutrones (y viceversa) no es lo único que hace la fuerza débil. También es la responsable de cientos de interacciones distintas entre las partículas elementales de la naturaleza, muchas de las cuales se estudian en experimentos como los que se llevan a cabo en el CERN. Salvo porque se encargan de hacer que el Sol brille, la presencia del W y del Z es tan poco evidente en nuestra vida cotidiana como la del gluón. Los neutrinos solo interactúan a través de las partículas W y Z, lo que hace que sean realmente escurridizos. Como hemos visto en el capítulo anterior, miles de millones de ellos atraviesan tu cabeza cada segundo sin que sientas nada, porque la fuerza que transmiten las partículas W y Z es extremadamente débil. Ya habrás adivinado que ese es precisamente su nombre.

Hasta ahora hemos hecho poco más que recitar la lista de las partículas que «viven» en la ecuación maestra. Las doce partículas de materia deben introducirse en la teoría a priori, y ni siquiera sabemos por qué son precisamente doce. Las observaciones de la desintegración de partículas Z en neutrinos, realizadas en el CERN en los años noventa, nos proporcionaron evidencias de que no son más de doce, pero, puesto que parece que con cuatro (los quarks up y down, el electrón y el neutrino electrónico) basta para construir un universo, la existencia de las otras doce es todo un misterio. Sospechamos que desempeñaron un papel importante en los primeros instantes del universo, pero la manera en la que afectan o han afectado a nuestra existencia actual es una de las grandes cuestiones de la física que aún están por resolver. De momento, Humphry Davy puede estar tranquilo.

En lo que se refiere al modelo estándar, las doce son partículas elementales, es decir, que no pueden dividirse en partes más pequeñas; son los elementos básicos. Esto parece ir en contra del sentido común, que nos dice que sería perfectamente natural que una pequeña partícula pudiese, en principio, partirse por la mitad. Pero la teoría cuántica no funciona así. Una vez más, nuestro sentido común no nos sirve de guía para la física fundamental. Por lo que respecta al modelo estándar, las partículas no tienen subestructura. Se dice que son «puntuales» y con eso se zanja la cuestión. Evidentemente, es posible que con el tiempo los experimentos revelen que los quarks pueden dividirse en partes más pequeñas, pero lo importante es que no tiene por qué ser así. Podría darse el caso de que las partículas sean realmente puntuales y que no tenga ningún sentido preguntarse sobre su subestructura. Resumiendo, sabemos que nuestro mundo está compuesto por un montón de partículas y que la ecuación maestra es la clave para entender cómo interactúan entre sí.

Hay un detalle que no hemos comentado: aunque seguimos hablando de partículas, en realidad este nombre es algo engañoso. No son partículas en el sentido tradicional de la palabra, no rebotan unas con otras como bolas de billar en miniatura, sino que interaccionan de una manera muy parecida a como lo hacen las ondas en el agua, produciendo sombras en el fondo de la piscina. Es como si las partículas tuviesen carácter de ondas, aunque sigan siendo partículas. De nuevo, se trata de una representación muy poco intuitiva, que proviene de la teoría cuántica. Precisamente, lo que hace la ecuación maestra es establecer con rigor (es decir, matemáticamente) la naturaleza de estas interacciones entre ondas. Pero ¿cómo llegamos a saber qué teníamos que escribir en la ecuación maestra? ¿Cuáles son los principios en los que se basa? Antes de responder a estas cuestiones, cuya relevancia es evidente, revisaremos con algo más de detalle la ecuación maestra y trataremos de extraer al menos parte de su significado.

La primera línea representa la energía cinética de las partículas W y Z, el fotón y el gluón, y nos dice cómo interactúan entre sí. Aún no habíamos mencionado esa posibilidad, pero existe: los gluones pueden interactuar con otros gluones, las partículas W y Z pueden interaccionar entre sí, y la partícula W puede hacerlo también con el fotón. En esta lista no figura la posibilidad de que los fotones interactúen entre sí, porque, por suerte, no lo hacen, ya que si no sería muy difícil ver las cosas. En cierto sentido, el hecho de que puedas leer este libro es algo extraordinario. Lo extraordinario es que la luz que viaja de la página hacia tus ojos no sea desviada por toda la luz que pasa a través de ella, procedente de todas las cosas que te rodean, cosas que podrías ver si girases la cabeza. Los fotones se atraviesan literalmente los unos a los otros, ignorándose mutuamente.

La segunda línea de la ecuación maestra es la más interesante: nos dice cómo interactúa cada partícula de materia en el universo con todas las demás. Contiene las interacciones mediadas por fotones, por partículas W y Z y por gluones, así como las energías cinéticas de todas las partículas de materia. De momento, no veremos las líneas tercera y cuarta.

Hemos hecho hincapié en que, a excepción de la gravedad, en la ecuación maestra se encuentran reflejadas todas las leyes fundamentales de la física que conocemos. Ahí está (agazapada entre las dos primeras líneas) la ley de la repulsión electrostática, que Charles-Augustin de Coulomb determinó a finales del siglo XVIII, y también están la electricidad y el magnetismo. Basta con que «le preguntemos» a la ecuación maestra cómo interactúan entre sí las partículas con carga eléctrica para que aparezcan todo el conocimiento acumulado por Faraday y las hermosas ecuaciones de Maxwell. Y, por supuesto, toda la estructura está sólidamente basada en la teoría de la relatividad especial de Einstein. De hecho, la parte del modelo estándar que explica cómo interactúan la luz y la materia se denomina electrodinámica cuántica. El término «cuántica» nos recuerda que la teoría cuántica tuvo que modificar las ecuaciones de Maxwell. Las modificaciones son normalmente muy pequeñas y dan cuenta de efectos sutiles, que fueron investigados por primera vez a mediados del siglo XX, entre otros por Richard Feynman. Como hemos visto, la ecuación maestra también contiene la física de las fuerzas débil y fuerte. Las propiedades de estas tres fuerzas de la naturaleza se especifican con todo detalle, lo que significa que se establecen las reglas del juego con precisión matemática y sin ambigüedad ni redundancia. Así que, con la salvedad de la gravedad, parece que tenemos algo que se parece a una gran teoría unificada. Ningún experimento en ningún lugar, ninguna observación del cosmos, han permitido nunca encontrar evidencias de que exista una quinta fuerza en el universo. La mayoría de los fenómenos cotidianos pueden explicarse completamente mediante las leyes del electromagnetismo y de la gravedad. La fuerza débil hace que el Sol arda, pero, aparte de eso, apenas se deja sentir en la vida cotidiana en la Tierra, y la fuerza fuerte mantiene los núcleos atómicos intactos, pero apenas se extiende más allá del núcleo, por lo que su enorme intensidad no llega a nuestro mundo macroscópico. La fuerza electromagnética es la que nos hace creer que cosas tan sólidas como las mesas y las sillas son realmente sólidas. En realidad, la materia es en su mayor parte espacio vacío. Imagina que nos acercásemos tanto a un átomo que llegásemos a ver el núcleo del tamaño de un guisante. Los electrones serían granos de arena moviéndose a gran velocidad a su alrededor, aproximadamente a un kilómetro de distancia. El resto estaría vacío. Puede que la analogía del «grano de arena» no sea del todo apropiada, ya que debemos recordar que se comportan más como ondas que como granos de arena, pero lo importante es que quede clara la diferencia de tamaño entre el átomo y su núcleo. La solidez se pone de manifiesto si tratamos de acercar la nube de electrones que se agita alrededor del núcleo a la de otro átomo vecino. Como los electrones poseen carga eléctrica, las nubes se repelen e impiden que los átomos se atraviesen los unos a los otros, pese a estar compuestos en su mayor parte por espacio vacío. Encontramos un claro indicio de lo vacía que está la materia si miramos a través del cristal de la ventana. Aunque parece sólido, la luz lo atraviesa sin problemas, lo que nos permite ver el mundo exterior. En realidad, lo verdaderamente sorprendente es que un pedazo de madera sea opaco y no transparente.

Es realmente impresionante que una sola ecuación pueda contener tanta física. Dice mucho sobre la «la irrazonable eficacia de las matemáticas» de la que habló Wigner. ¿Qué es lo que hace que el mundo natural no sea mucho más complejo? ¿Qué es lo que nos permite condensar tanta física en una ecuación como esta? ¿Cómo es que no tenemos que catalogar todas las cosas en enormes bases de datos y enciclopedias? Nadie sabe a ciencia cierta por qué podemos sintetizar la naturaleza de esta manera, y no cabe duda de que la elegancia y simplicidad aparentemente fundamentales constituyen uno de los motivos por los que los físicos se dedican a esto. Aunque no debemos olvidar que es posible que llegue el momento en que la naturaleza deje de permitir esta prodigiosa simplificación, no podemos más que maravillarnos ante la belleza subyacente que hemos descubierto.

Pese a todo lo que acabamos de decir, aún no hemos terminado. Todavía no hemos mencionado el mayor logro del modelo estándar. No solo incorpora en su interior las interacciones electromagnética, fuerte y débil, sino que unifica dos de ellas. A primera vista, parece que los fenómenos electromagnéticos y los asociados a la interacción débil no tienen nada que ver entre sí. El electromagnetismo es el fenómeno cotidiano por antonomasia, del que todos tenemos una idea intuitiva, mientras que la fuerza débil permanece oculta en el turbio mundo subatómico. No obstante, sorprendentemente, el modelo estándar nos dice que ambas son en realidad manifestaciones distintas de la misma cosa. Vuelve a leer la segunda línea de la ecuación maestra. Sin saber nada de matemáticas, puedes «ver» las interacciones entre las partículas de materia. Las partes de la segunda línea en las que intervienen las partículas W, B y G (de gluón) aparecen entre dos partículas de materia, ψ, lo que significa que este es el lugar donde la ecuación maestra nos dice cómo «se acoplan» las partículas de materia con los mediadores de las fuerzas, pero con un detalle: el fotón se aloja en parte en el símbolo «W» y en parte en «B», que es donde se encuentra también la Z. La partícula W se aloja por completo en «W». Es como si, para las matemáticas, los objetos fundamentales fuesen W y B, que se combinan para dar lugar al fotón y a la partícula Z. El resultado es que la fuerza electromagnética (mediada por el fotón) y la fuerza débil (mediada por las partículas W y Z) están entrelazadas. Eso significa que las propiedades que se miden en los experimentos que tratan con fenómenos electromagnéticos deberían estar relacionadas con las que se miden en los que traten con fenómenos débiles. Esta predicción del modelo estándar es impresionante. Y fue de hecho una predicción: los artífices del modelo estándar (Sheldon Glashow, Steven Weinberg y Abdus Salam) compartieron un premio Nobel por sus trabajos, ya que su teoría fue capaz de predecir las masas de las partículas W y Z mucho antes de que fuesen descubiertas en el CERN en los años ochenta. Todo cuadra estupendamente, pero ¿cómo supieron Glashow, Weinberg y Salam qué era lo que debían escribir? ¿Cómo llegaron a la conclusión de que «las partículas W y B se combinan para dar lugar al fotón y a la partícula Z»? Para encontrar la respuesta a esta pregunta, tendremos que hacer una incursión en el hermoso núcleo de la física de partículas moderna. No se limitaron a proponer hipótesis, disponían de un importante indicio: la naturaleza es simétrica.

La simetría que nos rodea salta a la vista. Deja que un copo de nieve caiga sobre tu mano y podrás observar la más hermosa de las esculturas de la naturaleza. Sus formas se repiten con regularidad matemática, como si se reflejasen en un espejo. Algo más mundano, como una pelota, tiene el mismo aspecto la mires desde donde la mires, y un cuadrado se puede invertir a lo largo de su diagonal, o respecto a un eje que pase por su centro, sin que cambie su apariencia. En física, la simetría se manifiesta de una manera muy similar. Si manipulamos una ecuación y esta no varía, se dice que lo que hemos hecho es una simetría de la ecuación. Es todo un poco abstracto, pero recuerda que las ecuaciones son la forma que tienen los físicos de expresar las relaciones entre objetos reales. Una simetría sencilla pero de importancia que poseen todas las ecuaciones importantes de la física refleja el hecho de que, si colocamos al físico en un tren en movimiento, los resultados del experimento no se verán alterados, siempre que el tren no esté acelerando. Esta idea nos resulta familiar: es el principio de la relatividad de Galileo, que constituye la base de la teoría de Einstein. Utilizando el vocabulario de la simetría, diremos que las ecuaciones que describen nuestro experimento no dependen de si este se realiza sobre el andén de la estación o dentro del tren, por lo que el hecho de que el experimento se mueva es una simetría de la ecuación. Hemos visto cómo este hecho sencillo condujo a Einstein al descubrimiento de su teoría de la relatividad. Es algo habitual: las simetrías sencillas tienen consecuencias profundas.

Estamos en condiciones de hablar de la simetría de la que Glashow, Weinberg y Salam hicieron uso cuando descubrieron el modelo estándar de la física de partículas. Tiene un nombre llamativo: simetría de gauge. ¿Y qué es un gauge? Antes de intentar explicarlo, diremos para qué nos sirve. Imaginemos que somos Glashow, Weinberg o Salam, y estamos devanándonos los sesos buscando una teoría que explique cómo interactúan los objetos. Decidimos que vamos a empezar por construir una teoría para las partículas diminutas e indivisibles. De los experimentos, sabemos cuáles son las partículas que existen, y haríamos bien en crear una teoría que las incluya todas, pues de lo contrario no sería más que una teoría a medias. Evidentemente, podríamos devanarnos los sesos aún más tratando de comprender por qué habrían de ser esas partículas en particular las que componen todo el universo, o por qué habrían de ser indivisibles, pero no nos conduciría a nada. En realidad, son dos preguntas muy buenas, para las que a día de hoy no tenemos respuesta. Una de las cualidades de un buen científico es saber elegir las preguntas que ha de plantearse para poder seguir adelante, y cuáles conviene dejar para otro día. Así pues, demos por buenos los ingredientes y veamos si somos capaces de encontrar la manera en que las partículas interactúan entre sí. Si no interaccionasen, el mundo sería realmente aburrido: cualquier objeto podría atravesar a cualquier otro, nada atraería a nada, y nunca tendríamos núcleos, átomos, animales o estrellas. Pero, muy a menudo, la física consiste en dar pequeños pasos, y no es tan complicado escribir una teoría de partículas cuando estas no interactúan entre sí, basta con escribir la segunda línea de la ecuación maestra, eliminando las partes en las que aparecen W, B y G. Esto es: una teoría cuántica del todo, pero sin ninguna interacción. Hemos dado nuestro primer pasito. Aquí llega la magia: impondremos el requisito de que el mundo, y por lo tanto nuestra ecuación, tenga simetría de gauge y obtendremos un resultado asombroso: el resto de la segunda línea, y toda la primera línea, aparecen «gratis». En otras palabras, si queremos satisfacer las exigencias de la simetría de gauge, nos vemos obligados a modificar la versión «sin interacciones» de la teoría y pasamos de pronto de la teoría más aburrida del mundo a una en la que el fotón, las partículas W y Z y el gluón no solo existen, sino que son los encargados de mediar en las interacciones entre las partículas. Dicho de otra manera, hemos llegado a una teoría capaz de describir la estructura de los átomos, el brillo de las estrellas y, en última instancia, la composición de objetos tan complejos como los seres humanos, todo ello gracias a la aplicación del concepto de simetría. Ya tenemos las dos primeras líneas de nuestra teoría de casi todo, ahora solo nos queda entender qué es en realidad esa milagrosa simetría y explicar las dos últimas líneas.

La simetría de un copo de nieve es geométrica, y la puedes ver con los ojos. La simetría que subyace bajo el principio de relatividad de Galileo no la puedes ver con tus ojos, pero tampoco es difícil de entender, aunque sea abstracta. La simetría de gauge es similar al principio de Galileo, en el sentido de que es abstracta, aunque con un poco de imaginación tampoco es difícil de comprender. Para ayudar a establecer la relación entre las descripciones que hemos ido presentando y sus fundamentos matemáticos, hemos hecho repetidas referencias a la ecuación maestra. Hagámoslo de nuevo. Hemos dicho que las partículas de materia se representan en la ecuación mediante el símbolo griego ψ. Ha llegado el momento de profundizar un poco más. ψ es lo que se llama un campo. Podría ser el campo de electrones, o de quarks up, o, de hecho, el campo de cualquier otra de las partículas de materia del modelo estándar. Allí donde el campo sea más grande, mayor es la probabilidad de que se encuentre la partícula. De momento nos concentraremos en los electrones, pero la historia es la misma para el resto de las partículas, de los quarks a los neutrinos. Si el campo se anula en algún lugar, la partícula no se encontrará allí. Puedes imaginar un campo real, cubierto de hierba. O quizá sería mejor pensar en un paisaje ondulado, con sus colinas y sus valles. El campo es más grande en las colinas y más pequeño en los valles. Estamos intentando que crees un campo de electrones imaginario en tu mente. Quizá te sorprenda que la ecuación maestra sea tan vaga. No sirve para ciertas magnitudes, y ni siquiera podemos seguirle la pista al electrón. Lo único que podemos decir es que es más probable que lo encontremos aquí (en la montaña) que allí (en el campamento base en el valle). Podemos asociar números concretos a la probabilidad de encontrar el electrón aquí o allí, pero nada más. La vaguedad de nuestra descripción del mundo a las escalas más diminutas se debe a que esos son los dominios propios de la teoría cuántica, que se expresa exclusivamente mediante las probabilidades de que las cosas sucedan. A escalas muy reducidas, conceptos como los de posición o momento lineal parecen llevar la incertidumbre intrínsecamente asociada a ellos. Dicho sea de paso, a Einstein no le gustaba nada el hecho de que el mundo se comportase siguiendo las leyes de la probabilidad, lo que dio lugar a su famosa frase de que «Dios no juega a los dados». No obstante, se vio obligado a aceptar el enorme éxito de la teoría cuántica, que explica todos los experimentos que se han realizado en el mundo subatómico, y sin la cual no tendríamos ni idea de cómo funcionan los microchips que se encuentran en el interior de los ordenadores modernos. Puede que en el futuro alguien idee una teoría aún mejor, pero de momento la teoría cuántica constituye nuestro mayor logro. Como no nos hemos cansado de repetir a lo largo del libro, cuando nos aventuramos más allá de nuestra experiencia cotidiana, no existe ninguna razón en absoluto por la que la naturaleza deba comportarse de acuerdo con las reglas que nos dicta el sentido común. Nuestra propia evolución se ha producido en el marco de la mecánica macroscópica, no de la mecánica cuántica.

Volviendo a la tarea que tenemos entre manos, puesto que es la teoría cuántica la que define las reglas del juego, estamos obligados a hablar de campos de electrones. Pero, aunque hemos especificado nuestro campo y hemos esbozado el paisaje, aún tenemos trabajo por hacer. Las matemáticas de los campos cuánticos nos deparan una sorpresa. Existe cierta redundancia. Para cada punto del paisaje, ya sea una colina o un valle, las matemáticas dicen que debemos especificar no solo el valor del campo en un punto en concreto (por ejemplo, continuando con nuestra analogía con un campo real, la altura sobre el nivel del mar), que correspondería a la probabilidad de encontrar la partícula ahí, sino que también hemos de especificar una cosa llamada «fase» del campo. La representación más sencilla de la fase consiste en imaginar la esfera de un reloj (o de un indicador) con una sola manecilla. Las doce en punto sería una posible fase, la hora y media sería otra fase distinta. Imaginemos que colocamos un reloj diminuto en cada punto de nuestro paisaje, que nos dice cuál es la fase del campo en ese punto. Obviamente, no son relojes de verdad (y, por supuesto, no miden el tiempo). La existencia de la fase es algo que los físicos ya sabían mucho antes de que apareciesen Glashow, Weinberg y Salam. Todo el mundo sabía también que lo importante no eran los valores absolutos, sino la fase relativa entre distintos puntos del campo. Por ejemplo, podríamos adelantar diez minutos todos los minúsculos relojes y nada cambiaría. Lo importante es que todos los relojes se adelanten o se retrasen en la misma medida. Si olvidásemos adelantar uno de ellos, estaríamos describiendo un campo de electrones distinto. Esto parece indicar que existe cierta redundancia en la descripción matemática del mundo.

En 1954, varios años antes de que Glashow, Weinberg y Salam propusiesen el modelo estándar, dos físicos que compartían despacho en el laboratorio de Brookhaven, Chen Ning Yang y Robert Mills, expusieron su opinión sobre el posible significado de esta redundancia en la determinación de la fase. Es habitual que se produzcan avances en la física cuando la gente juega con ideas sin ningún motivo aparente, que es precisamente lo que hicieron Yang y Mills. Se plantearon la cuestión de qué sucedería si a la naturaleza no le importase en absoluto la fase. Dicho en otras palabras, jugaron con la ecuación matemática, cambiando sin ton ni son todas las fases, y trataron de ver cuáles serían las consecuencias. Puede parecer extraño, pero, si sientas a un par de físicos en un despacho y los dejas a su aire, acabarán haciendo cosas como esta. Volviendo a la analogía con el paisaje, puedes imaginártelo como si te movieses por el campo, modificando al azar el valor que marcan los pequeños relojes. A primera vista, está claro lo que sucede: no puedes hacerlo, no es una simetría de la naturaleza.

Para ser más precisos, fijémonos de nuevo únicamente en la segunda línea de la ecuación maestra. Dejemos de lado todas las partes que se refieren a las partículas W, B y G. Lo que nos queda entonces es la teoría de partículas más sencilla que cabría imaginar: partículas que permanecen en reposo y nunca interactúan entre sí. Claramente, esa pequeña parte de la ecuación maestra no permanece inalterada si de pronto modificamos los valores que marcan todos los relojes diminutos (aunque esto no es algo que uno pueda deducir simplemente mirando la ecuación). Yang y Mills lo sabían, pero siguieron insistiendo y se plantearon una gran pregunta: ¿cómo podemos modificar la ecuación de forma que no varíe? La respuesta es fantástica: tenemos que volver a incorporar las partes de la ecuación maestra que acabamos de eliminar, no cabe ninguna otra posibilidad. Al hacerlo, invocamos a los mediadores de las fuerzas y pasamos súbitamente de un mundo sin interacciones a una teoría capaz de describir el mundo real. El hecho de que a la ecuación maestra no le importen cuáles sean los valores que marquen los relojes (o los indicadores) es lo que llamamos simetría de gauge. Lo sorprendente es que el requisito de la simetría de gauge hace que, al escribir la ecuación, no tengamos más que una sola opción: la simetría de gauge conduce inevitablemente a la ecuación maestra. Como corolario, deberíamos añadir que Yang y Mills fueron quienes nos indicaron el camino a seguir, pero su trabajo tenía un interés eminentemente matemático y apareció mucho antes de que los físicos supiesen cuáles eran las partículas que la teoría fundamental debía describir. Fueron Glashow, Weinberg y Salam quienes, partiendo de sus ideas, tuvieron la visión suficiente para aplicarlas al mundo real.

Hemos visto, por lo tanto, cómo se pueden escribir las dos primeras líneas de la ecuación maestra en la que se basa el modelo estándar de la física de partículas, y confiamos en haber transmitido también cierta idea de su alcance y su contenido. Asimismo, hemos visto que no se trata de una ecuación ad hoc, sino que la simetría de gauge nos conduce a ella inexorablemente. Ahora que tenemos una idea más aproximada de esta importantísima ecuación, podemos retomar la tarea original que nos ha traído hasta aquí. Estábamos tratando de entender hasta qué punto las reglas de la naturaleza contemplan la posibilidad de que la masa se transforme realmente en energía, y viceversa. Evidentemente, la respuesta se encuentra en la ecuación maestra, que es la que dicta las reglas del juego. Pero existe una manera mucho más sugerente de entender lo que sucede y de comprender cómo interactúan las partículas entre sí. Fue Richard Feynman quien introdujo en la física esta perspectiva, que se basa en el uso de diagramas.

FIGURA 14

¿Qué sucede cuando se aproximan dos electrones? ¿Y si son dos quarks? ¿Y si un neutrino se acerca a un antimuón?… Lo que sucede es que las partículas interaccionan, siguiendo escrupulosamente lo que dicta la ecuación maestra. Dos electrones se repelen, porque ambos tienen la misma carga eléctrica, mientras que un electrón y un antielectrón se atraen, porque sus cargas son opuestas. Toda esta física está contenida en las dos primeras líneas de la ecuación maestra, y se resume en unas pocas reglas que podemos representar gráficamente. En realidad es algo muy fácil de entender, aunque llegar a apreciar los detalles requiere algo más de esfuerzo. Nos limitaremos a ver lo más básico.

FIGURA 15

Si nos fijamos de nuevo en la segunda línea, vemos que el término en el que aparecen dos símbolos ψ y un G es la única parte de la ecuación que tiene relevancia para la interacción entre quarks por medio de la fuerza fuerte. Lo que nos dice la ecuación maestra es que, en el mismo punto del espacio-tiempo, interaccionan dos campos de quarks y un gluón. Y no solo eso, sino que esa es la única forma en la que pueden interaccionar. Una vez que hemos decidido hacer que nuestra teoría posea simetría de gauge, esa parte de la ecuación maestra nos indica con precisión cómo interaccionan los quarks y los gluones. No tenemos ninguna libertad de elección en el asunto. Feynman se dio cuenta de que todas las interacciones básicas son, en esencia, tan sencillas como esta, y se puso a dibujar gráficos para cada una de las posibles interacciones que la teoría contempla. La figura 14 muestra cómo representan habitualmente los físicos de partículas la interacción entre quark y gluón. La línea rizada representa un gluón, mientras que la línea recta representa un quark o un antiquark. La figura 15 representa el resto de las interacciones permitidas en el modelo estándar, que se derivan de las dos primeras líneas de la ecuación maestra. No te detengas en los detalles de los gráficos. La idea es que podemos dibujarlos y que no son demasiados. Las partículas de luz (fotones) se representan con el símbolo γ, y las partículas W y Z aparecen marcadas como tales. Los seis quarks figuran bajo la etiqueta genérica q, los neutrinos se representan como n (que se pronuncia «nu») y los tres leptones con carga eléctrica (electrón, muón y tau) aparecen como l. Las antipartículas se distinguen trazando una línea sobre el símbolo de la partícula correspondiente. Ahora viene lo bueno. Estos diagramas representan lo que los físicos de partículas denominan vértices de interacción, que pueden conectarse entre sí para crear diagramas más grandes. Cualquier diagrama que dibujes representa un proceso que puede darse en la naturaleza y, en sentido contrario, si no puedes dibujar un diagrama es porque el proceso no se puede producir.

FIGURA 16

Feynman no se limitó a introducir los diagramas, sino que asoció con cada vértice una regla matemática derivada directamente de la ecuación maestra. En los diagramas compuestos, las reglas se multiplican unas por otras, lo que permite a los físicos calcular la probabilidad de que el proceso asociado a un determinado diagrama tenga lugar. Por ejemplo, cuando se encuentran dos electrones, el diagrama más sencillo que podemos dibujar es el que aparece en la figura 16(a). En ese caso, decimos que los electrones se dispersan mediante el intercambio de un fotón. Este diagrama se construye a partir de dos vértices electrón-fotón. Puedes verlo como que los electrones vienen desde la izquierda, se dispersan como consecuencia del intercambio del fotón, y después se alejan por la derecha. En realidad, disimuladamente, hemos añadido una regla más: puedes sustituir una partícula por su antipartícula (y viceversa), siempre que la conviertas en una partícula e inviertas el sentido de su movimiento. La figura 16(b) muestra otra manera posible de combinar los vértices. Es algo más enrevesada que la anterior, pero corresponde a otra posible interacción entre los electrones. Si lo piensas un momento, verás que el número de diagramas posibles es infinito. Todos ellos representan las distintas maneras en que pueden dispersarse dos electrones, pero, por suerte para quienes tenemos que calcular qué es lo que sucede, algunos de los diagramas son más importantes que otros. De hecho, es muy fácil enunciar la regla: en general, los diagramas más importantes son aquellos con el menor número de vértices. Por lo tanto, en el caso del par de electrones, el diagrama de la figura 16(a) es el más importante, porque solo tiene dos vértices. Eso significa que podemos hacernos una idea bastante aproximada de lo que sucede si calculamos únicamente este diagrama mediante las reglas de Feynman. Es muy gratificante ver cómo lo que surge de las matemáticas es la física de la interacción entre dos partículas cargadas, tal y como la descubrieron Faraday y Maxwell. Pero ahora podemos afirmar que entendemos mucho mejor el origen de esa física, pues la hemos derivado a partir de la simetría de gauge. Los cálculos realizados utilizando los diagramas de Feynman nos ofrecen mucho más de lo que cualquier otra manera de entender la física del siglo XIX nos puede dar. Para la interacción entre dos electrones, podemos incluso calcular las correcciones a las predicciones de Maxwell, pequeñas modificaciones que mejoran los resultados de sus ecuaciones y se aproximan más a los resultados experimentales. La ecuación maestra abre así nuevas vías de investigación, que apenas empezamos a atisbar. Como hemos venido diciendo, el modelo estándar describe todo lo que sabemos sobre la interacción entre partículas, y constituye una teoría completa de las fuerzas fuerte, débil y electromagnética, capaz incluso de unificar dos de ellas. Únicamente la gravedad queda fuera de este ambicioso marco de comprensión de todas las interacciones del universo.

FIGURA 17

Pero no perdamos de vista nuestro objetivo. ¿Cuál es el mecanismo por el que las reglas de Feynman, que condensan el contenido esencial del modelo estándar, dictan las maneras en que podemos destruir la masa y transformarla en energía? ¿Cómo podemos utilizarlas para sacar el máximo provecho de E = mc2? Antes de nada, recordemos un resultado importante del capítulo 5: la luz está compuesta por partículas sin masa. En otras palabras, los fotones carecen de masa alguna. Podemos, pues, dibujar un diagrama interesante, que aparece en la figura 17: un electrón y un antielectrón (positrón) chocan y se aniquilan para dar lugar a un solo fotón (para mayor claridad, hemos llamado e al electrón y e+ al positrón). Las reglas de Feynman lo permiten. Este diagrama merece nuestra atención, porque representa un caso en el que partimos de una determinada masa (la que poseen un electrón y un positrón) y acabamos sin ella (un fotón). Es el proceso de destrucción completa de la materia, en el que toda la energía acumulada en la masa del electrón y el positrón se libera como energía del fotón. Pero hay un problema: la aniquilación en un solo fotón no cumple la regla según la cual todo lo que sucede debe satisfacer tanto la ley de conservación de la energía como la de conservación del momento lineal, cosa que este proceso no puede hacer (no es algo completamente obvio, pero no nos molestaremos en probarlo). Es un problema que tiene fácil solución: crear dos fotones. La figura 18 muestra el diagrama de Feynman correspondiente, en el que, de nuevo, la masa inicial se destruye por completo y se transforma totalmente en la energía de los dos fotones, en este caso. Procesos como este fueron fundamentales en los primeros momentos del universo, cuando la materia y la antimateria se destruyeron mutuamente casi por completo mediante interacciones como esta. Hoy en día podemos observar los vestigios de esa destrucción. Los astrónomos han observado que, por cada partícula de materia, en el universo existen 100.000 millones de fotones. Dicho de otro modo, de cada 100.000 millones de partículas de materia creadas inmediatamente después del big bang, solo ha sobrevivido una. Las demás aprovecharon la oportunidad que se les ofreció, representada gráficamente en los diagramas de Feynman, de deshacerse de su masa y convertirse en fotones.

FIGURA 18

En un sentido muy concreto, la materia de que están compuestas las estrellas, los planetas y las personas no es más que un minúsculo residuo de la inmensa aniquilación de masa que tuvo lugar en los orígenes de la historia del universo. Es un hecho feliz, casi milagroso, que quedase algo en absoluto. A día de hoy, seguimos sin saber a ciencia cierta por qué sucedió. Aún no sabemos cómo responder a la pregunta de: «¿Por qué el universo no está repleto de luz y nada más?», aunque en varios lugares del mundo se están preparando experimentos para tratar de darle respuesta. No es que no tengamos ideas inteligentes con las que probar, sino que aún no hemos dado con la evidencia experimental decisiva que nos permita afirmar que las teorías son erróneas. El famoso disidente ruso Andréi Sajárov llevó a cabo los primeros trabajos en este campo, siendo el primero en exponer los criterios que debía satisfacer cualquier teoría que pretendiese dar respuesta a la pregunta de por qué sigue habiendo materia tras el big bang.

Hemos aprendido que la naturaleza dispone de un mecanismo para destruir la masa, pero por desgracia su uso en la Tierra no es muy práctico, porque necesitaríamos generar y almacenar antimateria (que sepamos, no hay ningún lugar del que podamos extraerla, ni existen cúmulos de antimateria flotando en el espacio exterior). Como fuente de energía no parece muy útil, sencillamente porque no disponemos del combustible. La antimateria se puede crear en el laboratorio, pero solo tras invertir grandes cantidades de energía. Así que, aunque el proceso de la aniquilación de materia y antimateria es un mecanismo inmejorable para convertir masa en energía, no nos va a servir para resolver la crisis energética mundial.

¿Y qué hay de la fusión, el proceso que utiliza el Sol para producir energía? ¿Cómo se expresa en el lenguaje del modelo estándar? La clave está en concentrar nuestra atención en el vértice de Feynman en el que interviene una partícula W. La figura 19 representa lo que sucede cuando se crea un deuterón a partir de la fusión de dos protones. Recuerda que los protones están compuestos, en una muy buena aproximación, por tres quarks: dos quarks up y un quark down. El deuterón está formado por un protón y un neutrón, y este último, a su vez, está compuesto, de forma muy aproximada, por tres quarks: un quark up y dos quarks down. El diagrama representa cómo uno de los protones se convierte en un neutrón y, como puedes ver, la clave es la partícula W. Uno de los quarks up que componen el protón ha emitido una partícula W y, como consecuencia, se ha convertido en un quark down, haciendo que el protón se transforme en un neutrón. Según el diagrama, la partícula W no se queda por ahí, sino que muere y da lugar a un antielectrón y un neutrino[15]. Las partículas W que se emiten durante la formación de un deuterón siempre mueren y, de hecho, nadie ha conseguido nunca observar partículas W si no es a través de los objetos en que se convierten al desaparecer. Por regla general, casi todas las partículas elementales mueren, porque suele existir un diagrama de Feynman que lo permite. La excepción se produce cuando es imposible que se conserven la energía o el momento lineal, lo que normalmente significa que solo persisten las partículas más ligeras. Este es el motivo por el que los protones, los electrones y los fotones predominan en la materia ordinaria. Sencillamente, no tienen en qué desintegrarse: los quarks up y down son los quarks más ligeros, el electrón es el más ligero de los leptones con carga y el fotón no tiene masa. Por ejemplo, el muón es prácticamente idéntico al electrón, salvo por el hecho de que es más pesado. Recuerda que ya nos lo hemos encontrado antes, cuando hemos hablado del experimento de Brookhaven. Puesto que inicialmente tiene más energía que un electrón, su desintegración en un electrón no viola la conservación de la energía. Además, como se puede ver en la figura 20, las reglas de Feynman permiten que esto suceda y, puesto que también se emiten un par de neutrinos, tampoco hay impedimento para que se conserve el momento. El resultado es que los muones efectivamente se desintegran, con una fugaz vida media de 2,2 microsegundos. Por cierto, este es un tiempo muy largo si lo comparamos con la escala temporal de la mayoría de los procesos interesantes de la física de partículas. Por el contrario, el electrón es la partícula más ligera del modelo estándar y no tiene en qué desintegrarse. Por lo que sabemos, un electrón nunca se desintegrará espontáneamente, y la única manera de que desaparezca es haciendo que se aniquile junto con su correspondiente partícula de antimateria.

FIGURA 19

Volviendo al deuterón, la figura 19 explica cómo se puede formar a partir de la colisión de dos protones, y nos dice que cabe esperar la aparición de un antielectrón (positrón) y un neutrino por cada evento de fusión. Como ya hemos mencionado, los neutrinos interactúan con las demás partículas del universo solo de manera muy débil. La ecuación maestra nos dice que esto es así, puesto que los neutrinos son las únicas partículas que interaccionan exclusivamente a través de la fuerza débil. En consecuencia, los neutrinos creados en las profundidades del núcleo solar pueden escapar sin demasiados problemas; salen en todas direcciones y algunos de ellos se dirigen hacia la Tierra. Como sucede con el Sol, la Tierra les resulta prácticamente transparente y la atraviesan sin siquiera notar su presencia. No obstante, cada neutrino tiene una pequeña probabilidad de interaccionar con un átomo terrestre, y experimentos como el de Super-Kamiokande los han logrado detectar, como ya hemos comentado antes.

¿Qué confianza podemos tener en que el modelo estándar es correcto, habida cuenta de la precisión actual de nuestros experimentos? A lo largo de todos estos años, el modelo estándar ha venido superando las pruebas más rigurosas en varios laboratorios de todo el mundo. No nos debe preocupar que los científicos sean víctimas de un sesgo favorable hacia la teoría: quienes llevan a cabo los experimentos desearían fervientemente demostrar que el modelo estándar no es válido o adolece de algún tipo de deficiencia, y se afanan por ponerlo a prueba hasta llegar a su destrucción. Su sueño es vislumbrar nuevos procesos físicos que abran insólitas y deslumbrantes perspectivas con magníficas vistas sobre los mecanismos internos del universo. Pero, hasta ahora, el modelo estándar ha resistido todos sus intentos.

FIGURA 20

La última de las enormes máquinas que se han utilizado para ponerlo a prueba es el gran colisionador de hadrones (LHC, Large Hadron Collider) del CERN. Esta colaboración entre científicos a escala mundial pretende confirmar o desbaratar el modelo estándar. Volveremos a ella enseguida. El predecesor del LHC fue el gran colisionador de electrones y positrones (LEP, Large Electron Positron Collider), donde se llevaron a cabo algunos de los experimentos más precisos realizados hasta la fecha. El LEP estaba albergado en un túnel circular de 27 kilómetros que corría bajo la ciudad de Ginebra y varios pintorescos pueblos franceses, y exploró el mundo del modelo estándar durante once años, entre 1989 y 2000. Utilizaba enormes campos eléctricos para acelerar haces de electrones en una dirección, y de positrones en la dirección contraria. A grandes rasgos, la aceleración de partículas cargadas por medio de campos eléctricos se asemeja al mecanismo que se empleaba para disparar electrones y producir las imágenes en los antiguos televisores con tubo de rayos catódicos. Los electrones se emitían en la parte trasera del aparato, motivo por el cual este tipo de televisores solía ser más voluminoso. Después, mediante un campo eléctrico, los electrones se aceleraban hacia la pantalla. Un imán permitía curvar el haz y recorrer con él la pantalla para reconstruir la imagen.

En el LEP también se utilizaban campos magnéticos, en este caso para desviar las partículas de manera que su recorrido por el túnel siguiese una trayectoria circular. El objetivo de todo este montaje era hacer que los dos haces chocasen frontalmente. Como ya hemos aprendido, la colisión de un electrón y un positrón puede conducir a su aniquilación mutua, con la consiguiente transformación de su masa en energía. Esta energía es precisamente lo que más interesaba a los científicos del LEP, porque, según las reglas de Feynman, podría dar lugar a partículas más pesadas. Durante la primera fase del funcionamiento de la máquina, las energías del electrón y el positrón se escogieron con gran precisión para que maximizasen la probabilidad de obtener una partícula Z (si revisas la lista de las reglas de Feynman para el modelo estándar comprobarás que permiten la aniquilación de un par electrón-positrón en una partícula Z). En comparación con otras partículas, la Z es bastante pesada: su masa es casi 100 veces mayor que la del protón, unas 200.000 veces mayor que la del electrón y el positrón. En consecuencia, el electrón y el positrón debían acelerarse hasta alcanzar prácticamente la velocidad de la luz para que tuviesen la energía suficiente como para dar lugar a la partícula Z. Es evidente que la energía acumulada en sus masas y que se libera cuando se aniquilan no se aproxima ni remotamente a la necesaria para crear la partícula Z.

El objetivo inicial del LEP era sencillo: producir partículas Z a partir de repetidas colisiones entre electrones y positrones. Cada vez que chocan los dos haces de partículas, existe una probabilidad razonable de que un electrón de uno de ellos se aniquile contra un positrón del otro, dando lugar a una partícula Z. Disparando los haces a ráfagas, a lo largo de todo su período de operación el LEP consiguió crear 20 millones de partículas Z mediante la aniquilación de pares electrón-positrón.

FIGURA 21

Igual que las demás partículas pesadas del modelo estándar, la Z no es estable, y solo vive durante unos brevísimos 10−25 segundos. La figura 21 ilustra varios de los procesos posibles en los que interviene la partícula Z y en los que tanto interés tenían los aproximadamente 1.500 físicos que trabajaban en el LEP, por no mencionar a los muchos miles más de todo el mundo que esperaban con impaciencia sus resultados. Mediante inmensos detectores de partículas que rodeaban el punto donde el electrón y el positrón se aniquilaban, los físicos pudieron capturar e identificar los productos de la desintegración de la partícula Z. Los detectores de partículas modernos, como los que se utilizaron en el LEP, parecen enormes cámaras digitales, de muchos metros de diámetro y de muchos metros de altura, que permiten hacer un seguimiento de las partículas que los atraviesan. Los detectores, como los propios aceleradores, constituyen gloriosas hazañas de la ingeniería moderna. En cavernas del tamaño de catedrales, son capaces de medir la energía y el momento de una sola partícula subatómica con una precisión exquisita. Llevan hasta el límite nuestras capacidades de ingeniería, lo que los convierte en hermosos monumentos de nuestro deseo colectivo de explorar el funcionamiento del universo.

Provistos con estos detectores y enormes baterías de ordenadores de alto rendimiento, uno de los objetivos principales de los científicos se basaba en una estrategia muy sencilla: necesitaban hacer una criba de todos sus datos para identificar las colisiones en las que se había producido una partícula Z y, a continuación, para cada una de esas colisiones, calcular cómo se había desintegrado la partícula. Algunas veces lo hacía creando un par electrón-positrón; otras, dando lugar a un par quark-antiquark, o incluso un muón y un antimuón (mira de nuevo la figura 21). Su tarea consistía en llevar un recuento del número de veces en que la partícula Z se desintegraba según cada uno de los mecanismos posibles de acuerdo con el modelo estándar y comparar los resultados con los números que predecía la teoría. Con más de 20 millones de partículas Z a su disposición, sometieron el modelo estándar a una prueba rigurosa y, obviamente, las evidencias demostraron que la teoría funciona perfectamente. Este ejercicio se conoce como medición de las anchuras parciales, y fue una de las pruebas más importantes del modelo estándar que el LEP posibilitó. A lo largo de los años se realizaron muchos otros experimentos, y en todos ellos se pudo comprobar que el modelo estándar funcionaba. Cuando el LEP cerró sus puertas definitivamente en el año 2000, sus datos ultraprecisos habían permitido probar el modelo estándar con un margen de error del 0,1 por ciento.

Antes de abandonar el asunto de las pruebas del modelo estándar, no nos podemos resistir a comentar otro ejemplo de un experimento muy distinto. Los electrones (y muchas otras partículas elementales) se comportan como imanes diminutos, y se han diseñado experimentos muy hermosos para medir sus efectos magnéticos. Estos experimentos, muy ingeniosos, no se llevan a cabo en los colisionadores, ni requieren colisiones brutales de materia y antimateria, pero permiten a los científicos medir el magnetismo con un increíble margen de error de una parte por billón, que equivale a medir la distancia entre Londres y Nueva York con un error mucho menor que el grosor de un pelo humano. Por si eso no fuese suficiente, los físicos teóricos, por su parte, también han trabajado de lo lindo, haciendo cálculos de ese mismo fenómeno. Estos cálculos antes solían hacerse con lápiz y papel, pero hoy en día hasta los teóricos necesitan utilizar ordenadores potentes.

No obstante, partiendo del modelo estándar y con la mente despejada, los teóricos han calculado sus predicciones, y sus resultados coinciden exactamente con los de los experimentos. A día de hoy, teoría y experimento concuerdan con un margen de error de una cienmillonésima parte, lo que supone una de las pruebas más precisas en toda la historia de la ciencia. A estas alturas, gracias en buena medida al LEP y a los experimentos sobre el magnetismo de los electrones, tenemos una gran confianza en que el modelo estándar de la física de partículas va por buen camino. Nuestra teoría de casi todo tiene buena pinta, salvo por un último detalle, que es de hecho muy importante: ¿a qué se refieren las dos últimas líneas de la ecuación maestra?

Asumimos la culpa de haber ocultado un dato que es absolutamente crucial para la búsqueda que dio sentido a este libro. Ha llegado el momento de descubrir el pastel. Parece que la simetría de gauge exige que ninguna de las partículas del modelo estándar tenga masa, lo cual es completamente erróneo. Las cosas tienen masa, y para demostrarlo no hace falta ningún complicado experimento científico. Llevamos todo el libro hablando de ella y hemos deducido la ecuación más famosa de la física, E = mc2, que claramente contiene una «m». Las dos últimas líneas de la ecuación maestra nos ayudarán a resolver este problema. Cuando las hayamos comprendido, podremos dar por finalizado nuestro recorrido, pues habremos llegado a una explicación del origen mismo de la masa.

Es muy fácil definir cuál es el problema con la masa. Si tratamos de incorporar la masa directamente en la ecuación maestra, tendremos que renunciar inevitablemente a la simetría de gauge. Pero, como hemos visto, la simetría de gauge constituye el núcleo de la teoría. A partir de ella, hemos sido capaces de hacer que surgieran todas las fuerzas de la naturaleza. Lo que es aún peor, los teóricos demostraron en los años setenta que no es posible desechar la simetría de gauge, porque eso desbarataría la teoría y haría que dejase de tener sentido. En 1964, tres grupos independientes de investigadores consiguieron sacarnos de este aparente punto muerto. Tanto François Englert y Robert Brout, que trabajaban en Bélgica, como Gerald Guralnik, Carl Hagen y Tom Kibble, en Londres, y Peter Higgs, desde Edimburgo, publicaron sendos trabajos fundamentales que condujeron a lo que más tarde acabó conociéndose como mecanismo de Higgs.

¿Cómo podría explicarse la masa? Supongamos que partimos de una teoría de la naturaleza en la que la masa no apareciese por ninguna parte. En una teoría así, la masa sencillamente no existiría, y nadie inventaría una palabra para referirse a ella. Como hemos visto, todo se movería a la velocidad de la luz. Supongamos ahora que, dentro de esa teoría, sucede algo que hace que, a partir de ese momento, varias partículas empiecen a moverse a distintas velocidades, todas menores que la de la luz. Podría perfectamente decirse que ese evento era el responsable de la aparición de la masa. Esa «cosa» es el mecanismo de Higgs, y ha llegado el momento de explicar en qué consiste.

Imagina que tienes los ojos vendados y que sostienes un hilo del que cuelga una pelota de ping pong. Si la sacudes, llegarás a la conclusión de que en su extremo hay algo con poca masa. Supón ahora que en lugar de oscilar libremente, la pelota está sumergida en denso sirope de arce. Si vuelves a mover el hilo encontrarás una resistencia mayor y supondrás, razonablemente, que lo que cuelga de él es algo mucho más pesado que una pelota de ping pong. Es como si la bola fuese más pesada porque el sirope la lastra. Imagina ahora que un sirope cósmico impregna todo el espacio, llegando a cualquier rincón, a cualquier rendija, tan omnipresente que ni siquiera sabemos que está ahí. En cierto sentido, es el escenario en el que todo sucede.

Evidentemente, la analogía con el sirope no es completa. Por una parte, tiene que ser un sirope selectivo, que frena los quarks y los leptones, pero permite que los fotones se muevan sin impedimentos. Podrías llevar la analogía un poco más allá, y tratar de incorporar esta característica, pero creemos que se entiende la idea, y no hemos de olvidar que, a fin de cuentas, es solo una analogía. Por supuesto, en los artículos que publicaron Higgs y los demás el sirope no se menciona.

Lo que sí mencionan es lo que ahora llamamos el campo de Higgs. Igual que el campo de electrones, lleva asociada una partícula: la partícula de Higgs. Como el campo de electrones, el campo de Higgs fluctúa y, allí donde es mayor, más alta es la probabilidad de encontrar la partícula de Higgs. Pero hay una diferencia: el campo de Higgs no se anula ni siquiera cuando no hay partículas de Higgs, y eso es lo que hace que se asemeje al sirope omnipresente. Todas las partículas del modelo estándar se mueven con el campo de Higgs de fondo, y algunas se ven más afectadas por él que otras. Las dos líneas finales de la ecuación maestra reflejan este hecho. El campo de Higgs viene representado por el símbolo φ, y las partes de la tercera línea en la que aparece φ por partida doble, junto con una B o una W (que, en nuestra notación compacta, están ocultas dentro del símbolo D en la tercera línea de la ecuación maestra), son los términos que generan las masas de las partículas W y Z. La teoría está ingeniosamente construida de tal manera que el fotón siga careciendo de masa (en la tercera línea, la parte del fotón que reside en B se anula con la parte que está en W; como ya hemos dicho, todo esto está oculto dentro del símbolo D) y, puesto que el campo de gluones (G) no ha aparecido en ningún momento, este tampoco tiene masa. Todo esto concuerda con los experimentos. Al incorporar el campo de Higgs, hemos podido generar las masas de las partículas sin desbaratar la simetría de gauge, pues las masas se generan como consecuencia de la interacción con el propio campo de Higgs. Aquí radica la magia de la idea: podemos conseguir que las partículas adquieran masa sin necesidad de pagar por ello el precio de la pérdida de la simetría de gauge. En la cuarta línea de la ecuación maestra es donde el campo de Higgs genera las masas para el resto de las partículas del modelo estándar.

FIGURA 22

Esta fantástica representación tiene un problema: ningún experimento ha logrado observar una partícula de Higgs. Todas las demás partículas del modelo estándar se han producido en los experimentos, por lo que la de Higgs es sin duda la pieza que falta en el rompecabezas. Si existe, tal y como predice el modelo estándar, este habrá logrado un nuevo triunfo, y podrá sumar la explicación del origen de la masa a su impresionante lista de éxitos. Como hace con todas las demás partículas de interacción, el modelo estándar determina exactamente cómo habría de manifestarse la partícula de Higgs en los experimentos. Lo único que no nos dice es cuál debería ser su masa, aunque, una vez conocidas las de la partícula W y el quark top, sí predice el intervalo dentro del cual debería encontrarse. El LEP podría haber observado el bosón de Higgs si este hubiese estado en el extremo más ligero de dicho intervalo, pero, puesto que no fue así, podemos suponer que es demasiado pesado como para haberse producido en el LEP (recuerda que se necesita más energía para generar las partículas más pesadas, en consonancia con E = mc2). Mientras escribimos estas líneas, el colisionador Tevatrón del Laboratorio Nacional Fermi (Fermilab), cerca de Chicago, está tratando de encontrar el bosón de Higgs, de momento sin éxito. Es muy probable que la energía del Tevatrón sea también insuficiente para obtener una señal clara del bosón de Higgs, aunque no se puede descartar que lo encuentre. El LHC es la máquina más potente jamás construida, y debería zanjar definitivamente la cuestión de la existencia del bosón de Higgs, porque su energía es más que suficiente para rastrear todo el intervalo del modelo estándar. En otras palabras, el LHC confirmará el modelo estándar, o bien será su tumba. Enseguida explicaremos por qué estamos tan convencidos de que el LHC conseguirá lo que máquinas anteriores no fueron capaces de hacer, pero antes nos gustaría explicar cómo espera generar las partículas de Higgs.

El LHC se construyó en el interior del mismo túnel circular de 27 kilómetros de largo en el que antes estuvo el LEP, pero, salvo por el propio túnel, todo lo demás era diferente. Un acelerador completamente nuevo ocupa el espacio donde antes estaba el LEP. Es capaz de acelerar protones en direcciones opuestas alrededor del túnel hasta alcanzar una energía igual a 7.000 veces la de su masa. Conseguir que los protones choquen entre sí a esas energías lleva la física de partículas a una nueva era y, si el modelo estándar está en lo cierto, producirá grandes cantidades de partículas de Higgs. Los protones están compuestos por quarks, por lo que, si queremos entender qué debería suceder en el LHC, todo lo que tenemos que hacer es identificar los diagramas de Feynman pertinentes.

FIGURA 23

Los vértices más importantes correspondientes a interacciones entre partículas ordinarias del modelo estándar y la de Higgs se pueden ver en la figura 22, donde el bosón de Higgs se representa mediante una línea de puntos que interactúa con el quark más pesado, el top (que se marca con una t), y con las partículas W y Z, también bastante pesadas. No te sorprenderá saber que la partícula responsable del origen de la masa prefiere interaccionar con las partículas más masivas. Sabiendo que los protones constituyen una fuente de quarks, nuestra tarea consiste en averiguar cómo incorporar el vértice del bosón de Higgs en un diagrama de Feynman más amplio. Entonces habremos encontrado la manera de fabricar partículas de Higgs en el LHC. Puesto que los quarks interaccionan con los bosones W (o Z), es fácil calcular cómo podrían producirse mediante partículas W (o Z). El resultado se muestra en la figura 23: un quark de cada uno de los protones que intervienen en la colisión (marcados como «p») emite una partícula W (o Z), y estas se fusionan para dar lugar al bosón de Higgs. El proceso se denomina fusión de bosones débiles, y se espera que sea crucial en el LHC.

FIGURA 24

El caso del mecanismo de producción de quarks top es algo delicado. Los quarks top no existen dentro de los protones, por lo que necesitamos encontrar una manera de pasar de los quarks ligeros (up y down) a los quarks top. Estos últimos interactúan con aquellos a través de la fuerza fuerte (es decir, mediante la emisión y absorción de un gluón). El resultado se muestra en la figura 24. Es bastante parecido al proceso de fusión de bosones débiles, con la diferencia de que intervienen gluones en lugar de las partículas W o Z. De hecho, como este proceso tiene lugar a través de la interacción fuerte, es la manera que ofrece una mayor probabilidad de producir partículas de Higgs en el LHC. Se denomina fusión de gluones.

Este es, por lo tanto, el mecanismo de Higgs, la teoría sobre el origen de la masa en el universo que goza actualmente de una mayor aceptación. Si todo transcurre como está previsto, el LHC confirmará la descripción que hace el modelo estándar del origen de la masa, o bien demostrará que es errónea. Esta es la razón por la que los próximos años van a ser muy emocionantes para la física. Nos encontramos en la típica situación en la que tenemos una teoría que predice en detalle lo que debería suceder en un experimento, y por tanto saldrá reforzada o se desmoronará en función de los resultados del mismo. Pero ¿qué pasa si el modelo estándar es erróneo? ¿Podría suceder algo totalmente diferente e inesperado? Puede que el modelo estándar esté equivocado y que no exista la partícula de Higgs. No se puede negar que cabe esta posibilidad. Los físicos de partículas están entusiasmados porque saben que el LHC necesariamente desvelará algo nuevo. La posibilidad de que el LHC no observe nada nuevo no se contempla porque, sin el bosón de Higgs, el modelo estándar deja de tener sentido a las energías que el LHC es capaz de generar, y sus predicciones simplemente se vienen abajo. El LHC es la primera máquina que se adentra en este territorio inexplorado. Para ser más precisos, si nos vemos obligados a desechar las partes de la ecuación maestra que hacen referencia al bosón de Higgs, perdemos la capacidad de calcular qué es lo que ocurre cuando dos partículas W chocan a energías superiores a mil veces la energía de la masa del protón, como sin duda sucederá en el LHC. Volver a introducir el bosón de Higgs hace que las ecuaciones funcionen, pero esta no es la única opción, existen otras formas de hacer que tenga lugar el proceso de dispersión de partículas W. Sea cual sea la posibilidad por la que la naturaleza se decante, es absolutamente inevitable que el LHC observe algo que no hayamos visto nunca antes. No es habitual que los físicos lleven a cabo un experimento con una garantía tal de que aparecerán cosas interesantes, y eso es lo que convierte al LHC en el experimento que ha despertado más expectación en muchos años.