13
Enigma cuántico
La hipótesis del hueco de masas

A pocos kilómetros al norte de Ginebra hay un recodo en la frontera entre Suiza y Francia. En la superficie, todo lo que se ve son caminos y pequeños pueblos. Pero en el subsuelo, a una profundidad de entre 50 y 175 metros, está el mayor instrumento científico del planeta. Es un gigantesco túnel circular, de más de ocho kilómetros de diámetro, unido a un segundo túnel circular de aproximadamente un cuarto del tamaño del primero. La mayor parte del mismo está bajo Francia pero dos secciones están en Suiza. Dentro de los túneles corren pares de tubos, que se cruzan en cuatro puntos.

Es el Gran Colisionador de Hadrones, cuesta 7500 millones de euros y está explorando las fronteras de la física de partículas. El objetivo principal de los diez mil científicos de los más de cien países que colaboraron en el mismo era encontrar el bosón de Higgs, o no encontrarlo, si es así como se deshizo el continuo. Lo están buscando para completar el Modelo Estándar de la física de partículas, según el cual todo lo que hay en el universo esta hecho de 17 partículas fundamentales diferentes. Según la teoría, el bosón de Higgs es lo que da masa a todas las partículas.

En diciembre de 2011 ATLAS y CMS, dos divisiones experimentales del Gran Colisionador de Hadrones, encontraron independientemente evidencia provisional de un bosón de Higgs con una masa de unos 125 GeV (gigaelectronvoltios, unidades utilizadas en física de partículas de forma intercambiable para masa y energía, puesto que ambas son equivalentes). El 4 de julio de 2012, el CERN, el laboratorio europeo para física de partículas que controla el Gran Colisionador de Hadrones, anunció, a una abarrotada audiencia de científicos y periodistas científicos, que el continuo se había resuelto a favor del Higgs. Ambos grupos habían recogido grandes cantidades de datos adicionales, y la probabilidad de que sus datos mostraran una fluctuación aleatoria, y no una nueva partícula con propiedades tipo Higgs, había caído por debajo de 1 en 2 millones. Este es el grado de confianza que tradicionalmente se requiere en física de partículas antes de descorchar el champán.

Serán necesarios más experimentos para estar seguros de que la nueva partícula tiene todas las propiedades que debería poseer un bosón de Higgs teórico. Por ejemplo, la teoría predice que el bosón de Higgs debería tener espín 0; en el momento del anuncio, las observaciones mostraban que era o 0 o 2. Hay también una posibilidad de que «el» bosón de Higgs pueda estar compuesto de otras partículas más pequeñas, o que sea tan solo la primera de una nueva familia de partículas tipo Higgs. Así que o bien el modelo actual de las partículas fundamentales quedará reforzado, o bien tendremos nueva información que eventualmente llevará a una teoría mejor.

El último de los siete problemas del premio del milenio está íntimamente relacionado con el Modelo Estándar y el bosón de Higgs. Es una cuestión central en la teoría cuántica de campos, el marco matemático en el que se estudia la física de partículas. Se llama la hipótesis del hueco de masas, y pone un límite inferior a la masa posible de una partícula fundamental. Es un problema representativo escogido entre una serie de grandes preguntas sin responder en esta profunda y muy nueva área de la física matemática. Tiene conexiones que van desde las fronteras de las matemáticas puras a la largo tiempo buscada unificación de las dos principales teorías físicas, la relatividad general y la teoría cuántica de campos.

En la mecánica newtoniana clásica, las magnitudes físicas básicas son espacio, tiempo y masa. El espacio se supone tridimensional euclídeo, el tiempo es una magnitud unidimensional independiente del espacio, y masa significa la presencia de materia. Las masas cambian su posición en el espacio bajo la influencia de fuerzas, y el ritmo con el que cambia su posición se mide con respecto al tiempo. La ley de movimiento de Newton describe cómo está relacionada la aceleración de un cuerpo (el ritmo de cambio de la velocidad, que a su vez es el ritmo de cambio de la posición) con la masa del cuerpo y la fuerza aplicada.

Las teorías clásicas del espacio, el tiempo y la materia alcanzaron su punto culminante en las ecuaciones de James Clerk Maxwell para el electromagnetismo[79]. Este elegante sistema de ecuaciones unificaba dos de las fuerzas de la naturaleza, que previamente se consideraban distintas. En lugar de electricidad y magnetismo, había un único campo electromagnético. Un campo llena la totalidad del espacio, como si el universo estuviera lleno de cierto tipo de fluido invisible. En cada punto del espacio podemos medir la intensidad y dirección del campo, como si dicho fluido estuviera fluyendo con pautas matemáticas. Para algunos fines el campo electromagnético puede separarse en dos componentes, el campo eléctrico y el campo magnético. Pero un campo magnético en movimiento crea un campo eléctrico, y recíprocamente, de modo que cuando se llega a la dinámica, ambos campos deben combinarse en un único campo más complejo.

Esta confortable imagen del mundo físico, en la que los conceptos científicos fundamentales guardan un estrecho parecido con cosas que perciben nuestros sentidos, cambió drásticamente en los primeros años del siglo XX. En ese momento los físicos empezaron a darse cuenta de que en escalas muy pequeñas, demasiado pequeñas para ser observadas con cualquier microscopio entonces disponible, la materia es muy diferente de lo que todos habían imaginado. Físicos y químicos empezaron a tomar en serio una teoría muy especulativa que se retrotraía más de dos milenios hasta las elucubraciones filosóficas de Demócrito en la antigua Grecia y otros estudiosos en la India. Era la idea de que aunque el mundo parece estar hecho de incontables materiales diferentes, toda la materia está formada de partículas minúsculas: los átomos. La palabra procede del término griego que designa «indivisible».

Los químicos del siglo XIX encontraron evidencia indirecta a favor de los átomos: los elementos que se combinan para formar moléculas más complejas lo hacen en proporciones muy específicas, a menudo próximas a números enteros. John Dalton formuló estas observaciones en su ley de las proporciones múltiples, y propuso los átomos como una explicación. Si cada compuesto químico consistía de números fijos de átomos de varios tipos, una proporción de este tipo aparecería de forma automática. Por ejemplo, ahora sabemos que cada molécula de dióxido de carbono consiste en dos átomos de oxígeno y un átomo de carbono, de modo que los números de átomos estarán en razón de dos a uno. Sin embargo, hay complicaciones: átomos diferentes tienen masas diferentes, y muchos elementos se presentan como moléculas formadas por varios átomos. Por ejemplo, la molécula de oxígeno está compuesta de dos átomos de oxígeno. Si no nos damos cuenta de lo que está pasando, pensaríamos que un átomo de oxígeno es de una masa doble de la que tiene en realidad. Y algunos elementos aparentes son en realidad mezclas de diferentes «isótopos» (estructuras atómicas). Por ejemplo, el cloro se da en la naturaleza como una mezcla de dos formas estables, ahora llamadas cloro 35 y cloro 37, en proporciones de alrededor de un 76 por 100 y un 24 por 100, respectivamente. Por eso, el «peso atómico» observado es 35,45, que en las etapas iniciales de la teoría atómica se interpretaba en el sentido de que «el átomo de cloro está compuesto de treinta y cinco y medio átomos de hidrógeno». Y eso significa que un átomo no es indivisible. Cuando se iniciaba el siglo XX la mayoría de los científicos seguían pensando que el salto a la teoría atómica era demasiado grande, y la evidencia numérica era demasiado débil para justificarlo.

Algunos científicos, en especial Maxwell y Ludwig Boltzmann, fueron más allá, convencidos de que los gases son colecciones de moléculas tenuemente distribuidas y que las moléculas están hechas por ensamblaje de átomos. Lo que, al parecer, convenció a sus colegas fue la explicación que dio Albert Einstein para el movimiento browniano, los erráticos movimientos de minúsculas partículas suspendidas en un fluido que eran visibles al microscopio. Einstein decidió que estos movimientos debían estar causados por colisiones con moléculas del fluido que se movían de modo aleatorio y realizó algunos cálculos cuantitativos para apoyar esa idea. Jean Perrin confirmó experimentalmente estas predicciones en 1908. Ser capaces de ver el efecto de las supuestas partículas indivisibles de materia, y de hacer predicciones cuantitativas, aportaba más convicción que las elucubraciones filosóficas y la numerología curiosa. En 1911 ya había un consenso científico en la existencia de los átomos.

Mientras pasaba esto, unos pocos científicos empezaron a darse cuenta de que los átomos no son indivisibles. Tienen algún tipo de estructura, y es posible separar pequeños fragmentos de ellos. En 1897 Joseph John Thomson estaba experimentando con los denominados rayos catódicos y descubrió que podía hacerse que los átomos emitieran partículas todavía más minúsculas, los electrones. No solo eso: átomos de elementos diferentes emitían las mismas partículas. Aplicando un campo magnético, Thomson demostró que los electrones llevan una carga eléctrica negativa. Puesto que un átomo es eléctricamente neutro, debe haber también una parte de los átomos con una carga positiva, lo que llevó a Thomson a proponer el modelo del pudin de pasas: un átomo es como un pudín cargado positivamente salpicado con pasas cargadas negativamente. Pero en 1909 uno de los exestudiantes de Thomson, Ernest Rutherford, realizó experimentos que mostraban que la mayor parte de la masa de un átomo está concentrada cerca de su centro. Los pudines no son así.

¿Cómo pueden los experimentos explorar regiones tan minúsculas del espacio? Imaginemos una parcela de tierra, que puede tener o no edificios u otras estructuras. No se nos permite entrar en el área, que además está oscura de modo que no podemos ver lo que hay allí. Sin embargo, tenemos un rifle y muchas cajas de munición. Podemos disparar balas aleatoriamente a la parcela y observar en qué dirección salen. Si la parcela es como un pudin de pasas, la mayoría de las balas la atravesarán directamente. Si en ocasiones tenemos que agacharnos cuando una bala rebota hacia nosotros, es que hay algo muy sólido en alguna parte. Observando con qué frecuencia la bala sale a un ángulo dado, podemos estimar el tamaño del objeto sólido.

Las balas de Rutherford eran partículas alfa, núcleos de átomos de helio, y su parcela de tierra era una fina hoja de oro. El trabajo de Thomson había mostrado que las pasas-electrones tenían una masa muy pequeña, de modo que casi toda la masa de un átomo debería encontrarse en el pudin. Si el pudin no tenía grumos, la mayoría de las partículas alfa deberían atravesarlo directamente, y muy pocas serían desviadas y no mucho. En lugar de ello, una proporción pequeña pero significativa experimentaba grandes desviaciones. Así que la imagen del pudin de pasas no funcionaba. Rutherford sugirió una metáfora diferente, una metáfora que todavía utilizamos hoy de manera informal pese a que ha sido superada por imágenes más modernas: el modelo planetario. Un átomo es como un sistema solar; tiene un enorme núcleo central, su sol, alrededor del cual orbitan los electrones como planetas. Así pues, como el Sistema Solar, el interior de un átomo es básicamente espacio vacío.

Rutherford llegó a encontrar pruebas de que el núcleo está compuesto de dos tipos diferentes de partículas: protones, con carga positiva; y neutrones, con carga cero. Los dos tienen masas muy parecidas, y ambos son unas mil ochocientas veces más masivos que un electrón. Los átomos, lejos de ser indivisibles, están hechos de partículas subatómicas aún más pequeñas. Esta teoría explica la numerología en enteros de los elementos químicos: lo que se está contando son los números de protones y neutrones. También explica los isótopos: sumar o restar algunos neutrones cambia la masa, pero mantiene la carga total cero y deja invariable el número de electrones, que es igual al número de protones. Las propiedades químicas de un átomo están básicamente controladas por sus electrones. Por ejemplo, el cloro 35 tiene 17 protones, 17 electrones y 18 neutrones; el cloro 37 tiene 17 protones, 17 electrones y 20 neutrones. La cifra 35,45 aparece porque el cloro natural es una mezcla de estos dos isótopos.

A comienzos del siglo XX había una nueva teoría en juego, aplicable a la materia en las escalas de las partículas subatómicas. Era la mecánica cuántica, y una vez que estuvo disponible, la física ya no volvería a ser la misma. La mecánica cuántica predecía una gran cantidad de fenómenos nuevos, muchos de los cuales fueron en seguida observados en el laboratorio. Explicaba muchas observaciones extrañas y que previamente resultaban desconcertantes. Predecía la existencia de nuevas partículas fundamentales. Y nos decía que la imagen clásica del universo en que vivimos, y que hasta entonces había tenido un excelente acuerdo con las observaciones, es falsa. Nuestras percepciones a escala humana son pobres modelos de la realidad en su nivel más fundamental.

En física clásica la materia está hecha de partículas y la luz es una onda. En mecánica cuántica la luz es también una partícula: el fotón. De modo recíproco, la materia, por ejemplo los electrones, puede comportarse a veces como una onda. La previamente nítida divisoria entre ondas y partículas no solo se difuminaba sino que desaparecía por completo, reemplazada por la dualidad onda/partícula. El modelo planetario del átomo no funcionaba muy bien si se tomaba al pie de la letra, de modo que apareció una nueva imagen. En lugar de orbitar en torno al núcleo como planetas, los electrones forman una nube difusa centrada en el núcleo, una nube no de materia sino de probabilidad. La densidad de la nube corresponde a la probabilidad de encontrar un electrón en dicha localización.

Además de protones, neutrones y electrones, los físicos conocían otra partícula subatómica, el fotón. Pronto aparecieren otras. Un fallo aparente de la ley de conservación de la energía llevó a Wolfgang Pauli a proponer un arreglo provisional que postulaba la existencia del neutrino, una nueva partícula invisible y prácticamente indetectable que proporcionaría la energía que faltaba. Era lo bastante detectable para que se confirmara su existencia en 1956. Y eso abrió las compuertas. Pronto había piones, muones y kaones, los últimos descubiertos al observar rayos cósmicos. Había nacido la física de partículas, que siguió utilizando el método de Rutherford para explorar las increíblemente minúsculas escalas espaciales implicadas: para descubrir lo que hay en el interior de algo, se arroja un montón de materia contra ello y se observa lo que rebota. Se construyeron y pusieron en operación aceleradores de partículas cada vez más grandes, las pistolas que disparaban las balas. El acelerador lineal de Stanford tenía tres kilómetros de longitud. Para no tener que construir aceleradores cuyas longitudes abarcaran continentes, se curvaron en círculo, de modo que las partículas pudiesen dar muchísimas vueltas a velocidades enormes. Eso complicaba la tecnología, porque las partículas que se mueven en círculos radian energía, pero había remedios.

El primer fruto de estos trabajos fue un cada vez mayor catálogo de partículas supuestamente fundamentales. Enrico Fermi expresaba así su frustración: «Si pudiera recordar los nombres de todas estas partículas, sería un botánico». Pero de cuando en cuando nuevas ideas procedentes de la teoría cuántica reducían la lista, y se proponían nuevos tipos de partículas cada vez más pequeñas para unificar las estructuras ya observadas.

La mecánica cuántica primitiva se aplicaba a objetos individuales tipo onda o tipo partícula. Pero inicialmente nadie podía describir un buen análogo mecano-cuántico de un campo. Era imposible ignorar esta laguna porque las partículas (descriptibles por la mecánica cuántica) podían interaccionar y lo hacían con campos (no descriptibles por la mecánica cuántica). Era como querer descubrir cómo se mueven los planetas del Sistema Solar si se conocieran las leyes de movimiento de Newton (cómo se mueven las masas cuando se aplican fuerzas), pero no se conociera su ley de la gravedad (cuáles son dichas fuerzas).

Había otra razón para querer modelar los campos y no solo las partículas. Gracias a la dualidad onda/partícula, están íntimamente relacionadas. Una partícula es, en esencia, un grumo en un campo. Un campo es un mar repleto de partículas. Los dos conceptos son inseparables. Por desgracia, los métodos desarrollados hasta esa fecha se basaban en que las partículas son como puntos minúsculos, y no se extendían a los campos de ninguna manera razonable. No se podían pegar montones de partículas y llamar campo al resultado, porque las partículas interaccionan unas con otras.

Imaginemos una multitud en… bueno, un campo. Quizá están en un concierto de rock. Vista desde un helicóptero, la multitud se parece a un fluido, chapoteando por el campo —a menudo literalmente, por ejemplo en el Festival Glastonbury, reputado por convertirse en un mar de lodo—. Desde el suelo se hace claro que el fluido es en realidad una masa agitada de partículas individuales: personas. O quizá densos racimos de personas, como algunos amigos que pasean juntos, formando una unidad indivisible, o como un grupo de extraños que llega con un propósito común, tal como ir al bar. Pero no se puede modelar adecuadamente la multitud sumando lo que harían las personas si cada una fuera a lo suyo. Cuando un grupo se dirige al bar, bloquea el camino de otro grupo. Los dos grupos colisionan y se agolpan. Establecer una teoría cuántica de campos efectiva es como hacer esto cuando las personas son funciones de onda cuánticas localizadas.

A finales de los años veinte del siglo pasado, razonamientos de este tipo habían convencido a los físicos de que, por difícil que pudiera ser la tarea, la mecánica cuántica tenía que ser ampliada para tener en cuenta a los campos tanto como a las partículas. El lugar natural para empezar era el campo electromagnético. De algún modo los componentes eléctrico y magnético de este campo tenían que ser cuantificados: reescritos en el formalismo de la mecánica cuántica. Matemáticamente, este formalismo era poco familiar y no muy físico. Los observables —cosas que se podían medir— ya no se representaban utilizando los viejos números. En su lugar, correspondían a operadores en un espacio de Hilbert: reglas matemáticas para manipular ondas. Estos operadores violaban las hipótesis habituales de la mecánica clásica. Si se multiplican dos números, el resultado es el mismo sea cual sea el primero. Por ejemplo, 2 × 3 y 3 × 2 dan lo mismo. Esta propiedad, llamada conmutatividad, falla para muchos pares de operadores, igual que ponerse primero los calcetines y luego los zapatos no tiene el mismo efecto que ponerse primero los zapatos y luego los calcetines. Los números son criaturas pasivas, los operadores son activos. Qué acción se realiza primero fija el escenario para la otra.

La conmutatividad es una propiedad matemática muy agradable. Su ausencia es algo molesta, y esta es precisamente una de las razones por las que cuantizar un campo resulta ser complicado. No obstante, a veces puede hacerse. El campo electromagnético fue cuantizado en una serie de etapas, empezando con la teoría del electrón de Dirac en 1928, y completadas por Sin-Itiro Tomonaga, Julian Schwinger, Richard Feynman y Freeman Dyson a finales de los años cuarenta y principios de los cincuenta. La teoría resultante se conoce como electrodinámica cuántica.

El punto de vista que se utilizaba allí se basaba en un método que podría trabajar de forma más general. La idea subyacente se remontaba directamente hasta Newton. Cuando los matemáticos intentaron resolver las ecuaciones que proporcionaba la ley de Newton descubrieron algunos trucos generales y útiles, conocidos como leyes de conservación. Cuando se mueve un sistema de masas, algunas magnitudes permanecen constantes. La más familiar es la energía, que viene en dos sabores, cinética y potencial. La energía cinética está relacionada con la velocidad con que se mueve un cuerpo, y la energía potencial es el trabajo hecho por las fuerzas. Cuando se deja caer una piedra desde el borde de un acantilado intercambia energía potencial, debida a la gravedad, por energía cinética; dicho en lenguaje ordinario, cae y se acelera. Otras magnitudes conservadas son el momento lineal, que es el producto de la masa por la velocidad, y el momento angular, que está relacionado con el ritmo de giro de un cuerpo. Estas magnitudes conservadas relacionan las diferentes variables utilizadas para describir el sistema, y por consiguiente reducen su número. Eso ayuda cuando se trata de resolver las ecuaciones, como vimos en el caso del problema de dos cuerpos en el capítulo 8.

En el siglo XX se había descubierto la fuente de estas leyes de conservación. Emmy Noether demostró que toda magnitud conservada corresponde a un grupo continuo de simetrías de las ecuaciones. Una simetría es una transformación matemática que deja las ecuaciones invariables, y todas las simetrías forman un grupo, para el que la operación de composición es «hacer una transformación y luego la otra». Un grupo continuo es un grupo de simetrías definidas por un único número real. Por ejemplo, la rotación en torno a un eje dado es una simetría, y el ángulo de rotación puede ser cualquier número real, de modo que las rotaciones —de cualquier ángulo— en torno a un eje dado forman una familia continua. Aquí la magnitud conservada asociada es el momento angular. Análogamente, el momento lineal es la magnitud conservada asociada a la familia de traslaciones en una dirección dada. ¿Qué pasa con la energía? Esta es la magnitud conservada que corresponde a las simetrías temporales; las ecuaciones son las mismas en cualquier instante de tiempo.

Cuando los físicos trataron de unificar las fuerzas básicas de la naturaleza, llegaron a convencerse de que las simetrías eran la clave. La primera de estas unificaciones fue la de Maxwell, que combinaba electricidad y magnetismo en un único campo electromagnético. Maxwell consiguió esta unificación sin considerar la simetría, pero pronto se hizo claro que sus ecuaciones poseen un notable tipo de simetría que no había sido advertida previamente: la simetría gauge. Y eso parecía una palanca estratégica que podría abrir teorías cuánticas de campos más generales.

Rotaciones y traslaciones son simetrías globales: se aplican uniformemente a lo largo de todo el espacio y el tiempo. Una rotación en torno a un eje rota todo punto del espacio el mismo ángulo. Las simetrías gauge son diferentes: son simetrías locales, que pueden variar de un punto a otro en el espacio. En el caso del electromagnetismo, estas simetrías locales son cambios de fase. Una oscilación local del campo electromagnético tiene una amplitud (qué tamaño tiene) y una fase (el momento en que alcanza su máximo). Si tomamos una solución de las ecuaciones de campo de Maxwell y cambiamos la fase en cada punto, obtenemos otra solución, siempre que hagamos un cambio compensatorio en la descripción del campo incorporando una carga electromagnética local.

Las simetrías gauge fueron introducidas por Hermann Weyl en un intento infructuoso por conseguir otra unificación, la del electromagnetismo y la relatividad general; es decir, las fuerzas electromagnéticas y gravitatorias. El nombre vino de un equívoco: él pensaba que las simetrías locales correctas deberían ser cambios de escala espacial, o «gauge[*]». Esta idea no funcionó, pero el formalismo de la mecánica cuántica llevó a Vladimir Fock y Fritz London a introducir un tipo diferente de simetría local. La mecánica cuántica se formula utilizando números complejos, no solo números reales, y toda función de onda cuántica tiene una fase compleja. Las simetrías locales relevantes rotan la fase cualquier ángulo en el plano complejo. En abstracto, este grupo de simetrías consiste en todas las rotaciones, pero en coordenadas complejas estas son «transformaciones unitarias» (U) en un espacio con una dimensión compleja (1), de modo que el grupo formado por estas simetrías se denota por U(1). Aquí el formalismo no es solo un juego matemático abstracto: permite a los físicos escribir, y luego resolver, las ecuaciones para partículas cuánticas cargadas que se mueven en un campo electromagnético. En las manos de Tomonaga, Schwinger, Feynman y Dyson este punto de vista llevó a la primera teoría cuántica de campos relativista del electromagnetismo: la electrodinámica cuántica. La simetría bajo el grupo gauge U(1) fue fundamental para su trabajo.

El siguiente paso, que unifica la electrodinámica cuántica con la fuerza nuclear débil, fue conseguido por Abdus Salam, Sheldon Glashow, Steven Weinberg y otros en los años sesenta del siglo pasado. Junto al campo electromagnético con su simetría gauge U(1), introdujeron campos asociados con cuatro partículas fundamentales, los denominados bosones W+, W0, W- y B0. Las simetrías gauge de este campo, que en efecto rotan combinaciones de estas partículas para producir otras combinaciones, forman otro grupo, llamado SU(2) —transformaciones unitarias (U) en un espacio complejo bidimensional (2) que son también especiales (S), una condición técnica sencilla—. Por lo tanto el grupo gauge combinado es U(1) × SU(2), donde el × indica que los dos grupos actúan independientemente sobre los dos campos. El resultado, llamado teoría electrodébil, requería una difícil innovación matemática. El grupo U(1) para la electrodinámica cuántica es conmutativo: aplicar sucesivamente dos transformaciones de simetría da el mismo resultado, cualquiera que sea el orden en que se aplican. Esta agradable propiedad simplifica mucho las matemáticas, pero no es válida para SU(2). Esta fue la primera aplicación de una teoría gauge no conmutativa.

La fuerza nuclear fuerte entra en juego cuando consideramos la estructura interna de partículas como protones y neutrones. El gran avance en esta área fue motivado por una curiosa pauta matemática en una clase concreta de partículas, llamadas hadrones. La pauta era conocida como el óctuple camino. Inspiró la teoría de la cromodinámica cuántica, que postulaba la existencia de partículas ocultas llamadas quarks y las utilizaba como componentes básicos para el gran zoo de hadrones.

En el modelo estándar, todo lo que hay en el universo depende de dieciséis partículas genuinamente fundamentales, cuya existencia ha sido confirmada por experimentos en aceleradores. Más una decimoséptima, que actualmente está buscando el Gran Colisionador de Hadrones. De las partículas conocidas para Rutherford, solo dos siguen siendo fundamentales: el electrón y el fotón. El protón y el neutrón, por el contrario, están hechos de quarks. El nombre fue acuñado por Murray Gell-Mann, que pretendía que rimara con «cork». Él dio con un pasaje del Finnegans Wake de James Joyce:

Three quarks for Muster Mark!

Sure he has not got much of a bark

And sure any he has it’s all beside the mark.

Esto parecería apuntar a una pronunciación que rima con «mark», pero Gell-Mann encontró una manera de justificar su intención. Ambas pronunciaciones son ahora habituales.

El Modelo Estándar considera seis quarks, dispuestos en pares. Tienen nombres curiosos: up/down, charmed/strange, y top/bottom. Hay seis leptones, también en pares: el electrón, el muón y el tauón (hoy llamado simplemente tau) y sus neutrinos asociados. Estas doce partículas son colectivamente llamadas fermiones, en referencia a Fermi. Las partículas se mantienen unidas gracias a fuerzas, que son de cuatro tipos: gravedad, electromagnetismo, la fuerza nuclear fuerte y la fuerza nuclear débil. Dejando aparte la gravedad, que todavía no ha sido plenamente reconciliada con la imagen cuántica, esto da tres fuerzas. En física de partículas, las fuerzas se producen por un intercambio de partículas, que son «portadoras» o «mediadoras» de la fuerzas. La analogía habitual es con dos jugadores de tenis que se mantienen unidos por su mutua atención a la bola. El fotón es el portador de la fuerza electromagnética, los bosones Z y W son portadores de la fuerza nuclear débil, y los gluones son portadores de la fuerza nuclear fuerte. Mejor dicho, los gluones son técnicamente los portadores de la fuerza de color que mantiene unidos a los quarks, y la fuerza fuerte es lo que observamos como resultado. El protón consiste en dos quarks up más un quark down; el neutrón consta de un quark up más dos quarks down. En cada una de estas partículas los quarks se mantienen unidos por los gluones. Estos cuatro portadores de fuerzas se conocen colectivamente como bosones, en referencia a Chandra Bose. La distinción entre fermiones y bosones es importante: tienen diferentes propiedades estadísticas. La Figura 44 (izquierda) muestra el catálogo resultante de partículas que se conjeturan fundamentales. La Figura 44 (derecha) muestra cómo hacer un protón y un neutrón a partir de quarks.

FIGURA 44. Izquierda: Las 17 partículas del Modelo Estándar. Derecha: Cómo hacer un protón y un neutrón a partir de quarks. Derecha, arriba: Protón = dos quarks up + un quark down. Derecha, abajo: Neutrón = un quark up + dos quarks down.

El bosón de Higgs completa esta imagen al explicar por qué las otras 16 partículas del Modelo Estándar tienen masas no nulas. Recibe su nombre de Peter Higgs, uno de los físicos que sugirieron la idea. Otros físicos involucrados son Philip Anderson, François Englert, Robert Brout, Gerald Guralnik, Carl Hagen y Thomas Kibble. El bosón de Higgs es la encarnación en forma de partícula de un hipotético campo cuántico, el campo de Higgs, con una propiedad inusual pero vital: en un vacío, el campo es distinto de cero. Las otras 16 partículas están influidas por el campo de Higgs, que hace que se comporten como si tuvieran masa.

En 1993 David Miller, en respuesta a un reto del ministro de Ciencia británico William Waldegrave, presentó una analogía sorprendente: una fiesta. Los asistentes están repartidos uniformemente por la habitación cuando entra el invitado de honor (una ex primera ministra). Al instante, todos se agrupan a su alrededor. A medida que ella se mueve por el salón, unas personas se unen al grupo y otras lo dejan, y el grupo en movimiento le da a ella una masa extra, que hace más difícil que ella se detenga. Este es el mecanismo de Higgs. Imaginemos ahora que circula un rumor por el salón y la gente se agolpa para oír la noticia. Este grupo es el bosón de Higgs. Miller añadía: «Podría haber un mecanismo de Higgs, y un campo de Higgs que llenase nuestro universo, sin que haya un bosón de Higgs. La próxima generación de colisionadores lo resolverá». Parece que ahora se ha resuelto el bosón de Higgs, pero el campo de Higgs aún necesita más trabajo.

La cromodinámica cuántica es otra teoría gauge, esta vez con grupo gauge SU(3). Como sugiere la notación, la transformación actúa ahora sobre el espacio complejo tridimensional. Luego siguió la unificación del electromagnetismo, la fuerza débil y la fuerza fuerte. Supone la existencia de tres campos cuánticos, uno por cada fuerza, con grupos gauge U(1), SU(2) y SU(3) respectivamente. La combinación de los tres da el Modelo Estándar, con grupo gauge U(1) × SU(2) × SU(3). Siendo rigurosos, las simetrías SU(2) y SU(3) son aproximadas; se cree que se hacen exactas a energías muy altas. Por eso su efecto sobre las partículas que forman nuestro mundo corresponde a simetrías «rotas», las trazas de estructura que permanecen cuando el sistema ideal perfectamente simétrico está sujeto a una pequeña perturbación.

Los tres grupos contienen familias continuas de simetrías: una familia para U(1), tres para SU(2) y ocho para SU(3). Asociadas a ellas hay varias magnitudes conservadas. Las simetrías de la mecánica newtoniana proporcionan de nuevo energía, momento lineal y momento angular. Las magnitudes conservadas para las simetrías gauge U(1) × SU(2) × SU(3) son varios «números cuánticos» que caracterizan las partículas. Son análogas a magnitudes tales como espín y carga, pero se aplican a los quarks; tienen nombres como carga de color, isospín e hipercarga. Finalmente, hay algunas magnitudes conservadas adicionales para U(1): números cuánticos para los seis leptones, tales como número electrónico, número muónico y número tauónico. El resultado es que las simetrías de las ecuaciones del Modelo Estándar, vía teorema de Noether, explican las variables físicas nucleares de las partículas fundamentales.

El mensaje importante para nuestra historia es la estrategia y el resultado general. Para unificar las teorías físicas hay que encontrar sus simetrías y unificarlas. Luego hay que idear una teoría adecuada con dicho grupo de simetrías combinado. No estoy sugiriendo que el proceso sea directo; de hecho es técnicamente muy complejo. Pero así es como se ha desarrollado la teoría cuántica de campos hasta ahora, y solo una de las cuatro fuerzas de la naturaleza cae hoy día fuera de su alcance: la gravedad.

El teorema de Noether no solo explica las principales variables físicas asociadas con partículas fundamentales: fue así como se encontraron muchas de las simetrías subyacentes. Los físicos trabajaron hacia atrás, a partir de los números cuánticos observados e inferidos, para deducir qué simetrías debería tener el modelo. Luego escribieron ecuaciones adecuadas con dichas simetrías y confirmaron que dichas ecuaciones encajaban muy estrechamente la realidad. De momento, este paso final requiere escoger los valores de 19 parámetros, números que deben ser introducidos en las ecuaciones para dar resultados cuantitativos. Nueve de estos son masas de partículas concretas: los seis quarks y el electrón, el muón y el tau. Los demás son más técnicos, cosas como ángulos de mezcla y acoplamientos de fase. Diecisiete de estos parámetros son conocidos gracias a los experimentos, pero dos no lo son; describen el todavía hipotético campo de Higgs. Pero ahora hay buenas perspectivas de medirlos, porque los físicos saben dónde mirar.

Las ecuaciones utilizadas en estas teorías pertenecen a una clase general de teorías de campos gauge, conocidas como teorías de Yang-Mills. En 1954 Chen-Ning Yang y Robert Mills intentaron desarrollar teorías gauge para explicar la fuerza fuerte y las partículas asociadas a ella. Sus primeros intentos tropezaban con dificultades cuando se cuantizaba el campo, porque esto exigía que las partículas tuvieran masa cero. En 1960 Jeffrey Goldstone, Yoichiro Nambu y Giovanni Jona-Lasinio encontraron una manera de evitar este problema: empezar con una teoría que predecía partículas sin masa, pero luego modificarla rompiendo alguna de las simetrías. Es decir, cambiar un poco las ecuaciones introduciendo nuevos términos asimétricos. Cuando se utilizó esta idea para modificar la teoría de Yang-Mills, las ecuaciones resultantes funcionaban muy bien, tanto en la teoría electrodébil como en cromodinámica cuántica.

Yang y Mills suponían que el grupo gauge era un grupo unitario especial. Para las aplicaciones a partículas este era el SU(2) o el SU(3), el grupo unitario especial para dos o tres dimensiones complejas, pero el formalismo funcionaba en cualquier número de dimensiones. Su teoría aborda en línea directa una difícil pero inevitable dificultad matemática. El campo electromagnético es engañosamente simple en un aspecto: sus simetrías gauge conmutan. A diferencia de la mayoría de los operadores cuánticos, el orden en que se cambian las fases no afecta a las ecuaciones. Pero ahora los físicos tenían puesto los ojos en una teoría cuántica de campos para partículas subatómicas. Aquí, el grupo gauge era no conmutativo, lo que hacía muy difícil cuantizar las ecuaciones.

Yang y Mills lo consiguieron utilizando una representación diagramática de interacciones de partículas introducida por Richard Feynman. Cualquier estado cuántico puede considerarse como una superposición de innumerables interacciones de partículas. Por ejemplo, incluso un vacío incluye pares de partículas y antipartículas que en cada instante nacen e inmediatamente desaparecen. Una simple colisión entre dos partículas se divide en una danza desconcertante de apariciones y desapariciones de partículas intermediarias, yendo y viniendo, dividiéndose y combinándose. Lo que salva la situación es una combinación de dos cosas. Las ecuaciones de campo pueden cuantizarse para cada diagrama de Feynman concreto y todas estas contribuciones pueden sumarse para representar el efecto global de la interacción. Además, los diagramas más complicados rara vez aparecen, de modo que su contribución a la suma no es muy grande. Incluso así, hay un serio problema. La suma, interpretada directamente, es infinita. Yang y Mills encontraron una manera de «renormalizar» el cálculo de modo que se eliminaba una infinidad de términos que no deberían contar de hecho. Lo que quedaba era una suma finita, y su valor encajaba muy bien con la realidad. Esta técnica era completamente misteriosa cuando se ideó por primera vez, pero ahora tiene sentido.

En los años setenta entraron en escena los matemáticos, y Michael Atiyah generalizó la teoría de Yang-Mills a una amplia clase de grupos gauge. Matemáticas y física empezaron a realimentarse mutuamente, y el trabajo de Edward Witten y Nathan Seiberg sobre teorías cuánticas de campos topológicas llevó al concepto de supersimetría, en donde todas las partículas conocidas tienen nuevas contrapartidas «supersimétricas»: electrones y selectrones, quarks y squarks. Esto simplificaba las matemáticas y llevaba a predicciones físicas. Sin embargo, estas nuevas partículas todavía no han sido observadas, y es probable que algunas deberían manifestarse ahora en los experimentos realizados utilizando el Gran Colisionador de Hadrones. El valor matemático de estas ideas está bien establecido, pero su relevancia directa para la física no lo está. Sin embargo, arrojan luz útil sobre la teoría de Yang-Mills.

La teoría cuántica de campos es una de las fronteras en más rápido movimiento de la física matemática, y por ello el Instituto Clay quería incluir algo relativo a este tema como uno de los premios del milenio. La hipótesis del hueco de masas se sitúa en el centro de esta rica área y aborda una importante cuestión matemática vinculada con la física de partículas. La aplicación de los campos de Yang-Mills para describir las partículas fundamentales en términos de la fuerza nuclear fuerte depende de una característica específica de la teoría cuántica conocida como un hueco de masas. En relatividad, una partícula que viaja a la velocidad de la luz adquiere una masa infinita, a menos que su masa en reposo sea nula. El hueco de masas permite que las partículas cuánticas tengan masas no nulas finitas, incluso si las ondas clásicas asociadas viajan a la velocidad de la luz. Cuando existe un hueco de masas, cualquier estado que no sea el vacío tiene una energía que supera a la del vacío en al menos una cantidad fija. Es decir, hay un límite inferior no nulo para la masa de una partícula.

Los experimentos confirman la existencia de un hueco de masas, y las simulaciones por ordenador de las ecuaciones apoyan la hipótesis del hueco de masas. Sin embargo, no podemos suponer que un modelo encaja con la realidad y luego utilizar la realidad para verificar propiedades matemáticas del modelo, porque caeríamos en un círculo vicioso. Por eso es necesaria una comprensión teórica. Un paso clave sería una demostración rigurosa de que existen versiones cuánticas de la teoría de Yang-Mills. La versión clásica (no cuántica) está hoy bastante bien entendida, pero la análoga cuántica está viciada, afectada por el problema de la renormalización, esos molestos infinitos que tienen que ser neutralizados mediante malabarismos matemáticos.

Un enfoque atractivo empieza por convertir el espacio continuo en una red discreta y escribir un análogo en la red a la ecuación de Yang-Mills. Entonces la cuestión principal es mostrar que a medida que la red se hace cada vez más fina, y se aproxima a un continuo, este análogo converge a un objeto matemático bien definido. Algunas propiedades necesarias de las matemáticas pueden inferirse por intuición física, y si estas propiedades pudieran establecerse rigurosamente sería posible demostrar que existe una adecuada teoría de Yang-Mills cuántica. La hipótesis del hueco de masas implica una comprensión más detallada de cómo las teorías reticulares se aproximan a esta hipotética teoría de Yang-Mills. Por lo tanto, la existencia de la teoría, y la hipótesis del hueco de masas, están estrechamente entretejidas.

En eso es en donde todos están atascados. En 2004 Michael Douglas escribió un informe sobre el estatus del problema, y dijo: «Hasta donde yo sé, no se ha hecho ningún avance importante sobre este problema en los últimos años. En particular, aunque se han hecho progresos en teorías de campos en dimensiones menores, no conozco ningún progreso importante hacia una construcción matemáticamente rigurosa de la teoría de Yang-Mills cuántica». Esta evaluación sigue pareciendo correcta.

Sin embargo, se han hecho progresos más impresionantes en algunos problemas relacionados que pueden arrojar luz útil. Teorías cuánticas de campos especiales, conocidas como modelos sigma bidimensionales, son más tratables, y la hipótesis del hueco de masas ha sido establecida para uno de estos modelos. Las teorías cuánticas de campos supersimétricas, que incluyen hipotéticas supercompañeras de las partículas fundamentales habituales, tienen propiedades matemáticas agradables que, en efecto, eliminan la necesidad de renormalización. Físicos como Edward Witten han estado haciendo progresos hacia la solución de cuestiones relacionadas en el caso supersimétrico. Hay esperanzas de que algunos de los métodos que surgen de este trabajo pudieran sugerir nuevas maneras de abordar el problema original. Pero cualesquiera que puedan ser las implicaciones físicas, y cualquiera que sea el estatus final de la hipótesis del hueco de masas, muchos de estos desarrollos ya han enriquecido las matemáticas con nuevos conceptos y nuevas herramientas importantes.