1

El mundo según Feynman

Sin duda, nunca sabremos el nombre del primer cosmólogo que miró al cielo y preguntó: «¿Qué es todo esto?, ¿cómo llegó aquí?, ¿qué estoy haciendo yo aquí?». Lo que sí sabemos es que sucedió en el pasado prehistórico, probablemente en África. Las primeras cosmologías o mitos de creación no se parecían en nada a la cosmología científica de hoy, pero nacieron de la misma curiosidad humana. No es sorprendente que dichos mitos trataran de la tierra, el agua, el cielo y las criaturas vivas. Y, por supuesto, tenían como protagonista al creador sobrenatural: ¿cómo explicar de otra forma la existencia de criaturas tan complejas y complicadas como los seres humanos, por no mencionar la lluvia, el Sol, los animales y las plantas que parecían estar colocados sobre la Tierra sólo para nuestro beneficio?

La idea de que leyes precisas de la Naturaleza gobiernan los mundos celeste y terrestre se remonta a Isaac Newton. Antes de Newton no había ningún concepto de leyes universales que se aplicaran a objetos astronómicos como los planetas y también a los objetos terrestres ordinarios como la lluvia que cae y las flechas que vuelan. Las leyes de movimiento de Newton fueron el primer ejemplo de tales leyes universales. Pero incluso para el poderoso sir Isaac era un salto muy grande suponer que las mismas leyes llevaban a la creación de seres humanos: él dedicó más tiempo a la teología que a la física.

Yo no soy historiador, pero aventuraré una opinión: la cosmología moderna empezó realmente con Darwin y Wallace[8]. A diferencia de cualquiera que lo hubiera intentado antes, ellos ofrecieron explicaciones de nuestra existencia que descartaban por completo a agentes sobrenaturales. Dos leyes naturales subyacen a la evolución darwiniana. La primera es que el copiado de información nunca es perfecto. Incluso los mejores mecanismos de reproducción cometen pequeños errores de vez en cuando. La replicación del ADN no es una excepción. Aunque iba a pasar un siglo antes de que Watson y Crick descubrieran la doble hélice, Darwin entendió intuitivamente que las mutaciones aleatorias acumuladas constituyen el motor que impulsa la evolución. La mayoría de las mutaciones son malas, pero Darwin sabía suficiente probabilidad como para intuir que de cuando en cuando, por puro azar, ocurre una mutación beneficiosa.

El segundo pilar de la teoría intuitiva de Darwin era un principio de rivalidad: el ganador consigue reproducirse. Los mejores genes prosperan; los genes inferiores llegan a una vía muerta. Estas dos sencillas ideas explicaban cómo podía formarse vida compleja e incluso inteligente sin ninguna intervención sobrenatural. En el mundo actual de los virus informáticos y los gusanos de internet es fácil imaginar principios similares que se aplican a objetos completamente inanimados. Una vez eliminada la magia del origen de las criaturas vivientes, estaba el camino abierto para una explicación puramente científica de la creación.

Darwin y Wallace fijaron un canon no sólo para las ciencias de la vida, sino para la cosmología. Las leyes que gobiernan el nacimiento y la evolución del universo deben ser las mismas leyes que gobiernan la caída de las piedras, la química y la física nuclear de los elementos y la física de las partículas elementales. Nos liberaron de lo sobrenatural mostrando que la vida compleja e incluso inteligente podía surgir del azar, la rivalidad y las causas naturales. Los cosmólogos también tendrían que hacerlo: la base de la cosmología tendría que sustentarse en reglas impersonales que son las mismas en todo el universo y cuyo origen no tiene nada que ver con nuestra propia existencia. El único dios permitido para los cosmólogos sería el «relojero ciego» de Richard Dawkins[9].

El paradigma cosmológico moderno no es muy antiguo. Cuando yo era un joven estudiante graduado en la Universidad de Cornell, a principios de los años sesenta, la teoría del big bang del universo aún competía ardientemente con otro contendiente serio. La teoría del estado estacionario era, en cierto sentido, el contrario lógico del big bang. Si el big bang decía que el universo empezó en algún instante, el estado estacionario decía que había existido siempre. La teoría del estado estacionario era creación de tres de los más famosos cosmólogos del mundo —Fred Hoyle, Herman Bondi y Thomas Gold— que pensaban que la creación explosiva del universo hace unos diez mil millones de años era una posibilidad demasiado improbable. Gold era profesor en Cornell y tenía su despacho a unas pocas puertas del mío. En esa época él no dejaba de predicar la virtud de un universo infinitamente viejo (y también infinitamente grande). Yo apenas lo conocía lo suficiente como para decirle buenos días, pero un día, de forma muy poco usual, él se sentó a tomar café con algunos estudiantes licenciados y yo pude preguntarle algo que me estaba preocupando: «Si el universo es eternamente inmutable, ¿cómo es que las galaxias se están alejando todas unas de otras?, ¿no significa eso que en el pasado estaban más juntas?». La explicación de Gold era simple: «Las galaxias se están alejando realmente, pero a medida que se separan se crea nueva materia para llenar el espacio entre ellas». Era una respuesta inteligente, pero no tenía sentido matemático. En menos de un año o dos, el universo en estado estacionario había dejado lugar al big bang, y pronto fue olvidado. El victorioso paradigma del big bang afirmaba que el universo en expansión tenía sólo unos diez mil millones de años de edad y un tamaño aproximado diez mil millones de años luz[10]. Pero una cosa que compartían ambas teorías era una creencia en que el universo es homogéneo, lo que significa que es igual en todas partes: gobernado en todo lugar por las mismas leyes de la física universales. Además, estas leyes de la física son las mismas que descubrimos en laboratorios terrestres.

Durante los últimos cuarenta años ha sido muy excitante observar cómo la cosmología experimental maduraba desde un arte tosco y cualitativo a una ciencia muy precisa y cuantitativa. Pero sólo recientemente el marco básico de la teoría del big bang de George Gamow ha empezado a dar una idea más poderosa. En el alba del nuevo siglo, nos encontramos ante una situación decisiva que probablemente cambie para siempre nuestra comprensión del universo. Algo está sucediendo que va mucho más allá que el descubrimiento de nuevos hechos o nuevas ecuaciones. Nuestra perspectiva y nuestro marco global de pensamiento, la epistemología entera de la física y la cosmología, están sufriendo un vuelco. El estrecho paradigma del siglo XX de un único universo de unos diez mil millones de años de edad y diez mil millones de años luz de diámetro con un único conjunto de leyes físicas está dando paso a algo mucho más grande y henchido de nuevas posibilidades. Poco a poco, cosmólogos y físicos como yo mismo estamos llegando a ver nuestros diez mil millones de años luz como un bolsillo infinitesimal de un fabuloso megaverso[11]. Al mismo tiempo, los físicos teóricos están proponiendo teorías que relegan a nuestras leyes de la Naturaleza ordinarias a un oscuro rincón de un gigantesco paisaje de posibilidades matemáticas.

La palabra paisaje, en el contexto actual, tiene menos de tres años, pero desde que la introduje en 2003 se ha convertido en un término del vocabulario cosmológico. Denota un espacio matemático que representa todos los ambientes posibles que permite la teoría. Cada ambiente posible tiene sus propias leyes de la física, sus propias partículas elementales y sus propias constantes de la Naturaleza. Algunos ambientes son similares al nuestro aunque ligeramente diferentes. Por ejemplo, pueden tener electrones, quarks y todas las partículas normales pero con una gravedad mil millones de veces más fuerte que la nuestra. Otros tienen una gravedad como la nuestra pero contienen electrones que son más pesados que los núcleos atómicos[12]. Y otros pueden parecerse a nuestro mundo excepto en una violenta fuerza repulsiva (llamada constante cosmológica) que desgarra galaxias, moléculas e incluso átomos. Ni siquiera las tres dimensiones del espacio son sagradas; algunas regiones del paisaje describen mundos de cuatro, cinco, seis e incluso más dimensiones.

Según las teorías cosmológicas modernas, la diversidad del paisaje corre paralela a una correspondiente diversidad en el espacio ordinario. La cosmología inflacionaria, que es nuestra mejor teoría del universo, nos está llevando, a veces inconscientemente, al concepto de un megaverso lleno de un número prodigioso de lo que Alan Guth llama «universos de bolsillo». Algunos bolsillos son microscópicamente pequeños y nunca crecen. Otros son grandes como el nuestro pero están totalmente vacíos. Y cada uno de ellos yace en su propio pequeño valle del paisaje. La vieja pregunta del siglo XX, «¿Qué se puede encontrar en el universo?», está dando paso a «¿Qué no se puede encontrar?».

El lugar del hombre en el universo también ésta siendo examinado y desafiado. Es muy probable que un megaverso de tal diversidad sólo soporte vida inteligente en una minúscula fracción de su extensión. Según este punto de vista, muchas preguntas como «¿Por qué cierta constante de la Naturaleza tiene un valor en lugar de otro?» tendrán respuestas que son completamente diferentes de lo que los físicos habían esperado. Ningún valor único será escogido por consistencia matemática, puesto que el paisaje permite una enorme diversidad de valores posibles. En su lugar, la respuesta será: «En algún lugar en el megaverso la constante tiene este valor; en algún otro lugar tiene ese otro valor. Vivimos en un minúsculo bolsillo donde el valor de la constante es compatible con nuestro tipo de vida. ¡Ya está! ¡Eso es todo! No hay otra respuesta a la pregunta».

Hay muchas coincidencias en las leyes y las constantes de la Naturaleza que no tienen otra explicación que ésta: «Si fueran de otro modo, no podría existir vida inteligente». Para algunos parece que las leyes de la física se hubieran escogido, al menos en parte, para permitir nuestra existencia. Llamada principio antrópico, esta idea es odiada por la mayoría de los físicos, como señalé en mi introducción. Para algunos huele a mitos de creación, religión o diseño inteligente sobrenatural. Otros piensan que supone rendirse, abandonar la noble búsqueda de respuestas racionales. Pero debido a nuevos desarrollos sin precedentes en física, astronomía y cosmología, estos mismos físicos se están viendo obligados a volver a considerar sus prejuicios. Hay cuatro desarrollos principales que impulsan este cambio de marea: dos proceden de la física teórica y dos de la astronomía observacional. En el lado teórico, un producto de la teoría inflacionaria llamado «inflación eterna» está exigiendo que el mundo sea un megaverso, lleno de universos de bolsillo que han burbujeado en el espacio en inflación, como las burbujas en una botella de champán descorchada. Al mismo tiempo, la teoría de cuerdas está produciendo un paisaje de enorme diversidad. Las mejores estimaciones dicen que son posibles 10500 tipos distintos de ambientes. Decir que este número (un uno seguido de quinientos ceros) es «inimaginablemente grande» es quedarse corto, pero quizá no sea siquiera tan grande como para poder contar las posibilidades.

Descubrimientos astronómicos muy recientes acompañan en paralelo a los avances teóricos. Los últimos datos astronómicos sobre el tamaño y la forma del universo confirman que el universo se «infla» exponencialmente hasta un tamaño enorme, mucho más grande que los diez o quince mil millones de años luz estándar. Hay pocas dudas de que estamos inmersos en un megaverso inmensamente mayor. Pero la noticia más importante es que en nuestro bolsillo de espacio, la infame constante cosmológica (un término matemático que Einstein introdujo originalmente en sus ecuaciones y más tarde rechazó indignado) no es exactamente cero como se pensaba que era. Este descubrimiento, más que cualquier otro, es el que ha hecho encallar el barco. La constante cosmológica representa una repulsión gravitatoria extra, una especie de antigravedad que se creía absolutamente ausente del mundo real. El hecho de que no esté ausente supone un cataclismo para los físicos, así que la única forma que sabemos de darle sentido es a través del vilipendiado y menospreciado principio antrópico.

Yo no sé qué extraños e inimaginables giros experimentará nuestra visión del universo al explorar la inmensidad de este paisaje. Pero apostaría a que al comienzo del siglo XXI, filósofos y físicos verán el presente como una época en la que el concepto del universo del siglo XX dio paso a un megaverso que puebla un paisaje de proporciones desconcertantes.

La Naturaleza está nerviosa

«Quien no esté conmocionado por la teoría cuántica es que no la ha entendido».

NIELS BOHR.

La idea de que las leyes de la física pueden cambiar de un lugar a otro del universo tiene tan poco sentido como la idea de que puede haber más de un universo. El universo es todo lo que hay; quizá sea el único sustantivo que en buena lógica no debería tener plural. Las leyes que gobiernan el conjunto del universo no pueden cambiar, pues ¿qué leyes gobernarían estos cambios? ¿No son también parte de las leyes de la física?

Pero por las leyes de la física yo entiendo algo mucho más modesto que las grandes y supremas leyes que regulan todos los aspectos del megaverso. Entiendo lo que un físico ordinario del siglo XX, un físico más interesado en el laboratorio que en el universo, habría entendido: las leyes que gobiernan los bloques constituyentes de la materia ordinaria.

Este libro trata de estas leyes de la física, no de cuáles son sino por qué son. Pero antes de que podamos discutir el porqué, necesitamos saber el qué. ¿Cuáles son exactamente estas leyes? ¿Qué nos dicen y cómo se expresan? La tarea de este primer capítulo es mostrarle rápidamente las leyes de la física tal como se entendían hacia el año 2000.

Para Isaac Newton y sus seguidores, el mundo físico era una máquina determinista precisa cuyo pasado determinaba su futuro «tan seguro como la noche sigue al día». Las leyes de la Naturaleza eran reglas (ecuaciones) que expresaban este determinismo en un lenguaje matemático preciso. Por ejemplo, una ley podría determinar cómo se mueven los objetos a lo largo de trayectorias precisas dados sus puntos de partida iniciales (incluyendo sus velocidades). El gran físico y matemático francés del siglo XVIII Pierre-Simon de Laplace lo expresaba de esta manera:

Podemos considerar el estado presente del universo como efecto de su pasado y causa de su futuro. Una inteligencia que, en un momento determinado, conociera todas las fuerzas que animan la Naturaleza, así como la situación de todos los cuerpos que la componen, y fuera suficientemente poderosa como para someter todos esos datos al análisis matemático, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría inseguro y tanto el futuro como el pasado estarían presentes ante sus ojos.

Por si la traducción del francés no queda clara, Laplace estaba diciendo que si, en algún instante, usted (algún superintelecto) conociera la posición y velocidad de cada partícula en el universo, podría predecir el futuro exacto del mundo. Esta visión ultradeterminista de la Naturaleza era el paradigma dominante hasta que, a comienzos del siglo XX, llegó ese subversivo pensador Albert Einstein y lo cambió todo. Aunque Einstein es más famoso por la teoría de la relatividad, su jugada más atrevida y más radical —su jugada más subversiva— tuvo que ver con el extraño mundo de la mecánica cuántica, no con la teoría de la relatividad. Desde entonces los físicos han entendido que las leyes de la física son leyes cuánticas. Por esta razón he decidido empezar este primer capítulo con un breve curso sobre «pensar mecano-cuánticamente».

Usted está a punto de entrar en el extraño mundo de Alicia en el País de las Maravillas de la física moderna, donde nada es lo que parece, todo fluctúa y brilla, y la incertidumbre es la reina suprema. Olvide el predecible universo mecánico de la física newtoniana. El mundo de la mecánica cuántica es cualquier cosa menos predecible. Las revoluciones de principios del siglo XX en física no fueron «revoluciones de terciopelo». No sólo cambiaron las ecuaciones y leyes de la física sino que destruyeron los fundamentos epistemológicos de gran parte de la ciencia y la filosofía clásicas. Muchos físicos fueron incapaces de manejarse con las nuevas formas de referirse a los fenómenos y se quedaron rezagados. Pero una joven generación más flexible quedó encantada con las extrañas ideas modernas y desarrolló nuevas intuiciones y poderes de visualización. Tan completo fue el cambio que muchos físicos teóricos de mi generación encontraron más fácil pensar mecanocuántica o relativísticamente que hacerlo a las viejas maneras clásicas.

La mecánica cuántica supuso la mayor conmoción. En el nivel cuántico, el mundo es un lugar agitado y fluctuante de probabilidades e incertidumbre. Pero los tambaleos del electrón no se parecen a los de un marinero bebido. Hay una pauta más sutil para la aleatoriedad que se describe mejor en el simbolismo arcano de la matemática abstracta. Sin embargo, con un poco de esfuerzo por mi parte y cierta paciencia por la suya, las cosas más importantes pueden traducirse a un lenguaje común.

Desde el siglo XIX los físicos han utilizado la metáfora de una mesa de billar para representar el mundo físico de las partículas que interaccionan y colisionan. James Clerk Maxwell utilizó la analogía; también lo hizo Ludwig Boltzmann. Ahora está siendo utilizada por montones de físicos para explicar el mundo cuántico. La primera vez que yo la oí utilizada fue de boca de Richard Feynman, que explicaba las cosas de esta manera:

Imaginemos una mesa de billar construida de forma tan perfecta que no tiene ninguna fricción. Las bolas y los bordes de la mesa son tan elásticos que cuando quiera que ocurre una colisión las bolas rebotan sin perder energía cinética. Eliminemos también las troneras de modo que, una vez que las bolas están en movimiento, continuarán moviéndose para siempre, rebotando en los bordes y siguiendo su curso. El juego empieza con quince bolas dispuestas en un triángulo como una versión bidimensional de una pila de balas de cañón. La bola jugadora es impulsada por el taco hacia el grupo.

Lo que sucede a continuación es demasiado complicado e impredecible de seguir, pero ¿por qué es tan impredecible? Lo es porque cada colisión amplifica las diferencias minúsculas en las posiciones y velocidades iniciales de las bolas, de modo que incluso la más minúscula desviación conduce al final a un resultado completamente diferente. [Este tipo de ultrasensibilidad a las condiciones iniciales se denomina caos y es una característica omnipresente en la Naturaleza]. Tratar de reproducir una partida de billar no es como reproducir una partida de ajedrez. Se necesitaría una precisión casi infinita. De todas formas, en la física clásica, las partículas se mueven a lo largo de trayectorias precisas y el movimiento es completamente predecible con tal de que conozcamos las posiciones y velocidades iniciales con infinita precisión. Por supuesto, cuanto más a largo plazo queramos predecir el movimiento, con más precisión necesitamos conocer los datos iniciales. Pero no hay ningún límite a la precisión de dichos datos ni ningún límite a nuestra capacidad de predecir el futuro a partir del pasado.

Por el contrario, el juego de billar cuántico es impredecible por mucho que los jugadores se esfuercen por hacerlo preciso. Por muy grande que fuera la precisión, no se conseguiría otra cosa que predicciones estadísticas de resultados. El jugador de billar clásico podía recurrir a la estadística precisamente porque los datos iniciales se conocían imperfectamente o porque podría ser demasiado difícil resolver las ecuaciones de movimiento. Pero el jugador cuántico no tiene elección. Las leyes de la mecánica cuántica tienen un elemento intrínsecamente aleatorio que nunca puede ser eliminado. ¿Por qué no, por qué no podemos predecir el futuro a partir del conocimiento de las posiciones y velocidades iniciales? La respuesta es el famoso principio de incertidumbre de Heisenberg.

El principio de incertidumbre describe una limitación fundamental a la precisión con que podemos determinar simultáneamente las posiciones y las velocidades. Es la trampa-22 definitiva. Si mejoramos nuestro conocimiento de la posición de una bola en un intento de mejorar nuestras predicciones, inevitablemente perdemos precisión acerca de dónde estará la bola en el siguiente instante. El principio de incertidumbre no sólo es un hecho cualitativo sobre el comportamiento de los objetos. Tiene una formulación cuantitativa muy precisa: el producto de la incertidumbre en la posición de un objeto y la incertidumbre de su momento[13] es siempre mayor que un cierto número (muy pequeño) llamado constante de Planck[14]. Heisenberg y otros después de él trataron de idear maneras de superar el principio de incertidumbre. Los ejemplos de Heisenberg trataban con electrones, pero él podría haber utilizado igualmente bolas de billar. Lancemos un haz de luz sobre una bola de billar cuántica. La luz que se refleja en la bola puede concentrarse en una película fotográfica y, a partir de la imagen, puede deducirse la localización de la bola, pero ¿qué pasa con la velocidad de la bola: cómo puede medirse? La manera más simple y directa sería hacer una segunda medida de la posición muy poco después. Sabiendo la posición en dos instantes sucesivos, es fácil determinar la velocidad.

¿Por qué no es posible un experimento de este tipo? La respuesta se remonta a uno de los más grandes descubrimientos de Einstein. Newton había creído que la luz consistía en partículas, pero a principios del siglo XX la teoría corpuscular de la luz estaba completamente desacreditada. Muchos efectos ópticos como la interferencia sólo podían explicarse suponiendo que la luz es un fenómeno ondulatorio similar a los rizos en la superficie del agua. A mediados del siglo XIX James Clerk Maxwell había creado una teoría muy satisfactoria que imaginaba la luz como ondas electromagnéticas que se propagan a través del espacio de una forma muy parecida a como las ondas sonoras se propagan en el aire. Por ello, hubo una conmoción radical cuando, en 1905, Albert Einstein propuso que la luz (y cualquier otra radiación electromagnética) está hecha de pequeños balines llamados cuantos o fotones[15]. De una nueva y extraña manera, Einstein estaba proponiendo que la luz tenía todas las viejas propiedades ondulatorias —longitud de onda, frecuencia, etcétera— pero también una granulación, como si estuviera compuesta de trocitos discretos. Estos cuantos son paquetes de energía que no pueden subdividirse, lo que crea ciertas limitaciones cuando uno intenta formar imágenes exactas de objetos pequeños.

Empecemos con la determinación de la posición. Para obtener una imagen precisa de la bola, la longitud de onda de la luz no debe ser demasiado larga. La regla es sencilla: si uno quiere localizar un objeto con una precisión dada, debe utilizar ondas cuyas longitudes de onda no sean mayores que el error admisible. Todas las imágenes son borrosas en alguna medida, así que limitar la borrosidad significa utilizar longitudes de onda cortas. Esto no es problema en física clásica, donde la energía de un haz luminoso puede ser arbitrariamente pequeña. Pero como Einstein afirmaba, la luz está hecha de fotones indivisibles. Además, como veremos después, cuanto más corta es la longitud de onda de un rayo de luz, mayor es la energía de dichos fotones.

Lo que todo esto significa es que obtener una imagen precisa que localice exactamente la bola requiere que se incida en ésta con fotones de alta energía. Pero esto limita seriamente la precisión de medidas de velocidad posteriores. El problema es que un fotón de alta energía colisionará con la bola de billar y le dará un golpe brusco, cambiando así la misma velocidad que pretendíamos medir. Éste es un ejemplo de frustración al tratar de determinar a la vez la posición y la velocidad con precisión infinita.

La relación entre la longitud de onda de la radiación electromagnética y la energía de los fotones —cuanto menor es la longitud de onda, mayor es la energía— fue uno de los descubrimientos más importantes de Einstein en 1905. En orden de longitudes de onda crecientes, el espectro electromagnético consiste en rayos gamma, rayos X, luz ultravioleta, luz visible, luz infrarroja, microondas y ondas de radio. Las ondas de radio tienen la longitud de onda más larga, desde metros hasta dimensiones cósmicas. Son una mala elección para obtener imágenes precisas de objetos corrientes porque las imágenes no serán más precisas que la longitud de onda. En una imagen de radio un ser humano sería indistinguible de un saco de lavandería. De hecho, sería imposible distinguir a una persona de dos, a menos que la separación entre ellas fuera mayor que la longitud de onda de la onda de radio. Todas las imágenes serían bolas borrosas. Esto no significa que las ondas de radio no sean nunca útiles para hacer imágenes: simplemente no son buenas para obtener imágenes de objetos pequeños. La radioastronomía es un método muy potente para estudiar grandes objetos astronómicos. Por el contrario, los rayos gamma son mejores para obtener información sobre cosas realmente pequeñas tales como núcleos. Tienen las longitudes de onda más pequeñas, mucho más pequeñas que el tamaño de un solo átomo.

Por otra parte, la energía de un fotón aumenta cuando decrece la longitud de onda. Los fotones de radio individuales son demasiado débiles para ser detectados. Los fotones de luz visible son más energéticos: basta un fotón visible para romper una molécula. Para un ojo que se ha habituado a la oscuridad, un solo fotón de luz de longitud de onda visible es suficiente para activar un bastón de la retina. Los fotones ultravioleta y de rayos X tienen bastante energía para expulsar fácilmente a los electrones de los átomos, y los rayos gamma no sólo pueden romper núcleos, sino incluso protones y neutrones.

Esta relación inversa entre longitud de onda y energía explica una de las tendencias generales en la física del siglo XX: la búsqueda de aceleradores cada vez más grandes. Los físicos, en sus intentos de descubrir los constituyentes más pequeños de la materia (moléculas, átomos, núcleos, quarks, etcétera), se vieron llevados de forma natural a longitudes de onda cada vez más pequeñas para obtener imágenes claras de dichos objetos. Pero longitudes de onda más pequeñas significan inevitablemente cuantos de energía más alta. Para crear tales cuantos de alta energía, había que acelerar las partículas hasta energías cinéticas enormes. Por ejemplo, los electrones pueden ser acelerados hasta energías enormes, pero sólo por máquinas de tamaño y potencia crecientes. El Centro del Acelerador Lineal de Standford (SLAC), cerca de donde yo vivo, puede acelerar electrones a energías de doscientas mil veces su masa, pero esto requiere una máquina de más de tres kilómetros de longitud. SLAC es esencialmente un microscopio de tres kilómetros que puede resolver objetos mil veces más pequeños que un protón.

A lo largo del siglo XX se hicieron descubrimientos insospechados a medida que los físicos sondaban distancias cada vez menores. Una de las más espectaculares fue que protones y neutrones no son en absoluto partículas elementales. Al golpearlas con partículas de alta energía se hizo posible discernir los componentes minúsculos —quarks— que constituían el protón y el neutrón. Pero incluso con las sondas de más alta energía (más corta longitud de onda), el electrón, el fotón y el quark siguen siendo, hasta donde podemos decir, objetos puntuales. Esto significa que somos incapaces de detectar en ellos cualquier estructura, tamaño o partes internas. Pueden ser puntos infinitamente pequeños de espacio.

Volvamos al principio de incertidumbre de Heisenberg y sus implicaciones. Imaginemos una única bola en la mesa de billar. Puesto que la bola está confinada en la mesa por los bordes, sabemos automáticamente algo sobre su posición en el espacio: la incertidumbre de la posición no es mayor que las dimensiones de la mesa. Cuanto más pequeña es la mesa, con más exactitud conocemos la posición y, por tanto, menos seguros podemos estar del momento. Así pues, si midiéramos la velocidad de la bola confinada en la mesa, sería algo aleatorio y fluctuante. Incluso si eliminásemos tanta energía cinética como fuera posible, este movimiento de fluctuación residual no podría ser eliminado. Brian Greene ha utilizado el término agitaciones cuánticas para describir este movimiento, y yo le seguiré[16]. La energía cinética asociada con las agitaciones cuánticas se denomina energía de punto cero y no puede eliminarse.

Las agitaciones cuánticas que implica el principio de incertidumbre tienen una consecuencia interesante para la materia corriente cuando tratamos de enfriarla a temperatura cero. El calor es, por supuesto, la energía del movimiento molecular aleatorio. En física clásica, cuando se enfría un sistema las moléculas acaban llegando al reposo a la temperatura del cero absoluto. Resultado: en el cero absoluto, toda la energía cinética de la molécula queda eliminada.

Pero cada molécula en un sólido tiene una localización bastante bien definida. Está mantenida en su lugar, no por los bordes de la mesa de billar, sino por las demás moléculas. El resultado es que las moléculas tienen necesariamente una velocidad fluctuante. En un material real sujeto a las leyes de la mecánica cuántica, la energía cinética molecular nunca puede ser totalmente eliminada, ni siquiera en el cero absoluto.

Posición y velocidad no son ni mucho menos las únicas magnitudes para las que hay un principio de incertidumbre. Hay muchos pares de las denominadas magnitudes conjugadas que no pueden ser determinadas simultáneamente: cuanto más se fija una, más fluctúa la otra. Un ejemplo muy importante es el principio de incertidumbre energía-tiempo: es imposible determinar a la vez el momento exacto en que tiene lugar un suceso y la energía exacta de los objetos que están involucrados. Supongamos que un físico experimental quisiera hacer colisionar dos partículas en un instante de tiempo concreto. El principio de incertidumbre energía-tiempo limita la precisión con la que puede controlar la energía de las partículas y también el instante en el que ambas chocarán. Controlar la energía con precisión creciente lleva inevitablemente a aumentar la aleatoriedad en el tiempo de colisión y viceversa.

Otro ejemplo importante al que llegaremos en el capítulo 2 implica a los campos eléctrico y magnético en un punto del espacio. Estos campos, que desempeñarán un papel clave en capítulos posteriores, son influencias invisibles que llenan el espacio y controlan las fuerzas sobre las partículas eléctricamente cargadas. Los campos eléctrico y magnético, como sucede con la posición y la velocidad, no pueden determinarse simultáneamente. Si se conoce uno, el otro es necesariamente incierto. Por esta razón, los campos están en un estado continuo de fluctuación temblorosa que no puede ser eliminada. Y, como cabría esperar, esto conduce a una cierta cantidad de energía, incluso en el espacio absolutamente vacío. Esta energía del vacío ha llevado a una de las máximas paradojas de la física y la cosmología modernas. Volveremos a ella muchas veces y empezaremos en el próximo capítulo.

La incertidumbre y las agitaciones no son todo. La mecánica cuántica tiene otro lado: el lado cuántico. La palabra cuántico implica un cierto grado de separación o granulación en la Naturaleza. Los fotones, las unidades de energía que comprenden las ondas luminosas, son sólo un ejemplo de cuantos. La radiación electromagnética es un fenómeno oscilatorio; en otras palabras, es una vibración. Un niño en un columpio, un muelle oscilante, una cuerda de violín pulsada, una onda sonora: todos son también fenómenos oscilatorios, y todos comparten la propiedad de separación. En cada caso la energía se da en unidades cuánticas separadas que no pueden subdividirse. En el mundo macroscópico de muelles y péndulos, la unidad cuántica de energía es tan pequeña que nos parece que la energía puede ser cualquiera. Pero, de hecho, la energía de una oscilación se da en unidades indivisibles cuyo tamaño es igual al producto de la frecuencia de la oscilación (número de oscilaciones por segundo) por la diminuta constante de Planck.

Los electrones en un átomo, cuando giran alrededor del núcleo, también oscilan. En este caso, la cuantización de la energía se describe imaginando órbitas discretas. Niels Bohr, el padre del átomo cuantizado, imaginó que los electrones orbitaban como si estuvieran restringidos a moverse en calles separadas en una pista de carreras. La energía de un electrón está determinada por la calle que ocupa.

El comportamiento agitado y la separación son bastante extraños, pero lo que mejor resume la extrañeza del mundo cuántico es la «interferencia». El famoso «experimento de la doble rendija» ilustra este extraordinario fenómeno. Imaginemos una minúscula fuente de luz —una intensa bombilla en miniatura— en una habitación por lo demás oscura. Un láser también servirá. A cierta distancia se ha colocado una película fotográfica. Cuando la luz procedente de la bombilla incide en la película, la ennegrece de la misma manera en que se produce un «negativo» fotográfico corriente. Obviamente, si entre la fuente y la película se coloca un obstáculo opaco como una lámina de metal, la película estará protegida y no se ennegrecerá. Pero cortemos ahora dos rendijas verticales paralelas en la lámina metálica de modo que la luz pueda atravesarlas y llegar a la película. Nuestro primer experimento es muy simple: bloquear una rendija —por ejemplo, la izquierda— y encender la fuente.

Al cabo de un tiempo adecuado aparecerá una ancha banda horizontal de película ennegrecida: una imagen borrosa de la rendija derecha. A continuación, cerremos la rendija derecha y abramos la izquierda. Aparecerá una segunda banda ancha, que se solapa parcialmente con la primera.

Empecemos ahora con una película nueva que no ha sido expuesta, pero esta vez abrimos ambas rendijas. Si usted no sabe por adelantado lo que hay que esperar, el resultado puede sorprenderle. La figura no es en absoluto la suma de las dos zonas ennegrecidas anteriores. En su lugar, encontramos una serie de bandas estrechas oscuras y brillantes, como las rayas de una cebra, que reemplazan a las dos bandas borrosas. Hay bandas no ennegrecidas donde previamente se solapaban las bandas oscuras originales. De algún modo la luz que atraviesa las rendijas izquierda y derecha queda suspendida en estos lugares. El término técnico es interferencia destructiva y es una propiedad bien conocida de las ondas. Otro ejemplo de ella son los «batidos» que usted oye cuando se tocan dos notas casi idénticas.

De hecho, si usted intenta realizar este experimento en casa, quizá encuentre que no es tan fácil como yo he dado a entender. Dos cosas lo dificultan. La figura de interferencia sólo puede verse si las rendijas son muy estrechas y están muy próximas. No espere tener éxito cortando rendijas con un abrelatas. En segundo lugar, la fuente tiene que ser muy pequeña. La manera antigua y tecnológicamente pobre de hacer una fuente pequeña consistía en hacer pasar la luz a través de un agujero muy pequeño antes de permitir que incida en la lámina con las rendijas. Una manera mucho mejor es utilizar un láser de alta tecnología. Un puntero láser es ideal. La luz láser que atraviesa rendijas hechas con meticulosidad produce excelentes figuras de interferencia tipo cebra. El principal problema para llevar a cabo el experimento sería el mantener constantes las condiciones.

Ahora repetiremos todo el ejercicio óptico, pero esta vez reduciremos la intensidad de la fuente hasta un nivel tan bajo que los fotones salen de uno en uno. Si exponemos la película durante un tiempo corto, aparecen unos pocos puntos ennegrecidos en los lugares donde los fotones individuales aterrizan en la película. Si volvemos a exponerla, de la misma manera, los puntos se harán más densos. Con el tiempo, veremos cómo se reproduce la figura del primer experimento. El experimento confirma, entre otras cosas, la idea de Einstein de que la luz está compuesta de fotones separados. Además, las partículas llegan aleatoriamente y sólo cuando se han acumulado las suficientes vemos que se reproduce una figura.

Pero estos fotones tipo partícula se comportan de un modo muy inesperado. Cuando ambas rendijas están abiertas, ni una sola partícula llega a los lugares donde tiene lugar la interferencia destructiva. Esto sucede pese al hecho de que los fotones llegan a dichos lugares cuando sólo una rendija está abierta. Parece que abrir la rendija izquierda impide que los fotones atraviesen la rendija derecha y viceversa.

Para expresarlo de otro modo, supongamos que el punto X es un punto de la película donde tiene lugar interferencia destructiva. El fotón puede llegar a X si la rendija izquierda está abierta. También puede llegar a X si la rendija derecha está abierta. Una persona razonable esperaría que si ambas estuvieran abiertas, sería todavía más probable que un fotón llegara a X. Pero no es así: ningún fotón aparece en X por mucho que esperemos. ¿Cómo sabe un fotón, que está a punto de atravesar la rendija izquierda, que la rendija derecha está abierta? Los físicos suelen describir este peculiar efecto diciendo que el fotón no atraviesa una u otra de las rendijas, sino que en su lugar «experimenta» las dos trayectorias y que hay puntos en que las contribuciones de ambas trayectorias se anulan mutuamente. Le ayude o no esto a su comprensión, la interferencia es un fenómeno muy extraño. Uno tiene que acostumbrarse a la extrañeza de la mecánica cuántica si trabaja con ella durante cuarenta o más años. Pero basta de reflexionar sobre ello, ¡es extraña!

Partículas elementales

La Naturaleza parece estar organizada de un modo jerárquico: las cosas grandes están hechas de cosas más pequeñas que, a su vez, están hechas de cosas todavía más pequeñas hasta que llegamos a las cosas más pequeñas que somos capaces de descubrir. El mundo diario está lleno de tales jerarquías. Un automóvil no es otra cosa que sus partes: ruedas, motor, carburador y demás. El carburador, a su vez, está formado de partes más pequeñas tales como reguladores de entrada, palancas del estárter, inyectores y muelles. Hasta donde se puede decir, las propiedades de las cosas más pequeñas determinan el comportamiento de las más grandes. Esta visión, según la cual el todo es la suma de sus partes y la Naturaleza puede entenderse reduciéndola a los componentes más simples y más pequeños, se denomina reduccionismo.

El reduccionismo está considerado una palabra sucia en muchos ámbitos académicos. Remueve pasiones casi tan fuertes como las que la evolución excita en ciertos círculos religiosos. La noción de que todo lo que existe no es más que partículas inanimadas despierta las mismas inseguridades que la idea similar de que nosotros los seres humanos somos meros vehículos para nuestros genes egoístas. Pero, guste o no, el reduccionismo funciona. Todo mecánico del automóvil es un reduccionista, al menos durante las horas de trabajo. En ciencia, el poder del reduccionismo es fantástico[17]. Las leyes básicas de la biología están determinadas por la química de las moléculas orgánicas como el ADN, el ARN y las proteínas. Los químicos reducen las propiedades complejas de las moléculas a las de los átomos y es entonces cuando los físicos toman el mando. Los átomos no son otra cosa que colecciones de electrones orbitando en torno a núcleos atómicos. Como aprendemos en los cursos elementales de ciencias, los núcleos están compuestos de protones y neutrones. Éstos, a su vez, están hechos de quarks. ¿Hasta dónde llega esta imagen de «muñeca rusa» de la Naturaleza? ¿Quién sabe? Pero la física del siglo XX ha tenido éxito llevando el reduccionismo hasta el nivel de las denominadas partículas elementales. Por leyes de la física, yo entiendo las leyes de estos hasta ahora bloques constituyentes más pequeños.

Será importante tener una idea clara de cuáles son estas leyes antes de que podamos empezar a preguntar por qué son las leyes.

El lenguaje de la física teórica son las ecuaciones matemáticas. Es difícil para los físicos concebir cualquier forma para una teoría distinta de una ecuación o un pequeño conjunto de ecuaciones. Las ecuaciones de Newton, las ecuaciones de Maxwell, las ecuaciones de Einstein y la ecuación de Erwin Schrödinger son algunos de los ejemplos más importantes. El marco matemático para la física de partículas elementales se denomina teoría cuántica de campos. Es un tema matemático difícil cargado de ecuaciones muy abstractas. De hecho, las ecuaciones de la teoría cuántica de campos son tan complicadas que uno puede tener la sensación de que las ecuaciones no son realmente la manera correcta de expresar la teoría. Afortunadamente para nosotros, el gran Richard Feynman tenía exactamente esa sensación. Por ello ideó una forma gráfica de visualizar las ecuaciones. La manera de pensar de Feynman es tan intuitiva que las ideas principales pueden resumirse sin una sola ecuación.

Dick Feynman era un genio de la visualización (tampoco era manco con las ecuaciones): hizo una imagen mental de algo en lo que estaba trabajando. Mientras otros llenaban pizarras con fórmulas para expresar las leyes de las partículas elementales, él simplemente dibujaría una imagen e imaginaría la respuesta. Era un mago, un showman, y un fanfarrón, pero su magia proporcionó la manera más simple e intuitiva de formular las leyes de la física. Los diagramas de Feynman son literalmente imágenes de los sucesos que tienen lugar cuando las partículas elementales se mueven en el espacio, colisionan e interaccionan. Un diagrama de Feynman puede consistir simplemente en unas pocas líneas que describen un par de electrones que colisionan o puede ser una enorme red de trayectorias interconectadas, ramificadas o formando bucles que describen a todas las partículas que constituyen cualquier cosa, desde un cristal de diamante hasta un ser vivo o un cuerpo astronómico. Estos diagramas pueden reducirse a unos pocos elementos básicos que resumen todo lo que se conoce sobre las partículas elementales. Por supuesto, no sólo hay imágenes: también están todos los detalles técnicos de cómo se utilizan para hacer cálculos precisos, pero eso es menos importante. Para nuestros objetivos, una imagen vale por mil ecuaciones.

Electrodinámica cuántica

Una teoría cuántica de campos empieza con un reparto de personajes, a saber, una lista de partículas elementales. Idealmente la lista incluiría todas las partículas elementales, pero eso no es práctico: estamos bastante seguros de que no conocemos la lista completa. Pero no se pierde nada haciendo una lista parcial. Es como una representación teatral: en realidad, cada historia implica a todas las personas en la Tierra, pasadas y presentes, pero ningún autor en su sano juicio trataría de escribir una obra con varios miles de millones de personajes. Para cualquier historia concreta, algunos personajes son más importantes que otros, lo que también es cierto en la física de partículas elementales.

La historia original que Feynman se propuso contar se denomina electrodinámica cuántica, o QED para abreviar, y tiene sólo dos personajes: el electrón y el fotón. Permítame introducirlos.

El electrón

En 1897 el físico británico J. J. Thomson hizo el primer descubrimiento de una partícula elemental. La electricidad ya era bien conocida, pero los experimentos de Thomson fueron los primeros en confirmar que las corrientes eléctricas son reducibles al movimiento de partículas individuales cargadas. Las partículas en movimiento que dan energía a los tostadores, las bombillas y los ordenadores son, por supuesto, los electrones.

En lo que respecta a efectos dramáticos, es difícil batir a los electrones. Cuando un relámpago gigante cruza el cielo, fluyen electrones de una nube electrificada a otra. El rugido del trueno se debe a una onda de choque causada por la colisión de electrones rápidamente acelerados con las moléculas de aire que bloquean sus trayectorias. El relámpago visible consiste en una radiación electromagnética que fue emitida por electrones agitados. Las minúsculas chispas y los ruidos crujientes debidos a la electricidad estática, en un día muy seco, son manifestaciones de la misma física a una escala más pequeña. Incluso la electricidad de nuestras casas es el mismo flujo de electrones, domesticados por cables de cobre que son conductores eléctricos.

Cada electrón tiene exactamente la misma carga eléctrica que cualquier otro electrón. La carga del electrón es un número increíblemente pequeño. Se necesita un número enorme de electrones —unos 1018 por segundo— para crear una corriente eléctrica normal de un amperio. Hay una característica singular en la carga del electrón que ha intrigado y preocupado a generaciones de estudiantes de física: la carga del electrón es negativa. ¿Por qué es así? ¿Hay algo intrínsecamente negativo en el electrón? De hecho, la negatividad de la carga electrónica no es una propiedad del electrón, sino más bien una definición. El problema se remonta a Benjamin Franklin[18], quien fue el primer físico en darse cuenta de que la electricidad era un flujo de carga. Franklin, que no sabía nada de los electrones, no tenía ninguna manera de saber que lo que él llamaba corriente positiva era en realidad un flujo de electrones en la dirección opuesta. Por esta razón hemos heredado el confuso convenio de una carga electrónica negativa. Como consecuencia, los profesores de física tenemos que recordar continuamente a los estudiantes que cuando fluye corriente eléctrica hacia la izquierda, los electrones se mueven hacia la derecha. Si esto le desconcierta, échele la culpa a Ben Franklin y luego ignórelo.

Si todos los electrones desparecieran de repente, fallarían muchas más cosas que los tostadores, las bombillas y los computadores. Los electrones desempeñan otro papel muy profundo en la Naturaleza. Toda la materia ordinaria está hecha de átomos, que a su vez están hechos de electrones; cada electrón está girando alrededor del núcleo atómico como una bola en el extremo de una cuerda. Los electrones atómicos determinan las propiedades químicas de todos los elementos listados en la Tabla Periódica. La Electrodinámica Cuántica es más que la teoría de los electrones: es la base para la teoría de toda la materia.

El fotón

Si el electrón es el héroe de la QED, el fotón es el acompañante que hace posible las hazañas del héroe. La luz emitida por un relámpago puede rastrearse hasta llegar a sucesos microscópicos en los que electrones individuales desprenden fotones cuando son acelerados. Todo el argumento de la QED gira en torno a un proceso fundamental: la emisión de un único fotón por un único electrón.

Los fotones también desempeñan un papel indispensable en el átomo. En un sentido que se hará claro, los fotones son las cuerdas que atan los electrones al núcleo. Si los fotones se eliminaran repentinamente de la lista de partículas elementales, todos los átomos se desintegrarían instantáneamente.

El núcleo

Uno de los principales objetivos de la QED era entender las propiedades detalladas de átomos sencillos, especialmente el hidrógeno. ¿Por qué el hidrógeno? El hidrógeno, que tiene sólo un electrón, es tan sencillo que las ecuaciones de la mecánica cuántica pueden resolverse exactamente. Los átomos más complejos con muchos electrones, todos los cuales ejercen fuerzas entre sí, sólo pudieron ser estudiados con la ayuda de potentes ordenadores que no existían cuando se estaba formulando la QED. Pero para estudiar cualquier átomo, debe añadirse otro ingrediente: el núcleo. Los núcleos están hechos de protones cargados positivamente y neutrones eléctricamente neutros. Estas dos partículas son muy similares entre sí, salvo por el hecho de que el neutrón no tiene carga eléctrica. Los físicos agrupan estas dos partículas y les dan un nombre común: nucleón. Un núcleo es esencialmente una gota de nucleones pegados. La estructura de cualquier núcleo, incluso el del hidrógeno, es tan complicada que físicos como Feynman decidieron ignorarla. En su lugar, se concentraron en la física mucho más simple del electrón y el fotón. Pero ellos no podían prescindir por completo del núcleo. Por ello lo introdujeron, si no como un actor, al menos como un soporte del escenario. Dos razones hacían esto posible.

En primer lugar, el núcleo es mucho más pesado que un electrón. Es tan pesado que está casi inmóvil. No se comete un gran error si se reemplaza al núcleo por un punto inmóvil de carga eléctrica positiva.

En segundo lugar, los núcleos son muy pequeños comparados con los átomos. El electrón órbita alrededor del núcleo a unos cien mil diámetros nucleares y nunca se acerca lo suficiente como para ser afectado por la complicada estructura nuclear interna.

Según la visión reduccionista de la física de partículas, todos los fenómenos de la Naturaleza —sólidos, líquidos, gases y materia viva tanto como inanimada— se reducen a la interacción y colisión constante de electrones, fotones y núcleos. Ésa es la acción y todo el argumento: actores chocando unos con otros, rebotando unos en otros y dando nacimiento aquí y allá a nuevos actores a partir de la colisión. Es este golpeteo de partículas con otras partículas lo que representan los diagramas de Feynman.

Diagramas de Feynman

«Si llegas a una bifurcación en la carretera, tómala».

YOGI BERRA.

Tenemos los actores, tenemos el guión y ahora necesitamos un escenario, Shakespeare decía: «El mundo entero es un escenario», y, como suele suceder, el poeta tenía razón. El escenario para nuestra farsa es el mundo entero: para un físico eso significa todo el espacio tridimensional ordinario. Arriba-abajo, este-oeste y norte-sur son las tres direcciones cerca de la superficie de la Tierra. Pero una dirección escénica implica no sólo dónde tiene lugar una acción, sino también cuándo tiene lugar. Por ello, hay una cuarta dirección en el espacio-tiempo: pasado-futuro. Desde el descubrimiento por Einstein de la teoría de la relatividad especial, los físicos han tenido la costumbre de representar el mundo como un espacio-tiempo tetradimensional que abarca no sólo el ahora, sino también todo el futuro y todo el pasado. Un punto en el espacio-tiempo —un dónde y un cuándo— se denomina suceso.

Puede utilizarse una hoja de papel o una pizarra para representar el espacio— tiempo. Puesto que el papel o la pizarra tienen sólo dos dimensiones, tendremos que trampear un poco. La dirección horizontal en el papel representará las tres direcciones del espacio. Tendremos que forzar nuestra imaginación y suponer que el eje horizontal es realmente tres ejes perpendiculares. Esto nos deja con la dirección vertical para representar el tiempo. El futuro se toma normalmente hacia arriba y el pasado hacia abajo (esto es, por supuesto, tan arbitrario como el hecho de que los mapas coloquen el hemisferio norte por encima del sur). Un punto en la hoja de papel es un suceso, un dónde y un cuándo: un punto en el espacio-tiempo. Éste fue el punto de partida de Feynman: partículas, sucesos y espacio-tiempo.

Nuestro primer diagrama de Feynman muestra la más simple de todas las direcciones de escena: «Electrón, va del punto a al punto b. Para representar esto gráficamente, dibujamos una recta en una hoja de papel desde el suceso a al suceso b. Feynman también pone una pequeña flecha en la recta cuyo propósito se explicará dentro de poco. La recta que conecta a con b se denomina propagador.

El fotón también puede moverse de un punto en el espacio-tiempo a otro. Para representar el movimiento del fotón, Feynman dibuja otra línea o propagador. A veces el propagador del fotón se dibuja como una línea ondulada, y otras veces, como una línea de trazos. Yo utilizaré la línea de trazos.

Los propagadores son más que simples imágenes. Son instrucciones mecanocuánticas para calcular la probabilidad de que una partícula que parte de un punto a se manifieste más tarde en el punto b. Feynman tuvo la idea radical de que una partícula no se mueve meramente a lo largo de una trayectoria particular: de una manera singular explora todas las trayectorias, tanto trayectorias aleatorias en zigzag como trayectorias rectas. Los fotones no atraviesan simplemente la rendija izquierda o la rendija derecha: de algún modo exploran ambas trayectorias y, al hacerlo, crean las sorprendentes figuras de interferencia donde son detectados. Según la teoría de Feynman, todas las trayectorias posibles contribuyen a la probabilidad de que la partícula vaya de a a b. Al final, una expresión matemática concreta que representa todas las posibles trayectorias entre los dos puntos da la probabilidad de ir de a a b. Todo esto está implícito en la noción de propagador.

Nada muy interesante sucedería si todo lo que tuvo lugar alguna vez fuera el movimiento libre de electrones y fotones. Pero ambos toman parte en una acción coordinada que es responsable de todo lo interesante en la Naturaleza. Recordemos lo que sucede cuando los electrones le mueven de una nube a otra durante una tormenta con relámpagos. De repente la noche se hace día. La luz emitida por la corriente eléctrica violenta y repentina ilumina espectacularmente el cielo durante un instante. ¿De dónde procede esa luz? La respuesta remite a los electrones individuales. Cuando el movimiento de un electrón es súbitamente agitado, puede responder desprendiendo un fotón. El proceso, llamado emisión de un fotón, es el suceso básico de la electrodinámica cuántica. De la misma forma que toda la materia está construida de partículas, todos los procesos están construidos de sucesos elementales de emisión y absorción. Así pues, el electrón —mientras se mueve a través del espacio-tiempo— puede súbitamente disparar un único cuanto (o fotón) de luz. Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos X. Por ello, Feynman añadió a la lista de partículas una segunda lista: una lista de sucesos elementales. Esto nos presenta un segundo tipo de diagrama de Feynman.

El diagrama de Feynman que representa el suceso de la emisión de un fotón se denomina un diagrama de vértice. Un diagrama de vértice se parece a la letra Y o, mejor aún, a una carretera que se bifurca: el electrón original llega a la bifurcación y suelta un fotón. Posteriormente, el electrón toma uno de los caminos y el fotón el otro. El punto donde se unen las tres líneas —el suceso que emite el fotón— es el vértice.

He aquí una manera de ver un diagrama de Feynman como un «cortometraje». Tome un cuadrado de cartulina de unos pocos centímetros de lado y corte una rendija larga y estrecha de aproximadamente un milímetro de anchura. Ahora coloque el cuadrado sobre el diagrama de Feynman (primero llene las líneas de trazos) con la rendija orientada en dirección horizontal. Los cortos segmentos que se muestran a través de la rendija representan partículas. Empiece con la rendija en la parte inferior del diagrama. Si ahora mueve la rendija hacia arriba, verá que las partículas se mueven, emiten y absorben otras partículas y hacen todas las cosas que hacen las partículas reales.

El diagrama de vértice puede ponerse al revés (recuerde, el pasado es abajo y el futuro es arriba) de modo que describa a un electrón y un fotón que se aproximan. El fotón es absorbido, dejando solo al electrón.

Antimateria

Feynman tenía un objetivo en mente cuando puso flechas pequeñas en las líneas del electrón. Cada tipo de partícula eléctricamente cargada, tal como el electrón y el protón, tiene una gemela, a saber, su antipartícula. La antipartícula es idéntica a su gemela, con una excepción: tiene la carga eléctrica opuesta. Cuando la materia se encuentra con antimateria, ¡cuidado! Las partículas y las antipartículas se combinarán y desaparecerán (se aniquilarán) pero no sin dejar su energía en forma de fotones.

La antipartícula gemela del electrón se denomina positrón. Parece ser un nuevo añadido a la lista de partículas, pero según Feynman, el positrón no es realmente un objeto nuevo: él lo consideraba un electrón que va hacia atrás en el tiempo. Un propagador de positrón es exactamente igual a un propagador de electrón excepto que la flecha apunta hacia abajo al pasado en lugar de hacia arriba al futuro.

Que usted considere un positrón un electrón que va hacia atrás en el tiempo, o un electrón un positrón que va hacia atrás en el tiempo, es cosa suya.

Es un convenio arbitrario. Pero con esta manera de pensar, puede cambiar el vértice de nuevas maneras. Por ejemplo, usted puede cambiarlo de modo que describa un positrón que emite un fotón.

Puede incluso ponerlo de lado de modo que muestre a un electrón y un positrón que se aniquilan y dejan solamente un fotón,

o un fotón que desaparece y se convierte en un electrón y un positrón.

Feynman combinó estos ingredientes básicos, propagadores y vértices, para hacer procesos más complejos. He aquí uno interesante.

¿Puede usted ver lo que describe? Si utiliza la cartulina con rendija para ver el diagrama, esto es lo que verá: inicialmente, en la parte inferior del diagrama, hay sólo un electrón y un fotón. Sin ningún aviso, el fotón se convierte espontáneamente en un par electrón-positrón. Luego el positrón se mueve hacia el electrón, donde encuentra a su gemelo y ambos se aniquilan, dejando un fotón. Al final hay un único fotón y un único electrón.

Feynman tenía otra manera de considerar tales diagramas. Imaginaba que el electrón incidente se «daba la vuelta en el tiempo» y se movía temporalmente hacia el pasado, para luego dar la vuelta de nuevo hacia el futuro. Las dos maneras de pensar —en términos de positrones y electrones o en términos de electrones moviéndose hacia atrás en el tiempo— son completamente equivalentes. Propagadores y vértices: eso es todo lo que hay en el mundo. Pero estos elementos básicos pueden combinarse de infinitas maneras para describir toda la Naturaleza.

Pero ¿no estamos dejando de lado algo importante? Los objetos en la Naturaleza ejercen fuerzas unos sobre otros. La idea de fuerza es profundamente intuitiva. Es uno de los pocos conceptos de la física que entendemos sin consultar un libro de texto pues la Naturaleza nos ha dotado para ello. Un hombre que empuja una roca está ejerciendo una fuerza. La roca se resiste empujando hacia atrás. La atracción gravitatoria de la Tierra nos impide flotar. Los imanes ejercen fuerzas sobre trozos de hierro. La electricidad estática ejerce fuerzas sobre trozos de papel. Los matones empujan a los enclenques. La idea de fuerza es tan básica en nuestra vida que la evolución se aseguró de que tuviéramos un concepto de fuerza incorporado en nuestros circuitos neuronales. Pero mucho menos intuitivo es el hecho de que todas las fuerzas tienen su origen en la atracción y repulsión entre partículas elementales.

¿Tenía Feynman que añadir a la receta otro conjunto independiente de ingredientes: reglas específicas de fuerzas entre partículas? Él no lo hizo.

Todas las fuerzas de la Naturaleza derivan de diagramas de intercambio especiales, en los que una partícula como un fotón es emitida por una partícula y absorbida por otra. Por ejemplo, la fuerza eléctrica entre electrones procede de un diagrama de Feynman en el que un electrón emite un fotón, que después es absorbido por el otro electrón.

El fotón que salta a través del espacio entre los electrones es el origen de las fuerzas eléctrica y magnética entre ellos. Si los electrones están en reposo, la fuerza es la fuerza electrostática habitual que, como es bien conocido, disminuye con el cuadrado de la distancia entre las cargas[19]. Si los electrones se están moviendo, hay una fuerza magnética adicional. El origen de la fuerza eléctrica y la fuerza magnética es el mismo diagrama de Feynman básico.

Los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protones o incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotones entre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido al átomo. Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir.

Diagramas de Feynman tremendamente complicados —redes de vértices y propagadores— representan procesos complejos que incluyen cualquier número de partículas. De esta manera, la teoría de Feynman describe toda la materia, desde los objetos más simples a los más complicados.

Siéntase libre para añadir flechas a esta imagen en varias direcciones para hacer de las líneas sólidas electrones o positrones.

La constante de estructura fina

Las diversas ecuaciones y fórmulas de la física contienen varias constantes numéricas diferentes. Algunas de estas constantes son números derivados de las matemáticas puras. Un ejemplo es el número 3,14 159…, más conocido por su nombre griego, π. Conocemos el valor de π con miles de millones de cifras decimales, no por haberlo medido, sino por su definición puramente matemática: π se define como la razón entre la circunferencia de un círculo y su diámetro. Otros números puramente matemáticos, tales como la raíz cuadrada de dos y el número denominado e, pueden computarse también con una precisión inacabable si alguien estuviera motivado para hacerlo.

Pero otros números que aparecen en las ecuaciones de la física no tienen un significado matemático especial. Podríamos llamarlos números empíricos. Un ejemplo que es importante en física nuclear es la razón entre las masas del protón y el neutrón. Su valor numérico se conoce con siete cifras: 1,001378. El dígito siguiente no puede obtenerse sólo con matemáticas: hay que entrar en el laboratorio y medirlo. Los más fundamentales de estos números empíricos están coronados con el título «constantes de la Naturaleza». La constante de estructura fina es una de las constantes de la Naturaleza más importantes[20].

Como π, la constante de estructura fina lleva el nombre de una letra griega, en este caso a (alfa). Suele aproximarse por la fracción 1/137. Su valor exacto se conoce hasta un número limitado de cifras decimales —0,007 297 351— pero es, de todas formas, una de las constantes físicas conocidas con mayor precisión.

La constante de estructura fina es un ejemplo de una cantidad que los físicos llaman constantes de acoplamiento. Cada constante de acoplamiento está asociada con uno de los sucesos básicos —los diagramas de vértice— de la teoría cuántica de campos. La constante de acoplamiento es una medida de la intensidad, o potencia, del suceso representado por el vértice. En QED el único diagrama de vértice es la emisión de un fotón por un electrón. Consideremos más en detalle lo que sucede cuando se emite un fotón.

Podríamos empezar preguntando qué determina el momento exacto en el que un electrón, cuando se mueve a través del espacio-tiempo, emite un fotón. La respuesta es que nada lo hace: la física en el nivel microscópico es caprichosa. La Naturaleza tiene un elemento aleatorio que sacó de quicio a Einstein en sus últimos años de vida. Él protestaba: «Dios no juega a los dados»[21]. Pero le gustase a Einstein o no, la Naturaleza no es determinista. La Naturaleza tiene un elemento de aleatoriedad que está incorporado en las leyes de la física en el nivel más profundo. Ni siquiera Einstein podía cambiar eso. Pero si la Naturaleza no es determinista, tampoco es completamente caótica. Aquí es donde entran los principios de la mecánica cuántica. A diferencia de la física newtoniana, la mecánica cuántica nunca predice el futuro en función del pasado. En su lugar, ofrece reglas muy precisas para computar la probabilidad de varios resultados alternativos de un experimento. De la misma forma que no hay manera de predecir la localización final de un fotón que ha atravesado una rendija, tampoco hay ninguna manera de predecir exactamente en qué lugar de su trayectoria un electrón lanzará un fotón o dónde otro electrón puede absorberlo. Pero hay una probabilidad definida para estos sucesos.

El funcionamiento de una pantalla de televisión ofrece una buena ilustración de tales probabilidades. La luz que procede de una pantalla de televisor está compuesta de fotones que se crean cuando los electrones golpean la pantalla. Los electrones son expulsados de un electrodo situado en la parte trasera del aparato y son guiados a la pantalla por campos eléctricos y magnéticos. Pero no todos los electrones que inciden en la pantalla emiten un fotón. Sólo algunos lo hacen. La mayoría, no. En términos aproximados, la probabilidad de que cualquier electrón particular irradie un cuanto de luz viene dada por la constante de estructura fina a. En otras palabras, sólo un afortunado electrón de cada 137 emite un fotón. Éste es el significado de a: es la probabilidad de que un electrón, cuando se mueve a lo largo de su trayectoria, emita caprichosamente un fotón.

Feynman no solamente dibujaba imágenes. Ideó un conjunto de reglas para calcular las probabilidades de los procesos complejos representados en las imágenes. En otras palabras, descubrió un cálculo matemático preciso que predice las probabilidades de cualquier proceso en términos de los sucesos más simples: propagadores y vértices. Las probabilidades para todos los procesos en la Naturaleza remiten, en última instancia, a constantes de acoplamiento como a.

La constante de estructura fina controla también la intensidad de los diagramas de intercambio, que a su vez determina la intensidad de las fuerzas eléctricas entre partículas cargadas. Controlan con qué firmeza el núcleo atómico atrae a los electrones. Como consecuencia, determina el tamaño del átomo, la velocidad con que se mueven los electrones en sus órbitas y, en definitiva, controla las fuerzas entre átomos diferentes que les permiten formar moléculas. Pero siendo tan importante como es, no sabemos por qué su valor es 0,007 297 351 y no ningún otro. Las leyes de la física que se descubrieron durante el siglo XX son muy precisas y útiles, pero el origen subyacente a estas leyes sigue siendo un misterio.

La teoría de este mundo simplificado de electrones, fotones y núcleos puntuales es la electrodinámica cuántica, y la versión de ella que desarrolló Feynman fue increíblemente satisfactoria. Usando sus métodos, las propiedades de electrones, positrones y fotones fueron entendidas con una precisión asombrosa. Además, si se añadía la versión simplificada del núcleo, también podían calcularse las propiedades del átomo más simple —el hidrógeno— con increíble precisión. En 1965 Feynman, Julián Schwinger y el físico japonés Sin-Itiro Tomonaga ganaron el premio Nobel por su trabajo sobre electrodinámica cuántica. Ése fue el primer acto.

Si el primer acto se representó en un teatro pequeño, con sólo dos personajes, la obra se convirtió en una epopeya con centenares de actores en el segundo acto. Durante los años cincuenta y sesenta del siglo XX se descubrieron nuevas partículas que con el tiempo requirieron un reparto desbordado que incluía electrones, neutrinos, muones, partículas tau, quarks–up, quarks–down, quarks-extraños, quarks-encantados, quarks-fondo, quarks–cima, fotones, gluones, bosones W y Z, bosones de Higgs y muchos más. No crea nunca a nadie que le diga que la física de partículas elementales es elegante. Este batiburrillo de nombres de partículas refleja un igualmente inmanejable revoltijo de masas, cargas eléctricas, espines y otras propiedades. Pero aun siendo desordenado, sabemos cómo describirlo con enorme precisión. El modelo estándar es el nombre de la estructura matemática —una teoría cuántica de campos particular— que describe la teoría moderna de las partículas elementales. Aunque es mucho más complicada que la electrodinámica cuántica, los métodos de Feynman son tan potentes que, una vez más, pueden utilizarse para expresar todo en términos de imágenes simples. Los principios son exactamente los mismos que los de la QED: todo está construido a partir de propagadores, diagramas de vértice y constantes de acoplamiento. Pero hay nuevos actores y nuevas líneas arguméntales, incluyendo una denominada QCD.

Cromodinámica Cuántica

Hace muchos años fui invitado por una famosa universidad para dar una serie de conferencias sobre un tema completamente nuevo denominado cromodinámica cuántica (QCD). Mientras andaba por los pasillos del departamento de física de camino a la primera conferencia, oí por casualidad a un par de estudiantes licenciados que discutían sobre el título. Uno de ellos, que estaba mirando el anuncio de la conferencia en el tablón de anuncios, dijo: «¿De qué va esto? ¿Qué es la cromodinámica cuántica?». El otro reflexionó un momento y dijo: «Humm…, debe de ser una nueva manera de utilizar la mecánica cuántica para revelar las fotografías».

La cromodinámica cuántica no tiene nada que ver con la fotografía, ni siquiera con la luz. La QCD es la versión moderna de la física nuclear. La física nuclear convencional empieza con protones y neutrones (nucleones), pero la QCD va un poco más profundo. Desde hace cuarenta años se sabe que los nucleones no son partículas elementales. Se parecen más a los átomos o a las moléculas, pero a una escala más pequeña. Si pudiéramos mirar un protón con un microscopio suficientemente potente, veríamos tres quarks unidos por una ristra de partículas llamadas gluones. La teoría de quarks y gluones —QCD— es una teoría más complicada que la QED y no soy capaz de hacerle justicia en unas pocas páginas. Pero los hechos básicos no son demasiado difíciles. Éste es el reparto de personajes.

Los seis quarks

En primer lugar, están los quarks: hay seis tipos diferentes. Para distinguir unos de otros los físicos les dan nombres absurdos y extravagantes: quark-up, quark-down, quark-extraño, quark-encantado, quark-fondo y quark-cima, o de forma más concisa, quarks u, d, s, c, b y t.[22] No hay, por supuesto, nada extraño en el quark-extraño o más encantador en el quark-encantado, pero esos nombres ridículos les dan cierta personalidad.

¿Por qué hay seis tipos de quarks y no cuatro o dos? ¿Quién sabe? Una teoría con dos o cuatro tipos de quarks es tan consistente como una con seis tipos. Lo que sí sabemos es que las matemáticas del modelo estándar requieren que los quarks se den en pares— up con down, encantado con extraño y cima con fondo—. Pero la razón para la triple replicación de la teoría más simple —una teoría con quarks u y d solamente— es un completo misterio. Para empeorar las cosas, solo los quarks up y down desempeñan un papel esencial en los núcleos ordinarios[23]. Si la QCD fuera un proyecto de ingeniería, el resto de los quarks sería considerado un extravagante despilfarro de recursos.

Los quarks son, en algunos aspectos, similares a los electrones, aunque algo más pesados, y tienen cargas eléctricas peculiares. Para tener una base de comparación, la carga del protón se toma tradicionalmente como uno (+ 1). La carga del electrón es igual pero de signo opuesto (-1). Los quarks, por otra parte, tienen cargas que son fracciones de la del protón. En particular, las cargas de los quarks u, c y t son positivas, como la del protón, pero sólo dos tercios de la de éste (2/3). Los quarks d, s y b tienen cargas negativas iguales a un tercio de la carga del electrón (-1/3).

Tanto los protones como los neutrones contienen tres quarks. En el caso del protón, son dos quarks u y un quark d. Sumando las cargas eléctricas de estos tres quarks, el resultado es la carga del protón:

El neutrón es muy similar al protón, con la diferencia de que los quarks-up y down están intercambiados. Así pues, el neutrón contiene dos quarks d y un quark u. Sumando de nuevo las tres cargas, encontramos que el neutrón no tiene (como se esperaba) carga eléctrica:

¿Qué sucedería si tratáramos de construir un protón, o algo similar a un protón, sustituyendo un quark-down por un quark-extraño? Tales objetos existen —se denominan partículas extrañas— pero no existen en ningún lugar salvo en los laboratorios de física. Incluso en tales laboratorios, las partículas extrañas son ocurrencias fugaces que no duran más que una minúscula fracción de segundo antes de desintegrarse por un tipo de radioactividad. Lo mismo es cierto para las partículas que contienen quarks-encantados, fondo o cima. Solo los quarks-up y down pueden juntarse en objetos estables y duraderos. Como dije, si los quarks-extraños, encantados, fondo y cima fueran eliminados repentinamente de la lista de partículas elementales, nadie lo notaría apenas.

¿Qué pasa con los quarks que van hacia atrás en el tiempo? Como los electrones, cada tipo de quark tiene su antipartícula. Pueden ensamblarse en antiprotones y antineutrones. En un tiempo muy temprano en la historia del universo, cuando la temperatura era de miles de millones de grados, los antinucleones eran casi tan abundantes como los nucleones ordinarios. Pero cuando bajaron las temperaturas, las antipartículas desparecieron casi por completo, dejando sólo a los protones y neutrones ordinarios para formar los núcleos de los átomos.

El gluón

Los nucleones son como minúsculos átomos hechos de quarks. Pero los quarks por sí solos serían impotentes para unirse en nucleones. Como el átomo, requieren otro ingrediente para crear las fuerzas de atracción que los «pegan». En el caso del átomo, sabemos exactamente cuál es el pegamento. El átomo no se deshace porque los fotones están saltando continuamente de un lado a otro entre electrones y núcleos. Pero la fuerza generada por el intercambio de fotones es demasiado débil para unir los quarks en la estructura firmemente apretada de un nucleón (recordemos que los nucleones son cien mil veces menores que los átomos). Se necesita otra partícula con propiedades más potentes para que los quarks se atraigan tan fuertemente. Esta partícula se denomina apropiadamente gluón[24].

Los sucesos básicos en cualquier teoría cuántica de campos son siempre los mismos: la emisión de partículas por otras partículas. Los diagramas de Feynman que describen estos sucesos tienen siempre la misma forma: diagramas de vértice con la forma de la letra Y. Los diagramas de vértice básicos para la QCD son exactamente iguales a los vértices de emisión de fotón con un quark en lugar del electrón y un gluón que toma el lugar del fotón.

No es sorprendente que el origen de las fuerzas que unen los quarks en los protones y los neutrones sea el intercambio de gluones. Pero hay dos grandes diferencias entre QED y QCD. La primera es una diferencia cuantitativa: la constante numérica que gobierna la emisión de gluones no es tan pequeña como la constante de estructura fina. Se denomina OJO y es unas cien veces mayor que la constante de estructura fina. Ésta es la razón por la que la fuerza entre quarks es mucho más fuerte que la fuerza eléctrica que actúa en el átomo. La QCD se denomina a veces la teoría de las interacciones fuertes.

La segunda diferencia es cualitativa. Hace que los gluones se conviertan en una sustancia pegajosa que siempre me recuerda la historia del bebé alquitrán. Había una vez, según el folclore sureño, un bebé alquitrán sentado en el camino, pensando en sus cosas. El conejo Brer[25] dijo: «Buenas». El bebé alquitrán no dijo nada. El conejo Brer se sintió ofendido. Una cosa llevó a otra y pronto se produjo un altercado: el conejo Brer se volvió loco y dio un puñetazo al bebé alquitrán, pero eso fue un enorme error. Con su puño pegado en el alquitrán, el conejo Brer tiraba y tiraba, pero el alquitrán simplemente se estiraba y le atraía de nuevo. Por mucho que se esforzase en liberarse, el bebé alquitrán no le soltaba.

¿Por qué la historia del bebé alquitrán? Porque los quarks son bebés alquitrán en miniatura, pero sólo para otros quarks. Están pegados permanentemente por una sustancia hecha de gluones. El origen de este extraño comportamiento es un vértice extra que no tiene análogo en la QED. Cualquier partícula eléctricamente cargada puede emitir un fotón. Pero los propios fotones no están cargados. Son eléctricamente neutros y, por tanto, no emitirán otro fotón. A este respecto, los gluones son muy diferentes de los fotones. Las leyes de la QCD requieren un vértice en el que un gluón se divide en dos gluones, cada uno de los cuales sigue una de las trayectorias de la bifurcación.

Ésta es la gran diferencia entre la QCD y la QED que hace de la QCD una teoría mucho más complicada que su contrapartida eléctrica. Entre otras cosas, implica que los gluones pueden intercambiar gluones y unirse en objetos llamados gluebolas —partículas sin quarks ni electrones—. De hecho, los gluones no sólo se pegan a pares. Pueden formar largas cadenas de pegamento. Antes yo comparé los electrones en un átomo con bolas movidas por cuerdas. En ese caso la cuerda era totalmente metafórica, pero en el caso de los quarks, las cuerdas que los mantienen juntos son muy reales. Son cuerdas de gluones tendidas entre los quarks. De hecho, cuando un quark es expulsado a la fuerza de un nucleón, se forma una larga cuerda de gluones que finalmente impide la fuga del quark.

Las interacciones débiles

Si está empezando a aburrirse con la física de partículas, no le culpo. Es demasiado complicada y hay que recordar demasiadas cosas. Hay demasiadas partículas para seguirles la pista y no hay ninguna buena razón que sepamos para su existencia. La QCD y la QED apenas agotan las piezas que constituyen el modelo estándar. Todo esto está muy lejos de la simple y elegante teoría que los físicos esperan encontrar «en el fondo de todo». Se parece mucho a la zoología o la botánica. Pero así es. No podemos cambiar los hechos.

Voy a guiarle a través de otro trozo del modelo estándar: la parte que se conoce como las interacciones débiles. Como la QED y la QCD, las interacciones débiles desempeñan un papel importante en la explicación de nuestra propia existencia, aunque las razones son más sutiles y no se clarificarán hasta capítulos posteriores.

La historia de las interacciones débiles se remonta al final del siglo XIX, cuando el físico francés Antoine-Henri Becquerel descubrió la radioactividad. El descubrimiento de Becquerel precedió en un año al descubrimiento del electrón por J. J. Thomson.

Hay tres tipos diferentes de radioactividad, llamados alfa, beta y gamma. Corresponden a tres fenómenos muy diferentes, sólo uno de los cuales (beta) tiene que ver con las interacciones débiles. Hoy sabemos que los rayos beta procedentes de la muestra de uranio de Becquerel eran realmente electrones emitidos por neutrones en el núcleo de uranio. Al emitir el electrón, el neutrón se convierte inmediatamente en un protón.

Nada en la QED ni en la QCD explica cómo un neutrón puede emitir un electrón y convertirse en un protón. La explicación más sentía, que quizá ya se le haya ocurrido, es que existe un diagrama de vértice adicional que hay que añadir a nuestra lista de sucesos fundamentales. El vértice incluiría a un neutrón inicial que llega a una bifurcación en la carretera, ante la que un protón seguiría por un camino y un electrón por el otro. Pero ésta no es la explicación correcta. El hecho es que un personaje nuevo está a punto de hacer su entrada: el neutrino. Lo que Becquerel no sabía era que otra partícula salía disparada cuando se desintegraba el neutrón, a saber, la antipartícula del fantasmal neutrino.

El neutrino

El neutrino es similar al electrón pero sin carga eléctrica. Considérelo un electrón que ha perdido sus propiedades eléctricas. En cierta manera la relación entre el electrón y el neutrino es similar a la que existe entre el protón y el neutrón.

¿Qué queda entonces del neutrino? Tiene una masa minúscula y no mucho más. No emite fotones. No emite gluones. Esto significa que sobre él no actúa ninguna de las fuerzas que experimentan las partículas eléctricamente cargadas o los quarks. No se une a otras partículas para formar objetos más complejos. Apenas hace nada. De hecho, el neutrino es tan solitario que atravesará años luz de plomo sin ser siquiera desviado. Pero no es un cero completo. Para entender cómo entra en el acto el neutrino hay que introducir a otro actor: el bosón W.

El bosón W

Por el momento no se preocupe por la palabra bosón. Por ahora, denota simplemente otra partícula, con propiedades similares a la del fotón o el gluón pero eléctricamente cargada. Se da en dos versiones, el W cargado positivamente y el W cargado negativamente. Son, por supuesto, antipartículas una de otra.

El bosón W es la clave para las actividades del neutrino. No sólo los electrones y quarks pueden emitir bosones W, sino que también puede hacerlo el neutrino. He aquí una lista (parcial) de las actividades del bosón W:

  • — los electrones emiten bosones W y se convierten en neutrinos;
  • — los quarks-up emiten bosones W y se convierten en quarks-down;
  • — los quarks-up emiten bosones W y se convierten en quarks-ex-traños;
  • — los quarks-encantados emiten bosones W y se convierten en quarks— extraños;
  • — los quarks-cima emiten bosones W y se convierten en quarks-fondo, y
  • — los bosones de Higgs emiten bosones Z.

Hay más, pero implica partículas que sólo encontraremos en capítulos posteriores.

Como he explicado, protones y neutrones no están en la lista de partículas elementales porque están compuestos de los quarks más simples, pero para algunos fines es útil olvidarse de los quarks y considerar los nucleones partículas elementales. Eso requerirá que añadamos algunos vértices adicionales. Por ejemplo, un protón puede emitir un fotón. (En realidad, fue uno de los quarks ocultos el que produjo el fotón, pero el efecto final es como si lo hubiera hecho el protón). Análogamente, uno de los dos quarks d en un neutrón puede emitir un bosón W y convertirse en un quark u, transformando así en neutrón en un protón. En efecto, hay un vértice en el que un neutrón se convierte en un protón mientras emite un bosón W.

Ahora estamos listos para dibujar el diagrama de Feynman que explica los rayos beta que descubrió Becquerel emanando de su uranio. El diagrama se parece mucho a un diagrama de QED excepto que el bosón W es intercambiado donde sería intercambiado el fotón en un diagrama QED. En realidad, las interacciones débiles están muy íntimamente relacionadas con las fuerzas eléctricas debidas a los fotones.

Tome su cartulina cuadrada con una rendija y empiece por abajo. El neutrón (que podría estar dentro de un núcleo) emite un bosón W cargado negativamente y se convierte en un protón. El bosón W recorre un corto trecho (unos 10−16 centímetros) y se divide en dos partículas: un electrón y un neutrino «que se mueve hacia atrás en el tiempo», o de forma más anodina, un antineutrino. Eso es lo que Becquerel habría visto en 1896 si hubiera tenido un microscopio suficientemente potente. Más tarde veremos la importancia de este tipo de proceso en la creación de los elementos químicos de los que estamos hechos.

Las leyes de la física

Usted bebería tener ahora una idea clara de lo que yo entiendo por leyes de la física. Me gustaría poder decirle que son elegantes, como afirmarían algunos físicos. Pero la verdad innegable es que no es así. Hay demasiadas partículas, demasiados diagramas de vértice y demasiadas constantes de acoplamiento. Ni siquiera le he hablado de la colección aleatoria de masas que caracterizan a las partículas. Todo sería un brebaje muy poco atractivo si no fuera por una razón: describe las propiedades de las partículas elementales, núcleos, átomos y moléculas con increíble precisión.

Pero tiene un coste. Sólo puede lograrse introduciendo unas treinta «constantes de la Naturaleza» —masas y constantes de acoplamiento— cuyos valores no tienen ninguna otra justificación que el hecho de que «funcionan»[26]. ¿De dónde proceden estos números? Los físicos no sacan los diversos números del aire o siquiera de un cálculo matemático mediante alguna teoría maestra. Son el resultado de muchos años de física de partículas experimental hecha en aceleradores en laboratorios de muchos países. Muchos de ellos, como la constante de estructura fina, han sido medidos con gran precisión, pero la conclusión es, como ya he dicho, que no entendemos por qué son los que son.

El modelo estándar es la culminación y destilación de más de medio siglo de física de partículas. Cuando se combina con las reglas gráficas de Feynman, ofrece descripciones precisas de todos los fenómenos de partículas elementales, incluyendo cómo se combinan las partículas para formar núcleos, átomos, moléculas, gases, líquidos y sólidos. Pero es demasiado complicado para ser el paradigma de simplicidad que esperamos que fuera el sello de una teoría verdaderamente fundamental —una teoría final— de la Naturaleza.

A diferencia de las leyes de los hombres, las leyes de la física son realmente leyes. Nosotros podemos escoger entre obedecer la ley o hacer caso omiso de ella, pero un electrón no tiene elección. Estas leyes no son como las leyes del tráfico o las leyes tributarias que cambian de un estado a otro y de un año a otro. Quizá el hecho experimental más importante, un hecho que hace posible la física en general, es que las constantes de la Naturaleza son realmente constantes. Experimentos en diferentes tiempos y lugares requieren exactamente los mismos diagramas de Feynman y dan exactamente los mismos valores para cada constante de acoplamiento y cada masa. Cuando se midió la constante de estructura fina en Japón en los años noventa, tenía exactamente el mismo valor que tenía en Brookhaven, Long Island, en 1960 o en Stanford en los años setenta.

De hecho, cuando los físicos estudian la cosmología, tienden a dar completamente por hecho que las leyes de la Naturaleza son las mismas en cualquier lugar del universo. Pero no tienen por qué serlo. Ciertamente se puede concebir un mundo en el que la constante de estructura fina cambie con el tiempo o en el que alguna otra constante varíe de un lugar a otro. De vez en cuando, los físicos han cuestionado la hipótesis de que las constantes son absolutamente constantes, pero hay pruebas decisivas que sugieren que realmente son las mismas en cualquier parte del universo observado: no el gigantesco megaverso, sino esa parte del universo que podemos ver con los diversos tipos de telescopios a nuestra disposición.

Quizá algún día seremos capaces de ir a galaxias lejanas y medir las constantes directamente en dichos lugares, pero incluso ahora recibimos continuamente mensajes de regiones remotas del universo. Los astrónomos estudian rutinariamente la luz procedente de fuentes muy lejanas y desenredan las líneas espectrales que fueron emitidas o absorbidas por átomos distantes[27]. Las relaciones entre líneas espectrales individuales son intrincadas, pero son siempre las mismas, independientemente de dónde y cuándo se originó la luz. Cualquier cambio en las leyes de la física cambiaría los detalles, de modo que tenemos una prueba excelente de que las leyes son las mismas en cualquier parte del universo observado.

Estas reglas —una lista de partículas, una lista de masas y constantes de acoplamiento, y los métodos de Feynman— que yo llamo las leyes de la física son extraordinariamente potentes. Gobiernan casi cualquier aspecto de la física, la química y, en última instancia, la biología, pero las reglas no se explican a sí mismas. No tenemos ninguna teoría que nos diga por qué el modelo estándar es el correcto y no ningún otro. ¿Podrían otras cosas haber sido las leyes de la física? ¿Podría la lista de las partículas elementales, las masas y las constantes de acoplamiento ser diferente en otras partes del universo que no podemos observar? ¿Podrían las leyes de la física ser diferentes en tiempos y lugares muy distintos? Si es así, ¿qué gobierna la manera en que cambian? ¿Son estas leyes más profundas las que nos dicen qué leyes son posibles y cuáles no? Éstas son las preguntas que los físicos están empezando a tratar de resolver en el comienzo del siglo XXI. Son las preguntas de las que trata El paisaje cósmico.

Quizá algo le esté intrigando en este capítulo. No he mencionado ni una sola vez la fuerza más importante en el universo: la fuerza de la gravedad. Newton descubrió la teoría elemental de la gravedad que lleva su nombre. Einstein también ahondó profundamente en el significado de la gravedad en la teoría de la relatividad general. Incluso si las leyes de la gravedad son mucho más importantes que todas las demás para la determinación del destino del universo, la gravedad no se considera parte del modelo estándar. La razón no es que la gravedad no sea importante. De todas las fuerzas de la Naturaleza, desempeñará el papel más importante en este libro. Mi razón para separarla de las otras leyes es que la relación entre la gravedad y el mundo microscópico de las partículas elementales mecanocuánticas todavía no se entiende. El propio Feynman trató de aplicar sus métodos a la gravedad y abandonó su intento con pesar. De hecho, en cierta ocasión me aconsejó que nunca me involucrara en ese tema. Eso fue como decir a un niño pequeño que no se acerque al tarro de galletas.

En el próximo capítulo le hablaré de la «madre de todos los problemas de la física». Es una historia lúgubre de lo que falla cuando la gravedad se combina con estas leyes de la física. Es también una historia de violencia extrema. Las leyes de la física tal como las hemos entendido predicen un universo extraordinariamente letal. Evidentemente, algo estamos pasando por alto.