Uno no puede evitar la sensación de que esas fórmulas matemáticas tienen una existencia independiente e inteligencia propia, de que son más sabias que nosotros, más sabias aún que sus descubridores, de que podemos obtener de ellas más de lo que en ellas se puso.

Heinrich Hertz,

sobre las ecuaciones del electromagnetismo de Maxwell

Una gran parte de mi trabajo consiste simplemente en jugar con las ecuaciones y ver lo que resulta.

Paul Dirac

Producía exactamente las propiedades que se requerían para un electrón. Fue un auténtico regalo para mí, algo totalmente inesperado.

Paul Dirac,

sobre la ecuación de Dirac

Las ecuaciones parecen cosa de magia. Al igual que las escobas del Aprendiz de Brujo, ellas solas cobran vida y producen consecuencias que su creador no esperaba, que no puede controlar y que, a veces, incluso detesta. Cuando Einstein descubrió E = mc2, como culminación del proceso de consolidación de los fundamentos de la física clásica por parte de la teoría especial de la relatividad, ni las armas de destrucción masiva ni los generadores de energía inextinguible pasaron remotamente por su cabeza.

De todas las ecuaciones de la física, quizá la más mágica de todas sea la ecuación de Dirac. Es la que más libremente fue formulada, la menos condicionada por los experimentos y la que tiene las consecuencias más raras y sorprendentes.

A principios de 1928 (la fecha de recepción del artículo original es el 2 de enero), Paul Adrien Maurice Dirac (1902-1984), un ingeniero eléctrico de veinticinco años recién convertido en físico teórico, creaba una notable ecuación que la posteridad bautizaría con su nombre. El propósito de Dirac era muy concreto y en absoluto original. Deseaba producir una ecuación que describiera el comportamiento de los electrones con mayor precisión que las anteriores, unas ecuaciones que, o bien incorporaban la relatividad especial, o bien la mecánica cuántica, pero nunca ambas teorías. En aquel momento había físicos importantes y más experimentados que él que trabajaban en el mismo problema.

A diferencia de esos otros físicos —y de los grandes clásicos, Newton y Maxwell—, Dirac no partió de un minucioso estudio de hechos experimentales; en lugar de ello, basó su investigación en algunas evidencias básicas y en ciertos imperativos teóricos intuitivos (algunos de los cuales sabemos hoy que eran erróneos). Dirac se propuso plasmar todos esos principios en un esquema compacto y matemáticamente consistente. «Jugando simplemente con las ecuaciones», como él decía, dio con una solución sorprendentemente simple y elegante. Se trata, por supuesto, de la ecuación de Dirac.

Algunas consecuencias de esta ecuación pudieron ser contrastadas con observaciones experimentales previas. La concordancia era excelente y se explicaban así resultados hasta entonces misteriosos. En concreto y tal como se describirá más adelante, la ecuación de Dirac predecía correctamente que los electrones se hallan en perpetua rotación y que actúan como diminutos imanes, y establecía la velocidad de ese giro y la intensidad del campo magnético que generan. Pero otras consecuencias parecían estar en total contradicción con las evidencias. Por ejemplo, la ecuación da lugar a soluciones que semejan describir un comportamiento según el cual los átomos ordinarios podrían evaporarse, en un destello de luz y en una fracción de segundo, de manera espontánea.

Durante años, Dirac y otros físicos se enfrentaron a una extraordinaria paradoja. ¿Cómo era posible que una ecuación fuese obviamente correcta, ya que concordaba de forma muy precisa con numerosos resultados experimentales, y, a la vez, propensa a generar soluciones manifiestamente erróneas? La ecuación de Dirac se convirtió en el eje en torno al cual giraba toda la física fundamental. Dando por válida su formulación matemática, los físicos tuvieron que reexaminar el significado de los símbolos que contenía. Fue en el curso de este confuso e intelectualmente penoso examen —durante el cual Werner Heisenberg escribía a su amigo Wolfgang Pauli: «El capítulo más triste de la física moderna lo constituye la teoría de Dirac» y «Con el fin de no enojarme con Dirac, he decidido hacer un nuevo esfuerzo por cambiar…»— donde tuvo su verdadero origen la física moderna.

Un espectacular resultado fue la predicción de la existencia de la antimateria, o más exactamente, que tenía que haber una nueva partícula con la misma masa que el electrón, pero con la carga eléctrica contraria, y que al encontrarse ambas se aniquilarían, dando por resultado pura energía. Un análisis concienzudo de los rayos cósmicos, efectuado por Carl Anderson en 1932, confirmaría poco después la veracidad de la hipótesis.

Pero el resultado más profundo y trascendental fue la completa reelaboración del modo en que describimos la materia. En esta nueva física, las partículas son entes efímeros. Se crean y se destruyen libremente. De hecho, su existencia fugaz y sus intercambios son la fuente de toda interacción. Los verdaderos objetos fundamentales son los campos cuánticos, unos intangibles entes universales y transformativos. Éstos son los conceptos que subyacen bajo nuestra moderna e increíblemente precisa teoría de la materia (el inadecuadamente llamado Modelo Estándar). Y la ecuación de Dirac, reinterpretada a fondo y generalizada, se ha convertido en piedra angular de nuestra comprensión de la naturaleza.

Trataremos de ver qué hay detrás de su magia y, en última instancia, de descubrir el truco. Para empezar, he aquí la ecuación:

Los jeroglíficos que contiene están descifrados en el Apéndice del presente ensayo. Por ahora, nos centraremos en la ecuación en sí y trataremos de apreciar sus múltiples facetas.

El problema de Dirac y la unidad de la naturaleza

El antecedente inmediato del descubrimiento de Dirac y el razonamiento que condujo hasta él fue la necesidad de reconciliar dos avanzadas y exitosas teorías físicas que presentaban pequeñas desavenencias. En 1928, la teoría especial de la relatividad de Einstein tenía ya más de veinte años y se hallaba plenamente digerida y totalmente establecida. (La teoría general, que describe la gravitación, no forma parte de nuestra historia; la gravedad es despreciable a escala atómica). Por su parte, la mecánica cuántica de Heisenberg y Schrödinger era una teoría joven, pero proporcionaba un nuevo y brillante enfoque acerca de la estructura del átomo y había explicado un buen número de fenómenos hasta entonces misteriosos. En particular, plasmaba aspectos esenciales de la dinámica de los electrones atómicos. El problema era que las ecuaciones desarrolladas por Schrödinger y Heisenberg no se basaban en la mecánica relativista de Einstein, sino en la vieja mecánica newtoniana. La mecánica de Newton podía constituir una excelente aproximación en sistemas en los que todas las velocidades son mucho más pequeñas que la de la luz, lo que abarca muchos casos de interés en la química y en la física atómica. Pero los datos experimentales sobre espectros atómicos, que pertenecían al ámbito de la nueva teoría cuántica, eran tan precisos que se podían observar desviaciones respecto a las predicciones de Heisenberg-Schrödinger. Así pues, había una razón práctica que aconsejaba buscar una ecuación para el electrón más precisa y basada en la mecánica relativista. El joven Dirac y otros importantes físicos se pusieron manos a la obra.

En realidad, estaban en juego dicotomías mucho más antiguas y fundamentales: la luz frente a la materia o lo continuo frente a lo discreto. Estas dicotomías suponían barreras casi infranqueables a la hora de establecer una descripción unificada de la naturaleza. De las dos teorías que Dirac y sus contemporáneos trataban de conciliar, la relatividad representaba lo continuo y la luz y la teoría cuántica, lo discreto y la materia. Tras la revolución llevada a cabo por Dirac, ambas quedaron reconciliadas bajo una amalgama conceptual de difícil comprensión denominada campo cuántico.

Las dicotomías luz/materia y continuo/discreto debieron ser percibidas ya por los primeros humanos y fueron claramente formuladas y debatidas —sin llegar a conclusión alguna— por los antiguos griegos. Aristóteles consideraba el fuego y la tierra como elementos primarios y argumentaba contra los atomistas, a favor de un plenum fundamental («la naturaleza abomina del vacío»).

Esas dicotomías no quedaron resueltas por los grandes logros de la física clásica; por el contrario, se vieron, si cabe, reforzadas por ellos.

La mecánica newtoniana describía el movimiento de cuerpos rígidos a través de un espacio vacío. Aunque el propio Newton especuló en varias ocasiones desde las dos orillas de ambas dicotomías, sus seguidores insistían en el carácter «sólido, macizo e impenetrable» de sus átomos, los «ladrillos» con los que estaba edificada toda la naturaleza. Incluso la luz estaba modelada en términos de partículas.

A principios del siglo XIX, una nueva teoría cosechó notables éxitos: la luz está compuesta por ondas. Los físicos asumieron que tenía que existir un éter continuo y omnipresente que impregnara todo el espacio y sirviera de soporte a esas ondas. Los descubrimientos de Faraday y Maxwell, que convertían la luz en un campo electromagnético más —un ente continuo que impregnaba todo el espacio—, matizaron y reforzaron la idea.

No obstante, tanto el propio Maxwell como Ludwig Boltzmann demostraron que las propiedades observadas en los gases, incluyendo muchos detalles sorprendentes, podían ser explicadas suponiendo que aquéllos estaban compuestos por infinidad de partículas diminutas, discretas y perfectamente individualizadas, que se mueven a través de un espacio vacío. Por otra parte, J. J. Thomson en el terreno experimental y Hendrik Lorentz en el teórico establecieron la existencia de los electrones como componentes fundamentales de la materia. Los electrones aparentaban ser partículas indestructibles, del tipo de las que Newton había soñado.

De este modo, a comienzos del siglo XX los físicos disponían de dos conjuntos de teorías completamente distintas que convivían en una armonía no siempre fácil. La electrodinámica de Maxwell era una teoría de lo continuo, de los campos eléctricos y magnéticos y de la luz, que no hablaba para nada de la masa. Por su parte, la mecánica de Newton era una teoría de partículas discretas, cuyas únicas propiedades obligadas eran la masa y la carga eléctrica.[83]

Inicialmente, la teoría cuántica floreció a lo largo de dos ramas, siguiendo la huella de nuestras dicotomías. La primera de ellas, relacionada con la luz, partía de los trabajos de Planck sobre radiación y alcanzaba su cénit en la teoría einsteniana de los fotones. Su resultado fundamental era que la luz estaba compuesta por unidades mínimas indivisibles, denominadas fotones, cuya energía y momento son proporcionales a la frecuencia de dicha luz. Esta idea, obviamente, suponía un enfoque corpuscular de la luz.

La segunda rama se ocupaba de los electrones, y arrancaba de la teoría del átomo de Bohr para alcanzar su clímax en la ecuación de onda de Schrödinger. Establecía que las configuraciones estables del electrón alrededor del núcleo atómico estaban asociadas a patrones regulares de vibraciones ondulatorias. Lo cual generaba un punto de vista ondulatorio sobre la materia.

Así pues, las viejas dicotomías se habían suavizado: la luz era en parte corpuscular y los electrones se comportaban en parte como ondas. Pero subsistían algunos fuertes contrastes. En concreto, había dos circunstancias que parecían diferenciar claramente la luz de la materia. En primer lugar, si la luz estaba compuesta por partículas, éstas tenían que ser muy especiales y con alguna clase de estructura interna, ya que la luz puede estar polarizada. Para que esta propiedad se manifieste, las partículas de luz deben tener la propiedad equivalente. No es posible realizar una descripción completa de un haz de luz diciendo simplemente que está compuesto por tantos fotones de tales energías; esos parámetros nos indicarían sólo cuán brillante es y cuántos colores contiene, pero no cómo está polarizado. Para obtener una descripción completa, deberíamos incluir información sobre la polarización del haz, lo cual significa que los fotones deberían transportar una especie de flecha que les permitiera conservar la huella de ese parámetro. La idea parece apartarnos del concepto ideal de partícula elemental. Si existe esa flecha, ¿en qué consiste y por qué no puede ser separada de la partícula? En segundo lugar, y más importante aún, los fotones son efímeros. La luz puede ser radiada, como cuando encendemos una linterna, o absorbida, como cuando cubrimos ésta con la mano. De este modo, las partículas de luz pueden ser creadas o destruidas. Esta propiedad básica y familiar de la luz y los fotones nos aparta de la noción tradicional de partícula elemental. La estabilidad de la materia parecía requerir partículas indestructibles, dotadas de propiedades muy distintas de las de los fugaces fotones.

Observaremos ahora cómo se desvanecieron esas últimas diferencias y cómo fue revelada la unidad de la naturaleza.

Un primer efecto: el espín

Dirac trataba de conciliar la mecánica cuántica del electrón con la relatividad especial. Pensaba —equivocadamente, como ahora sabemos— que la teoría cuántica requería ecuaciones de un tipo particularmente simple, las que los matemáticos denominan «de primer orden». Nunca se cuestionó la idea ni qué implicaba el que las ecuaciones fuesen de esta clase; el hecho es que Dirac buscaba una ecuación que, en un sentido muy preciso, fuera del tipo más simple posible. El problema es que no era fácil encontrar una ecuación simple en ese sentido y, a la vez, consistente con los requisitos de la relatividad especial. Para obtenerla, Dirac tuvo que ampliar el ámbito de su estudio y, finalmente, encontró que no bastaba una única ecuación de primer orden; necesitaba un sistema de cuatro ecuaciones fuertemente interrelacionadas. Este sistema constituye lo que hoy conocemos como la ecuación de Dirac.

Dos ecuaciones resultaban aceptables, pero cuatro, al menos inicialmente, representaban un grave problema.

Examinemos primero las buenas noticias.

Aunque la teoría de Bohr proporcionaba una versión aproximada de los espectros atómicos, quedaban muchos detalles sin explicar. Algunas de las discrepancias se referían al número de electrones que podían ocupar cada una de las órbitas; otras tenían que ver con la respuesta de los átomos a los campos magnéticos, tal como se constataba en el desplazamiento de sus líneas espectrales.

Wolfgang Pauli había demostrado, mediante un análisis detallado de las evidencias experimentales, que, aun de forma aproximada, el modelo de Bohr sólo era válido para átomos complejos si se imponía una considerable restricción al número de electrones que podían ocupar una órbita dada. Esto originaba el famoso principio de exclusión de Pauli, que hoy enunciamos como «un estado dado sólo puede ser ocupado por un único electrón». La proposición original de Pauli no era tan clara; el número de electrones que podían ocupar un orbital de Bohr resultaba ser dos y no uno solo, pero Pauli hablaba oscuramente de una «duplicidad no descriptible en términos clásicos», y no daba explicación alguna al respecto.

En 1925, dos licenciados holandeses, Samuel Goudsmit y George Uhlenbeck, idearon una posible explicación para la respuesta al campo magnético. Según ellos, si los electrones fueran en realidad diminutos imanes, desaparecerían las discrepancias. El éxito de su modelo requería que todos los electrones tuviesen la misma fuerza magnética, parámetro que podían calcular. A continuación, proponían un mecanismo para el magnetismo del electrón. Los electrones, por supuesto, son partículas cargadas. Una carga eléctrica en movimiento circular genera un campo magnético. Así pues, si por alguna razón el electrón girara permanentemente alrededor de su eje, su magnetismo quedaría explicado. Este espín intrínseco del electrón presentaba una ventaja adicional. Si la velocidad de giro fuese la mínima permitida por la mecánica cuántica,[84] la «duplicidad» de Pauli estaría justificada, ya que el espín no tendría la posibilidad de variar su magnitud, sino sólo de apuntar hacia arriba o hacia abajo.

Muchos físicos eminentes se mostraron totalmente escépticos ante la propuesta de Goudsmit y Uhlenbeck. Pauli llegó incluso a tratar de disuadirles de que publicaran su trabajo. Por una parte, el modelo parecía requerir que el electrón girara a una velocidad extremadamente alta, probablemente mayor que la de la luz en su superficie. Por otra, el modelo no explicaba qué es lo que mantenía unido al electrón. Si éste era una distribución de carga eléctrica, toda del mismo signo, debería tender a dispersarse y la rotación, al introducir la fuerza centrífuga, no hacía sino empeorar las cosas. Finalmente, existía una discrepancia cuantitativa entre los requisitos para la intensidad del campo magnético del electrón y la magnitud de su espín. La proporción entre ambas magnitudes viene gobernada por el denominado factor giromagnético, g. La mecánica clásica predecía que g = 1, mientras que, para ajustarse a los datos, Goudsmit y Uhlenbeck postulaban que g = 2. Sin embargo y a pesar de esas objeciones, su modelo concordaba tercamente con los resultados experimentales.

En ese momento hizo su entrada Dirac. Su sistema de ecuaciones permitía una clase de soluciones para velocidades pequeñas, en la que sólo resultaban relevantes dos de las cuatro funciones que intervenían en aquéllas. Se trataba de duplicidad, pero con una diferencia. En este caso, surgía automáticamente como consecuencia de aplicar unos principios generales y no necesitaba ser introducida. Mejor aún, mediante su ecuación, Dirac podía calcular el magnetismo de los electrones sin recurrir a otras premisas. Y obtuvo que g = 2. En el importante artículo de 1928, Dirac era muy conciso. Tras demostrar ese resultado, se limitaba a decir: «El momento magnético es exactamente el asumido por el modelo de electrón giratorio». Y pocas páginas después, tras desarrollar las consecuencias, concluía: «En una primera aproximación, la presente teoría conduce a los mismos niveles de energía que los obtenidos por [C. G.] Darwin, los cuales se hallan en concordancia con los experimentos».

En cualquier caso, los resultados hablaban por ellos mismos y no precisaban más comentarios. Desde entonces, la ecuación de Dirac se convirtió en paso obligado. Cuando surgieron dificultades —que las ha habido de gran calibre—, han sido motivo de un mayor esfuerzo y análisis, pero no de un abandono. Una joya del pensamiento científico como aquélla tenía que ser defendida a toda costa.

Aunque el punto de partida intelectual, como se ha mencionado, fue muy diferente y más abstracto, Dirac comenzaba su artículo refiriéndose a Goudsmit y Uhlenbeck y al éxito experimental de su modelo. Su aportación personal comenzaba en el segundo párrafo. Lo que en él decía es absolutamente pertinente para los temas que hemos venido examinando.

«La cuestión sigue siendo por qué la naturaleza habría escogido este modelo concreto para el electrón en vez de sentirse satisfecha con una carga puntual. Nos gustaría encontrar alguna deficiencia en los anteriores métodos de aplicar la mecánica cuántica a la carga puntual, de forma que, solventándola, el fenómeno de la duplicidad no requiriera premisa arbitraria alguna».

Así pues, Dirac no estaba proponiendo un nuevo modelo para el electrón. En lugar de ello, definía una nueva propiedad irreducible de la materia, inherente a la naturaleza de las cosas —y, en especial, a una implementación consistente de la relatividad y la teoría cuántica— y que se manifestaba incluso en el caso más simple posible de una partícula puntual carente de estructura. El electrón parece ser la encarnación de la forma más simple de materia. Las valiosas propiedades del espín de Goudsmit y Uhlenbeck —en particular, su valor constante y sus efectos magnéticos, muy útiles a la hora de describir las observaciones experimentales— han perdurado, asentadas hoy sobre bases mucho más sólidas. Los aspectos arbitrarios o deficientes de su modelo, en cambio, han sido abandonados.

Buscábamos una especie de flecha que formara parte inseparable y necesaria de los entes materiales más elementales, como la polarización en los fotones. Pues bien, hela aquí.

El espín del electrón tiene muchas consecuencias prácticas. Es responsable del fenómeno del ferromagnetismo y de la formación de campos magnéticos en el núcleo de las bobinas eléctricas, las cuales se hallan por doquier en los modernos dispositivos de generación de energía (motores y dinamos). La manipulación activa del espín del electrón permite almacenar y manejar gran cantidad de información en un volumen muy reducido (cintas y discos magnéticos). Incluso el mucho más pequeño e inaccesible espín del núcleo atómico desempeña un importante papel en la tecnología actual. La manipulación de este espín mediante campos magnéticos y ondas de radio y el análisis de la respuesta constituyen la base de las imágenes por resonancia magnética (Magnetic Resonance Imaging, MRI), tan útiles en medicina. Esta aplicación, al igual que muchas otras, sería —literalmente— inconcebible sin el exquisito control de la materia al que sólo un conocimiento profundo de ella nos ha permitido acceder.

El espín, en general, y la predicción de Dirac para el momento magnético, en particular, también han desempeñado un trascendente papel en el desarrollo posterior de la física fundamental. En 1940, Polykarp Kusch y sus colaboradores constataron pequeñas desviaciones respecto al g = 2 de Dirac. Constituían las primeras evidencias cuantitativas de los efectos de ciertas partículas virtuales, una importante y característica propiedad de la teoría cuántica de campos. En la década de 1930 se observaron desviaciones muy grandes respecto a g = 2 para protones y neutrones. No era más que un primer síntoma de que el protón y el neutrón no son partículas fundamentales en el sentido en que lo es el electrón. Pero nos estamos adelantando a los acontecimientos…

La gran sorpresa: la antimateria

Abordaremos ahora las malas noticias.

La ecuación de Dirac consta de cuatro componentes, es decir, contiene cuatro funciones de onda separadas para describir el electrón. Dos de ellas tienen una interpretación atractiva e inmediata y, tal como se ha indicado, describen las dos direcciones posibles del espín. Las otras dos, por el contrario, resultan a priori muy problemáticas.

En efecto, las dos ecuaciones adicionales contienen soluciones con energía negativa (y cualquier dirección de espín). En física clásica (no cuántica), la existencia de esas soluciones extra podría ser desconcertante, pero no necesariamente catastrófica. En física clásica basta con no utilizar esas soluciones. Al hacerlo, obviamos la cuestión de por qué la naturaleza no ha optado por ellas, pero el procedimiento tiene consistencia lógica. En mecánica cuántica no disponemos de esa posibilidad. En la física cuántica, en general, «todo lo que no esté prohibido es obligatorio». En el caso que nos ocupa podemos ser muy concretos al respecto. Las soluciones de la ecuación de onda del electrón representan todos los posibles comportamientos de éste que pueden darse en las circunstancias adecuadas. Mediante la ecuación de Dirac, y partiendo de un electrón en una de las soluciones de energía positiva, podemos calcular la probabilidad de que emita un fotón y se mueva a una de las soluciones de energía negativa. La energía se tiene que conservar por encima de todo, pero eso aquí no es un problema, simplemente significa que el fotón emitido tiene más energía ¡que el electrón que lo emitió! En cualquier caso, la velocidad resulta ser ridículamente rápida: la transición tendría lugar en una minúscula fracción de segundo. De modo que no cabe ignorar sin más las soluciones de energía negativa. Y como nunca se ha visto que el electrón haga algo tan peculiar como radiar más energía que la que llevaba, la ecuación de Dirac tiene un problema, del cual era plenamente consciente. En su artículo original se limitaba a decir:

«Para esta segunda clase de soluciones, W [la energía] tiene un valor negativo. En teoría clásica superamos esta dificultad excluyendo arbitrariamente las soluciones con W negativa. Pero en teoría cuántica no nos está permitido, ya que, en general, una perturbación causará transiciones desde estados con W positiva a estados con W negativa. […] Por lo tanto, la teoría resultante es todavía una aproximación, aunque parece ser suficiente para explicar todos los fenómenos de duplicidad sin recurrir a premisas arbitrarias».

Eso era todo. Y ésa era la situación que provocaba los exabruptos de Heisenberg a Pauli, citados anteriormente.

A finales de 1929 —apenas dos años después— Dirac tenía una propuesta. Se basaba en el principio de exclusión de Pauli, por el cual no puede haber dos electrones que respondan a la misma solución de la ecuación de onda. Lo que Dirac proponía era una noción del vacío radicalmente nueva. Según él, lo que consideramos espacio vacío está repleto de electrones con energía negativa. En efecto, en palabras de Dirac, el espacio «vacío» contiene en realidad electrones que obedecen todos ellos a las soluciones de energía negativa. La gran ventaja de esta propuesta es que resolvía el problema de las transiciones entre soluciones positivas y negativas. Un electrón con energía positiva nunca puede pasar a una solución de energía negativa porque siempre hay otro electrón en ella y el principio de exclusión de Pauli no permite que existan dos.

A primera vista, suena un tanto extravagante que lo que percibimos como espacio vacío se encuentre lleno de cosas. Pero, si meditamos un poco, ¿por qué no? La evolución nos ha conducido a percibir aspectos del universo que son de algún modo útiles para nuestra supervivencia o nuestra capacidad reproductiva. No debería extrañarnos que determinados aspectos invariables, y sobre los que nuestra capacidad de acción es virtualmente nula, sean irrelevantes en ese sentido y escapen por completo a nuestra percepción natural. En cualquier caso, no deberíamos contar con que intuiciones simplistas sobre lo que es raro o infrecuente supongan una guía fiable a la hora de crear modelos de las estructuras fundamentales del mundo microscópico, ya que esas intuiciones provienen de un universo de fenómenos completamente distinto. Debemos aceptar la propuesta tal cual. La validez de un modelo debe ser juzgada por lo fructíferas y precisas que sean sus consecuencias.

Así pues, a Dirac no le preocupó atentar contra el sentido común. Con buen criterio, se centró en las consecuencias observables de su hipótesis.

En la propuesta de Dirac, el vacío está —paradójicamente— lleno de electrones de energía negativa, lo cual hace que se convierta en un medio con propiedades dinámicas en sí mismo. Los fotones, por ejemplo, pueden interaccionar con él. Una de las cosas que pueden suceder es que si iluminamos el vacío, aportando fotones con suficiente energía, un electrón de energía negativa puede absorber uno de ellos y trasladarse a una solución de energía positiva. La solución de energía positiva sería observada como un electrón ordinario, por supuesto. Pero en el estado final existe también un hueco en el vacío, ya que la solución originalmente ocupada por el electrón de energía negativa ha quedado vacante.

La idea de los huecos, en el contexto de un vacío dinámico, resultó tremendamente original, pero tenía sus precedentes. Dirac se basó en una analogía con los átomos pesados (que contienen muchos electrones). En dichos átomos, algunos de los electrones corresponden a soluciones de la ecuación de onda ubicadas en las proximidades del fuertemente cargado núcleo, por lo que son atraídos con intensidad. Es necesaria mucha energía para liberar a esos electrones, por lo que en condiciones normales presentan un aspecto invariable del átomo. Pero si uno de esos electrones absorbe un fotón de alta energía (rayos X) y sale despedido del átomo, el cambio en el aspecto normal de éste viene determinado por esta ausencia. La ausencia de un electrón, que hubiera aportado una carga negativa, se asemeja, por contraste, a una carga positiva. La carga positiva virtual sigue la órbita del electrón ausente, con lo que tiene las propiedades de una partícula cargada positivamente.

A partir de esa analogía y en otros vagos argumentos —el artículo es muy breve y prácticamente desprovisto de ecuaciones— Dirac proponía que los huecos en el vacío eran partículas con carga positiva. El proceso por el que un fotón excita un electrón con energía negativa en el vacío, haciéndole adoptar energía positiva, se traduce a un fotón dando lugar a un electrón más una partícula cargada positivamente (el hueco). Y viceversa; si existiera previamente un hueco, un electrón de energía positiva podría emitir un fotón y ocupar la solución de energía negativa libre. Esto se interpreta como la aniquilación de un electrón y un hueco, transformándose ambos en pura energía. Hemos hablado de la emisión de un fotón, pero se trata sólo de una posibilidad más. Podrían ser emitidos varios fotones o cualquier otra forma de radiación que materialice la energía liberada.

El primer artículo de Dirac sobre los huecos se titulaba «Una teoría sobre electrones y protones». El protón, que constituye el núcleo del átomo de hidrógeno y es un componente básico de otros núcleos más complejos, era por aquel entonces la única partícula cargada positivamente que se conocía. Era lógico tratar de identificar con él los hipotéticos huecos. Pero enseguida aparecieron notables dificultades al respecto. Por ejemplo, los dos tipos de proceso que acabamos de describir —la producción de un par electrón-protón y la aniquilación de un par electrón-protón— no habían sido observados nunca. El segundo es especialmente inquietante, ya que, mediante él, los átomos de hidrógeno se autodestruirían espontáneamente en apenas microsegundos, cosa que, afortunadamente, no sucede.

Existía también un problema lógico a la hora de identificar los huecos con los protones. Basándose en la simetría de las ecuaciones, se podía demostrar que un hueco tenía que poseer la misma masa que un electrón. Un protón, por descontado, tiene una masa muy superior.

En 1931, Dirac renunció a su identificación inicial entre huecos y protones, y aceptó la consecuencia lógica de su propia ecuación y del vacío dinámico que requería: «De existir, un hueco sería una nueva clase de partícula elemental, desconocida en la física experimental y con la misma masa que el electrón, pero con la carga opuesta».

El 2 de agosto de 1932, Carl Anderson, un experimentalista norteamericano que estudiaba las trazas dejadas por los rayos cósmicos en una cámara de niebla, observó que algunas perdían energía según lo esperado para los electrones, pero resultaban desviadas en sentido opuesto por el campo magnético. Anderson interpretó de inmediato el fenómeno como indicativo de la existencia de una nueva partícula con la masa del electrón y la carga contraria. Ironías del destino, desconocía por completo la predicción de Dirac.

A miles de kilómetros del St. John’s College de Cambridge, los huecos de Dirac —el producto de su intuición teórica— acababan de aparecer, cayendo del cielo de Pasadena.

De este modo, las malas noticias acabaron siendo, a la larga, noticias aún mejores. La rana se convirtió en príncipe: la magia en estado puro.

En la actualidad, los huecos de Dirac, conocidos hoy como positrones, ya no son un prodigio, sino una herramienta. Una de sus notables aplicaciones es la tomografía por emisión de positrones (Positron-Electron Tomography, PET), que sirve para fotografiar el cerebro en acción. ¿Cómo llegan hasta nuestro cerebro los positrones, dejando aparte este artículo, que los introduce de manera conceptual y no física? Mediante una inyección de moléculas que contienen átomos cuyos núcleos son radiactivos y se desintegran generando positrones, entre otras partículas. Estos positrones no llegan muy lejos antes de aniquilar a uno de los electrones vecinos, dando lugar normalmente a dos fotones que atraviesan nuestro cráneo y pueden ser detectados. A partir de ello es posible reconstruir la procedencia original de las moléculas y trazar un mapa de nuestro metabolismo o estudiar la pérdida de energía de esos fotones en su camino hacia el exterior, y obtener un perfil de densidad y, en definitiva, una imagen del tejido cerebral.

Otra importante aplicación pertenece al campo de la física fundamental. Electrones y positrones pueden ser acelerados hasta hacerlos adquirir una elevada energía. Al confluir los haces de ambos, se aniquilan y se produce una forma altamente concentrada de «energía pura». Muchos de los progresos registrados en física fundamental en los últimos cincuenta años se han basado en estudios de este tipo, llevados a cabo en los grandes aceleradores de partículas repartidos por todo el mundo, el mayor y más moderno de los cuales es el gran colisionador electrón-positrón (Large Electron-Positron Collider, LEP) ubicado en el CERN, a las afueras de Ginebra. Hablaremos de uno de los hitos de esta rama de la física un poco más adelante.

Las ideas físicas de la teoría de huecos de Dirac, que, como hemos mencionado, se basaban en parte en estudios anteriores de los átomos pesados, desembocaron en la denominada física del estado sólido. En los sólidos existe una configuración básica o de referencia, dotada de la mínima energía posible, en la que los electrones ocupan todos los estados disponibles hasta un determinado nivel. Esta configuración es el equivalente al vacío en la teoría de huecos. Existen también configuraciones de energía más alta, en las que algunos de los estados de baja energía no están ocupados por electrón alguno. En esas configuraciones hay vacantes o huecos —que es como técnicamente se denominan— en los que por regla general debería hallarse un electrón. Estos huecos se comportan en muchos aspectos como partículas con carga positiva. Los diodos y transistores de estado sólido se basan en una hábil manipulación de las densidades de electrones y huecos en las uniones entre distintos materiales. Una de las posibilidades más llamativas es conducir electrones y huecos a un lugar donde puedan recombinarse (aniquilarse mutuamente). Esto permite obtener una fuente de fotones que es posible controlar de manera muy precisa, dando lugar a dispositivos tan conocidos como los diodos emisores de luz (Light-Emitting Diodes, LED) y los láseres de estado sólido.

Desde 1932 se han observado muchos otros tipos de antipartículas. De hecho, para cada una de las partículas descubiertas hasta el día de hoy se ha encontrado también la antipartícula correspondiente. Hay antineutrones, antiprotones, antimuones (el muón es una partícula muy similar al electrón, aunque más pesada), antiquarks de varias clases, antineutrinos, antimesones π, antimesones K, etc.[85] Muchas de esas partículas no obedecen a la ecuación de Dirac y algunas tampoco lo hacen al principio de exclusión de Pauli. De lo cual se deduce que la razón física de la existencia de antimateria ha de ser muy general —mucho más de lo que fueron los argumentos que en su día condujeron a Dirac a predecir la existencia de positrones.

Efectivamente, hay un argumento muy general por el cual, si aplicamos a la vez la mecánica cuántica y la relatividad especial, toda partícula tiene que tener su correspondiente antipartícula. La adecuada presentación del argumento requiere una fuerte formación matemática o unas dosis elevadas de paciencia, nada de lo cual quisiera exigirle al lector. Por ello nos contentaremos con una versión aproximada, que señala por qué la antimateria es una consecuencia plausible de aplicar conjuntamente la relatividad y la mecánica cuántica, sin entrar en mucho detalle.

Consideremos una partícula, que denominaremos shmoo (por darle algún nombre, subrayando que podría ser cualquiera), que se mueve hacia el este a una velocidad muy próxima a la de la luz. Según la mecánica cuántica, existe realmente cierta incertidumbre en su posición. Es decir, si medimos ésta, existe cierta probabilidad de que hallemos que, en el instante inicial, el shmoo está un poco más al oeste que su posición media esperada y, en un instante posterior, algo más al este que la citada posición. La partícula, pues, habría viajado un trayecto más largo del esperado para ese intervalo, lo cual significa que se habría desplazado más deprisa. Pero habíamos postulado que la velocidad esperada era prácticamente la de la luz, por lo que una velocidad mayor violaría la relatividad especial, para la cual la velocidad de la luz es la máxima posible. Por consiguiente, se trata de una paradoja.

Veamos cómo es posible resolver la paradoja por medio de las antipartículas: el shmoo que observamos ¡no es necesariamente el shmoo original! También, es posible que, en el instante posterior, existan dos shmoos, el original y uno nuevo. En ese caso, habría también un antishmoo, para equilibrar la carga y conservar otras magnitudes potencialmente asociadas al shmoo adicional. Como casi siempre en teoría cuántica, y para evitar contradicciones, debemos ser muy específicos a la hora de pensar en lo que significa medir algo. Una forma de medir la posición del shmoo sería proyectando luz sobre él. Aunque para medir con exactitud la posición de un shmoo que se mueve rápidamente, necesitaríamos usar fotones de alta energía, por lo que entonces existe la posibilidad de que dichos fotones creen parejas shmoo-antishmoo. Y cuando registrásemos los resultados de la medida podríamos estar hablando del shmoo equivocado.

Los significados más profundos: la teoría cuántica de campos

La teoría de huecos de Dirac es verdaderamente brillante, pero la naturaleza aún va más lejos. Aunque la teoría goce de una consistencia interna y dé cobertura a una amplia gama de aplicaciones, ciertas consideraciones importantes nos obligan a ir más allá.

En primer lugar, hay partículas que no poseen espín y no obedecen a la ecuación de Dirac y, aun así, tienen antipartículas. La existencia de antipartículas es una consecuencia general de combinar la mecánica cuántica con la relatividad especial, como ya hemos visto. En concreto, por ejemplo, los mesones de carga positiva π+ (descubiertos en 1947) y los bosones W+ (descubiertos en 1983) desempeñan un importante papel en la física de las partículas elementales y poseen las respectivas antipartículas π y W. Pero no cabe hacer uso de la teoría de huecos para explicar el comportamiento de esas antipartículas, ya que π+ y W+ no respetan el principio de exclusión de Pauli. No es posible, por lo tanto, interpretar esas antipartículas como huecos en un mar de soluciones de energía negativa. Dada una solución de energía negativa, sea cual sea la ecuación que satisfaga,[86] el que esté ocupada por una partícula no impide que otra pueda adoptar el mismo estado. De modo que las transiciones catastróficas hacia estados de energía negativa, que la teoría de huecos de Dirac prohíbe a los electrones, tienen que ser evitadas de otra manera.

En segundo lugar, existen procesos en los que el número de electrones menos el de positrones cambia. Un ejemplo representativo es la desintegración de un neutrón para dar un protón, un electrón y un antineutrino. En teoría de huecos, la excitación de un electrón con energía negativa hacia un estado de energía positiva es interpretada como la creación de un par electrón-positrón y la desexcitación de un electrón con energía positiva hacia un estado de energía negativa vacante, como la aniquilación de un par electrón-positrón. En ninguno de los dos casos se altera la diferencia entre el número de electrones y el número de positrones. La teoría de huecos no puede explicar los cambios que se produzcan en esta diferencia. Esto significa que hay procesos naturales importantes, relacionados incluso con los electrones, que no encajan fácilmente en la teoría de Dirac.

La tercera y última razón nos retrotrae a la discusión inicial. Tratábamos de resolver las grandes dicotomías luz/materia y continuo/discreto. La relatividad y la mecánica cuántica, por separado, nos acercaban a la meta, y la ecuación de Dirac, con el concepto de espín, nos aproximaba todavía más. Pero aún no hemos llegado a meta. Los fotones son efímeros y en cuanto a los electrones… Estos últimos son, asimismo, efímeros —al menos, eso dicen los experimentos— y esta circunstancia no encaja del todo en nuestra argumentación teórica. En teoría de huecos, los electrones pueden aparecer y desaparecer, pero sólo cuando los positrones desaparecen o aparecen respectivamente.

Más que como contradicciones, debemos interpretar lo anterior como indicios de algo que, hoy por hoy, se nos escapa. Debe haber alguna alternativa a la teoría de huecos que dé cobertura a toda forma de materia y que trate la creación y destrucción de partículas como un fenómeno primordial.

Paradójicamente, el propio Dirac había elaborado con anterioridad el prototipo de una teoría así. En 1927, había aplicado los principios de la nueva mecánica cuántica a las ecuaciones de la electrodinámica clásica de Maxwell. Demostró que el revolucionario postulado einsteniano de que la luz está formada por partículas (fotones) era una consecuencia lógica de la aplicación de dichos principios y que las propiedades de esas partículas se derivaban correctamente de ellos. Pocos fenómenos son tan comunes como la creación de luz a partir de la oscuridad (al encender, por ejemplo, una linterna) o su aniquilación (cuando, por poner el caso, un gato negro atraviesa el haz). Pero trasladado al lenguaje de los fotones, esto significa que la teoría cuántica de las ecuaciones de Maxwell es una teoría sobre la creación y destrucción de partículas (fotones). De hecho, en la teoría de Dirac el campo electromagnético aparece básicamente como un agente de creación y destrucción. Las partículas —los fotones— que observamos resultan de la acción de ese campo, que constituye el objeto primario. Los fotones vienen y se van, pero el campo permanece. La potencia de este planteamiento pareció habérsele escapado a Dirac y a sus contemporáneos durante algún tiempo, quizá debido precisamente al aparente carácter especial de la luz (la dicotomía, una vez más). Pero se trata de un razonamiento general, que también cabe aplicar al objeto que aparece en la ecuación de Dirac, el campo del electrón.

El resultado de una aplicación lógica de los principios de la mecánica cuántica a la ecuación de Dirac es un objeto similar al que el físico británico encontró para las ecuaciones de Maxwell. Se trata de un objeto que destruye electrones y crea positrones.[87] Ambos constituyen ejemplos de campos cuánticos. Cuando el objeto que aparece en la ecuación de Dirac es interpretado como un campo cuántico, las soluciones de energía negativa adoptan un significado completamente distinto y sin aspectos problemáticos. Las soluciones de energía positiva multiplican operadores de destrucción de electrones, mientras que las de energía negativa multiplican operadores de creación de positrones. En este nuevo marco, la diferencia entre los dos tipos de solución consiste en que la energía negativa representa la energía que necesitamos tomar prestada para crear un positrón, mientras que la energía positiva es la que obtenemos al destruir un electrón. Los números negativos no son aquí más paradójicos que en nuestra cuenta bancaria.

Con el desarrollo de la teoría cuántica de campos, las posibilidades que la ecuación de Dirac y la teoría de huecos pusieron en evidencia, pero no llegaron a materializar, se alcanzaron por fin. La descripción de la luz y la de la materia tuvieron finalmente una raíz común. Dirac decía, con comprensible satisfacción, que con la emergencia de la electrodinámica cuántica, los físicos habían logrado obtener las ecuaciones de partida que servían para describir «toda la química y la mayor parte de la física».

En 1932, Enrico Fermi elaboró una teoría sobre la desintegración radiactiva (desintegración beta), que incluía la desintegración del neutrón mencionada anteriormente, llevando los conceptos de la teoría cuántica de campos muy lejos de su origen. Dado que estos procesos implican la creación y destrucción de protones —el paradigma de materia estable—, las viejas dicotomías habían quedado claramente atrás. Tanto las partículas como la luz son epifenómenos, manifestaciones superficiales de unas realidades perdurables y más profundas, los campos cuánticos. Esos campos llenan por completo el espacio y, en este sentido, son continuos. Pero las excitaciones a que dan lugar son discretas, tanto si las observamos como partículas de materia o como partículas de luz.

En la teoría de huecos, nuestra idea del vacío era la de un mar de electrones con energía negativa. En la teoría cuántica de campos, la imagen es totalmente diferente. Pero aquí no hay vuelta atrás. El nuevo escenario difiere de forma aún más radical de la inocente idea de espacio vacío. La incertidumbre cuántica, combinada con la posibilidad de que existan procesos de creación y destrucción, implica un vacío rebosante de actividad. Pares de partículas y antipartículas que nacen continuamente para desaparecer una fracción de segundo después. En 1987 escribí un soneto, titulado «Partículas virtuales», que describe el escenario:

No pienses que no hay nada ahí

Por más que vacíes; por mucho que hagas

dejarás detrás un frenesí incansable

de fútiles clones innumerables.

Nacen en un parpadeo y danzan alrededor;

todo lo que tocan comienza a dudar:

¿qué hago aquí? ¿Cuánto he de pesar?

Dichos pensamientos suelen conducir a la desintegración.

¡No temáis! La terminología es equívoca;

la desintegración es la reproducción de las partículas

y el frenesí, aunque inconsciente, puede servir a nobles fines,

la materia, intercambiada, sirve para crear lazos de amistad.

¿Ser o no ser? La elección parece obvia,

pero Hamlet vaciló. La materia también lo hace.

Consecuencias

Con la génesis de la teoría cuántica de campos, llegamos a la frontera intelectual natural en nuestro recorrido en tomo a la ecuación de Dirac. A mediados de la década de 1930, las paradojas inmediatas a las que la ecuación dio lugar habían quedado resueltas y sus objetivos iniciales estaban plenamente cubiertos. Dirac recibió el Premio Nobel en 1933 y el Premio Anderson en 1935.

Los años posteriores fueron de profundización en la teoría cuántica de campos y de extensión de sus aplicaciones. Por medio de ella, los físicos han elaborado y establecido, con asombroso grado de rigor y por encima de cualquier duda razonable, lo que durante muchos años —o tal vez para siempre— será la teoría fundamental sobre la materia. El modo en que los acontecimientos han tenido lugar y la naturaleza de la teoría constituyen una historia épica que abarca muchas otras ideas y en la que la ecuación de Dirac ha desempeñado un papel relevante, aunque no protagonista. No obstante, algunos desarrollos posteriores están tan fuertemente vinculados a nuestro tema principal y son tan atractivos por ellos mismos que merecen ser mencionados en este ensayo.

La génesis de la teoría cuántica de campos marca un límite natural también en otro sentido. Es el límite que el propio Dirac no se atrevió a cruzar. Al igual que Einstein, Dirac siguió un camino distinto en sus últimos años. Ignoró los trabajos de la mayoría de los físicos y discrepó del resto. En los maravillosos desarrollos a los que dio pie su obra, Dirac desempeñó un papel marginal.

La EDC y los momentos magnéticos

La interacción con el omnipresente vacío dinámico de la teoría cuántica de campos modifica las propiedades observadas en las partículas. En lugar de ver las propiedades teóricas de las partículas desnudas, contemplamos partículas físicas ataviadas con su interacción con las fluctuaciones cuánticas del vacío dinámico.

En particular, el electrón físico no es el electrón desnudo, por lo que no satisface por completo la condición g = 2 de Dirac. Cuando, en 1947, Polykarp Kusch realizó medidas muy precisas de este parámetro, encontró que g era mayor que 2 en un factor de 1,00119. Cuantitativamente, no era una desviación muy grande, pero supuso un gran estímulo para la física teórica ya que representaba un reto muy concreto. En aquella época, había tantos cabos sueltos en la física fundamental que era difícil saber por dónde empezar. (Toda una constelación de partículas recién descubiertas —entre ellas, el muón y el mesón π—, ninguna teoría que explicara satisfactoriamente qué fuerza mantiene unido el núcleo atómico, resultados fragmentarios e injustificados en relación con la desintegración radiactiva, anomalías en los rayos cósmicos de alta energía…). De hecho, existía un conflicto filosófico básico sobre la estrategia a seguir.

Los más veteranos —los fundadores de la teoría cuántica, incluyendo a Einstein, Schrödinger, Bohr, Heisenberg y Pauli— se preparaban para otra revolución. Pensaban que resultaba inútil emplear tiempo en realizar cálculos más precisos en electrodinámica cuántica o EDC (Quantum Electrodynamics, QED), ya que esta teoría era, seguramente, incompleta y, probablemente, errónea. Tampoco ayudaba mucho el que los cálculos requeridos para lograr esa precisión fueran muy complejos y el que a veces revelaran resultados sin sentido (infinitos). Por ello, los viejos maestros trataban de encontrar una teoría de otra clase, aunque, por desgracia, sin adoptar una línea de trabajo clara.

Ironías del destino, fue una joven generación de teóricos —Julian Schwinger, Richard Feynman y Freeman Dyson en Estados Unidos y Sinitiro Tomonaga en Japón— la que asumió el papel conservador.[88] Hallaron un modo de efectuar esos cálculos más exactos y obtener resultados válidos sin cuestionar la teoría fundamental. La teoría, en efecto, era exactamente la que Dirac había elaborado en las décadas de 1920 y 1930. En 1947, Schwinger realizó un nuevo cálculo que incluía los efectos del vacío dinámico. El resultado fue una corrección a g = 2 que concordaba espectacularmente con las medidas de Kusch. Aún habría otros éxitos. Kusch recibió el Premio Nobel en 1955 y Schwinger, Feynman y Tomonaga lo obtendrían conjuntamente diez años después —es difícil entender este retraso.

Para sorpresa de todos, Dirac no aprobó los nuevos procedimientos. Tal vez la cautela estuviera justificada al principio, cuando los métodos matemáticos resultaban poco habituales, no estaban bien definidos e implicaban ciertas dosis de improvisación. Pero todas esas dificultades técnicas habían sido superadas ya. Aunque la EDC presenta problemas de base, contemplada —de manera optimista— como una teoría cerrada, dichos problemas son de una índole muy diferente de la que preocupaba a Dirac y quedan plausiblemente resueltos si se enmarca la EDC en una teoría más amplia y asintóticamente libre (ver más adelante). Por otra parte, el hecho tiene pocas repercusiones prácticas en la mayoría de sus predicciones.

Feynman decía de la EDC que era «la joya de la física, nuestro más preciado bien». Pero, en 1951, Dirac escribiría: «Los últimos trabajos de Lamb, Schwinger, Feynman y otros han obtenido un gran éxito […], pero la teoría resultante es antiestética e incompleta». Y en su último artículo, en 1984, diría: «Esas reglas de renormalización hacen que los resultados concuerden sorprendente y excesivamente bien con los experimentos. La mayor parte de los físicos concluyen que estas reglas son, por lo tanto, correctas. Yo creo que no es un argumento válido. El hecho de que los resultados concuerden con los experimentos no demuestra que una teoría sea correcta».

El lector percibirá, sin duda, un cierto contraste con la actitud del joven Dirac, quien se aferraba a ultranza a su ecuación, precisamente porque explicaba los resultados experimentales.

En la actualidad, el valor del momento magnético del electrón (es decir, su fuerza magnética), determinado experimentalmente, es:

(g/2)experimental = 1,001 159 652 188 4(43)

mientras que la predicción teórica, basada en la EDC y calculada con gran precisión, es:

(g/2)teórico = 1,001 159 652 187 9(88)

(Se indica la incertidumbre en los dos últimos dígitos). Se trata quizá de la confrontación más precisa y difícil de toda la historia de la ciencia entre un cálculo teórico especialmente complejo —aunque muy bien definido— y un fascinante experimento. Es lo que Feynman quería decir al hablar de «nuestro más preciado bien».

Al tiempo de redactar el presente artículo, determinar de forma aún más exacta el momento magnético del electrón y el de su pariente el muón sigue constituyendo un reto para la física experimental. Con las precisiones alcanzables hoy, los resultados serán sensibles a los efectos de las fluctuaciones cuánticas debidas a potenciales nuevas partículas pesadas, en particular, a las que se prevé estén asociadas a la supersimetría.

La CDC y la teoría sobre la materia

El momento magnético del protón no sólo no satisface la condición de Dirac (g = 2), sino que vale aproximadamente 5,6. El caso de los neutrones es aún peor. El neutrón es eléctricamente neutro; la ecuación original de Dirac no predice momento magnético alguno para él. El hecho es que el neutrón posee un momento magnético que es aproximadamente dos tercios del correspondiente al protón y presenta la orientación opuesta respecto al espín, lo cual corresponde a un valor infinito de g. Las discrepancias halladas en estos momentos magnéticos fueron el primer síntoma de que tanto protones como neutrones son objetos más complejos que el electrón.

En los estudios realizados con posterioridad surgieron muchas más complicaciones. Las fuerzas entre los protones y los neutrones resultaron ser muy complejas, dependientes no sólo de las distancias entre ellos, sino también de sus velocidades, orientaciones de espín y todo tipo de caprichosas combinaciones entre estos parámetros. En realidad, pronto se vio que no eran fuerzas en el sentido tradicional del término. La existencia de una fuerza entre dos protones, en el sentido tradicional, significaría que el movimiento de uno de ellos podría verse afectado por la presencia del otro; es decir, si lanzásemos un protón contra otro, éste se desviaría. Lo que en la práctica se observa es que, cuando un protón colisiona con otro, suele surgir toda una pléyade de partículas, la mayoría de las cuales son muy inestables. Aparecen mesones π, mesones K, mesones ρ, bariones Λ y Σ, sus antipartículas correspondientes y muchas más. Todas esas partículas interaccionan fuertemente entre ellas. De este modo, el problema de las fuerzas nucleares, la frontera de la física desde la década de 1930, se convirtió en el reto de comprender todo un nuevo y amplio mundo de partículas y las reacciones que se producían entre ellas, reacciones que parecían ser las más potentes de la naturaleza. Hasta la terminología tuvo que cambiar. Los físicos dejaron de hablar de fuerzas nucleares y comenzaron a hablar de la interacción fuerte.

En la actualidad sabemos que es posible describir todas las complejidades de la interacción fuerte, a nivel fundamental, mediante una teoría denominada cromodinámica cuántica o CDC (Quantum chromodynamics, QCD), que es una amplia generalización de la EDC. Los componentes elementales de la CDC son los quarks y los gluones. Hay seis tipos o sabores de quarks: u, d, s, c, b, t (up-arriba, down-abajo, strange-extraño, charm-encanto, bottom-base, top-techo). Reminiscencia de los leptones cargados,[89] los quarks son muy parecidos unos a otros, difiriendo básicamente en su masa. En la materia ordinaria sólo se hallan presentes los dos más ligeros, u y d. Haciendo una analogía con los componentes básicos de la EDC, los quarks desempeñan más o menos el papel de los electrones y los gluones, el de los fotones. La gran diferencia es que, mientras en la EDC sólo hay un tipo de carga y un fotón, en la CDC tenemos tres tipos de carga —los denominados colores— y ocho gluones. Algunos gluones responden a cambios de color, de manera similar a como los fotones responden a la carga eléctrica. Otros sirven de intermediarios en las transiciones entre un color y otro. Por ejemplo, un quark u con carga azul puede radiar un gluón y convertirse en un quark u con carga verde. Como la carga global debe conservarse, ese gluón ha de tener carga azul +1 y carga verde −1. Dado que los gluones transportan carga de color no equilibrada, en CDC existen procesos elementales en los que los gluones radian otros gluones. No hay nada equivalente en la EDC. Los fotones son eléctricamente neutros y, en términos generales, no interaccionan unos con otros. Gran parte de la riqueza y complejidad de la CDC proviene de esta nueva característica.

Presentada de este modo, sin profundizar en los conceptos o en los fenómenos, la CDC puede parecer extravagante y arbitraria. En realidad, la CDC es una teoría de gran simetría y belleza matemática. Desgraciadamente, no disponemos de espacio para hacerle justicia aquí. Pero le debo al lector algunas explicaciones.

¿Cómo hemos llegado a una teoría de este tipo? Y ¿cómo sabemos que es correcta? En el caso de la CDC, se trata de dos cuestiones muy distintas. El recorrido histórico hacia su descubrimiento fue tortuoso, plagado de pistas falsas y callejones sin salida. Pero, contemplado retrospectivamente, no tuvo por qué ser así. De haber existido antes los aceleradores de ultra-alta energía, la CDC se hubiera materializado ella sola ante nuestros asombrados ojos.[90] La narración que sigue reúne la mayoría de las ideas que hemos examinado hasta ahora y me parece un epílogo adecuado para esta parte del artículo.

Cuando aceleramos electrones y positrones hasta imprimirles una energía muy elevada y los hacemos colisionar, observamos dos tipos de sucesos. En uno de ellos, las partículas del estado final son leptones y fotones. En esta clase de suceso, el estado final suele consistir simplemente en un leptón y su antileptón; pero en alrededor de un 1 por ciento de los casos existe también un fotón y en un 0,01 por ciento, el número de fotones es dos. La probabilidad de esos sucesos, y la de que las diversas partículas adopten distintos ángulos y energías, pueden ser computadas mediante EDC y los resultados son muy satisfactorios. Por el contrario, si no supiésemos nada de EDC, podríamos deducir las reglas básicas de la interacción fundamental de la EDC —es decir, la emisión de un fotón por parte de un electrón— sólo con analizar los citados sucesos. La interacción fundamental de la luz con la materia se halla ante nuestras propias narices.

En el otro tipo de suceso observamos algo radicalmente distinto. En lugar de dos o, como mucho, media docena de partículas, surgen muchas y muy diferentes. Aparecen cosas como mesones π, mesones K, protones, neutrones y sus antipartículas (partículas todas ellas que, a diferencia de los fotones y los leptones, producen interacciones fuertes). La distribución angular de esas partículas es muy específica. En vez de surgir de manera independiente, cada una por su lado, emergen en contadas direcciones, formando delgados chorros. En un 90 por ciento de los casos sólo se producen dos chorros, saliendo en sentidos opuestos. En alrededor del 10 por ciento, los chorros son tres, y en un 1 por ciento, cuatro —imagine el lector su distribución espacial.

Ahora bien, si no aplicamos la lupa en busca de partículas individuales y nos limitamos a seguir el flujo de energía y momento, los dos tipos de suceso —el que da lugar a partículas EDC y el de los chorros de partículas con interacciones fuertes— ¡parecen el mismo!

En esta historia imaginaria sería difícil no sucumbir a la tentación de tratar los chorros como si fuesen partículas y establecer reglas para la probabilidad de los diferentes patrones de radiación —con los correspondientes números, ángulos y energías para las partículas-chorro— análogas a las empleadas con éxito en EDC. Y la cosa funcionaría muy bien, ya que las reglas que realmente describen las observaciones son muy parecidas a las de la EDC. Por supuesto, las reglas adecuadas son justamente las de la CDC, que incluyen los nuevos procesos por los que un gluón puede generar otro. Todas esas reglas —los cimientos de la teoría— podrían haber sido deducidas directamente a partir de los datos. Quark y gluón serían conceptos con una definición operativa directa y precisa, en términos de chorros. Como decíamos, todo se halla ante nuestros ojos (… una vez hemos comprendido hacia dónde hay que mirar).

Aun así, nos enfrentaríamos a dos grandes rompecabezas conceptuales. ¿Por qué los experimentos muestran quarks y gluones en lugar de quarks y gluones simplemente —es decir, chorros en lugar de simples partículas—? Y ¿cómo relacionamos esos conceptos teóricos que describen directa y exitosamente los sucesos de alta energía con el resto de los fenómenos de la interacción fuerte? La conexión entre la supuesta teoría fundamental y las observaciones diarias en absoluto resulta obvia. Por ejemplo, si deseáramos construir protones a partir de los quarks y los gluones que aparecen en la teoría fundamental, no sería posible, ya que los chorros que sirven para definir operativamente esas partículas a menudo contienen ellos mismos protones, entre otras cosas.

Existe una solución elegante para ambos problemas. Se trata del fenómeno de la libertad asintótica en CDC. Conforme a la libertad asintótica, los sucesos de radiación que impliquen grandes cambios en el flujo de energía y momento son infrecuentes, mientras que los que sólo supongan pequeños cambios son muy comunes. La libertad asintótica no es una premisa aparte, sino una consecuencia matemática profunda de la estructura de la CDC.

La libertad asintótica explica claramente por qué surgen los chorros en las aniquilaciones electrón-positrón a altas energías, el tipo de suceso asociado a partículas con interacciones fuertes. Inmediatamente después de que el electrón y el positrón se aniquilen mutuamente, aparecen un quark y un antiquark que se mueven a gran velocidad y en sentidos opuestos. Ambos radian gluones enseguida y éstos radian, a su vez, dando origen a una compleja cascada integrada por multitud de partículas. Pero a pesar de toda esa conmoción, el flujo global de energía y momento no se ve perturbado significativamente. Las radiaciones que perturban el citado flujo son poco habituales, según la libertad asintótica. Así pues, tenemos un puñado de partículas que se mueven todas ellas en la misma dirección, la establecida inicialmente por el quark y el antiquark. En definitiva, se ha producido un chorro. Cuando tiene lugar uno de esos raros sucesos de radiación que perturban el flujo de energía y momento, el gluón radiado origina un chorro por sí mismo, con lo que tendríamos un suceso de tres chorros, y así sucesivamente.

La libertad asintótica indica también por qué los protones (y otras partículas con interacciones fuertes), que se manifiestan como entidades individuales estables o cuasi estables, son en realidad objetos complejos. Estas partículas son, por definición, configuraciones de quarks, antiquarks y gluones dotadas de un grado de estabilidad razonable. Ni qué decir tiene que, como la probabilidad de que quarks, antiquarks y gluones radien es muy alta, no será válida cualquier configuración. Para que una configuración dada sea estable deberá existir un equilibrio dinámico, en el que la emisión de radiación en una parte del sistema quede equilibrada mediante su absorción en otra.

Lo cierto es que la libertad asintótica fue descubierta en el campo teórico (por David Gross y por mí e, independientemente, por David Politzer) y la CDC, propuesta en 1973 (por Gross y por mí) como candidata a teoría de la interacción fuerte, basándonos en evidencias mucho menos directas. La existencia de los chorros y sus propiedades fueron una predicción teórica, antes de ser constatados experimentalmente. En la actualidad y gracias a la evidencia experimental acumulada, la CDC ha sido aceptada como teoría fundamental de la interacción fuerte, junto con la EDC para la interacción electromagnética.

Mediante la CDC se ha registrado un enorme progreso en la descripción de las propiedades del protón, el neutrón y las demás partículas con interacciones fuertes. Esto ha obligado a realizar complejos y tediosos cálculos numéricos en los ordenadores más potentes, pero el resultado ha merecido la pena. Un hecho a destacar es que es posible calcular las masas del protón y el neutrón a partir de principios fundamentales y sin emplear parámetros libres importantes. Como ya se ha indicado, desde un punto de vista fundamental, las partículas citadas constituyen un complejísimo equilibrio dinámico entre quarks, antiquarks y gluones. La mayor parte de su masa —y, por lo tanto, la de toda la materia conocida, incluyendo nuestros propios cuerpos— proviene de la pura energía de esos objetos —que, esencialmente, ellos mismos carecen de masa— al moverse, de acuerdo con m = E/c2. A ese nivel, al menos, somos criaturas etéreas.

Dirac decía que la EDC describía «toda la química y la mayor parte de la física» y, en efecto, es la teoría fundamental para la estructura externa del átomo (y para mucho más). En el mismo sentido, la CDC es la teoría fundamental de los núcleos atómicos (y de mucho más). Juntas, conforman una teoría de la materia notablemente completa, compacta, fructífera y contrastada.

La fecundidad de la razón

Acabamos de ver cómo el «jugar con las ecuaciones» condujo a Dirac hasta una ecuación cargada de significados que él jamás previo, y a los que en muchos casos se opuso, pero que demostró ser correcta y enormemente fructífera. ¿Cómo pudo suceder algo así? ¿Pueden ser las matemáticas verdaderamente creativas? ¿Cabe realmente llegar, mediante cálculos o procesos lógicos, a percepciones esencialmente nuevas, a obtener, en definitiva, más de lo que se invirtió?

La cuestión es de plena actualidad, pues incide en el corazón del debate relativo a la inteligencia de las máquinas. (En si éstas podrían llegar a desarrollar una especie de mente semejante a la humana o incluso superior).

A primera vista, los argumentos en contra parecen irrebatibles. El de más peso, al menos desde el punto de vista psicológico, es el de la introspección. Al reflexionar sobre nuestros propios procesos mentales, no podemos evitar sentir que no consisten exclusivamente —o, al menos, principalmente— en manipulaciones de símbolos basadas en reglas preestablecidas. Simplemente, no percibimos que sea así. Por lo general, pensamos en términos de imágenes y emociones, no de meros símbolos. Y el flujo de nuestros pensamientos se ve constantemente estimulado y redirigido por interacciones con el mundo exterior y por impulsos internos de una forma que difiere claramente del modo en que se desenvuelve un algoritmo matemático.

Otro argumento proviene de nuestra experiencia con los modernos ordenadores digitales, los cuales son, en cierto sentido, unos matemáticos ideales. Son infinitamente más rápidos, infalibles e infatigables que cualquier ser humano a la hora de aplicar unas reglas (axiomas) precisas. Y en muchas tareas especializadas, tales como gestionar los vuelos de una compañía aérea o las rutas de distribución de carburantes para maximizar beneficios, sobrepasan con mucho la capacidad humana. Y, aun así, respecto al patrón humano, hasta el ordenador más potente resulta frágil, limitado y bastante estúpido. Un pequeño error de programación, unos bytes de código malicioso o un fallo en la memoria pueden bloquear la máquina más moderna o hacerla adoptar un comportamiento autodestructivo. La comunicación se limita a formatos rígidamente establecidos, ajenos a la riqueza del lenguaje natural. Los resultados absurdos pueden —y suelen— emerger sin ningún tipo de pudor ni censura.

Sin embargo, un análisis más profundo de estos argumentos hace aflorar algunas dudas. Aunque la naturaleza del vínculo entre los patrones de las señales eléctricas en las células nerviosas con los procesos mentales asociados sigue siendo misteriosa en muchos aspectos, hoy se conoce una pequeña parte en relación, sobre todo, con las primeras etapas del proceso sensorial. Nada en lo descubierto hasta ahora sugiere la presencia de algo más exótico que simples señales eléctricas y químicas que siguen leyes físicas perfectamente conocidas. La inmensa mayoría de los científicos acepta como hipótesis de trabajo la existencia de un nexo entre los patrones de las señales eléctricas y el pensamiento. El patrón formado por los fotones que inciden en nuestra retina es descompuesto y analizado en unidades elementales, conducido a través de un sinnúmero de canales diferentes, procesado y —de algún modo— reensamblado después para proporcionamos una «imagen del mundo» engañosamente simple, organizada en forma de objetos en el espacio y que tendemos a considerar obvia. El hecho es que no tenemos ni la más remota idea de cómo realizamos la mayor parte de lo que hacemos, incluso —o, más bien, en particular— nuestros procesos mentales más simples. Quienes han tratado de construir máquinas capaces de reconocer los objetos que muestra una fotografía o de pasearse y explorar el entorno como un bebé, han sufrido experiencias frustrantes, a pesar de que, ellos mismos, puedan hacer todo eso sin ninguna dificultad. Pero no pueden enseñar a otros, sencillamente porque no saben cómo lo hacen. En definitiva, la introspección no es una guía fiable a la hora de comprender la estructura última del pensamiento, tanto en lo que creemos conocido, como en lo desconocido.

En cuanto a los ordenadores, todo veredicto negativo es seguramente prematuro, ya que evolucionan muy deprisa. Un hito reciente es la victoria de Deep Blue sobre el campeón mundial de ajedrez Gary Kasparov en un torneo rápido. Nadie se negaría a aceptar que un juego de ese nivel habría sido considerado profundamente creativo de haber sido llevado a cabo por un jugador humano. Sin embargo, un éxito así en un campo limitado no hace sino exacerbar la cuestión: ¿Qué es lo que falta, qué es lo que impide la emergencia de creatividad a partir del puro cálculo en un frente más amplio? Creo que ciertos casos-ejemplo pueden resultar de gran valor a la hora de responder esta trascendental pregunta.

En la física moderna, y tal vez en toda la historia de la ciencia, ningún episodio ilustra mejor la naturaleza profundamente creativa del razonamiento matemático que la historia de la ecuación de Dirac. Sabemos a posteriori que lo que Dirac trataba de hacer es estrictamente imposible. Las leyes de la mecánica cuántica, tal como se conocían en 1928, no pueden ser consistentes con la relatividad especial. Y, aun así, partiendo de supuestos inconsistentes, Dirac llegó a una ecuación que hoy sigue siendo una de las piedras angulares de la física.

Nos hallamos, pues, ante un ejemplo concreto, significativo y bien documentado de cómo un razonamiento matemático sobre el mundo físico, culminando en una ecuación específica, condujo a resultados que supusieron toda una sorpresa para el propio pensador. En aparente desafío a algunas leyes de conservación, obtuvo mucho más de lo que invirtió. ¿Qué hizo posible ese salto? ¿Cómo lo logró Dirac, en particular? ¿Qué llevó a Dirac y a sus contemporáneos a aferrarse insistentemente a la ecuación cuando ésta los arrastraba «mar adentro»?[91]

En los comentarios de Dirac hallamos algunas pistas. En su breve ensayo «Mi vida como físico», se enorgullece de su formación como ingeniero: «Los estudios de ingeniería ejercieron una fuerte influencia en mí. […] Aprendí que, al describir la naturaleza, se deben aceptar las aproximaciones y que incluso el trabajo basado en ellas puede ser interesante y, en ocasiones, hermoso». En este sentido, una de las causas de la fe inicial de Dirac (y de la de otros) en su ecuación, lo que les movía a tolerar sus aparentes fallos, era simplemente que podían encontrar soluciones aproximadas que concordaban brillantemente con los datos experimentales para el espectro del hidrógeno. En sus primeros artículos, Dirac se complacía en mencionar —sin que pareciera preocuparle demasiado— que existían otras soluciones, matemáticamente válidas también, pero carentes de toda interpretación física razonable.

En lo que a primera vista puede parecer un enfoque completamente distinto, Dirac subrayaba a menudo el poder heurístico de la belleza matemática: «Al tratar de expresar en forma matemática las leyes fundamentales de la naturaleza, el investigador debería perseguir sobre todo la belleza matemática». Éste fue otro de los pilares que al principio sostuvieron su fe en la ecuación: era (y es) extraordinariamente hermosa.

Por desgracia, es difícil precisar y casi imposible transmitir al lector profano la naturaleza de la belleza matemática. Pero cabe hacer analogías con otras clases de belleza. Una faceta que puede hacer que sea hermosa una pieza musical, una novela o una obra de teatro es la acumulación de tensión entre temas trascendentes y bien desarrollados, tensión que luego es resuelta de manera convincente y sorpresiva. Un aspecto que puede convertir en bella una escultura o una obra arquitectónica es la simetría —el equilibrio en las proporciones y la complejidad dirigida a un fin—. La ecuación de Dirac posee todas esas características en grado sumo.

Recordemos que Dirac trataba de conciliar la mecánica cuántica de los electrones con la relatividad especial. Es hermoso contemplar cómo la tensión entre los requisitos de simplicidad y relatividad puede ser resuelta y hallar que, esencialmente, sólo hay un modo de hacerlo. Éste es uno de los aspectos de la belleza matemática de la ecuación de Dirac. Otro de ellos, su equilibrio y simetría, es casi sensual. El espacio y el tiempo, el momento y la energía, aparecen en escena. Los diversos términos del sistema de ecuaciones han de ser coreografiados siguiendo la música de la relatividad y los patrones de 0s y 1s (e is) danzan ante nuestros ojos.

Las líneas convergen cuando la física conduce a la belleza matemática, o en los raros y mágicos momentos en los que las matemáticas nos llevan hasta la verdad física. Dirac buscaba una ecuación que satisficiera hipótesis motivadas por la realidad física. Encontró que, para obtenerla, eran precisas cuatro componentes (un sistema de ecuaciones). Fue la primera sorpresa. Dos de las componentes eran bienvenidas: representaban con claridad las dos direcciones posibles del espín del electrón. Pero las otras dos, al principio, no tenían una interpretación física convincente y cuestionaban incluso el significado de la ecuación misma. Sin embargo, la ecuación pareció cobrar vida propia y trascender las ideas que la habían alumbrado. Y así, poco tiempo después, las dos componentes adicionales presagiaban el positrón, como ya vimos.

Con esta convergencia llegamos al corazón del método seguido por Dirac en su búsqueda de la ecuación que lleva su nombre, similar al empleado por James Clerk Maxwell al deducir las suyas y por el propio Einstein cuando creó sus teorías especial y general de la relatividad. Todos ellos procedieron mediante lógica experimental, un término contradictorio sólo en apariencia. En lógica experimental se formulan hipótesis en forma de ecuaciones y se experimenta con esas ecuaciones. Es decir, se intenta perfeccionar las ecuaciones desde el punto de vista de la belleza y la consistencia, y seguidamente se verifica si esas ecuaciones mejoradas explican algún aspecto de la naturaleza. Los matemáticos utilizan la técnica de la «reducción al absurdo»: para demostrar A, se asume el opuesto de A y se llega a una contradicción. La lógica experimental es una «validación por fecundidad»: para validar A, se asume A y se demuestra que conduce a resultados útiles. Frente al modus operandi de la lógica deductiva, la lógica experimental se inspira en la máxima: «Más vale pedir perdón que solicitar permiso». De hecho, como ya hemos visto, la lógica experimental no contempla la inconsistencia como una catástrofe irremediable. Si una línea de investigación tiene cierto éxito y es fructífera, no debería ser abandonada según su inconsistencia o su carácter aproximado. Por el contrario, se ha de buscar el modo de convertirla en correcta.

Considerando todo lo anterior, volvamos a la cuestión de la creatividad en el razonamiento matemático. Decíamos que, en cierto sentido, los modernos ordenadores son como matemáticos ideales. En el seno de cualquier rama de las matemáticas dotada de axiomas razonables y precisos, sabemos cómo programar un ordenador de forma que demuestre sistemáticamente todos los teoremas válidos.[92] Ejecutando un programa, una máquina de esta clase produciría teoremas válidos con mucha más velocidad y precisión que cualquier matemático humano. Pero intentar crear matemática avanzada mediante un programa así no sería mucho mejor que poner a una manada de monos a aporrear máquinas de escribir y esperar que en alguna de ellas aparezca una obra de Shakespeare. Obtendríamos miles de teoremas ciertos, pero la inmensa mayoría de ellos serían triviales, con el grano irremisiblemente entremezclado con la paja. En la práctica, si el lector examina con detenimiento revistas de matemáticas o de física matemática —y no digamos revistas literarias— no encontrará muchos trabajos propuestos por ordenadores. Los intentos de enseñar a los ordenadores a hacer matemática creativa auténtica —como los de enseñarles a reconocer objetos o a navegar por un escenario real— han cosechado éxitos muy limitados. En el fondo, se trata de problemas con muchos puntos en común. La matemática y la física creativas no se basan en la estricta lógica, sino en la lógica experimental. La lógica experimental implica reconocer patrones, jugar con ellos, hacer suposiciones para explicarlos y, especialmente, apreciar la belleza. Y la física creativa requiere más: la capacidad de construir patrones del mundo que nos rodea y de valorar no sólo su consistencia lógica, sino también su fidelidad (¡aproximada!) a la realidad.

¿Puede ser creativo el razonamiento puramente matemático? Indudablemente, si es a la manera de Dirac, unido a la capacidad de tolerar aproximaciones, de apreciar la belleza y de aprender mediante la interacción con el mundo real. Cada uno de esos factores ha desempeñado un papel en todos los grandes progresos registrados en la física. El reto consiste, pues, en cómo plasmar esas capacidades en mecanismos concretos.

APÉNDICE

Habíamos presentado la ecuación de Dirac en la forma:

Identifiquemos ahora sus términos. La función de onda ψ(x) es el objeto cuyo comportamiento describe la ecuación. Posee cuatro componentes: ψe(x), ψe(x), ψp(x), ψp(x). Cada una de ellas es una función cuyo valor depende del espacio y el tiempo, tal como indica el argumento (x). Para Dirac, esos valores eran números complejos, cuyo cuadrado viene a representar (en términos genéricos) la probabilidad de encontrar el correspondiente tipo de partícula: un electrón con el espín hacia arriba, un electrón con el espín hacia abajo, un positrón con el espín hacia arriba o un positrón con el espín hacia abajo. En la interpretación moderna, los valores son operadores que crean electrones o destruyen positrones.

Como es habitual en las teorías relativistas, se asume la convención de suma de Einstein. Se supone que los subíndices y superíndices μ toman los valores 0, 1, 2, 3, representando el tiempo y las tres direcciones espaciales, y engloban las contribuciones de esos cuatro valores. El operador derivada ∂/∂x0 mide cuán rápido cambia la función de onda a lo largo del tiempo y los otros operadores de este tipo, la tasa de cambio de dicha función a lo largo de las tres coordenadas espaciales. Los campos A(x), con varios subíndices, son los potenciales electromagnéticos. Especifican los campos magnéticos y eléctricos que experimenta el electrón. La carga del electrón es e. Representa la intensidad de su respuesta a esos campos. La masa del electrón es m.

La innovación técnica más característica de Dirac fue la introducción de las matrices γ:

Los demás elementos de su ecuación —función de onda, derivadas, potenciales electromagnéticos, carga y masa— aparecían ya en la ecuación de Schrödinger. Las matrices γ eran una novedad absoluta. Permitían a Dirac formular una ecuación en la que tiempo y espacio aparecían al mismo nivel y, a la vez, le obligaban a introducir una función de onda con cuatro componentes.

Expresada con detalle, la ecuación de Dirac dice así:

AGRADECIMIENTOS

El presente trabajo ha sido financiado en parte por el Departamento de Energía de Estados Unidos a través del acuerdo de investigación #DF-FC02-94ER40818. Marty Stock colaboró con LaTeX.

LECTURAS RECOMENDADAS

Como material de lectura sobre física atómica y teoría cuántica, incluyendo extractos de importantes fuentes originales, recomiendo especialmente The World of the Atom, de H. Boorse y L. Motz (Basic Books, 1996). Los capítulos más trascendentes parecen recién escritos.

El clásico de Dirac es The Principles of Quantum Mechanics, 4.ª ed., Cambridge University Press, 1958.

R. P. Feynman, QED: The Strange Theory of Light and Matter, Princeton University Press, 1985. Se trata de un exigente, aunque bello y honesto tratamiento de los principios de la electrodinámica cuántica que no requiere conocimientos matemáticos previos.

Como breve panorámica de la CDC, de fácil comprensión tras el libro de Feynman y que tampoco requiere una formación matemática previa, recomiendo «QDC made simple», de F. Wilczek, publicado en Physics Today 2000, vol. 53N8, págs. 22-28.

Actualmente estoy elaborando un informe completo, que se titulará simplemente QCD (Princeton).

Para un repaso conceptual de la teoría cuántica de campos, véase mi artículo «Quantum field theory», publicado en el volumen dedicado al Centenario de la Sociedad Americana de Física de la Review of Modern Physics, 1999, vol. 71, págs. S85-S95. El volumen está publicado también como More Things in Heaven and EarthA Celebration of Physics at the Millennium, En: B. Bederson, ed., Nueva York, Springer-Verlag, 1999, y contiene otros profundos artículos que tocan muchos de nuestros temas.