Capítulo 8. El núcleo atómico y las partículas elementales. Descubrimiento de la radiactividad
A principios de 1896, el físico francés Henri Becquerel, después de conocer el reciente descubrimiento de los rayos X por Roentgen, decidió ver si algo semejante a los rayos X era emitido también por los cuerpos fluorescentes de los que se sabía que resplandecen bajo la acción de los rayos incidentes de luz. Para estos estudios, escogió cristales de un mineral conocido como "uranilo" (doble sulfato de uranio y potasio) que había estudiado antes a causa de sus acusadas propiedades fluorescentes. Como Becquerel creía que la radiación es el resultado de la iluminación exterior, colocó un cristal de uranilo sobre una placa fotográfica envuelta en papel negro y puso todo ello en el antepecho de la ventana. Cuando reveló la placa después de unas cuantas horas de exposición a la luz del sol, observó claramente una mancha oscura debajo del sitio en que había sido colocado el cristal de uranilo. Repitió el experimento varias veces y siempre apareció la mancha oscura, aunque puso papel más negro envolviendo la placa fotográfica.
El 26 y 27 de febrero (1896), el cielo de Paris estaba cubierto de espesas nubes, la lluvia caía intermitentemente y la vida de los bulevares se había refugiado bajo los toldos de los cafés y restaurantes. Desgraciadamente, el profesor Becquerel puso la placa fotográfica recién envuelta con el cristal de uranilo sobre ella en el cajón de su mesa para esperar mejor tiempo. El Sol no apareció hasta el 1 de marzo y aun entonces estaba oscurecido por nubes transeúntes. Sin embargo, Becquerel expuso otra vez su dispositivo a los rayos del sol y pasó después a la cámara oscura para ver los resultados. Era algo increíble. En vez de las manchas oscuras que había obtenido anteriormente durante la exposición de todo un día a la brillante luz del Sol, se vela una mancha negra como el carbón debajo del sitio en que había estado el cristal de uranilo. Evidentemente el oscurecimiento de la placa no tenía relación alguna con la exposición del cristal de uranilo a los rayos del Sol, y el oscurecimiento de la placa fotográfica se había estado produciendo sin interrupción todo el tiempo en que estuvo con el trozo de uranilo encima en el cajón cerrado de la mesa de Becquerel.
Era una radiación penetrante semejante a los rayos X, pero emanaba por sí misma, sin ninguna excitación externa, sino procedente de los átomos, probablemente los de uranio en el cristal de Becquerel. Este ensayó calentar el cristal, enfriarlo, pulverizarlo, disolverlo en ácidos y hacer todo lo que se le pudo ocurrir, pero la intensidad de la misteriosa radiación seguía siendo siempre la misma. Era claro que la nueva propiedad de la materia, que recibió el nombre de radiactividad, no tenía relación alguna con la forma física o química en que los átomos se reúnen, sino que es una propiedad oculta profundamente dentro del átomo mismo.
1. Elementos radiactivos
Durante los primeros años después del descubrimiento de la radiactividad, gran número de químicos y físicos estuvieron muy ocupados estudiando el nuevo fenómeno. Madame Marie Sklodowska Curie, nacida en Polonia, buena química y mujer del físico francés Pierre Curie, realizó un extenso ensayo de todos los elementos químicos y sus compuestos para conocer su radiactividad y encontró que el torio emite radiaciones similares a las del uranio. Comparando la radiactividad de los minerales de uranio con la del uranio metálico, advirtió que los minerales eran cinco veces más radiactivos que lo que podía esperarse de su contenido de uranio. Esto indicaba que el mineral debía contener pequeñas cantidades de algunas otras sustancias mucho más activas que el propio uranio, pero para separarlas eran necesarias cantidades muy grandes del caro mineral de uranio. Madame Curie logró obtener del Gobierno austríaco una tonelada de residuos sin valor (en aquel tiempo) del uranio producido en Joachimsthal (Bohemia), que, privados del uranio, retenían todavía la mayor parte de su radiactividad. Conducida por el hilo de Teseo de la radiación penetrante, Madame Curie se las arregló para separar una sustancia que tenía propiedades químicas similares al bismuto a la que llamó polonio en honor de su país natal. Siguió trabajando y aun separó otra sustancia química similar al bario a la que llamó radio, que era dos millones de veces más radiactiva que el uranio.
Los exploradores, tanto en países nuevos y desconocidos como en los nuevos campos de la ciencia, suelen ser víctimas de los peligros ocultos que encuentran en su camino. La muerte de Madame Curie, a sus 67 años, fue originada por la leucemia, una enfermedad que, según se sabe ahora, proviene de la exposición a la radiación penetrante. Cuando los físicos supieron mejor cómo preservarse contra la radiación, pusieron películas fotográficas entre las hojas de los libros del laboratorio de Madame Curie. Las películas reveladas mostraron numerosas huellas digitales producidas por los depósitos radiactivos en las páginas tocadas por los dedos de Madame Curie. Al descubrimiento del polonio y el radio siguió el de otras sustancias radiactivas. Entre ellas estaba el actinio, un pariente próximo del uranio desintegrable, que fue aislado por Debierne y Giesel; el radio-torio y el mesotorio, separados por Otto Hahn que unos cuarenta años después descubría el fenómeno de la desintegración del uranio.
2. Familias radiactivas
En el aspecto físico de la cuestión, el trabajo avanzó en el estudio de las propiedades de la radiación penetrante. En 1899, Ernest Rutherford (entonces de 28 años) descubrió que había tres clases diferentes de rayos:
- Rayos alfa (a), que pueden ser detenidos por una hoja de papel y que se comprobó eran los iones del helio. (En realidad, eran núcleos de átomos de helio, pero Rutherford no lo supo hasta que realizó los experimentos de dispersión, ya expuestos, doce años después.)
- Rayos beta (b), que pueden pasar a través de hojas de aluminio de unos cuantos milímetros de espesor y que resultaron ser haces de electrones que se mueven muy rápidamente.
- Rayos gamma (g), que pueden penetrar planchas de plomo, de muchos centímetros de espesor y que son similares a los rayos X, aunque de longitud de onda mucho más corta.
Es habitual que en los libros de texto de física (incluso en los publicados antes por este autor) se reproduzca un diagrama como el de la Figura 47 que muestra la desviación de los rayos alfa, beta y gamma cuando pasan a través de un campo magnético (o eléctrico). El haz alfa se curva hacia la izquierda (carga positiva), el haz beta hacia la derecha (carga negativa) y el haz gamma queda sin desviación (ondas electromagnéticas). Es dudoso, sin embargo, que tal experimento pudiera haberse realizado durante los primeros estudios de la radiactividad (una desviación perceptible de las partículas alfa requiere electromagnetos extraordinariamente fuertes que no fueron construidos hasta mucho después) y la diferencia entre los rayos alfa y beta fue establecida por métodos indirectos mucho más intrincados.
Figura 47. Rayos alfa, beta y gamma
Muy pronto, Rutherford y su colaborador, Frederick Soddy, llegaron a la conclusión de que el fenómeno de la radiactividad es el resultado de la transformación espontánea de un elemento químico en otro. La emisión de una partícula alfa con carga +2 y masa 4 da por resultado la formación de un elemento que está situado dos pasos a la izquierda en el sistema de Mendeleiev y cuyo peso atómico es 4 unidades menos. La emisión de una partícula beta (un electrón negativo) lleva al elemento un paso a la derecha en el sistema de Mendeleiev y no cambia en nada su peso atómico. La emisión de rayos gamma es el resultado de una perturbación en el átomo debida a la expulsión de una partícula cargada positiva o negativamente. La serie de las sucesivas degradaciones alfa y beta degrada los pesados e inestables átomos de los elementos radiactivos reduciendo su peso y número atómicos hasta que, por último, llegan a un estado estable que es un átomo de plomo.
Como una degradación alfa modifica el peso atómico en 4 unidades mientras que la degradación beta no cambia el peso atómico, pueden existir cuatro familias de elementos radiactivos:
- Aquellos cuyo peso atómico es múltiplo de cuatro: 4n.
- Aquellos con peso atómico 4n + 1.
- Aquellos con peso atómico 4n + 2.
- Aquellos con peso atómico 4n + 3.
El peso atómico del uranio es 238; es decir, 4 x 59 + 2. Así, pues, el uranio y todos los miembros de su familia derivados de degradación alfa y beta pertenecen a la tercera de las categorías mencionadas. El peso atómico del torio es 232; es decir, 4 x 58, de suerte que la familia del torio pertenece a la primera categoría. El protactinio que degenera en actinio y los otros miembros de la familia del actinio tiene peso atómico 231; es decir, 4 x 57 + 3, perteneciendo, por tanto, a la cuarta categoría. Una familia radiactiva con peso atómico 4n + 1 (segunda categoría) no existe en la naturaleza, Pero puede ser producida artificialmente en las pilas atómicas.
Por el duro esfuerzo de los primeros investigadores de la radiactividad se han podido construir los árboles genealógicos de las familias radiactivas existentes. Véase, en el esquema adjunto, la degradación de la familia del uranio que comienza con el viejo uranio 238 y, después de ocho transformaciones alfa y seis beta, acaba en el plomo estable 206.
Las dos cifras sobre el nombre de cada elemento radiactivo expresan su número atómico y su peso atómico, mientras la cifra por debajo es el período medio de vida en años, días, horas, minutos y segundos. Se pueden construir esquemas similares de degradación para el torio, el protactinio y la cuarta familia (sin nombre) producida artificialmente.
Tabla I
3. La ley de supervivencia
Si se sigue la historia de la vida de un grupo de bebés o de cachorrillos o patitos o cualesquiera otra clase de animales nacidos en el mismo día, se ve que no por eso mueren el mismo día. Algunos viven más tiempo, otros menos, y si se calcula el porcentaje de los individuos que viven todavía en una cierta fecha, obtenemos una típica curva de supervivencia, como se ve en la Figura 48 a.
La curva indica que hay una cierta "expectativa de vida", como muestra el diagrama, que es de 75 años para un hombre, 15 años para un perro y únicamente unos cuantos años para un pato. Indica también que hay relativamente pocas probabilidades de vivir mucho tiempo después de alcanzarla.
En el caso de los átomos radiactivos, la situación es completamente distinta y las probabilidades de que un miembro de la familia radiactiva formado por la "reencarnación" de su predecesor (por transformaciones alfa o beta) sea "reencarnado" en el miembro siguiente de la familia son independientes del período de tiempo que ha transcurrido desde que se formó.
Figura 48. Curvas de supervivencia de animales (a) y núcleos (b).
La situación es similar al caso de los soldados envueltos en una batalla continua con el enemigo, en que muere un cierto porcentaje todos los días y no hay modo de decir qué número morirá mañana. En este caso no podemos hablar ya de "expectativa de vida", sino que debemos introducir la noción bastante diferente de "vida media", es decir, un período de tiempo durante el cual serían muertos una mitad de los soldados o degenerarán la mitad de los inestables átomos radiactivos. La curva que representa este proceso se muestra en la Figura 48 b y es, como la llaman los matemáticos, una "curva exponencial". Los diferentes elementos radiactivos tienen muy diversas "vidas medias". El uranio degenera a razón del 50% en 4,5 miles de millones de años; el radio en 1.590 años, mientras que la mitad de los átomos de RaC’ se degradan en solo una diezmilésima de segundo. La existencia de las tres familias radiactivas es debida a la longevidad de sus progenitores, uranio I (ó 92U338), torio (1,3 x 1010 años) y el tatarabuelo protactinio (5 x 108 años), que es comparable con la edad del Universo[1].
No hay en la Naturaleza ninguna familia del tipo 4n + 1 porque, como se ha visto, cuando estos núcleos fueron producidos artificialmente en las pilas atómicas, el cabeza de familia tiene una vida sumamente corta y toda la familia tuvo que haber degenerado completamente desde hace mucho tiempo.
4. Las barreras resquebrajadas
La explicación de la lentitud de las transformaciones alfa fue dada independientemente por el autor de este libro, que entonces trabajaba en Alemania, y por el equipo de Ronald Gurney (Australia) y Edward Condon (Estados Unidos). Está basada en la mecánica ondulatoria. Se sabía que los núcleos atómicos están rodeados por elevadas barreras de fuerza eléctrica que fueron investigadas primeramente por Rutherford en los experimentos sobre la dispersión de las partículas alfa. Cuando una partícula alfa se aproxima al núcleo está sometida a la repulsión que es proporcional al producto de la carga nuclear (Ze) por la carga de la partícula alfa (2e) dividida por el cuadrado de la distancia entre ellos. Cuando la partícula se pone en contacto con el núcleo, las fuerzas cohesivas entre él y la partícula formando el núcleo la impulsan y mantienen estrechamente apretada dentro de él. La curva potencial correspondiente a estas dos clases de fuerzas se ve en la Figura 49 y parece como un baluarte o una barrera con un muro escarpado por dentro y suaves declives por el lado exterior. Para entrar en el núcleo las partículas alfa incidentes han de escalar el muro interno de la barrera y después arrollar por el declive exterior. Al estudiar la dispersión de una partícula alfa en el uranio, Rutherford observó que la barrera que rodea el núcleo de este elemento debe ser por lo menos de 14·10-6 ergios de altura puesto que partículas alfa rápidas emitidas por RaC' y dotadas de esa energía no dan señales de alcanzar la cumbre. Por otra parte, las partículas alfa emitidas por el propio uranio sólo tienen la energía de 8·10-6 ergios. ¿Cómo pueden las partículas que salen con una energía tan pequeña pasar una barrera que es varias veces más alta? Según la mecánica clásica esto es, naturalmente, imposible. Si se construye una barrera de madera sobre la mesa y se rueda hacia ella una bola cuya energía es sólo la mitad de la necesaria para alcanzar la cima, la bola siempre subirá medio camino por el declive y después rodará hacia abajo. Pero la mecánica ondulatoria llega a una conclusión diferente, y para comprenderlo debemos implicar en la explicación la analogía entre las ondas de De Broglie y las ondas de luz.
Figura 49. La barrera de potencial en torno al núcleo de uranio tal como resulta de los experimentos de dispersión de Rutherford.
En óptica geométrica nos es familiar el concepto de "reflexión total interna". Si un rayo de luz a través de un cristal (Figura 50 a) choca en la superficie interna AB entre el cristal y el aire bajo un ángulo de incidencia relativamente pequeño, será refractado enteramente en el aire y su nueva dirección será muy próxima a la de la superficie intermedia AB. Pero si el ángulo de incidencia es mayor que un cierto valor crítico, no pasará al aire ninguna luz y el rayo será reflejado totalmente por la superficie intermedia.
Considerando este fenómeno desde el punto de vista de la naturaleza ondulatoria de la luz, se llega, sin embargo, a una conclusión diferente. Resulta que algo de luz entra en el aire al otro lado de la superficie intermedia AB, pero no penetra mucho y es rechazada por una capa de aire sólo unas cuantas longitudes de ondas de espesor. La Figura 50 b, en la que las líneas no son ya rayos de luz, sino que representar la línea de fluencia de la energía radiante, muestra lo que sucede. Si colocamos otra pieza de cristal cerca de la superficie intermedia AB, algunas de las líneas de flujo que pasan al aire entrarán en este segundo cristal. El fenómeno puede ser observado experimentalmente si la distancia entre los dos cristales es igual a unas cuantas longitudes de onda de la luz (es decir, unos cuantos micrones).
Figura 50. Reflexión total interna de la luz, según la óptica geométrica (a) y según la óptica ondulatoria (b).
Así como la óptica ondulatoria permite la penetración que está completamente prohibida por la óptica geométrica, la mecánica ondulatoria ayuda a las partículas materiales a realizar proezas que serían completamente imposibles si la mecánica clásica fuera correcta en un ciento por ciento.
Las partículas alfa, que existen en el núcleo, se encuentran en estado de movimiento muy rápido, chocando constantemente con las paredes de la barrera potencial que las rodea. Las ondas de De Broglie, que guían el movimiento de las partículas, se insinúan y cuelan a través de los muros de la barrera, haciendo posible que las partículas alfa pasen a través aunque no pueden subir a la cima. La penetrabilidad de las barreras potenciales del núcleo es sumamente baja, y en el caso del núcleo del uranio únicamente un intento de cada 1038 tiene éxito. Como al moverse en el espacio de sólo 10-12 cm con una velocidad de 109 cm/s, una partícula alfa choca con el muro interno de la barrera 1021 veces por segundo, tarda 1038/1021 = 1017 segundos, o sea, varios miles de millones de años hasta que logre salir. En el caso del núcleo de RaC' la penetrabilidad de la barrera es mayor y uno de sólo 1017 intentos tiene éxito. Así, la vida correspondiente es 1017/1021 = 10-4 seg como se había observado. Los cálculos de los períodos de vida media de los diferentes elementos radiactivos sobre la base de esta teoría resultan tan de perfecto acuerdo con las cifras observadas.
No es necesario decir que los
fenómenos de mecánica ondulatoria de esta clase sólo son de
importancia en el mundo de los átomos y núcleos. En el caso de los
experimentos antes descritos en que la bola asciende por el talud
con velocidad que no es suficiente para llegar a la cima, hay
todavía la posibilidad de que pase la barrera potencial como un
fantasma de viejo estilo atravesaba el muro de un castillo, pero
estas probabilidades pueden calcularse que sean ,
es decir, un número que tiene 1027
ceros después de la coma decimal. Si se trata de escribir este
número, la primera cifra significativa aparecerá en las
proximidades de las galaxias más distantes vistas con el telescopio
de 200 pulgadas.
6. Constitución nuclear y neutrones
La interpretación del fenómeno de radiactividad como degradación espontánea del núcleo atómico no deja duda de que los núcleos son sistemas mecánicos complejos compuestos de muchas partículas constitutivas. El hecho de que los pesos atómicos de los isótopos de todos los elementos estén representados muy aproximadamente por números enteros indican que los protones deben desempeñar el papel de uno de los componentes nucleares. Pero los protones solos no bastan. En efecto, el núcleo del carbono que tiene peso atómico 12 debe contener 12 protones. Pero, como la carga del núcleo de carbono no es más que 6, debe haber 6 cargas negativas presentes, y se supuso que estas cargas negativas están suministradas por 6 electrones que se unen a los 12 protones para formar un núcleo de carbono. Sin embargo, la hipótesis de la presencia de electrones dentro del núcleo atómico conducía a serias dificultades desde el punto de vista de la teoría cuántica. En efecto, como las energías de los estados cuánticos de un electrón crecen rápidamente conforme disminuyen las dimensiones de la región en que el electrón está confinado, podía esperarse que los electrones, moviéndose dentro del núcleo atómico, deberían tener las energías de miles de millones de electrovoltios. Esta conclusión directa de la teoría cuántica pareció muy extraña, puesto que mientras las energías de este orden fueron observadas en el caso de los rayos cósmicos, las energías implicadas en los fenómenos nucleares eran millones (y no miles de millones) de electrovoltios. Cuando Niels Bohr informó a Rutherford sobre este hecho, decidieron que era la única manera de salvar la situación era suponer la existencia de protones sin carga eléctrica, que fueron llamados "neutrones". Mediante esta suposición, ya no es necesario en absoluto que existan electrones dentro del núcleo atómico y la composición del núcleo de carbono, por ejemplo, podría ser escrita así: 6C12 = 6 protones + 6 neutrones.
A mediados de los años veinte, se inició en el Laboratorio Cavendish un proyecto con el propósito de expulsar estos hipotéticos neutrones del núcleo de algunos elementos ligeros para obtener una prueba directa de su existencia. Pero los resultados fueron negativos; los trabajos en este sentido quedaron suspendidos y el descubrimiento de los neutrones se retrasó por un gran número de años. Sólo en 1932, cuando el discípulo de Rutherford, J. Chadwick estudiaba la misteriosa y altamente penetrante radiación (observada primeramente por W. Bothe en el caso de un bombardeo por partículas alfa sobre un blanco de berilio) se probó que estaba formada por una corriente de partículas neutras cuya masa era aproximadamente igual a la del protón. Así, después de los primeros fracasos, el neutrón nació, por fin, dentro de las paredes del Laboratorio Cavendish.
7. Degradación beta y neutrones
Mientras la emisión de las partículas alfa representa una verdadera degeneración nuclear, de la que resulta un producto con un menor peso atómico, la emisión de rayos beta no es más que un ajuste eléctrico del núcleo atómico que resulta de la emisión de una o más partículas alfa. En la sección anterior hemos visto que los núcleos atómicos se componen de protones y neutrones y que, en los elementos más pesados, el número de neutrones supera al número de protones. Por ejemplo, en el 88Ra226 el número de neutrones es 226 - 88 = 138, con un número de protones únicamente de 88 y la relación 138/88 = 1,568. El núcleo del 86Ra226, formado por la degradación del radio, tiene únicamente 136 neutrones y 86 protones con la relación 136/86 = 1,581. Así, pues, en el proceso de la degradación alfa, la relación de los neutrones a los protones aumenta y, después de varios pases alfa, puede ser mayor de lo que es conveniente para la coexistencia pacífica de las dos clases de partículas. En este caso, un neutrón se transforma en un protón por emisión de un electrón negativo o una partícula beta. Por la Tabla I de páginas anteriores, se puede ver que las transformaciones beta siempre ocurren en parejas. Esto es a causa de que los neutrones y protones en el núcleo están sujetos al mismo principio de Pauli que los electrones atómicos y cada nivel cuántico está ocupado por dos de ellos, girando sobre sí mismos en direcciones opuestas. Así, cuando el nivel se hace inestable, dos partículas sufren la transformación beta, una después de otra.
En el año 1914, un joven físico inglés, James Chadwick, trabajaba en la Universidad de Berlín bajo la dirección del notable físico alemán Fritz Geiger (el inventor del contador Geiger). Su trabajo consistía en estudiar el espectro de los rayos beta emitidos por varias sustancias radiactivas, los cuales parecían diferir radicalmente de los rayos alfa y gamma al mostrar una distribución continua de su energía cinética desde casi cero a valores bastante altos.
Cuando el trabajo de Chadwick estaba ya terminado y dispuesto para su publicación en el otoño de aquel año, estalló la primera guerra mundial y Chadwick fue detenido como un extranjero enemigo y enviado a un campo de prisioneros durante toda la guerra. El primer año en el campo fue estúpido, porque el joven y talentoso físico no pudo hacerse amigos entre sus compañeros de prisión, que eran en su mayoría hombres de negocios, viajantes de comercio, etc. Pero, después de alguna gran batalla en algún sitio de Francia, apareció en el campo un nuevo prisionero. Era C. D. Ellis, un brillante oficial que había sido capturado en el campo de batalla. Los dos ingleses se hicieron amigos y para matar el tiempo Chadwick comenzó a enseñar a Ellis los hechos de la física nuclear. Cuando terminó la guerra, regresaron a Inglaterra y Ellis ingresó como estudiante graduado en la Universidad de Cambridge, en que Chadwick era profesor. Pocos años después, Ellis publicó un libro que representaba una importante ampliación de los estudios de Chadwick.
Una de las explicaciones posibles del espectro continuo de energía de los rayos beta podía ser la gran pérdida de energía sufrida por las partículas beta cuando se escapan de las sustancias radiactivas en que fueron originadas. Ellis proyectó un ingenioso experimento en el cual todos los rayos beta emitidos por una sustancia radiactiva eran absorbidos por un trozo de plomo y el calor producido se media cuidadosamente. El resultado de este experimento demostró que la liberación total de energía por partícula era exactamente igual a la energía media de los electrones en el espectro continuo, lo que probaba que no se producían pérdidas en el material. Así los físicos se encontraron ante una situación paradójica. Mientras en las series de transformaciones radiactivas las partículas alfa emitidas siempre tenían energías exactamente definidas, que son iguales a las diferencias entre los contenidos de energía interna de los núcleos padre e hijo, las energías de las partículas beta varían entre amplios limites. ¿Qué ocurre a la diferencia de energía entre los dos núcleos del mismo elemento radiactivo, uno de los cuales emite una rápida partícula beta y el otro una partícula lenta? Niels Bohr, muy excitado sobre esta situación paradójica, llegó tan lejos como a sugerir que la ley de conservación de la energía no se mantiene en el caso de la transformación radiactiva beta, y mientras que en el caso de la emisión de una partícula beta lenta cierta cantidad de energía puede desaparecer en el aire, en el caso de la emisión de una partícula beta muy rápida puede ser creada de la nada una cantidad adicional de energía. Según esta hipótesis, la ley de conservación de la energía en los procesos nucleares elementales se mantiene solamente como término medio haciendo así imposible construir la máquina de movimiento perpetuo del primer género (véase el Capítulo 4), basada en el proceso de la degradación radiactiva.
Wolfgang Pauli, más conservador en sus opiniones sobre esta cuestión, sugirió una alternativa que equilibraría la contabilidad de la energía de los procesos nucleares. Consideraba la posibilidad de que la emisión de una partícula beta fuera acompañada siempre por la emisión de otra "partícula misteriosa" que escapa a la observación y se lleva la energía que equilibraría la cuenta. Si se supone que estos "ladrones de Bagdad" nucleares no tienen carga eléctrica y tiene una masa tanto o más pequeña que la de los electrones podrían escapar fácilmente, con su saldo de energía, a las barreras más espesas puestas por los físicos. Pauli dio a estos hipotéticos ladrones el nombre de neutrones. (Era antes de que las partículas ahora llamadas neutrones fueran descubiertas por Chadwick en 1932.) Pero todas estas discusiones permanecieron dentro de la esfera de las conversaciones y el nombre nunca fue patentado por el hecho de haber sido impreso en una revista científica. Cuando después del descubrimiento de los neutrones de Chadwick, Enrico Fermi, entonces profesor de la Universidad de Roma, expuso a sus discípulos el trabajo de Chadwick alguno de los oyentes le preguntó si los neutrones de Chadwick eran las mismas partículas de que hablaba Pauli. "No, respondió Fermi, le neutrone di Chadwick sonno grande. Le neutrone di Pauli erano piccole; egli devono star chiamato neutrini".
Como ya es costumbre citar en este libro pequeñas anécdotas sobre los grandes físicos y como Enrico Fermi fue uno de los físicos más eminentes de nuestro tiempo, he aquí una anécdota basada en sus propias palabras. Por sus primeros descubrimientos en el campo de la física fue elegido miembro de la Real Academia Italiana de Ciencias y le fue concedido el título de Eccellenza por Benito Mussolini. Una vez conducía su pequeño Fiat para ir a una reunión de la Academia que sería presidida por el propio Mussolini, de manera que las puertas principales estaban guardadas por dos carabinieri. Estos cruzaron sus fusiles ante el pequeño coche y le preguntaron quién era. "No me creerán si les digo que yo soy un Eccellenza —pensó Fermi— porque todos los que son Eccellenza parecen mucho más solemnes y viajan en grandes coches conducidos por chóferes. Así, sonrió a los carabinieri y les dijo que era el chófer de Eccellenza Fermi. Esto produjo el efecto deseado y en consecuencia le dejaron entrar y esperar hasta que su señor saliera de la reunión.
Volviendo a los neutrinos, hemos de decir que esta partícula era realmente elusiva y, durante mucho tiempo, los físicos nucleares que la perseguían únicamente pudieron ver el daño que hizo pero no capturar la partícula misma. Sólo en 1955, Fred Reines y Clyd Cowan, del Laboratorio Científico de Los Álamos, lograron apresarla. La fuente más intensa de neutrinos se presenta en las pilas atómicas donde son emitidas legiones de neutrinos como un resultado de la degradación beta de los productos de fisión formados en la reacción en cadena. Mientras hasta los rayos gamma más penetrantes y los neutrones más rápidos son detenidos eficazmente por muros espesos de cemento que rodean como protección la pila, los neutrinos pasan a través de esta protección tan fácilmente como un enjambre de mosquitos la empalizada de un gallinero. Para detectarlos, Reines y Cowan colocaron fuera de los muros de protección una gran vasija llena de hidrógeno, y rodeada por baterías de contadores de partículas de diferentes géneros. Se esperaba que un neutrino rápido, chocando con un protón, desprendería un electrón positivo, convirtiendo el protón en neutrón P + v = n + e, pero la probabilidad calculada teóricamente de tal proceso era sumamente pequeña. Para detectar este proceso emplearon contadores de neutrones y positrones conectados de tal suerte que únicamente emitirían una señal cuando fueran alcanzados al mismo tiempo por un neutrón y un positrón. Como la probabilidad de tal coincidencia era sumamente pequeña, el choque simultáneo en los dos contadores únicamente podría resultar de la reacción antes escrita. Realizando el experimento con la pila en plena operación, se obtuvieron varias señales por minuto, pero las señales disminuyeron rápidamente cuando la pila fue cerrada. De sus observaciones resultó que la efectiva sección transversal del proceso en el cual un neutrino convierte un protón en un neutrón es únicamente 10-43 cm2, lo que significa que para limitar la intensidad de un haz de neutrinos por un factor dos, es preciso emplear una protección de agua cientos de años luz de gruesa.
La teoría de la transformación neutrón-protón con la emisión de un electrón y un neutrino desarrollada por Fermi está de completo acuerdo con todos los datos experimentales relativos a la degradación beta. Sirve también de prototipo para todas las teorías de degradación desarrolladas después en relación con varios procesos de transformación entre las partículas elementales.
8. Primeros casca-núcleos
Después de que Rutherford se dio cuenta de que el fenómeno de la radiactividad representa una transformación espontánea de un elemento químico en otro, fue acosado por el deseo de romper el núcleo atómico de algún elemento estable y convertirlo en otro elemento, realizando el antiguo sueño de los alquimistas. Cuando estalló la primera guerra mundial en 1914, el Almirantazgo británico pidió a Rutherford transformar el Laboratorio Cavendish, del que hacía poco había sido nombrado director, en una institución de investigaciones de guerra para desarrollar métodos de guerra antisubmarina contra los submarinos alemanes. Rutherford se negó fundándose en que era una tarea mucho más importante romper el núcleo del átomo. Es verdad que este trabajo de Rutherford abrió el camino para el desarrollo de las armas de guerra más poderosas, las bombas atómica y de hidrógeno, pero no es verdad que Rutherford previese estos desarrollos. En efecto, poco antes de su muerte en 1937, Rutherford sostuvo una acalorada discusión con un físico húngaro, Leo Szillard, sobre la posibilidad de una liberación de energía nuclear en gran escala e insistió en que nunca podría realizarse. Para probar este punto, Leo Szillard fue a una oficina de patentes y sacó una patente para reacciones nucleares en gran escala. Tres años más tarde, la desintegración del núcleo del uranio fue descubierta y tras otros seis años estalló la primera bomba atómica sobre Hiroshima y acabó la segunda guerra mundial. Rutherford estaba indudablemente observando estos desarrollos sentado en una nube etérea y escuchando la música de arpas, pero es más probable que el anciano pensara: “Entonces, ¿qué? ¡Ahora estos... tipos están empleando mis descubrimientos para matarse unos a otros!”
Pero, volviendo al año 1919, debemos ver lo que Rutherford estaba haciendo para cascar el núcleo. Como el muro de la repulsión de Coulomb que rodea el núcleo atómico es cada vez más alto cuando se sigue a lo largo del sistema de los elementos de Mendeleiev, lo mejor sería bombardear los núcleos ligeros. Además, las partículas alfa de elevada energía procedentes de los elementos radiactivos que se degradan rápidamente harían mejor su función que las más lentas. Así, en su primer intento, Rutherford decidió disparar partículas alfa procedentes de RaC' sobre el núcleo del gas nitrógeno y vio con gran satisfacción que, aparte de las numerosas partículas alfa dispersadas por los núcleos de nitrógeno, había también unas cuantas partículas rápidas de otra clase que Rutherford identificó como protones. Las primeras observaciones de Rutherford fueron realizadas por el método de escintilación, pero pronto el estudio de las transformaciones nucleares fue facilitado considerablemente por el uso de una brillante invención, la cámara de Wilson o cámara de niebla de C. T. R. Wilson, cuyos estudios hemos mencionado en un capítulo anterior en relación con los experimentos de J. J. Thomson. Está fundada en el hecho de que siempre que una partícula cargada eléctricamente que se mueve rápidamente, pasa a través del aire (u otro gas cualquiera) produce ionización a lo largo de su trayectoria. Si el aire a cuyo través pasan estas partículas está saturado de vapor de agua los iones que producen sirven como centros de condensación de pequeñas gotas de agua y vemos largas y delgadas trayectorias de niebla a lo largo de las trayectorias de las partículas. El esquema de una cámara de niebla se ve en la Figura 51.
Figura 51. Esquema de la cámara de niebla de C. T. R. Wilson
Consiste en un cilindro de metal C con un techo transparente de cristal G, y un pistón P, cuya cara superior está pintada de negro. El aire entre el pistón y el techo de cristal está al principio casi saturado de vapor de agua e iluminado brillantemente por una fuente de luz, S, a través de una ventana lateral, W. Supongamos ahora que tenemos una pequeña cantidad de una materia radiactiva en el extremo de una aguja, N, que está situada cerca de la abertura O.
Las partículas que son expulsadas por los átomos radiactivos volarán a través de la cámara ionizando el aire a lo largo de sus trayectorias. Sin embargo, como el aire no está completamente saturado de vapor de agua, no se produce ninguna condensación y los iones positivos y negativos originados por las partículas al pasar se recombinan rápidamente formando moléculas neutrales. Pero supongamos que hacemos descender rápidamente el pistón en una cierta distancia. La expansión del aire encerrado entre el pistón y el cristal del techo hará descender la temperatura del aire y producirá la condensación del vapor de agua de la misma manera que se forman las pubes como resultado de las corrientes de aire húmedo en la atmósfera terrestre. Pero, como la condensación del vapor acuoso está considerablemente facilitada por la presencia de iones producidos por las partículas cargadas que atraviesan la cámara en aquel momento, la formación de niebla tendrá lugar a lo largo de las trayectorias de las partículas y entonces largos trazos de niebla se destacarán claramente sobre el fondo negro en el haz de la luz iluminadora. Este espectáculo puede verse directamente mirando a través del cristal del techo o fotografiándolo por una cámara, Ph.
La primera fotografía de la desintegración artificial nuclear fue tomada en 1925 por P. M. S. Blackett, discípulo de Rutherford. En ella se aprecian numerosas estelas que divergen desde un punto situado allende el borde de la foto y que son producidas por las partículas alfa procedentes de la materia radiactiva situada en esa posición. Esta materia era una mezcla de RaC y RaC' formada desde el RaC por el proceso de la transformación alfa. Las partículas alfa procedentes del RaC se mueven con relativa lentitud y son detenidas por el aire en el centro de la foto. Las partículas RaC alfa, casi las más rápidas emitidas por los elementos radiactivos, pueden penetrar capas más espesas del aire y sus trayectorias acaban en lo alto de la foto. En la parte superior y central de la foto se ve una bifurcación debida a la transformación de un núcleo de nitrógeno por el impacto de una partícula alfa. Un trazo largo y delgado que va hacia la izquierda pertenece a un protón expulsado de su núcleo, mientras que el trazo grueso ascendente se demostró que había sido causado por un núcleo de oxigeno que se movía rápidamente. La transformación alquimista realizada aquí puede ser representada por una fórmula:
7N14 + 2He4 → 8O17 + 1H1
donde, conforme a una convención, los índices inferiores representan el número atómico y los superiores el peso atómico. El átomo 8O17 representa el isótopo más pesado del oxigeno ordinario 8O16 y existe en pequeñas cantidades en la atmósfera. Midiendo las energías de 1H1 y 8O17, producidas en esta reacción, lo que puede hacerse teniendo en cuenta las longitudes de sus trazos, se ve que es menor que la energía inicial de la partícula alfa por una cantidad de 1,26 mev. Para las masas combinadas en los dos lados de la ecuación de la reacción antes citada encontramos:
He4 = 4,00388 |
|
H1 = 1,00813 |
N14 = 14,00755 |
|
017 = 17,00453 |
18,01143 |
|
18,01266 |
Así, el saldo de energía, en este caso negativo, es —0,00125 unidades, que equivalen a —1,16 mev. Esta cifra coincide, dentro de los errores experimentales, con la cifra arriba citada para la pérdida de la energía en la reacción. Mediciones de esta clase representaron la primera prueba experimental directa de la ley de Einstein de equivalencia de masa y energía. Así, en esta reacción la energía nuclear no se libera, sino que se pierde. Pero, en otros casos, tal como el bombardeo alfa del aluminio, se ganan considerables cantidades de energía nuclear.
Como las partículas alfa son los únicos proyectiles pesados emitidos por los elementos radiactivos naturales, los primeros trabajos sobre transformaciones nucleares artificiales se limitaron exclusivamente a este tipo de reacción. En 1929, el autor de este libro, trabajando con Lord Rutherford en Cambridge, calculó sobre la base de la teoría de la barrera potencial, que los protones serían proyectiles mucho mejores, tanto por virtud de su carga eléctrica más pequeña como a causa de su masa menor. Los cálculos han mostrado, en efecto, que los protones, acelerados por un potencial eléctrico de un millón de voltios y moviéndose con una energía varias veces menor que la de las partículas alfa procedentes del RaC', debían producir una desintegración observable de los elementos ligeros. Rutherford pidió a sus discípulos J. Cockcroft (ahora Sir John) y E. T. S. Walton que construyeran una máquina de alta tensión que produjese haces de protones de esta energía, y en 1931 funcionó el primer "quebrantador de átomos". Dirigiendo el haz de protones contra un blanco de litio, Cockcroft y Walton demostraron que a cada impacto afortunado volaban en opuesta dirección, a partir del punto de choque, dos partículas alfa recién producidas. La reacción era, evidentemente,
3Li7 + 2H1 → 2 2He4
Sustituyendo el litio por el boro, observaron triples horquillas, que indicaban que cuando el núcleo de boro es alcanzado por un protón se rompe en tres fragmentos iguales:
5B11 + 1H1 → 3 2He4
El trabajo exploratorio de Cockcroft y Walton fue seguido por el desarrollo de aceleradores de partículas cada vez mayores, basados sobre una variedad de ingeniosos principios. Una clase de quebrantadores atómicos se llama Van de Graaf, por el nombre de su inventor, y está basada en un sencillo principio de electrostática, según el cual una carga eléctrica llevada a través de un abertura dentro de una esfera metálica hueca se distribuye por toda su superficie exterior. En efecto, la mutua repulsión entre los electrones los hace distanciarse lo más posible unos de otros. La máquina de Van de Graaff consiste en una gran esfera metálica aislada y una cinta que corre, la cual es cargada continuamente por la parte exterior y se descarga después de entrar en la esfera. Aunque las tensiones eléctricas que pueden ser producidas en la máquina de Van de Graaff se limitan a unos pocos millones de voltios, ha sido desarrollada en pequeños aparatos muy sólidos, muy convenientes para muchos tipos de trabajos de laboratorio.
Otro aparato para la aceleración de partículas nucleares, mucho más ingenioso, fue desarrollado por Ernest Orlando Lawrence, cuyo nombre ha sido dado al Laboratorio de Radiación de la Universidad de California. Está fundado en un principio completamente distinto y utiliza la aceleración múltiple de partículas cargadas que se mueven en círculo en un campo magnético. El principio del "ciclotrón" está mostrado en la Figura 52. Consiste esencialmente en una cámara metálica circular cortada en dos mitades, C1 y C2, y situada entre los polos de un electromagneto muy enérgico. Las dos medias cámaras, C1 y C2, están conectadas con una fuente de alto potencial eléctrico alternativo, AC, de modo que el campo eléctrico a lo largo de la hendidura que las separa cambia periódicamente su dirección. Los iones del elemento que van a ser usados como proyectiles atómicos son inyectados en el centro de la caja, I, a una velocidad relativamente baja, y sus trayectorias se curvan formando pequeños círculos en el campo del magneto.
Figura 52. El principio del ciclotrón.
El quid del ciclotrón es que, para un campo magnético dado, el período de revolución de una partícula cargada eléctricamente a lo largo de su trayectoria circular es independiente de la velocidad con que se mueve la partícula. Como el aumento en el radio de la trayectoria y la longitud de esta trayectoria circular es exactamente proporcional al aumento de velocidad, el tiempo necesario para una revolución sigue siendo el mismo.
Si las cosas se disponen de tal modo que el período de revolución de los iones inyectados en el campo del magneto es igual al período de tensión alterna producido por la fuerza AC, las partículas que llegan al límite entre las dos medias cámaras, C1 y C2, estarán sometidas cada vez a una fuerza eléctrica que actúa en la misma dirección en que se mueven las partículas. Así, cada vez que el ión pasa a través de este límite recibirá una aceleración adicional y aumentará su velocidad gradualmente. Acumulando velocidad, los iones se moverán a lo largo de una trayectoria en espiral y, por último, serán expulsados por la ventana W en la dirección del blanco T.
Al describir los resultados de sus experimentos sobre transformaciones nucleares causadas por el bombardeo de diferentes sustancias por proyectiles nucleares rápidos, los físicos hablan siempre de "secciones transversales efectivas" o simplemente de "secciones transversales". Para comprender esta noción, consideremos el caso de una batería antiaérea que trata de abatir un vehículo aéreo hostil que se aproxima. Si el enemigo fuera tan estúpido como para enviar un globo, cualquier tiro en su cuerpo sería fatal y la "sección transversal efectiva" seria igual a la "sección transversal geométrica" del vehículo. Pero en el caso de un avión, los fragmentos de la granada podrían atravesar muchas partes de su estructura, sin que por eso resultare un golpe fatal. No hay más que unas cuantas superficies, tales como la cabeza y el cuerpo del piloto, las partes esenciales del motor y de los mandos de conducción que tienen que ser alcanzados para que el avión caiga. El contorno de la superficie combinada de estos puntos es la "sección transversal efectiva" y se puede considerar mucho más pequeña que el objeto mismo. Así, por ejemplo, la "sección transversal mortal" de Aquiles estaba reducida a unas cuantas pulgadas cuadradas del talón de su pie izquierdo.
Al considerar las probabilidades fatales, sea en el avión enemigo o en el núcleo atómico, no se tiene interés más que en la fracción de la superficie total del contorno que debe ser alcanzada y no necesariamente en la localización exacta de los lugares sensibles. La situación es semejante a la de dos duelistas, uno de ellos muy flaco y el otro muy gordo. El gordo objeta que la situación no es juego limpio puesto que presenta un blanco mayor para la bala de la pistola que su rival: "Muy bien —dice el delgado—, pida a su padrino que con tiza trace mi silueta sobre su levita y las balas que caigan fuera de esa línea no cuentan".
El radio de un núcleo atómico es del orden de 10-12 cm, así que su sección transversal geométrica es de unos 10-24 cm2. La sección transversal de 10-24 cm2 exactamente se llama un barn[2] a causa de que es tan grande, y si un núcleo es quebrantado cada vez que es alcanzado, la sección transversal efectiva es un "barn". Pero si por una u otra razón hay, por ejemplo, únicamente un "muerto" por cada cien disparos diremos que la "sección transversal efectiva" es 0,001 barns o 10-26 cm2. En las consideraciones posteriores, el lector encontrará ejemplos de secciones transversales aun menores en los procesos de bombardeo nuclear.
9. Estructura nuclear y estabilidad
Mientras los electrones atómicos viajan libremente por el espacio, manteniendo distancias que son varios miles de veces mayores que sus diámetros, los protones y neutrones que forman el núcleo atómico están empaquetados tan apretadamente como los arenques en un barril. Así, mientras en el caso de un átomo se puede hablar de atmósfera electrónica que posee muchas propiedades de un gas ordinario, el material del núcleo debe ser comparado con una gota de líquido en la cual las moléculas están mantenidas juntas por las fuerzas de cohesión. El "modelo gota" del núcleo, que fue propuesto por el autor de este libro hace unos treinta años, nos permite comprender muchas propiedades nucleares. En primer lugar, mientras los gases son fácilmente comprimibles a causa del espacio vacío entre las moléculas, los líquidos cambian muy poco de volumen, cualquiera que sea la presión a que estén cometidos. Y, en efecto, hemos visto antes que cuando recorremos el sistema de Mendeleiev, el volumen de los átomos permanece esencialmente invariable cuando son empaquetados cada vez más electrones en las órbitas cuánticas con diámetros cada vez más pequeños. Por otra parte, las mediciones muestran, que el radio del núcleo atómico aumenta como la raíz cúbica de su masa, de modo que el volumen aumenta cuando la masa y la densidad permanecen constantes. La densidad de este fluido nuclear, cuyas gotitas constituyen los núcleos atómicos, supera a la densidad del agua por un factor de 1014, y una vasija llena de él pesaría cinco mil millones de toneladas. Como cualquier otro líquido, el fluido nuclear manifiesta el fenómeno de la tensión superficial, puesto que los nucleones situados en la superficie son empujados hacia dentro por las fuerzas cohesivas de otros núcleos, tendiendo de este modo a reducir el área de la superficie al mínimo. Pero, precisamente en el caso de la densidad, la tensión superficial del fluido nuclear es enormemente mayor que la de los fluidos ordinarios. Si hacemos una película de jabón en un marco formado por un alambre en forma de U y un trozo de alambre recto a su través, la fuerza de la tensión superficial que actúa sobre el alambre móvil podría soportar el peso de unos 70 mg por centímetro de su longitud. Si pudiéramos hacer lo mismo con el fluido nuclear, la fuerza seria de diez mil millones de toneladas. A causa de la tensión superficial, los núcleos atómicos tienen una forma casi esférica, como las gotas de lluvia, y las vibraciones y rotaciones de estas pequeñas gotas deben ser las responsables de la emisión de los rayos gamma por los núcleos excitados.
El físico de Princeton John Wheeler ha demostrado, sin embargo, que el fluido nuclear puede no existir necesariamente en la forma de pequeñas esferas, sino que en principio, puede adoptar diferentes formas. La cuestión es que en este caso, aparte de las fuerzas de cohesión nuclear, también existen las fuerzas repulsivas de Coulomb entre las cargas positivas de los protones. Wheeler ha demostrado en un trabajo no publicado que la existencia de estas fuerzas repulsivas permite al fluido atómico adoptar la forma de un buñuelo. De hecho, en este caso, las fuerzas de tensión superficial que tienden a contraer el buñuelo en una esfera serán contrariadas por la repulsión eléctrica entre los lados opuestos de aquél, y toda la configuración será perfectamente estable. Tales núcleos en forma de buñuelo, que serían mucho mayores que los de uranio, con un peso atómico de muchos miles, estarán rodeados por electrones que se moverían cerca de su superficie siguiendo trayectorias semejantes al enrollado de un electromagneto circular. Tales núcleos en buñuelo no existen en la naturaleza y no es creíble que puedan ser fabricados en el futuro por los físicos nucleares más hábiles. Pero si pudieran ser hechos, apunta Wheeler, se podrían emplear como enlaces para hacer largas cadenas. El hilo hecho con estas cadenas nucleares sería sumamente fuerte, y aun siendo tan delgado como una telaraña sostendría el peso de un buque de guerra. Pero también sería muy pesado, y una yarda pesaría unas 1.000 toneladas.
No parece que los núcleos en buñuelo de Wheeler tengan aplicación práctica, pero las formas nucleares más sencillas regidas por los dos mismos géneros de fuerzas nos abrieron la edad de la energía atómica. Consideremos el equilibrio entre la tensión superficial y la energía eléctrica de un núcleo atómico. La energía superficial total es, naturalmente, proporcional a la superficie y aumenta cuando los núcleos son mayores. Como la densidad de fluido nuclear permanece constante, su volumen es proporcional a su masa (peso atómico) y su radio a la raíz cúbica de la masa. Así pues, la energía superficial total, al ser proporcional a la superficie aumenta como el cuadrado de la raíz cúbica de la masa o, en otras palabras, como la masa en dos tercios de energía. Para calcular la energía Coulomb hemos de emplear una ley de la electrostática, que declara que la energía de un cuerpo esférico cargado es directamente proporcional al cuadrado de su carga e inversamente proporcional a su radio. La carga eléctrica nuclear está dada por su número atómico, que es aproximadamente proporcional al peso atómico. Recordando que el radio varía como la raíz cúbica del peso atómico, vemos que la energía Coulomb aumenta aproximadamente como el peso atómico en la energía 1 2/3. Este es un aumento mucho más rápido que el de la energía de la tensión superficial y concluimos que, mientras en los núcleos ligeros las fuerzas de repulsión eléctrica pueden desempeñar un papel secundario, serían absolutamente importantes en los núcleos pesados. Como las fuerzas de tensión superficial tienden a mantener las gotas de líquido y fusionar dos gotas que entran en contacto en una sola mayor podemos esperar que, en el caso de los elementos ligeros será liberada energía en los procesos de fusión` nuclear. Por otra parte, en el caso de núcleos pesados, las fuerzas disruptivas de Coulomb serían las dominantes y la fisión nuclear seria un proceso liberador de energía. Los cálculos demuestran que la "región de fusión" abarca un tercio del sistema de Mendeleiev, siendo la esperada liberación de energía cada vez más pequeña cuando más nos aproximamos al límite. La "región de fisión", que comienza en este punto corresponde a una liberación bastante baja de energía que aumenta rápidamente, alcanzando sus valores más elevados para los elementos más pesados. Así pues, cada elemento químico representa una fuente potencial de energía nuclear y la cuestión es sólo iniciar las reacciones nucleares y mantenerlas en marcha.
El modelo de gota líquida para los núcleos atómicos representa una gran aproximación a la realidad, pero no se debe olvidar que los protones y neutrones, dentro del núcleo, están sujetos a las mismas leyes cuánticas que los electrones en el átomo, que deben producir algunas desviaciones en la concepción simplificada expuesta. Y, en efecto, estas desviaciones fueron encontradas cuando se estudiaron detalladamente las propiedades nucleares. La Figura 53 muestra los cambios de la energía cohesiva por nucleón para toda la serie desde los núcleos más ligeros a los más pesados. Se observa una disminución regular de la energía cohesiva de la primera parte de la serie y un aumento lento más tarde; esto corresponde a las regiones de fusión y fisión. Pero también se observa que la curva no es completamente suave, sino que hay cierto número de ensortijamientos que indican cohesiones anormalmente fuertes entre los núcleos.
Figura 53. Energía de cohesión por núcleo como función del peso atómico.
Estos lugares corresponden a las capas completas de nucleones dentro del núcleo y son completamente análogas a las capas completas de electrones en los átomos. En el caso de los átomos, los elementos con capas completas de electrones (los gases nobles) son químicamente inertes, puesto que están completamente "satisfechas" con sus surtidos de electrones. Un efecto similar en el caso de los núcleos se muestra en la Figura 54 que representa las posibilidades relativas de que un neutrón incidente sea capturado por los núcleos de los diferentes elementos. Para ciertos números de neutrones ya presentes en el núcleo (50, 82, 126), la probabilidad de capturar otro electrón disminuye rápidamente, indicando que estos núcleos ya contienen las capas completas de neutrones. El estudio de estas y otras muchas irregularidades de las propiedades nucleares llevan a la conclusión de que las capas internas fuertemente enlatadas están formadas en los núcleos siempre que el número de neutrones o protones es igual a uno de los siguientes números: 2, 8, 14, 20, 28, 50, 82 y 126. Debe decirse, sin embargo, que mientras en los átomos cada nueva capa de electrones está situada esencialmente fuera de la anterior, constituyendo una estructura como la de una cebolla, las capas de neutrones y protones en los núcleos se interpenetrará unas en otras, ocupando cada una de ellas todo el volumen nuclear.
Figura 54. "Sección transversal de captura" de neutrones como función del número de neutrones en el núcleo.
Esta falta de diferenciación geométrica entre las capas nucleónicas hace su efecto menos pronunciado y más difícil de estudiar y explicar. Esta dificultad fue, sin embargo, superada simultánea e independientemente por María Goepert Meyer en Chicago y Hans Jensen en Heidelberg, que pudieron construir un sistema completo de capas nucleares, de completo acuerdo con los hechos observados. Cuando se reunieron para comparar sus resultado descubrieron que los dos habían nacido el mismo día del mismo ano y se hicieron grandes amigos.
10. Reacciones de fisión en cadena
El 27 de enero de 1939 se reunió en Washington una pequeña conferencia de física teórica organizada conjuntamente por la George Washington University (donde el autor estaba enseñando por entonces) y la Institución Carnegie, de Washington. En ese día, Niels Bohr, que era uno de los visitantes, recibió una carta de la física alemana Lise Meitner, que en aquel tiempo había abandonado Alemania (a causa de Hitler) y trabajaba en Estocolmo. En ella decía que había recibido una carta de su anterior compañero en Berlín, Otto Hahn, dándole cuenta de que él y su ayudante, Fritz Strassmann, bombardeando uranio con neutrones, habían encontrado la presencia del bario, un elemento que está a la mitad del sistema Mendeleiev. Meitner y su sobrino, Otto Firsch (dos Otto en el asunto), que había ido con ella a Estocolmo, pensaron que ello había sido el resultado de una fisión, es decir, de la desintegración en dos de un núcleo de uranio golpeado por un neutrón. Tan pronto como Bohr leyó la carta, la discusión se desvió del tema relativamente poco incitante de la conferencia para dar paso a un vivo debate sobre si la fisión del núcleo de uranio podía llevar a una liberación de energía nuclear en gran escala. Enrico Fermi, que también participaba en la conferencia, subió a la pizarra y escribió algunas fórmulas relativas a los procesos de fisión. El corresponsal de un periódico de Washington, que había estado dormitando anteriormente, despertó y comenzó a tomar notas, pero Merle Tuve, un físico nuclear de la Institución Carnegie, le señaló inmediatamente la puerta, diciéndole que la discusión era demasiado técnica para él. Este fue el primer paso en las normas de seguridad que fueron impuestas inmediatamente sobre el desarrollo de la "energía atómica". Pero lo que el periodista había oído antes de ser despedido salió en los periódicos, y a la mañana siguiente: el autor de este libro fue despertado por una llamada telefónica de Robert Oppenheimer desde California, que deseaba conocer qué había sucedido. Y así comenzaron las cosas.
El artículo sobre la teoría de la fisión nuclear por Niels Bohr y John Wheeler, aparecido en el número de septiembre de 1939 de la Physical Review, que fue el primero y el último sobre la cuestión, publicado antes de que se corriera el telón de seguridad, estaba basado en el modelo de gota del núcleo antes expuesto. Cuando el núcleo, alcanzado por el neutrón incidente, comienza a vibrar, pasando a través de una serie de formas alargadas, queda perturbado el equilibrio entre la tensión superficial y las fuerzas eléctricas; la primera trata de volver el núcleo a su forma esférica original mientras las últimas tratan de aumentar el alargamiento. Si la relación del eje mayor del elipsoide al menor pasa de cierto límite, se desarrolla una hendidura a lo largo del plano ecuatorial y el núcleo se rompe limpiamente en dos mitades. Pronto se vio que la fisión del núcleo de uranio va acompañada por la expulsión de un par (más exactamente 2,5) neutrones que, a su vez, pueden herir a dos de los núcleos contiguos y desintegrarlos también. Esto produciría cuatro nuevos neutrones que podían romper otros cuatro núcleos... Así se puede desarrollar una reacción en cadena que abarca rápidamente a todo el trozo de uranio con el desprendimiento de unas cantidades tremendas de energía nuclear.
Es difícil escribir sobre el tema de lo que se conoce comúnmente como "energía atómica". En los primeros días, cuando la mayoría de los hechos estaban ocultos tras un espeso telón de seguridad, no se podía escribir mucho sobre ello. Pero ahora, cuando se puede encontrar cada vez más información en numerosos libros y en artículos de revistas y periódicos, el tema se ha hecho insípido y trivial. Además, aunque la fisión del núcleo de uranio puede ser considerada como un capítulo muy interesante (pero sólo capitulo) en la historia de la física, el desarrollo de las bombas atómicas, reactores y fertilizadores pertenece más bien al campo de la tecnología. Así pues, nos limitaremos en esta sección a los pasos más esenciales.
Primero, fue un hecho decepcionante, que se observó inmediatamente después de la citada conferencia, de que no es el principal isótopo de uranio el que muestra el fenómeno de fisión, sino el escasísimo isótopo U235 que únicamente está presente en la proporción de 0,7 %. Además, el isótopo principal U238, que forma el restante 99,3 % del uranio natural no es una sustancia inocua, sino que tiene un enorme apetito por los neutrones y los captura en tal proporción que ahoga cualquiera reacción en cadena que pudiera iniciarse en el U235. No había más que dos caminos para tratar la situación: o separar el U235 del nocivo U238 o intentar by some odds and ends de producir la reacción en el uranio natural tratando de mantener el voraz U238 lejos de su presa:
Se ensayaron los dos métodos. En una planta secreta de Oak Ridge, Tennessee, se investigaron varios métodos de separación de los isótopos del uranio y, finalmente, se centró la producción en el método de difusión fundado en el hecho de que los compuestos de uranio que contienen el isótopo ligero se difunden algo más rápidamente a través de las membranas porosas que los que contienen el isótopo pesado.
Los ardides necesarios para producir la reacción en el uranio natural fueron ideados en su mayor parte por Enrico Fermi y estaban basados en el principio de "moderación". Se observó que el isótopo pesado del uranio tenía un gran apetito para los neutrones que se mueven con relativa rapidez, mientras que el isótopo ligero prefiere los neutrones muy lentos. Como los neutrones emitidos por la fisión del núcleo de uranio tienen velocidades muy altas, se ha de rebajar su velocidad al nivel del apetito del U235 para que no sean engullidos por el U238. Esto puede conseguirse mezclando el uranio natural con una gran cantidad del llamado "moderador", es decir, un elemento cuyos átomos, carentes en absoluto del apetito para los neutrones, tomen una parte de la energía cinética del neutrón en el proceso de colisión. Los dos moderadores más eficaces resultaron ser los átomos de deuterio (isótopo pesado del hidrógeno) y los átomos de carbono que determinaron los dos tipos de pilas (de carbono y de agua pesada) empleados ahora. La primera pila atómica que empleaba el moderador de carbono (ladrillos de grafito) y fue construida bajo la supervisión de Enrico Fermi bajo la tribuna principal del estadio de la Universidad de Chicago, comenzó a funcionar el 2 de diciembre de 1941. Desde luego, las reacciones nucleares en cadena en las pilas moderadas se desarrollan muy lentamente y no pueden ser empleadas para finalidades militares o pacificas. Pero ¡hay un truco! Mientras se produce una reacción de fisión en cadena entre los núcleos del U235, algunos de los neutrones son engullidos por los núcleos del hambriento U238 que, por virtud del moderador, se ve privado del festín de Lúculo. Lo que ocurre cuando los núcleos de U238 engullen un neutrón está dado por la siguiente ecuación alquimista:
92U238 +0n1 → 92U239 + g
92U239 → 13Np239 + e-
92Np239 → 94Pu239 + e-
Np y Pu significan el neptunio y el plutonio, los dos elementos "transuranios" producidos en la pila atómica. Mientras el neptunio es un estadio transitorio en el proceso, el plutonio es algo realmente importante. Posee las mismas propiedades que el U235 sólo que más acentuadas. Se desintegra más fácilmente, cuando le hiere un neutrón, y su fisión va acompañada de un número mayor de neutrones secundarios. Y lo que desde luego es más importante, teniendo propiedades químicas diferentes que el uranio puede ser separado fácilmente —así dicen— del uranio restante cuando termina al proceso de combustión en la pila.
Hoy, la producción de material desintegrable en los Estados Unidos se eleva a x toneladas por año, contra y toneladas por año en la Unión Soviética.
11. Bombas de fisión y reactores
El concepto más importante en todas las discusiones relativas a las reacciones de fisión en cadena es el del tamaño crítico. Cuando se produce un proceso singular de fisión dentro de un trozo de U235 puro o de Pu239, varios neutrones de fisión (por término medio 2,5 para el uranio y 2,9 para el plutonio) son eyectados desde el punto en que se produce la desintegración nuclear. La distancia media que un neutrón de fisión debe recorrer a través del material para encontrar otro núcleo es de unos 10 cm, de suerte que si el tamaño del trozo de uranio en cuestión es menor que esa distancia, la mayor parte de los neutrones de fisión atravesarán la superficie del trozo y saldrán de él antes de tener probabilidad de producir otra fisión y más neutrones. Así pues, no puede desarrollarse una reacción progresiva en cadena si el tamaño del trozo de uranio es demasiado pequeño. Cuanto mayores sean los trozos de uranio, encontraremos cada vez más neutrones de fisión producidos en el interior, los cuales tendrán mayor probabilidad de producir otra fisión al chocar con un núcleo antes de escapar a través de la superficie, y para trozos del tamaño idóneo el número de neutrones de fisión que producen otra fisión dentro del trozo de uranio será bastante grande para hacer que el ritmo de la reacción aumente rápidamente en el tiempo. El tamaño de un trozo de una materia desintegrable dada para el cual el porcentaje de neutrones que dan lugar a procesos subsecuentes de fisión es bastante alto para asegurar una reacción progresiva en cadena se llama el tamaño crítico de ese material particular. Como el número de neutrones por fisión es mayor en el caso del plutonio que en el caso del U235, el tamaño crítico de los trozos de plutonio es menor que el de los de U235, a causa de que el primero puede permitir mayores pérdidas de neutrones a través de su superficie.
Para producir una explosión nuclear debe construirse un trozo supercrítico de material desintegrable dentro de un período de tiempo que sea bastante corto para no permitir que se desarrolle la reacción en cadena con alguna fuerza considerable. Puede hacerse, por ejemplo, por disparar y unir una masa subcrítica a otra masa subcrítica con la suficiente elevada velocidad de modo que la reacción en cadena no se desarrolle en un grado apreciable hasta que se realice la plena unión de los dos trozos. Pero hay también métodos más ingeniosos (aunque secretos) de obtener el mismo resultado.
Si se desea producir una reacción de fisión en cadena bajo condiciones controladas para emplearla en la producción de energía, el fragmento debe ser mantenido todo el tiempo lo más cerca posible del tamaño crítico. Debe tenerse en cuenta que una reacción nuclear en cadena es, por su naturaleza, una reacción explosiva y que todo intento de mantenerla a un ritmo constante es comparable a mantener la combustión de una caldera usando TNT como combustible. Pero, de hecho, puede ser realizado con muy pequeña probabilidad de accidente. Puede conseguirse usando "varillas o barras de control" que contengan sustancias que absorban los neutrones (tal como el boro) que son introducidas o sacadas automáticamente de estrechos canales perforados a través del material desintegrable empleado en la reacción tan pronto como la proporción de la producción de neutrones disminuya o exceda del nivel deseado.
Hoy, los reactores nucleares están siendo empleados con éxito como fábricas de energía en los países que tienen escasez de carbón y petróleo como Inglaterra y para la propulsión de buques como los submarinos "atómicos" de los Estados Unidos y los rompehielos "atómicos" de la Unión Soviética.
12. Reacciones termonucleares
Desde hace siglos los astrónomos y los físicos se han estado preguntando qué es lo que hace brillar al Sol y a todas las demás estrellas. Es evidente que una combustión corriente no sería suficiente, aun en el caso de que el material del Sol fuera la mejor gasolina de aviación, puesto que no podría durar desde la época de las pirámides egipcias hasta nuestros días. Hace unos cien años, Herman von Helmholtz en Alemania y Lord Kelvin en Inglaterra sugirieron que el Sol podía mantener su radiación de calor y luz como resultado de una lenta contracción de su volumen. Los cálculos han demostrado que la contracción del Sol, a partir de su gran tamaño originario hasta su presente diámetro, desprendería bastante energía para mantener su radiación durante unos cuantos cientos de millones de años. Pero las estimaciones más recientes sobre la edad del sistema solar han evidenciado que aun esta enorme cifra no es bastante grande y que el Sol debe de estar brillando desde hace miles de millones de años, por lo menos. La única manera de explicar la longevidad del Sol era suponer que su energía se deriva de algún género de transformación nuclear y en el año 1929 un astrónomo inglés, Robert Atkinson, y un físico austríaco, Fritz Houtermans, unieron sus cerebros para ver si esto podía ser verdad. Su idea era que las colisiones térmicas entre los átomos en el caliente interior del Sol podían inducir algunas reacciones nucleares bastante rápidas para suministrar la necesaria cantidad de energía. Los estudios de un astrónomo inglés, Sir Arthur Eddington, han demostrado que la temperatura en el interior del Sol debe ser tan elevada como 20 millones de grados, que corresponde a la energía del movimiento térmico de aproximadamente 4 x 10-9 ergios por partícula. Esta energía es varios cientos de veces más pequeña que la energía de los proyectiles atómicos empleados en los experimentos convencionales sobre la transformación artificial de los elementos, pero ha de tenerse en cuenta que, mientras los proyectiles nucleares acelerados artificialmente pierden rápidamente su energía inicial y tienen solo una pequeña probabilidad de alcanzar el blanco de un núcleo antes de salirse del juego, el movimiento térmico continua indefinidamente y las partículas en él implicadas chocan unas contra otras durante ilimitados períodos de tiempo. Mediante la teoría de la penetración mecánica de las ondas a través de las barreras potenciales nucleares, que había sido desarrollada solo un año antes, Houtermans y Atkinson pudieron demostrar que, a las temperaturas y densidades existentes en el interior de Sol, las reacciones termonucleares entre los núcleos de hidrógeno (protones) y los núcleos de otros elementos ligeros pueden liberar una cantidad de energía suficiente para explicar la radiación observada en el Sol. Esta teoría fue propuesta antes de los experimentos de Cockcroft y Walton sobre la transformación artificial de los elementos originada por los bombardeos con protones y solo se disponía de muy pocos datos sobre lo que ocurre cuando diferentes núcleos ligeros son alcanzados por protones. Houtermans y Atkinson expusieron entonces que debía haber algunos núcleos ligeros que tenían la propiedad de capturar protones y retenerlos durante un considerable período de tiempo. Después de haber sido capturado el cuarto protón, se formaría una partícula a dentro del núcleo "trampa de protones" y su expulsión liberaría una gran cantidad de energía nuclear. Ellos titularon enigmáticamente su artículo, publicado en 1929 en la revista ale-mana Zeitschrift für Physick: "¿Cómo se puede cocer un núcleo de helio en un pote potencial?", pero el título fue sustituido por otro más corriente por el director de la revista que no tenía sentido del humor.
Unos diez años más tarde, cuando se había reunido suficiente información sobre la transformación de los núcleos ligeros golpeados por un protón, el "núcleo cepo de protones" de Atkinson y Houtermans fue identificado como el de carbono. Hans Behte, en los Estados Unidos, y Carl von Weizsäcker, en Alemania, propusieron, independientemente uno de otro, el llamado ciclo del carbono, mostrado en la Figura 55. En esta serie de reacciones nucleares, cuatro protones son capturados consecutivamente por el núcleo del átomo de carbono y, después de la transformación de dos de ellos en neutrones, son emitidos como una partícula a. El período total del ciclo es de 6 millones de años, y la energía liberada en él se eleva a 4·10-5 ergios.
Como, según los datos actuales sobre la composición química del Sol, cada gramo de materia solar contiene 0,0001 gramos de carbono (5·1018 átomos de carbono), la proporción de energía liberada por el ciclo del carbono es de 1 ergio por gramo y segundo, lo cual constituye solamente el 1 % de la proporción a la que la energía debe ser producida en el interior del Sol.
Figura 55. Ciclo de carbono responsable de la energía termonuclear en las estrellas
Otro proceso fue propuesto hacia las mismas fechas por Charles Critchfield, que era entonces un graduado en la George Washington University. Su idea era que, si en una colisión entre dos protones uno de ellos es transformado en un neutrón por la emisión de un electrón positivo, se puede formar un núcleo de deuterio (hidrógeno pesado). A través de las reacciones subsecuentes, el deuterio se transformaría en helio, llegándose al mismo final que en el ciclo del carbono, pero mucho más rápidamente. Las reacciones ampliadas en este proceso llamado H-H son:
1H1 + 1H1 → 1D2 + e- + g
1H2 + 1H1 → 2He3 + g
2He3 + 2He3 → 2He4 + 2 1H1
A la temperatura de 20 millones de grados, esta reacción tarda 3·109 años y libera 4·10-5 ergios por protón. Como el hidrógeno constituye aproximadamente la mitad de la materia solar (2·1023 átomos por gramo), la proporción total de energía liberada es de unos 100 ergios por gramo y segundo, en completo acuerdo con el valor observado.
El predominio de la reacción H-H sobre el ciclo del carbono no es una ley general y se invierte en muchas estrellas. El quid es que estas dos series de reacciones termonucleares poseen diferente sensibilidad para la temperatura y mientras la proporción del ciclo del carbono es proporcional a T17, la reacción H-H lo es únicamente a T4. Así en el caso de las estrellas más brillantes que el Sol, como Sirio, que posee temperaturas centrales más altas, el ciclo del carbono predomina sobre la reacción H-H. Por otra parte, en las estrellas más débiles que el Sol —y la mayoría de las estrellas pertenecen a esta clase— la producción de energía se debe enteramente a la reacción H-H.
El lector se quedaría muy sorprendido si tratase de comparar la cantidad de producción de energía dentro del Sol con la cantidad de calor producido en un aparato eléctrico corriente, como una cafetera eléctrica. Cien ergios por gramo y segundo es equivalente a unas 2·109 calorías por gramo y segundo y se tardaría 5·107 segundos, o sea, un año y medio en elevar 1 gramo de agua fría al punto de ebullición a esa proporción de calor suministrado. Así pues, empleando una cafetera eléctrica en la cual la unidad térmica actuase con la misma eficiencia que las reacciones termonucleares dentro del Sol, tendríamos que esperar años hasta que hirviera el agua, siempre, naturalmente, que la cafetera esté perfectamente aislada y no se produzcan pérdidas de calor. La razón de por qué el Sol esté tan caliente a pesar de tan miserable cantidad de calor, es que es tan grande.
En efecto, como la producción total de calor es proporcional al volumen (es decir, al cubo del radio), mientras las pérdidas de calor son proporcionales a su superficie (es decir, al cuadrado del radio), los cuerpos muy grandes son muy calientes, aunque la producción de calor por unidad de volumen en su interior sea muy pequeña.
Resulta evidente de la exposición anterior que ni el ciclo del carbono ni la reacción H-H, que suministran la energía para las estrellas que iluminan nuestro universo, son adecuadas para el ambicioso Homo sapiens que desea emplear la energía nuclear pan sus propios designios.
Figura 56. Secciones transversales para las reacciones D-D y D-T corno función de su energía térmica expresada en términos de temperatura absoluta.
La clave para la solución de este problema está dada por el isótopo pesado del hidrógeno, deuterio D2 descubierto por el químico americano Harold Urey, y el isótopo aun más pesado, tritio, T3. El deuterio existe en la Naturaleza, aunque en cantidades bastante pequeñas, y sólo una de cada tres mil moléculas de agua contiene un átomo de deuterio. Gracias al desarrollo de los métodos para la separación de los isótopos, el coste del deuterio descendió del precio de los caros perfumes franceses al del whisky barato, y hay una cantidad enorme de agua en los océanos. El tritio, por ser un isótopo inestable no existe en la Naturaleza (excepto en cantidades insignificantes producidas en la atmósfera por los rayos cósmicos) y tiene que ser manufacturado a coste elevado en las pilas atómicas. Es demasiado caro para ser empleado como combustible principal, pero ayuda como "incitador nuclear" para iniciar la reacción termonuclear en el deuterio.
Las posibles reacciones entre los isótopos pesados del hidrógeno son las siguientes:
1D2 + 1D2 → 2He3 + 0n1 + 3,25 mev
1D2 + 1D2 → 1 T3 + 1H1 + 4 mev
1D2+ 1T3 → 2He4+ 0n1 + 17,6 mev
y su sección transversal efectiva, calculada sobre la base de la teoría del efecto del túnel, se muestra gráficamente en la Figura 56. Así pues, todo lo que hay que hacer para producir reacciones termonucleares entre los isótopos pesados de hidrógeno es calentarlos a una temperatura de unos cientos de millones de grados. Esto fue conseguido por los científicos de Los Álamos en 1 de noviembre de 1952 cuando hicieron explotar la primera bomba termonuclear en Elugelab, una isla coralina del océano Pacífico, convirtiéndola en una balsa de agua de una milla de anchura y unos 200 pies de profundidad. Este resultado fue conseguido comprimiendo y calentando una adecuada cantidad de hidrógeno pesado mediante una potente explosión de una bomba de fisión.
Pero la situación se hace mucho más complicada si se desea producir reacciones termonucleares bajo condiciones controladas y usar la energía liberada para finalidades constructivas más bien que destructoras. Es evidente que, en este caso, las condiciones físicas bajo las cuales las reacciones termonucleares se desarrollan tienen que ser modificadas radicalmente. Ante todo, la reacción debe producirse a densidades sumamente bajas para evitar la insoportable alta presión del gas que se desarrollaría a la temperatura de varios cientos de millones de grados.
En efecto, a esta temperatura y a la densidad del aire atmosférico, el gas deuterio desarrollaría la presión de unos 100 millones de libras por pulgada y no habría vasija que pudiera contenerlo. El gráfico de la Figura 57 muestra el valor de la producción termonuclear de energía para el deuterio puro y la mezcla de deuterio y tritio a las diferentes densidades del gas. En el vemos que, para obtener una producción de energía de unos cien vatios por cc, lo que es comparable con la de los actuales reactores de fisión, la densidad del deuterio puede ser tan baja como una milésima de la densidad del aire atmosférico que corresponde al vacío mayor que puede ser producido en nuestros laboratorios.
Figura 57. La proporción de liberación de energía nuclear por la variante densidad del gas a la temperatura de 7·1090 K (unas dos veces la temperatura interior del Sol). La faja sombreada representa la producción de energía en el uranio y plutonio de los reactores.
El segundo problema es mantener este caliente gas rarificado lejos de las paredes de la vasija, puesto que en otro caso el proceso de conducción del calor en las paredes rebajaría rápidamente la temperatura del gas deuterio por debajo del valor mínimo requerido para la reacción termonuclear.
Esto último puede ser conseguido por varios procedimientos distintos, todos ellos fundados en el empleo de potentes campos magnéticos. A las elevadísimas temperaturas exigidas en este caso, el gas deuterio en el tubo estará completamente ionizado y estará compuesto por completo de electrones cargados negativamente y deuterones cargados positivamente. (Este estado de la materia se designa actualmente con el nombre de "plasma") Sabemos que cuando una partícula cargada de electricidad se mueve a través de un campo magnético experimenta una fuerza perpendicular a la dirección de su movimiento y a la del campo.
Figura 58. Dos métodos principales que se están desarrollando actualmente para controlar las reacciones termonucleares. "Stellarator" en Princeton y "Perhapsotron" en Los Álamos.
Esta fuerza le obliga a moverse en espiral a lo largo de la dirección de las líneas magnéticas, como se ve en la Figura 58 a. De esta suerte, al formarse un potente campo axial en el tubo, podemos evitar efectivamente que los deuterones y tritones libres se acerquen a las paredes. Si se puede conseguir esto, las colisiones entre las partículas que se mueven en espiral a lo largo del tubo puede esperarse que se traduzcan en reacciones D-D o D-T con desprendimiento de energía nuclear y de grandes cantidades de neutrones. Desde luego, para que comience este proceso el gas del tubo debe haberse calentado a una temperatura muy elevada por medio de algún agente exterior.
La segunda posibilidad consiste en emplear fuerzas magnéticas originadas por descargas eléctricas, cortas pero potentes, a través del tubo. Es sabido que dos corrientes eléctricas paralelas que siguen la misma dirección se atraen magnéticamente una a otra, de suerte que si la corriente es bastante fuerte, el gas (o más bien el plasma) dentro del tubo tiende a separarse de las paredes y apretujarse formando un chorro estrecho a lo largo del eje. El modo como este efecto de contracción (efecto Pinch) funciona puede comprenderse a la vista de la Figura 58 b. Al contrario que en el método antes descrito, este efecto de contracción opera a saltos como lo hace el motor de un automóvil, pero tiene la ventaja de que el gas del tubo es calentado automáticamente por la descarga eléctrica y no necesita calentamiento exterior. Se ha calculado que una corriente de varios cientos de miles de amperios que dura unos cuantos microsegundos produciría una contracción bastante fuerte para producir una reacción termonuclear en el deuterio. El trabajo en las dos direcciones expuestas se realiza actualmente en muchos laboratorios del mundo y es muy posible que el problema de una reacción termonuclear controlada será resuelto en poco tiempo.
13. Mesones e hiperiones
Al principio de los años treinta, los físicos no tenían que habérselas más que con unas cuantas partículas de las que está compuesta la materia. Protones y neutrones en los núcleos atómicos, electrones en sus envolturas y —¡ah, también!— los neutrinos, el problema nacido en este período. Pero en 1932 apareció un artículo del físico japonés Hidekei Yukawa, que fue la pesadilla para todos los interesados en la naturaleza de las fuerzas cohesivas nucleares. Yukawa sugirió que estas fuerzas son debidas a una nueva partícula que se cambia continuamente entre los protones y los neutrones. Es muy difícil, si no imposible, describir de un modo sencillo la complicada noción del "canje de fuerzas". Probablemente la mejor manera de explicarlo es imaginar dos perros hambrientos que se disputan la posesión de un hueso suculento y están arrebatándoselo uno a otro para darle un mordisco. El sabroso hueso pasa continuamente de los dientes de uno a los del otro, y en la lucha resultante los dos perros quedan inseparablemente juntos. La idea de Yukawa era que las fuerzas de atracción entre los nucleones son debidas a una lucha similar por la posesión de esta nueva sabrosa partícula. Esta nueva partícula podría ser neutra eléctricamente o podría transportar una carga eléctrica positiva o negativa y el proceso de canje seria parecido en este caso al descrito entre los dos perros.
Yukawa ha demostrado que, para explicar las propiedades observadas de las fuerzas nucleares, se debe suponer que esta nueva partícula tiene una masa intermedia entre la masa de un protón y la masa de un electrón, siendo 10 veces más ligera que la primera y 200 veces más pesada que la segunda. Nadie creyó en la existencia de estas partículas, que fueron llamadas irónicamente "yokones", hasta que dos años después, un físico del Instituto Tecnológico de California, Carl Anderson, descubrió la presencia de partículas cargadas positiva y negativamente en los rayos cósmicos que llegan a la Tierra procedentes de las altas capas, de la atmósfera.
A partir de este descubrimiento, el nombre de la nueva partícula ha sufrido diversas transformaciones. A veces fue llamada "electrón pesado", otras "protón ligero", después alguien sugirió el nombre de "mesotrón", derivado de la palabra griega mesos que significa "entre". Pero el padre de Werner Heisenberg, que era profesor de lenguas clásicas, objetó que las letras "tr" no tenían por qué figurar en el nombre. En efecto, mientras el nombre "electrón" se derivó del griego electra (ámbar), la palabra griega mesos no tiene "tr". Así, con protesta de los físicos franceses, que no querían que el nombre de la nueva partícula se confundiera con maison ("casa" en francés), se estableció para ella el nombre de "mesón".
Desde muy al principio, los mesones fueron un quebradero de cabeza para los físicos, puesto que parecía haber algo erróneo en su absorción por el aire atmosférico. Para las partículas de una energía tan sumamente alta (muchos miles de millones de voltios eléctricos), la absorción en los diferentes materiales se esperaba que dependiera exclusivamente de la cantidad total (masa) de la materia que atraviesan. En efecto, como para estas energías todos los electrones atómicos con los cuales chocan estas rápidas partículas pueden considerarse que están libres (véase la exposición del efecto Compton), lo único que cuenta es el número de electrones y no la forma en que están unidos al núcleo. Así pues, si medimos la intensidad de un haz de rayos cósmicos en la cima de una alta montaña y en la base, la disminución de su intensidad debe ser determinada solamente por el peso de la columna de aire que se extiende desde el lugar más bajo al más alto.
Si la diferencia de presión barométrica entre los dos lugares es, por ejemplo, de 100 mm de mercurio, significa que el peso de la columna de aire es igual al peso de una columna de mercurio de 100 mm de altura, y, por tanto, la absorción de rayos cósmicos en una capa de mercurio de 100 mm de espesor debe ser la misma que la absorción en el aire entre la cima y la base de la montaña. Esta regla funcionó exactamente en el caso de los electrones de los rayos cósmicos, pero no en el de las partículas recién descubiertas. Un experimento importante en este sentido fue realizado en 1940 por Bruno Rossi y otros en el Lago Eco (altura, 3.240 metros), cerca de la cumbre del Monte Evans, junto a Denver (altura 1.616 metros). La diferencia de presión barométrica entre los dos lugares era de 14,5 mm de mercurio, o lo que es lo mismo, 2 metros de agua. Rossi empleó dos contadores idénticos de mesones —uno en Denver y otro en la montaña, el último sumergido dos metros bajo la superficie del lago[3]. Como el agua del lago produciría en este caso la misma absorción que la capa de aire entre el lago de la montaña y las calles de Denver, se esperaba que ambos contadores dieran el mismo resultado. Sin embargo, el experimento no confirmó estas esperanzas, y el contador en Denver mostró constantemente un número mucho menor de mesones. La única explicación posible era que había otra causa distinta que la absorción atmosférica para reducir el número de mesones que llegaban al suelo. Enrico Fermi sugirió que el efecto podría ser debido a la intrínseca inestabilidad de los mesones. En efecto, si los mesones se desintegran en su viaje, la fracción que llegue al suelo dependerá del tiempo del viaje. Como los mesones que descienden hasta Denver han viajado 1.624 metros más, y como viajan prácticamente con la velocidad de la luz, el intervalo de tiempo implicado es 1,6·105/3·1010 = 5·10-6 segundos. De esta cifra y del decrecimiento observado de intensidad al nivel del suelo, puede ser calculada la media del tiempo de vida en los mesones, que resulta depender de su velocidad. Para los mesones muy rápidos, con la energía de 250 mev, el tiempo de vida fue de unos 2·10-3 segundos, mientras que para los lentos con sólo una energía de 100 mev, fue observado un tiempo de vida de sólo 5·10-4. Estas observaciones dieron la primera confirmación experimental de la dilatación einsteiniana del tiempo y los resultados experimentales se ajustaban muy bien a la fórmula
En los experimentos subsecuentes se pudo medir el tiempo de vida de los mesones después de haberse quedado en reposo en un trozo de material absorbente y se encontró que era tan corto como 2,5·10-6 segundos. Si los mesones rápidos de los rayos cósmicos tuvieran este tiempo de vida se habrían degradado ya a gran altura en la atmósfera y no podríamos observarlos nunca en el suelo.
¿Qué ocurre a un mesón que muere? Esto no se puede responder más que fotografiando la trayectoria de un mesón y los productos de su degradación. En el caso de partículas de alto poder de penetración como los mesones no es necesario usar cámaras de niebla, que en todo caso son demasiado voluminosas para elevarlas en globos o cohetes. El método tipo en estos estudios está fundado en el empleo de placas fotográficas con capas espesas de emulsión. Se colocan varias de estas placas en pila y cuando una partícula de alta energía pasa a través de esta pila, afecta a los granos sensibles de la emulsión fotográfica que encuentra en su camino. Examinando las placas, una vez reveladas, al microscopio se observan largas hileras de granos oscurecidos que indican el camino que ha seguido la partícula. La penúltima (que va desde el pie hasta arriba, a la izquierda) pertenece a un mesón, un hecho que puede ser establecido contando el número de granos fotográficos afectados por unidad de longitud de huella. La última huella (que va desde la parte superior a la inferior, a la izquierda) pertenece a un electrón ordinario producido en el punto donde termina la huella del mesón. El hecho de que el electrón sea expelido en la dirección contraria prueba que debe haber una o más partículas participando en el proceso de degradación y moviéndose a la izquierda. El hecho de que no se vea otra huella prueba que esas partículas deben ser eléctricamente neutras y el estudio detallado de las direcciones y las energías implicadas lleva a la conclusión de que hay, en efecto, otras dos partículas, las cuales son nuestros viejos amigos los neutrinos. Así pues, la degradación de un mesón puede ser descrita por la ecuación:
donde ± corresponden a los mesones cargados positiva y negativamente. Como el mesón tiene 206 veces la masa de un electrón, y el electrón, naturalmente, tiene 1 masa de electrón y el neutrino prácticamente no tiene masa, quedan 205 masas de electrón sin contar. Conforme al principio einsteiniano de equivalencia de masa y energía, este exceso de masa se traduce en 100 mev de energía repartidos entre las partículas formadas en la degradación. Cuando los mesones fueron descubiertos por primera vez, fueron saludados como las partículas que, conforme a la teoría del fenómeno de canje de Yukawa, debían ser responsables de las fuerzas cohesivas que actúan entre los nucleones. Pero pronto se vio que la situación no era, en modo alguno, tan sencilla. La dificultad se suscita en conexión con la cuestión de lo que hacen los mesones cuando son retardados en sus trayectorias dentro de un espeso bloque de material absorbente. En este caso, la suerte de los mesones positivos y negativos se esperaba que fuera diferente. Los mesones positivos, al ser repelidos por los núcleos atómicos, cargados positivamente, del material del cual son retardados, vagan como parias y al cabo de unos cuantos microsegundos se degradarán en un electrón rápido positivo y un par de neutrinos. El electrón positivo de alta energía será expulsado del bloque, atravesará uno de los numerosos contadores con que los cazadores de mesones cercan el bloque y anunciará la muerte de un mesón positivo.
Por el contrario, el mesón negativo retardado será cogido en una órbita cuántica y se convertirá en un miembro temporal del sistema atómico. Los cálculos realizados por Enrico Fermi y Edward Teller han demostrado que esta captura se verifica con suma rapidez, mucho antes de que el mesón retardado tenga posibilidad de desintegrarse. Como los radios de las órbitas cuánticas de Bohr son inversamente proporcionales a la masa de la partícula, la órbita del mesón será doscientas veces menor que la órbita del electrón más interior, y el mesón capturado se moverá muy próximo a la superficie del núcleo, pareciendo algo así como un satélite de la Tierra. Una vez en órbita, el mesón se encuentra ante dos posibilidades: puede desintegrarse en un electrón rápido negativo y dos neutrinos, y los contadores situados en torno al bloque registrarán la muerte de un mesón negativo. Pero al moverse tan cerca del núcleo puede ser engullido por éste. En efecto, si las fuerzas entre protones y neutrones son debidas al continuo canje de mesones entre ellos, debe producirse la reacción
Por la energía de las fuerzas nucleares se puede calcular que tiene que ser una reacción sumamente rápida que tarda únicamente 10-22 segundos. Como la degradación natural del mesón dura unos 10-6 segundos, se sigue que prácticamente todos los mesones deben ser engullidos por el núcleo mucho antes de que mueran de muerte natural. A lo más, únicamente un mesón de 1016 mesones tiene una probabilidad de desintegrarse en un electrón y neutrinos antes de ser engullidos. Así pues, ningún electrón negativo debe ser expelido del bloque retardador de mesones. La prueba experimental discrepa radicalmente de esta conclusión. Aunque el número de electrones negativos expulsados del bloque era menor que el de electrones positivos, fue más pequeño que el de electrones positivos, para algún material por un factor de 2, para otros por un factor de 10, no fue ciertamente menor por un factor de 1016. Esto significa que el apetito de los núcleos por los mesones es varios millones de billones menor que el necesario para una fuerza suficientemente vigorosa de canje como la que concibió Yukawa. ¿Qué se podía hacer entonces? Los mesones fueron predichos, los mesones fueron descubiertos después, pero eran clases falsas de mesones, y los núcleos atómicos no tenían por ellos más interés que los leones por el heno.
La solución vino de una fotografía con emulsión gruesa tomada en 1947 por uno de los globos que un físico inglés, C. F. Powell, enviaba a la alta atmósfera. La fotografía mostraba dos trayectorias unidas en sus extremos. Una de ellas pertenecía a un mesón ordinario con la masa 206 mientras la otra debía haber sido producida por una partícula de la misma carga pero con la masa 273. La partícula más pesada fue llamada al principio un "mesón pesado" (como "un boxeador peso medio pesado") pero pronto se le designó como un p mesón (o "pión") mientras el "mesón ligero" descubierto primeramente recibió el nombre de m mesón (o "muón").
Estudios posteriores han demostrado que un pión negativo o positivo se degrada en un muón (negativo o positivo) y un neutrino conforme a la ecuación:
Son producidos en las altas lindes de la atmósfera como resultado del impacto de los rayos cósmicos primarios (que, en esencia, son protones de elevada energía) contra los núcleos atómicos, y tienen una corta media de vida (2,6·10-6 segundos), de suerte que, aun a pesar de la dilatación einsteiniana del tiempo, ninguno de ellos llega a la superficie de la Tierra. Mientras no hay más que dos tipos de muones: µ+ y m- hay tres clases de piones, p+, p- y p0 el último de los cuales se desintegra en dos cuanta de radiación de alta energía:
p0 → 2g
con una mitad de vida de sólo 10-16 segundos.
Durante los años siguientes se fueron descubriendo y lloviendo sobre las cabezas de los físicos cada vez más partículas. Apareció un mesón K con la masa de 965 electrones y varias partículas más pesadas que los protones que recibieron el nombre de "hiperiones". Sus nombres, su forma de degradación y mitad de vida se consignan en la tabla adjunta y no hay garantías de que no se descubran más en el futuro próximo. Las fotografías de los sucesos elementales se están haciendo cada vez más intrincadas. Estas fotos se toman con un nuevo aparato llamado "cámara de burbujas" que es, en cierto modo, una inversión de la cámara de niebla. En lugar de gotitas líquidas formadas en un gas, se emplean en él las burbujas de gas formadas en un medio líquido como el hidrógeno líquido. Aunque nuestro conocimiento fáctico de las partículas elementales incremente rápidamente, chocamos contra un muro sólido cuando intentamos comprenderlas, y todas las teorías desarrolladas en esta dirección son hasta ahora de carácter puramente fenomenológico.
14. A través del espejo
Si encontramos un zapato del pie izquierdo estamos seguros de que el zapato del pie derecho está en algún lado de la cama o del sofá; lo mismo puede decirse de los guantes y de otros muchos objetos. Pero todos los hombres y mujeres tienen el corazón al lado izquierdo y el apéndice en el derecho. Un hecho más fundamental de la biología es que las moléculas de proteínas que forman los seres vivientes, sea una ameba, un hombre, una sardina o un rosal, tienen una simetría zurda y que el mundo de las plantas y los animales de simetría diestra no existen en la superficie de la Tierra. Es muy extraño, puesto que no siempre que un químico orgánico sintetiza proteínas obtiene un 50% de moléculas zurdas y un 50% de moléculas diestras. Al ser indigeribles o incluso venenosas unas para otras, acaso han librado una batalla en que uno de los lados quedó completamente destruido.
Pero en la física regular siempre ha sido cumplido el principio de la simetría del espejo (conocido con el nombre de "principio de paridad) y a cualquier proceso físico se le podría encontrar otro proceso que se le pareciese exactamente como una imagen del primero vista en un espejo. En el año 1956, dos físicos chino-americanos, Chen Ning Yan y Tsung Dao Lee, sugirieron sobre la base de consideraciones teóricas que acaso eso no rigiera en el caso de partículas elementales.
Como hemos dicho antes varias vetes, las partículas elementales y los neutrones en particular pueden ser considerados como peonzas que giran en torno a su eje. Esta rotación puede ser, claro está, en el sentido en que se mueven las manecillas de un reloj o en el sentido contrario, y las dos formas de movimiento pueden ser transformadas una en otra con sólo invertir las partículas poniéndolas cabeza abajo. El electrón emitido por la degradación de un neutrón sigue preferentemente la dirección de su eje de rotación, y se creía que los electrones son emitidos con igual probabilidad en ambas direcciones, es decir, desde el polo norte o el polo sur. Si esto fuera cierto, el principio de paridad quedaría cumplido y la imagen especular del neutrón degradante sería idéntica a la primitiva, puesto que todo lo que habría que hacer para que coincidiesen es invertir la posición del neutrón. Pero si el electrón es emitido siempre en una dirección, la situación resulta diferente por completo. En efecto, mirando la imagen de un neutrón que se degrada en un espejo se vería que no hay modo de invertirla de modo que coincida con el original. Si, en ambos casos, el electrón es emitido hacia arriba, los dos neutrones giran en direcciones contrarias. Si, mentalmente, se invierte la imagen o el original, los dos electrones serían emitidos en direcciones opuestas. El principio de paridad fallaría y el comportamiento de las partículas elementales en el otro lado del espejo no sería idéntico con la que está frente a él.
Para probar la hipótesis de Yang y Lee, se realizó un experimento directo a fin de ver si existe correlación entre la dirección en que gira el neutrón y la dirección de la emisión del electrón. A este objeto se enfrió un material radiactivo que sufría una degradación beta a una temperatura muy baja y se le colocó en un potente campo magnético. En estas condiciones, cuando se extingue todo el movimiento térmico de las moléculas, todos los átomos se orientan en una sola dirección a lo largo de las líneas magnéticas de fuerza. Si el electrón fuera emitido igualmente en las dos direcciones respecto al eje de rotación del neutrón, se observaría el mismo número de ellos moviéndose hacia los polos norte y sur del electromagneto. Pero el experimento llevó a una conclusión enteramente contraria y, como Yang y Lee habían predicho, todos los electrones se movían en la misma dirección. Poco después llegóse al mismo resultado en la degradación de un m mesón.
Esto fue la quiebra del principio de paridad; el mundo de las partículas elementales se comprobó que está desequilibrado. ¿Dónde está la mitad suya que corresponde a la física vista a través del espejo? No lo sabemos ni lo sabremos hasta que comprendamos la naturaleza básica de las partículas elementales.
15. El futuro de la física
De lo que llevamos dicho resulta evidentemente que el futuro de la física depende de los estudios posteriores y comprensión de las partículas elementales, y mientras que el progreso experimental en esta dirección está en marcha, la teoría está prácticamente detenida. Hace veinticinco siglos, Demócrito postuló que la materia está compuesta de diminutas partículas discretas y nosotros estamos cada vez más convencidos de la exactitud de esta tesis. Hace sólo medio siglo que hemos aprendido que la energía tiene también una estructura "atómica" y ahora hablamos de cuantas de energía. En el transcurso de los seis últimos años, los físicos han aprendido la manera de cuantificar las distintas clases de energía. En el caso de la radiación electromagnética, la energía únicamente puede tomar los valores de nhv en que v es la frecuencia de vibración y n un número entero. En un sencillo átomo de hidrógeno, la energía de los diferentes estados cuánticos varia como 1/n2 en que n es un número entero. En otros casos más complicados la respuesta exacta está dada por las ecuaciones de Schrödinger y Dirac. Pero, en el caso de las partículas materiales, estamos todavía en un estado de absoluta ignorancia. No conocemos por qué una carga eléctrica tiene siempre el mismo valor: 4,77·10-10 esu. No tenemos ni idea de por qué las masas de las partículas están cuantificadas, teniendo los valores relativos consignados en la Tabla I. Ni otra mejor que Demócrito de por qué la materia debe consistir en partículas indivisibles en lugar de ser continua.
Las respuestas a las cuestiones anteriores constituirán la física del porvenir, pero en las últimas décadas no se ha dado un solo paso para hallar esas respuestas y nadie puede predecir cuándo puede esperarse encontrarlas. Pero, aunque no se conoce una respuesta correcta, no se nos debe vituperar por especular sobre esta clase de problemas. Tomemos, por ejemplo, la carga elemental e. Es sabido que e2 dividido por el producto de la velocidad de la luz c y la constante cuántica h es un número puro o una constante unidimensional, lo que significa que no importa que expresemos e, c y h en unidades centímetros-gramo-segundo o en unidades pulgada-libra-hora o cualquier otro sistema de unidades (siempre que sean empleadas consecuentemente); la relación siempre es la misma. La relación es conocida con el nombre de "constante de fina estructura" a causa de que resulta de la descripción de la división de las rayas de la serie Balmer en varios componentes muy pequeños y su valor numérico está dado por 1 dividido por 137. ¿Por qué 137 y no 75 ó 533? En las fórmulas físicas, los coeficientes numéricos tienen siempre algún significación matemática. Por ejemplo, si se estudia la relación entre el período T de un péndulo, su longitud l y la aceleración de la gravedad g, no importa qué unidades se empleen, siempre se llega a la fórmula:
¿Qué es ese número 6,283? Si se trata de relacionarlo con varios números usados en matemáticas, vemos que es de hecho igual a 2p. Y en efecto, empleando las ecuaciones de la mecánica teórica para la derivación de esta fórmula, encontramos que el coeficiente tiene que ser 2p. Del mismo modo, derivando una expresión para la carga elemental empleando las ecuaciones de la teoría cuántica relativista que contienen las constantes c y h, llegamos a la conclusión de que la relación hc/e2 (inversa de la constante de fina estructura) está dada por una cierta expresión matemática que es numérica-mente igual a 137. Pero nadie sabe por ahora cómo desarrollar tal teoría, y mientras no hay dificultad en ver que 6,283 es igual a 2·3,141..., es mucho más difícil ver qué clase de animal es ese número 137.
Sir Arthur Eddington, que ha hecho invaluables contribuciones a la teoría de la estructura interna de las estrellas, trató hace muchos años de explicar el número 137. Su razonamiento fue en líneas generales el siguiente: Nosotros vivimos en un mundo de cuatro dimensiones (x, y, x, ict) y 4·4 = 16. Así, construyamos una matriz, es decir, una tabla cuadrada con 16 líneas y 16 columnas. Supongamos, además, que esta matriz es "simétrica" respecto a su diagonal, es decir, que los contenidos de un cuadrado en la línea n y columna m son idénticos con los de un cuadrado en la línea m y columna n. ¿Cuántos cuadrados independientes tendremos? No es difícil de calcular. La matriz tiene en total 16 x 16 = 256 cuadrados. De éstos, 16 pertenecen a la diagonal, lo que les deja en 240. Así, cada área triangular a ambos lados de la diagonal tendrá 120 cuadrados. Como los cuadrados en ambos lados de la diagonal son idénticos, tenemos 120 cuadrados independientes que, con los 16 cuadrados de la diagonal, hacen 136. En la época en que Eddington obtuvo primeramente esta relación, se creía que el valor empírico era 136. Sólo unos años después mediciones más exactas lo elevaron a 137, lo que obligó a Eddington a elaborar una teoría corregida que requería una unidad adicional.
La idea de Eddington fue ridiculizada en un corto artículo de G. Beck, H. Bethe y W. Riezler publicado en el número 9 de enero de 1931 de la revista alemana Naturwissesschaftes. Este artículo, que trataba de demostrar lo peligroso que es hacer juegos malabares con los números, decía así:
Algunas observaciones sobre la teoría cuántica del punto cero de temperatura.
Consideremos un cristal hexagonal. Su punto cero absoluto se caracteriza por la congelación de todos sus grados de libertad excepto, claro está, el movimiento de los electrones en las órbitas de Bohr. Según Eddington, cada electrón posee 1/a = 137 grados de libertad. Además de los electrones, el cristal contiene también un número igual de protones. Para llegar al punto cero debemos atribuir a cada neutrón (es decir, un protón más un electrón) 2/a 1 grados de libertad, puesto que un grado de libertad queda congelado durante el movimiento del electrón en su órbita. Así pues, obtenemos para el punto cero de temperatura
Suponiendo que 1/a= 137, obtenemos para el punto cero de temperatura:
T0 = -273 grados
lo que coincide exactamente con el valor experimental. Advertimos que nuestro resultado es independiente del cristal escogido.
Desde luego, la relación numérica anterior entre 137 y 273 es una mera coincidencia, porque mientras 137 es un verdadero número puro, el cero absoluto de temperatura puede ser dado por diferentes números, dependiendo de si usamos la escala de temperatura centígrada, la de Réaumur o la de Fahrenheit. Después de la publicación del artículo, el director de la revista, informado por uno de los físicos de Berlín de que era una broma, escribió una carta indignada a los autores, que trabajaban entonces en la Universidad de Cambridge. Recibió una respuesta humilde, diciendo que los autores estaban apenados por la confusión, pero que ellos estaban seguros de que el artículo habría sido considerado como una parodia de la manera con que ciertos físicos construyen sus teorías. Así, el número siguiente de Naturwissesschaften publicó una nota del director diciendo que había esperado que todos los lectores comprenderían que el artículo de Beck, Bethe y Riezler era exactamente una parodia. Entonces Sir Arthur Eddington estalló.
Todo esto ocurría hace treinta años, pero todavía hoy no sabemos por qué la cifra es 137 y no otra cualquiera, y si la "explicación" de Eddington es debida a una pura coincidencia o hay una parte de verdad en ella. Desde luego se puede calificar el esfuerzo de Eddington como "numerología" que tiene hoy una significación peyorativa, pero hay una palabra muy próxima: "teoría de los números" que es una extensa y reputada rama de la matemática pura. En sus esfuerzos para resolver los enigmas de la Naturaleza, los físicos suelen buscar el auxilio de la matemática pura y en muchos casos lo obtienen. Cuando Einstein quiso interpretar la gravedad como la curvatura del espacio de cuatro dimensiones, encontró esperando por él la teoría de Riemann del espacio curvo multidimensional. Cuando Heisenberg buscó alguna clase insólita de matemáticas para describir el movimiento de los electrones dentro de un átomo, un álgebra no conmutativa estaba como preparada especialmente para él. Únicamente la teoría de los números y la topología (analysis situs) siguen siendo puramente disciplinas matemáticas sin ninguna aplicación a la física. No podría ocurrir que recurriésemos a ellas para una comprensión mayor de los enigmas de la Naturaleza?
Pero, volviendo a los problemas de la física del porvenir, sería probable que encontrásemos más dificultades para la explicación de las masas de las partículas elementales que para sus cargas eléctricas. En efecto, cualquiera fórmula que expresara una masa en términos de velocidad (c), acción (h) y una constante numérica debe incluir también una longitud.
Se puede escribir:
en donde A es algún numero racional como 1, √2, 3/5 p, 1/2p2, etc. Si suponemos que A es 1, la acción igual a h (6,55·10-27) y la velocidad igual a c (3·1010) y queremos obtener la masa media de una partícula material, es decir, la masa de un mesón (2·1025) debemos tomar una longitud igual a 10-12 cm. Pero, naturalmente, si A no es 1, sino, por ejemplo, 2p (~ 6) o p2 (~ 10), las longitudes pueden ser tan pequeñas como 10-13 cm. Las longitudes de este orden de magnitud son muy comunes en la física de las partículas elementales. El radio de un electrón calculado sobre la base de la teoría electrodinámica clásica es 2,8·10-13 cm, mientras que la distancia a que las fuerzas nucleares actúan entre dos partículas se sabe que es 1,4·10-13 cm. Así pues, parece que la longitud de varias veces 10-13 cm tiene una significación fundamental en los problemas de las partículas elementales.
Durante varias décadas, los físicos teóricos han mantenido la esperanza de que la longitud del orden de 10-13, que habitualmente se llama A desempeñe el papel de longitud elemental en el desarrollo futuro de la teoría. Así como c es la velocidad más alta posible en la teoría de la relatividad y h es la acción más pequeña posible en la teoría cuántica, A está destinada a ser la distancia más corta posible en la futura teoría de la materia. Será, por así decir, "el diámetro del punto matemático" y no tendrá sentido hablar de distancias más cortas. Esta posibilidad es un sueño muy atractivo e interesante que probablemente será realidad nadie sabe ahora cuándo.
Para dar una conclusión dramática a este volumen, que ha resultado demasiado largo, podemos hablar de una relación "numerológica" más, observada en el campo de las partículas elementales. No podemos comprender lo que significa 137, pero expresamos las masas de todas las partículas elementales en términos de 137 masas de electrón. El resultado se ve en la Tabla I, allí vemos que todas las cifras están muy próximas a números enteros, excepto dos, que son próximas a uno y medio número entero. Puede ser coincidencia, pero las probabilidades de tal coincidencia son de una contra mil millones. Y si no es coincidencia ¿qué significación tiene? ¿Puede ser explicada la serie de los "números sagrados"
19; 17; 16; 13 ½; 7; 2; 1 ½
sobre la base de alguna teoría razonable? Puede ser, por ejemplo, relacionada con la teoría de los números, teniendo alguna conexión con la serie de los números primos o más complicadas series de números? O ¿es mejor relacionarla con la topología, como si tuviera alguna conexión con el número de vértices, aristas, caras y limites espaciales de los poliedros tetradimensionales? No sabemos. Pero esperemos que el trabajo de los físicos de las futuras generaciones darán a estos problemas una victoriosa solución.
Notas:
[1] El protactinio tiene un período medio de vida de solo 12.000 años, pero el precursor de la familia actinio, del cual se deriva el protactinio por una degeneración a y una degeneración b, tiene una vida media de 500 millones de años. No tiene un nombre relacionado con la familia actinio, pero, por ser un isótopo del uranio se le llama sencillamente U-235. Al emitir una partícula a, el 82U235 se transforma en 90VY231 que, por la siguiente degeneración b se convierte en 91Pa231. El U-235 lleva el nombre de la familia uranio, pero, en realidad, pertenece a la familia actinio (tipo 4n + 3) y es el famoso uranio "desintegrable" que ha hecho posible el desarrollo de las bombas atómicas y reactores nucleares.
[2] Barn, en inglés, significa "granero, henil, pajar". (N. del T.)
[3] En el experimento se empleó una plancha de hierro con un espesor equivalente a dos metros de agua, pero sería más poético emplear el agua del hermoso lago.