Tercera Parte:
-
Más Allá Del Sistema Solar

11. Nuevas Estrellas

Cualquiera de nosotros puede confeccionar un «libro de récords» personal, si lo desea. ¿Cuál es el intervalo más largo de tiempo que hemos pasado sin dormir? ¿Cuál fue la mejor comida de nuestra vida? ¿Cuál es el chiste más divertido que hayamos oído nunca?

No estoy seguro de que el esfuerzo necesario para ello valga la pena, pero puedo contarles muy fácilmente el mayor espectáculo astronómico que haya presenciado nunca.

Quien como yo vive en las grandes ciudades del Nordeste no dispone de muchas posibilidades para ver grandes espectáculos astronómicos. Entre tanto polvo y tanta luz artificial, me considero afortunado si en alguna ocasión puedo distinguir a la Osa Mayor en el cielo nocturno de Nueva York.

Sin embargo, en 1925 hubo un eclipse total de Sol que fue visible desde la ciudad de Nueva York, aunque sólo de refilón. Se le llamó el eclipse de la calle Noventa y Seis, porque al norte de la calle Noventa y Seis de Manhattan no llegó a conseguirse la totalidad.

Sin embargo, yo vivía a unos dieciséis kilómetros al sur de esta línea límite y por lo tanto estaba bien situado, porque la totalidad duró en mi barrio un corto intervalo de tiempo. De todos modos el problema era que en aquel entonces yo sólo tenía cinco años de edad, y por mucho que me esfuerce no puedo recordar si vi el eclipse o no.

Creo que recuerdo haberlo visto, pero quizá me estoy engañando a mí mismo.

Más tarde, en 1932 (creo que en agosto), hubo un eclipse visible en la ciudad de Nueva York que alcanzó casi el noventa y cinco por ciento del total. Fue una visión emocionante porque el Sol quedó reducido a un delgado creciente y todo el mundo salió a la calle y aún había más personas en las azoteas mirándolo. (Supongo que la mayoría de las personas escogieron las azoteas para estar más cerca del Sol y tener mejor vista). Todos lo miramos a través de vidrios ahumados y de película fotográfica impresionada, lo cual es una protección muy insuficiente y no entiendo cómo no nos quedamos todos ciegos. En todo caso, yo vi aquel eclipse. Tenía doce años y lo recuerdo bien.

Luego, el 30 de junio de 1973, estaba yo a bordo del buque Canberra ante la costa del África occidental y vi un eclipse total de Sol, muy bello. Duró cinco minutos, y lo que me impresionó más fue el final. Apareció un diminuto punto de luz que luego, de repente, se esparció en medio segundo y se hizo tan brillante que no podía verse sin filtros. Era el Sol que volvía rugiendo, y éste fue el espectáculo astronómico más magnífico que haya visto nunca.

Hay otros espectáculos en el cielo que quizá no sean tan extraordinarios como un eclipse total de Sol, pero que son más interesantes para los astrónomos, e incluso para nosotros si llegamos a entenderlos del todo. Están, por ejemplo, las estrellas que parecen nuevas. Un eclipse solar es sólo un ejemplo de la Luna interponiéndose entre nosotros y el Sol, y es un fenómeno regular que puede predecirse fácilmente con siglos de antelación. En cambio, las estrellas nuevas…

Pero empecemos por el principio.

En nuestra cultura occidental se ha dado por sentado durante mucho tiempo que los cielos eran inmutables y perfectos. En primer lugar, así lo dijo el filósofo griego Aristóteles (384-322 a. J.C.) y durante dieciocho siglos fue difícil encontrar a alguien dispuesto a discutir a Aristóteles.

¿Y por qué dijo Aristóteles que los cielos eran inmutables y perfectos? Por la mejor de las razones. A sus ojos el cielo parecía así, y ver es creer.

Sin duda el Sol cambiaba de posición en relación con las estrellas, y lo mismo hacía la Luna (que además recorría todo un ciclo de fases). Cinco objetos brillantes de aspecto estelar, que hoy llamamos Mercurio, Venus, Marte, Júpiter y Saturno, también cambiaban de posición, de una forma más complicada que el Sol y la Luna. Sin embargo, todos estos movimientos, junto con otros cambios de fase y de brillo, eran bastante regulares y podían predecirse.

De hecho se predecían con métodos que los astrónomos habían perfeccionado lentamente a partir de los sumerios, aquel pueblo inteligente, hacia el año 2000 a. J.C.

En cuanto a los cambios irregulares e impredecibles, Aristóteles mantenía que eran fenómenos de la atmósfera y no de los cielos. Son ejemplos de ello las nubes, las tormentas, los meteoros y los cometas. (Aristóteles pensaba que los cometas eran sólo gases ardientes elevados a gran altura en el aire: soberbios fuegos fatuos). La noción de Aristóteles sobre una perfección inmutable encajaba de maravilla con las ideas judeocristianas.

Según la Biblia, Dios creó el universo en seis días y al séptimo descansó, probablemente porque no quedaba nada más por hacer. Parecía una blasfemia imaginar a Dios dándose cuenta de repente de que había olvidado algo y poniendo de nuevo manos a la obra, cuando ya habían terminado los seis días, para crear una nueva estrella o una nueva especie de vida.

Es cierto que la Biblia describe a un Dios que se entromete continuamente en las actividades de los seres humanos, que se enfurece por lo más mínimo, que envía inundaciones y plagas y que ordena a Samuel que elimine a los amalequitas, incluidos mujeres, niños y ganado, pero eso se explica únicamente porque los seres humanos parecían irritarle. Dios dejó en paz a las estrellas y a las especies.

De modo que, con Aristóteles y con el Génesis, cuando una persona perteneciente a nuestra tradición occidental veía una nueva estrella en el cielo probablemente apartaba nerviosa la mirada y pensaba que no debían haber apurado aquel último trago de cerveza o de jerez o de cualquier otra bebida.

Además, no era probable que esta persona prestara atención a una nueva estrella, aunque apareciera en el cielo.

Pocas personas miraban el cielo con cierta constancia o se preocupaban de memorizar las formas de las constelaciones y de recordar alguna combinación. (¿Lo hace usted?). Incluso los astrónomos que observaban profesionalmente los cielos estaban interesados principalmente en las peregrinaciones de los cuerpos celestes («planetas») que se movían en relación con los demás: el Sol, la Luna, Mercurio, Venus, Marte, Júpiter y Saturno. A partir de estas nociones elaboraron la seudo-ciencia de la astrología, que todavía impresiona a personas poco cultas (es decir, a la mayoría de la humanidad).

En cuanto a las demás estrellas que conservan sus posiciones relativas entre sí, las personas podían fijarse en la Osa Mayor y en el cuadrado de Pegaso y en otras configuraciones simples de estrellas relativamente brillantes, y poca cosa más. Por lo tanto, si aparecía una nueva estrella y provocaba un cambio en algún dibujo no anotado, era muy posible que nadie se diera cuenta, con excepción de una pequeñísima minoría, y que éstos fueran incapaces de convencer a los demás de que aquello era realmente una nueva estrella. Puedo imaginarme ahora mismo la conversación:

—¡Eh, mira, una estrella nueva!

—¿Dónde? ¿Por qué dices que es nueva?

—No estaba ahí anoche.

—Estás loco.

—No. En serio. Te lo juro. Que me muera si no es cierto. Esta estrella es nueva.

—¿Ah, sí? Y aunque lo fuera, ¿qué me importa?

Es evidente que si aparecía una estrella nueva y era realmente brillante, podía notarse. La estrella más brillante en el cielo es Sirio, pero hay varios planetas más brillantes todavía, como Júpiter y Venus. Si una nueva estrella tuviera «brillo planetario», es decir, si rivalizara con los planetas en brillo y si fuera más brillante que una estrella corriente, sería muy difícil ignorarla.

La primera historia sobre la observación de una nueva estrella tiene por protagonista a Hiparco (190-120 a. J.C.), astrónomo griego que trabajaba en la isla de Rodas. Por desgracia no ha sobrevivido ninguno de sus escritos, pero sabemos lo bastante a través de los escritos de estudiosos posteriores para juzgar que fue el astrónomo más importante de la antigüedad.

La referencia más antigua que se ha conservado sobre la observación por Hiparco de una nueva estrella está en los escritos de un historiador romano, Plinio (23-79 d. J.C.), que escribió dos siglos después de Hiparco.

Plinio afirma que Hiparco había observado una estrella nueva y que esto le inspiró la idea de confeccionar un mapa de las estrellas del cielo.

Esto me parece bastante lógico. Hiparco debió de haber estudiado el cielo visible de noche como pocos lo hicieron, y por lo tanto podía reconocer una estrella determinada y saber que era nueva aunque los demás fueran incapaces de ello. Además, pudo muy bien plantearse la posibilidad de que otras estrellas nuevas hubiesen aparecido antes sin que él se hubiese dado cuenta. Si confeccionara un mapa, podría comparar las estrellas de aspecto vagamente sospechoso con el mapa y decidir inmediatamente si se trataba o no de una estrella nueva (o si era una estrella vieja).

A pesar del mapa de Hiparco y de su mejoramiento por otro astrónomo griego, Claudio Tolomeo (100-170), tres siglos después, los observadores occidentales no localizaron de modo definitivo nuevas estrellas durante los diecisiete siglos que siguieron a Hiparco. Hay que reconocer en todo esto el efecto de las enseñanzas de Aristóteles y del Génesis.

Sin embargo, había una civilización en la Tierra que estaba avanzada científicamente y que no oyó hablar nunca de Aristóteles ni del Génesis hasta el año 1500, más o menos. Esta civilización era China. Los chinos, sin las trabas de las opiniones religiosas relativas a la naturaleza de los cielos, estaban muy dispuestos a ver posibles estrellas nuevas apareciendo en el cielo. (Las llamaban «estrellas invitadas»).

Los chinos dejaron constancia de cinco estrellas nuevas especialmente brillantes, y cada una de ellas se mantuvo visible durante seis meses o más. En otras palabras, no se trataba solamente de estrellas nuevas, que aparecían en un lugar de los cielos donde no había habido antes ninguna estrella, sino que también eran temporales, porque acababan desapareciendo, mientras que las estrellas corrientes conservaban su lugar al parecer para siempre.

Por ejemplo, los chinos señalaron en el año 183 la aparición de una estrella nueva y muy brillante en la constelación del Centauro. (Como es lógico, los chinos tenían sus nombres propios para las distintas agrupaciones estelares, pero nosotros podemos traducir sus constelaciones a las nuestras). Según los chinos, la nueva estrella, en su momento de máxima luminosidad, tenía un brillo planetario superior al de la misma Venus, y se mantuvo visible durante un año. Sin embargo, estaba muy baja en el cielo meridional y no pudo observarse desde la mayor parte de Europa. Habría sido visible desde Alejandría, que era entonces el centro de la ciencia griega, pero Alejandría había pasado ya sus mejores días, y el último astrónomo griego notable, Claudio Tolomeo, había muerto ya.

La siguiente nueva estrella brillante apareció en Escorpio en el año 393, pero era menos brillante que la de Centauro y no tenía brillo planetario. Fue durante poco tiempo tan brillante como Sirio (la estrella común más brillante) y siguió viéndose durante ocho meses. Sin embargo, no hay informes sobre ella en Europa. El Imperio romano se había cristianizado, y la clase de sabio que existía entonces discutía sobre teología y no sobre los detalles del cielo.

Pasaron unos seis siglos antes de que los chinos comunicaran la presencia de otra nueva estrella de brillo planetario. Estaba situada en la constelación de Lupus, de nuevo muy baja en el cielo austral, y apareció en el año 1006. Es la estrella más brillante sobre la que informaron los chinos, y puede muy bien haber sido la estrella más brillante que haya aparecido en el cielo en épocas históricas.

Según algunos astrónomos modernos que han estudiado los documentos chinos, esta estrella en su momento de máximo brillo debió de haber sido doscientas veces más brillante que Venus en su momento de máximo brillo, lo que significa quizá una décima parte del brillo de la luna llena. (La estrella era un simple punto de luz, y todo ese brillo encerrado en un punto debió de resultar realmente deslumbrante al mirarlo).

La estrella sólo conservó su brillo máximo o casi máximo durante unas semanas, pero se desvaneció lentamente y no se hundió en la invisibilidad hasta pasados unos tres años.

Los árabes, que habían utilizado ventajosamente la herencia científica griega y que eran los astrónomos más importantes de Occidente en aquella época, también señalaron el fenómeno. Sin embargo, sólo un par de informes muy dudosos se han excavado de las crónicas europeas con posibles referencias a la estrella, pero hay que tener en cuenta que Europa estaba apenas emergiendo de la oscuridad del medioevo.

Luego, en 1054 (el día 4 de julio, precisamente, según algunas crónicas) apareció una nueva estrella muy brillante en la constelación de Tauro. No era tan brillante como la nueva estrella de Lupus medio siglo antes, pero en su momento máximo fue dos o tres veces más brillante que Venus.

Durante tres semanas se mantuvo con tanta intensidad que podía verse a plena luz del día (si uno sabía a dónde mirar) e incluso proyectaba de noche una ligera sombra (como hace a veces Venus). Se mantuvo visible a simple vista durante casi dos años y fue la estrella nueva más brillante vista en épocas históricas y situada lo bastante alta en el cielo boreal para que pudiera verse fácilmente desde Europa. Estaba además en el Zodíaco, la región del cielo más estudiada por los astrónomos del momento.

Crónicas chinas y japonesas hablan de la estrella nueva de 1054, pero en Occidente, a pesar de que estaba alta en el cielo, y dentro del Zodíaco por si fuera poco, apenas hay referencias. En los últimos años se ha descubierto una referencia árabe que podría hablar de la nueva estrella, y se ha descubierto incluso una referencia italiana, pero ciertamente se trata de citas menores comparadas con el espectacular incendio que debió observarse en el cielo.

Finalmente, en 1181 apareció una nueva estrella en Casiopea, también alta en el cielo boreal. Sin embargo, no alcanzó mucho brillo, y no alcanzó siquiera el brillo de Sirio. Aunque hablaron de ella chinos y japoneses, también pasó inadvertida en Europa.

Tenemos pues cinco estrellas nuevas de este tipo en el espacio de mil años, que los chinos describieron fielmente y que sin embargo pasaron prácticamente inadvertidas en Occidente. Lo único con que contaba Occidente era la historia de Plinio sobre la observación de Hiparco y esta historia contenía tan pocos detalles (y la capacidad de Plinio por creérselo todo, por ridículo que fuera, era notoria) que como máximo podía considerarse legendaria.

Permítanme, sin embargo, que mencione todavía otra estrella nueva de la antigüedad que debió de haber sido más espectacular todavía que las cinco referencias chinas y la sexta de Hiparco.

En 1939, el astrónomo ruso-estadounidense Otto Struve (1897-1963) descubrió débiles rastros de nebulosidad en la constelación austral de Vela. Entre 1950 y 1952 continuó el estudio el astrónomo australiano Colin S. Gum (1924-1960), quien publicó sus descubrimientos en 1955.

Gum pudo demostrar que el fenómeno es una gran nube de polvo y de gas que cubre una dieciseisava parte del cielo y que en su honor ha recibido el nombre de «nebulosa Gum».

Los astrónomos saben ahora que la existencia de este tipo de nube de polvo y de gas indica que alguna vez apareció una estrella nueva en su centro. El centro de la nube está a sólo 1500 años luz de nosotros, una distancia mucho menor que la de cualquiera de las estrellas nuevas observadas en la antigüedad. (Como es natural, ninguno de los antiguos observadores conocía la distancia real a que estaban las estrellas nuevas —o cualquier estrella—, pero los astrónomos disponen ahora de medios para estimar estas distancias).

Puesto que la nueva estrella de la nebulosa Gum estaba mucho más cerca que las demás, también debió de haber sido mucho más brillante. Los astrónomos creen ahora que en el momento máximo de su brillo pudo haber sido tan luminosa como la luna llena. Cualquiera que la mirara debió de pensar que era un trozo desprendido del Sol que se había quedado pegado e inmóvil en el cielo.

Quien hubiera visto esta nueva estrella encendida en el cielo no hubiera podido ignorarla, y sin embargo no hay constancia alguna de ella en ninguna parte. Dado que estaba situada bastante al Sur, parece increíble que no haya dejado ningún rastro.

Pero no hay ningún misterio en ello. A partir del tamaño de la nebulosa Gum y de su velocidad de expansión podemos calcular en qué momento todo el conjunto tenía el tamaño de una estrella: y esto sucedió hace treinta mil años, en el paleolítico. Estoy seguro de que fue vista, pero no queda ninguna referencia.

¡Qué lástima! Este fenómeno astronómico fue seguramente un gran espectáculo, aunque durante varias semanas sin duda fue imposible mirar la estrella, a no ser que se utilizara un vidrio ahumado o que se observara a través de un velo de nubes.

Veamos qué sucedió después de 1181, cuando apareció la quinta y última nueva estrella brillante que sólo conocemos a través de crónicas chinas.

Pasaron casi cuatrocientos años antes de que apareciera la siguiente estrella nueva, y por aquel entonces las cosas habían cambiado en Europa. El continente había progresado y estaba avanzando rápidamente en ciencia y tecnología. El astrónomo polaco Nicolás Copérnico (1473-1543) había publicado un libro sobre astronomía en 1543 que proponía la teoría de que el Sol, y no la Tierra, era el centro del sistema planetario, y que la misma Tierra era un planeta como los demás. Esto inició lo que ahora llamamos «revolución científica».

Tres años después de la publicación del libro de Copérnico nació Tycho Brahe (1546-1601) en la provincia más meridional de Suecia, que entonces formaba parte de Dinamarca. Tycho Brahe resultó ser el mejor astrónomo desde Hiparco.

Es el año 1572. En aquella época los europeos continuaban sin tener idea de que pudiera aparecer una estrella nueva en el cielo, si se prescinde de la historia, quizá inventada, de Plinio sobre Hiparco. En aquel año, Tycho (se le conoce normalmente por el primer nombre, como sucede con muchos de los estudiosos y artistas de la época, especialmente en Italia) tenía sólo veintiséis años de edad y era todavía un personaje desconocido.

El 11 de noviembre de 1572, al salir Tycho del laboratorio de su tío quedó atónito al ver una nueva estrella en el cielo. No podía pasar inadvertida. Estaba en lo alto del cielo y en la bien conocida constelación de Casiopea. Casiopea consiste en una W ladeada formada por cinco estrellas bastante brillantes, y esa W es una combinación casi tan familiar como la Osa Mayor. Pero esta vez la W de Casiopea estaba formada por seis estrellas, y la sexta estrella, situada a un lado de la W, era mucho más brillante que todo el resto junto. De hecho era más brillante que Venus, pero no podía ser Venus, porque ese planeta no se encuentra nunca en aquella parte del cielo.

Tycho preguntó a todas las personas que iba encontrando si podían ver la estrella, pues, dadas las circunstancias, no se atrevía a creer lo que veían sus ojos. (Y todos la veían). Intentó también averiguar si ya estaba en el cielo la noche anterior, porque él no había tenido ocasión de contemplar el cielo, pero, evidentemente, nadie pudo decírselo.

Al parecer, un informe del astrónomo alemán Wolfgang Schuler podría indicar que vio la estrella cinco noches antes que Tycho. Sin embargo, Schuler no se interesó más por el tema, mientras que Tycho sí. Tycho comenzó una serie de observaciones nocturnas con excelentes instrumentos que inventó él mismo.

La nueva estrella de Tycho estaba bastante cerca del polo norte celeste, de modo que nunca se ponía, y Tycho pudo observarla día y noche, pues (para sorpresa suya) era tan brillante que podía verse de día; al menos cuando la observó por primera vez. De noche en noche la estrella fue desvaneciéndose lentamente, pero tardó un año y medio entero en desaparecer totalmente de vista.

Tycho se preguntaba cómo interpretar la nueva estrella, pues, por lo que él sabía, era la única estrella nueva que había aparecido en los cielos, sin contar la vaga referencia pliniana a Hiparco.

La nueva estrella representaba sin duda un cambio en el firmamento, por lo tanto debía de ser, según Aristóteles, un fenómeno atmosférico. En tal caso estaría más cerca de la Tierra que de la Luna.

Ahora bien, si en un momento dado se observa detenidamente la posición de la Luna en relación con las estrellas desde dos puntos de la Tierra separados entre sí por una distancia razonablemente grande, la Luna, vista desde cada punto, parece estar en una posición ligeramente diferente con respecto a estrellas cercanas. Éste es el «paralaje» de la Luna, y si se conoce la magnitud del cambio de posición y la distancia entre los dos puntos de observación, la distancia de la Luna puede calcularse mediante la trigonometría. No era fácil realizar esto antes de que existieran relojes precisos y comunicaciones fáciles entre lugares diferentes de la Tierra, pero se consiguió y se supo que la Luna estaba aproximadamente a un cuarto de millón de kilómetros de la Tierra.

No se conocía la distancia de ningún otro cuerpo celestial porque, aparte de la Luna, ningún otro objeto en el cielo ofrece un paralaje que pueda medirse. Como la distancia de un objeto varía en relación inversa a su paralaje, eso significa que todos los objetos visibles que no son fenómenos atmosféricos están más lejos que la Luna. O, dicho de otro modo: cuando dejamos la atmósfera de la Tierra, el primer objeto con que nos encontramos en nuestro viaje fuera de la Tierra es la Luna. Incluso los antiguos griegos estaban seguros de ello.

Por lo tanto, si la estrella nueva de Tycho era atmosférica y estaba más cerca de nosotros que la Luna, esta nueva estrella debería tener un paralaje mayor que el de la misma Luna y este paralaje debería poder medirse fácilmente.

No fue así. Todos los esfuerzos de Tycho fracasaron.

La nueva estrella no mostró ningún tipo de paralaje; es decir, su paralaje era tan pequeño que no podía medirse.

Esto significaba que la nueva estrella estaba más lejos que la Luna, probablemente mucho más lejos, y esto refutaba de modo evidente la afirmación aristotélica sobre la inmutabilidad de los cielos.

Tycho se consideraba noble y tenía una opinión muy elevada y esforzada de su posición social (aunque condescendiera en casarse con una mujer de situación social inferior y tuviera una vida matrimonial muy feliz con ella).

Normalmente habría considerado que escribir un libro quedaba muy por debajo de su dignidad, pero le impresionó tanto la importancia del fenómeno de la estrella nueva, y la consiguiente refutación de Aristóteles, que escribió un libro de cincuenta y dos grandes páginas, que se publicó en 1573. El libro contenía todas las observaciones y mediciones que había realizado sobre la estrella y todas las conclusiones a que había llegado. Le convirtió instantáneamente en el astrónomo más famoso de Europa.

Tycho escribió el libro en latín, el idioma universal de los estudiosos europeos de la época, y con un título largo, según era costumbre en aquel entonces. Sin embargo el libro se suele citar con una versión breve del título: De nova stella («Sobre la estrella nueva»).

A consecuencia de este título, el tipo de estrella nueva que he estado explicando en este ensayo se conoce siempre con el nombre de «nova», que es el equivalente latino de «nueva».

Como es natural, después del gran éxito de Tycho, otros astrónomos empezaron a vigilar el cielo en busca de novas.

Por ejemplo, en 1596 el astrónomo alemán David Fabricius (1564-1617), amigo de Tycho, localizó una nueva estrella en la constelación de la Ballena que no había notado antes. Era una estrella de tercera magnitud, es decir, su brillo era mediano (las estrellas de sexta magnitud son las menos brillantes que pueden verse a simple vista), y Fabricius tiene el mérito de haberse fijado en ella.

El hecho de que Fabricius no hubiese visto antes la estrella no demuestra necesariamente que fuera una nova, claro está. Quizá había existido siempre y él no se había fijado en ella. La estrella no estaba en los mapas estelares. Tycho había confeccionado el mejor de todos los tiempos, pero ni siquiera el mapa de Tycho era perfecto.

Sin embargo, había una solución fácil; lo único que debía hacer Fabricius era continuar observando la estrella. Fabricius vio que de noche en noche la estrella perdía brillo, hasta que al final desaparecía. Esto demostraba que era una nova, por lo menos en su opinión, y la anunció como tal. Sin embargo esta nova era tan poco brillante que no causó mucha conmoción.

Otro astrónomo alemán de la misma época fue Johannes Kepler (1571-1630). Kepler había trabajado con Tycho, de más edad que él, en los últimos años de su vida, y Kepler demostraría ser un científico todavía más notable por razones que superan el ámbito de este ensayo.

En 1604 Kepler observó la presencia de una estrella nueva y brillante en la constelación de Ofiuco. Era una estrella mucho más brillante que la nova de Fabricius, porque era tan brillante como el planeta Júpiter. Esto significaba que no era tan brillante como la nova de Tycho, pero sí lo bastante brillante para verse. Kepler la observó durante todo el tiempo que se mantuvo visible, y pasó un año entero antes de que se hundiera en la invisibilidad.

En aquella época la astronomía estaba a punto de experimentar una notable revolución. Pronto se inventaría el telescopio y pronto se llevarían a cabo observaciones que habrían sido inconcebibles en épocas anteriores. Además, el telescopio sería el predecesor de otros avances tecnológicos que aumentarían mucho la capacidad del astrónomo para estudiar el universo, culminando con la fabricación de los enormes radiotelescopios y de las sondas interplanetarias de nuestros días.

¡Cómo ha mejorado en nuestra época nuestra capacidad de estudiar estas novas si se compara con lo que Tycho y Kepler podían hacer en la suya!

De todos modos, fue una desgracia para los astrónomos que la nova de Kepler de 1604 fuera la última estrella nueva de brillo planetario que apareciera en el cielo.

Desde entonces, nada.

Y sin embargo, a pesar de ello, los conocimientos sobre las novas continuaron progresando, como explicaré en el capítulo siguiente.

12. Estrellas De Brillo Creciente

Me pidieron recientemente que escribiera un ensayo sobre la nueva película Star Trek IV. Regreso a casa. Una señora joven que trabajaba para quienes querían el ensayo se ocupó de conseguir un par de entradas para que ella y yo pudiéramos asistir al preestreno. Ya me diría dónde y cuándo nos encontraríamos.

Los días pasaron y no tuve más noticias del proyecto.

Finalmente, en las primeras horas del mismo día del preestreno me llamó. Al parecer le había costado mucho conseguir las entradas.

—¿Por qué? —le pregunté—. Usted representa a una distribuidora importante y la gente del cine debería estar muy contenta de que yo escribiera sobre la película, puesto que seguramente están enterados de que Star Trek me gusta.

—De esto se trata —dijo la joven, exasperada—. Cuando vi que no tenían muchas ganas de darme entradas, les dije: «¿No quieren que Isaac Asimov escriba sobre la película?». Y la chica del teléfono me preguntó: «¿Quién es Isaac Asimov?». ¿Se imagina usted?

Me eché a reír y le dije:

—Claro que puedo imaginármelo. Calculo que uno de cada cien estadounidenses ha oído hablar de mí. Usted simplemente estaba hablando con un representante del noventa y nueve por ciento restante. ¿Qué hizo?

—Fotocopié varias páginas del catálogo «Libros en venta» que reproduce los títulos de sus obras, y las envié por un mensajero a la chica con una nota que decía: «Éste es Isaac Asimov». Me llamó al instante y dijo que podía recoger las entradas en taquilla.

La joven señora y yo fuimos a su debido tiempo a la taquilla, conseguimos las entradas, que estaban ya reservadas, y fuimos a ver la película (que me gustó mucho).

Y cuando, como era inevitable, la gente sentada a mi lado empezó a pasarme los programas para que los firmara, mi compañera exclamó, indignada:

—¿Cómo podía no conocerle aquella muchacha?

Yo le dije:

—Por favor. Estos incidentes me gustan. Me ayudan a no perder la cabeza.

Sin embargo, no deseo que me pase demasiado a menudo, o sea que continuaré escribiendo estos ensayos, y quizá gracias a ellos una o dos personas más se enterarán de mi existencia.

En el capítulo anterior escribí sobre las novas o «estrellas nuevas» que de repente se inflaman en los cielos. Finalicé con la nova de 1604, observada por Johannes Kepler, y dije que fue la última nova aparecida en los cielos con un brillo que rivalizaba con el de planetas como Júpiter o Venus.

Sigamos adelante.

En 1609 el científico italiano Galileo Galilei (1564-1642) construyó un telescopio después de haber oído rumores de que en los Países Bajos se había inventado un aparato de este tipo. Luego hizo algo en lo que no habían pensado los primeros telescopistas. Lo apuntó hacia los cielos.

Una de las primeras cosas que Galileo hizo con su telescopio fue mirar la Vía Láctea. Vio que la Vía Láctea no era una neblina luminosa, sino un conjunto de estrellas muy débiles, cada una de las cuales era tan débil que no podía verse a simple vista. Galileo comprobó que dondequiera que apuntara su telescopio, el instrumento aumentaba el brillo de todas las estrellas y convertía en visibles numerosas estrellas que normalmente eran demasiado débiles para verse.

Esto a nosotros no nos sorprende. Al fin y al cabo hay una gran variación en el brillo de los cuerpos celestes, desde el mismo Sol hasta las estrellas menos brillantes que podemos ver. ¿No puede esta variación extenderse hasta abarcar estrellas tan poco brillantes que no pueden ni siquiera distinguirse? Nosotros, con nuestros conocimientos actuales, podríamos pensar que el descubrimiento de Galileo fue una simple confirmación de algo tan evidente que apenas necesitaba confirmación.

Sin embargo, no era así como se pensaba en la época de Galileo. La gente estaba bastante segura de que el universo había sido creado por Dios para el servicio específico de los seres humanos. Todo en la existencia estaba diseñado para hacer posible la vida humana, o para facilitar el confort del hombre, o para ayudarle a desarrollar el carácter humano y ejercitar el alma humana, o por lo menos para inculcarle una lección moral beneficiosa.

En tal caso, ¿qué posible uso tendrían las estrellas invisibles?

Seguramente se supuso que las estrellas visibles sólo en el telescopio eran artificios del aparato, algo creado por el telescopio, ilusiones inexistentes en la realidad. Hay a este respecto una anécdota bien conocida cuando Galileo descubrió los cuatro grandes satélites de Júpiter: un estudioso señaló que estos satélites no aparecían citados en ninguna parte de los escritos de Aristóteles y que por lo tanto no existían.

Sin embargo la utilización del telescopio se difundió.

Se construyeron muchos, y las mismas estrellas vistas y documentadas por Galileo fueron vistas y documentadas por otros astrónomos. Al final tuvo que aceptarse que Dios había creado estrellas invisibles, y ésta fue la primerísima indicación de que quizá el universo no se había creado para el bien de la humanidad como objetivo primario (punto este que no he visto bien tratado en las historias de la ciencia).

El descubrimiento tuvo que alterar necesariamente la actitud de los astrónomos ante las novas. Mientras sólo existían estrellas visibles, una estrella que se hacía visible donde no había ninguna debía considerarse como algo que estaba naciendo. Era una estrella nueva (y como ya he señalado el término «nova» significa «nueva» en latín). También, cuando una nova se hacía invisible, debía considerarse que la estrella acababa perdiendo su existencia.

Sin embargo, si podían existir estrellas tan oscuras que no se veían sin telescopio, era muy posible que una nova fuera una estrella que siempre había existido. Su brillo podía haber sido tan bajo que no se viera, luego este brillo podía haber aumentado hasta que la estrella se hiciera visible a simple vista y finalmente podía haber perdido su brillo de modo que fuera imposible verla sin telescopio.

En tal caso, una nova podía no ser una estrella nueva sino simplemente una estrella de brillo variable, y no constante como el de una estrella corriente. Una nova era, pues, una estrella «variable».

Pronto se comprobó que esto era cierto en relación con la nova aparente que, como he señalado en el capítulo anterior, David Fabricius había observado en 1596 en la constelación de la Ballena. En su momento de brillo máximo era una estrella de potencia media —de tercera magnitud—, pero al cabo de un tiempo desapareció. Esto la convirtió en una nova en aquella época pretelescópica.

Sin embargo, en 1638 el astrónomo holandés Holwarda de Franeker (1618-1651) observó una estrella precisamente en la posición donde Fabricius había visto su nova cuarenta y dos años antes. Holwarda observó que perdía brillo hasta desaparecer, aparentemente, para luego reaparecer. Pero Holwarda tenía la ventaja de estar utilizando un telescopio y mientras observaba la estrella pudo comprobar que en realidad no llegaba a desaparecer nunca.

Es cierto que perdía brillo y que al final ya no podía verse a simple vista, pero se mantenía visible siempre si se observaba con el telescopio.

En aquellos días la noción de una estrella variable era tan revolucionaria como la de una estrella nueva. La antigua doctrina griega de la perfección inmutable de los cielos quedaba destruida tan completamente con una noción como con la otra.

Resultó que la estrella que habían observado primero Fabricius y luego Holwarda era en su punto de máximo brillo unas doscientas cincuenta veces más luminosa que en su mínimo, y que oscilaba entre estos extremos cada once meses, aproximadamente. El astrónomo alemán Johannes Hevelius (1611-1687) dio a esta estrella el nombre de Mira (del latín «maravillosa») como tributo a su asombrosa variabilidad.

Mira fue la primera estrella variable descubierta, pero a medida que transcurría el tiempo se fueron descubriendo otras. Sin embargo, la mayoría de las variables resultaron serlo menos que Mira.

El astrónomo italiano Geminiano Montanari (1633-1687) observó en 1677 que Algol, una estrella en la constelación de Perseo, era variable. La variabilidad era muy irregular, porque la estrella pasaba por un ciclo de aumento y disminución del brillo cada sesenta y nueve horas. En su punto máximo, Algol era sólo tres veces más brillante que en su mínimo.

En 1784, el astrónomo inglés John Goodricke (1764-1786) descubrió que la estrella Delta Cephei, de la constelación de Cefeo, variaba con un ciclo regular de 5,5 días, pero era sólo el doble de brillante en su máximo que en su mínimo.

Se conocen actualmente muchas estrellas variables, y podría afirmarse fácilmente que las novas también son variables. Sin embargo, si se considera la intensidad con que brillan, su brillo debe cambiar mucho más que el de las variables corrientes. Además, puesto que las novas observadas por Tycho Brahe y Kepler aparecían sólo una vez y se sumían luego permanentemente en la invisibilidad, tenían que ser variables muy irregulares.

Todo esto indicaba que debía haber algo muy insólito en relación con las novas y este hecho causó frustraciones entre los astrónomos, porque, a pesar de estar ahora en guardia con sus telescopios, no apareció ninguna nova brillante en el cielo después de 1604.

De hecho, durante mucho tiempo no aparecieron ni siquiera novas de escaso brillo relativo (o por lo menos no fueron observadas). Sin embargo, en 1848, el astrónomo inglés John Russell Hind (1823-1895) observó una nova en la constelación de Ofiuco. Esta nova no alcanzó siquiera la magnitud cuarta, por lo que fue una estrella bastante oscura y habría pasado totalmente inadvertida en la época en que había menos astrónomos estudiando el cielo, y estudiándolo además con menor detenimiento.

La nova de Hind no era una estrella variable corriente, porque después de perder su brillo no volvió a recuperarlo. No mostraba un ciclo claro de variabilidad. Dicho con otras palabras, era una estrella sin repetición, algo que en aquella época parecía la característica básica de una nova.

Se descubrieron tres o cuatro novas poco brillantes en los años restantes del siglo XIX. Una de ellas fue descubierta en 1891 por un clérigo escocés y astrónomo aficionado, T. D. Anderson. Sólo fue de quinta magnitud.

En la noche del 21 de febrero de 1901, Anderson descubrió una segunda nova mientras iba andando a un compromiso social. Esta última, situada en la constelación de Perseo, acabó llamándose «Nova Persei».

Anderson la había descubierto pronto y todavía estaba aumentando de brillo. Dos días después había alcanzado su máximo en la magnitud 0,2, lo cual es más brillante que la primera magnitud. Esto la hacía más brillante que Vega, la cuarta estrella más brillante. Todavía le faltaba mucho para alcanzar un brillo planetario, pero era la nova de más brillo observada en tres siglos.

Los astrónomos ya disponían de técnicas fotográficas y de este modo pudieron descubrir algo sobre las novas que hubiera sido imposible antes.

La región del cielo donde brillaba Nova Persei había sido fotografiada con frecuencia y los astrónomos, después de mirar las fotografías tomadas antes de la aparición de la nova, descubrieron que en el mismo punto donde más tarde apareció Nova Persei había existido antes una estrella muy poco brillante de magnitud trece.

En cuatro días, según se calculó, Nova Persei había aumentado su brillo 160.000 veces y después de unos meses todo este brillo adicional acabó perdiéndose de nuevo. Se trataba desde luego de una variable muy exagerada, y su comportamiento era muy diferente del de las variables ordinarias.

Además, al tomar exposiciones prolongadas la cámara podía revelar detalles que escaparían a un observador visual, aunque éste estuviera equipado con un telescopio.

Unos siete meses después de la desaparición de Nova Persei del firmamento, una película de larga exposición con la débil estrella que era ahora, reveló una tenue niebla de luz a su alrededor que a lo largo de semanas y de meses aumentó de tamaño. Era evidente que la estrella tenía a su alrededor una tenue nube de polvo que estaba reflejando su luz y se estaba expandiendo. En 1916, quince años después, la nube era más espesa y continuaba expandiéndose y alejándose de la estrella en todas direcciones.

Parecía claro que la estrella había sufrido una titánica explosión que había expulsado gases de ella. Se dijo que Nova Persei (y probablemente otras novas) pertenecía a un grupo de estrellas llamadas «variables eruptivas» o «variables explosivas». Sin embargo, aunque estos nombres eran descriptivos y pintorescos, no podían, ni consiguieron, desplazar la denominación antigua, más breve y consagrada, de «nova».

Diferentes observadores vieron una nova todavía más brillante el 8 de junio de 1918 en la constelación del Águila. En aquel momento era una estrella de primera magnitud, y dos días después alcanzó su máximo, brillando con una magnitud de —1,1, es decir, que era casi tan brillante como Sirio, la estrella más brillante del firmamento.

Nova Aquilae apareció durante la primera guerra mundial, cuando la última gran ofensiva de los alemanes en el frente occidental empezaba a perder impulso. Cinco meses después, los alemanes se rindieron y Nova Aquilae fue llamada la «estrella de la victoria» por los soldados aliados del frente.

También Nova Aquilae apareció en fotografías tomadas antes de que explotara. En su máximo había sido unas tres veces más brillante que Nova Persei (y desde entonces no se ha visto una nova tan brillante), pero Nova Aquilae ya era más brillante de entrada y su brillo al explotar sólo aumentó 50.000 veces.

También se había fotografiado el espectro de Nova Aquilae antes de convertirse en nova, y hasta ahora es la única nova que tiene registrado su espectro de prenova.

El espectro demostró que era una estrella caliente con una temperatura superficial que era el doble de la del Sol. Esto es lógico, pues aunque no supiéramos nada sobre las características de la explosión estelar, tiene sentido pensar que una estrella caliente puede explotar con más facilidad que una estrella fría.

En diciembre de 1934 apareció una nova en la constelación de Hércules que consiguió alcanzar la magnitud de 1,4. Nova Herculis no fue tan brillante como Nova Persei o Nova Aquilae, y no hubiera atraído mucho la atención si al volver a la magnitud trece, de la cual había partido trece meses antes, su brillo no hubiese aumentado otra vez de repente. Al cabo de unos cuatro meses era tan brillante que casi podía verse a simple vista. No bajó por segunda vez a la magnitud trece hasta 1949. Al parecer, las estrellas podían aumentar de brillo más de una vez y los astrónomos empezaron a hablar de «novas recurrentes».

La nova notable más reciente apareció en la constelación del Cisne el 19 de agosto de 1975. Nova Cygni aumentó de brillo con una velocidad insólita, se hizo treinta millones de veces más brillante en el transcurso de un único día, y alcanzó la segunda magnitud. Perdió brillo rápidamente y se perdió para la observación a simple vista en tres semanas. Al parecer, cuanto más rápido e intenso es el aumento de brillo, más rápida y más intensa es su pérdida.

Y, no obstante, ninguna de las novas que aparecieron según he dicho durante la época del telescopio son tan importantes, ni con mucho, como una nova que no he mencionado: una nova que en su máximo tenía un brillo que apenas podía verse a simple vista.

Esta nova, que apareció en la constelación de Andrómeda, fue observada quizá por primera vez el 17 de agosto de 1885 por un astrónomo francés, L. Gully. Gully estaba probando un nuevo telescopio, que resultó defectuoso, y no pensó que debiera dar importancia a la observación de una nueva estrella que quizá no era real.

Es posible que un astrónomo aficionado irlandés, I. W. Ward, observara la estrella el 19 de agosto, pero tampoco dio importancia al hecho, y sólo posteriormente reclamó su prioridad.

El descubridor oficial fue el astrónomo alemán Ernst Hartwig (1851-1923), y su primera observación de la nova fue el 20 de agosto de 1885. Consideró que era de séptima magnitud, quizá próxima a la sexta.

Sin embargo había casi luna llena y la observación era difícil. Hartwig decidió llevar a cabo más observaciones antes de anunciar la nueva estrella, pero (como suele pasar) se interpuso rápidamente una semana entera de tiempo nublado. Finalmente, el 31 de agosto Hartwig envió un informe oficial. Enseguida otros astrónomos apuntaron sus telescopios hacia Andrómeda.

En aquel momento la estrella estaba todavía en la región de la séptima magnitud. Hasta entonces no se había observado nunca una nova de tan escaso brillo, y al principio nadie pensó que se trataba precisamente de esto. Parecía una estrella variable ordinaria. Una estrella variable recibe el nombre de su constelación con una letra de prefijo, que comienza con la R y sigue el orden del alfabeto.

Puesto que la estrella de Hartwig era la segunda variable registrada en Andrómeda, recibió el nombre de «S Andromedae».

De todos modos, a fines de agosto la estrella empezó a perder brillo rápidamente y continuó desvaneciéndose hasta que un año después había bajado a la magnitud catorce.

Había sido una nova, aunque una nova extraordinariamente débil, pero conservó su nombre.

Sin embargo, S Andromedae no estaba solamente en Andrómeda, sino en el centro de un objeto dentro de la constelación, un objeto llamado «nebulosa de Andrómeda», y ésta es una historia aparte.

La nebulosa de Andrómeda puede verse a simple vista como una «estrella» poco brillante y algo borrosa de cuarta magnitud; su posición fue anotada por los astrónomos árabes de la época medieval.

La primera persona que la observó con un telescopio, en 1611, fue el astrónomo alemán Simon Marius (1573-1624). Se vio entonces claramente que no era una estrella.

No era un parpadeo puntual de luz, sino un objeto extenso y nebuloso como una pequeña nube en el cielo.

Los objetos borrosos que los astrónomos del siglo XVIII consideraban más importantes eran los cometas, pero la nebulosa de Andrómeda, y otros objetos como ella, no eran cometas. Un cometa cambia de posición en el cielo, cambia de forma y de brillo, etc. Sin embargo, las distintas nebulosas eran inmutables e inmóviles. A pesar de ello, astrónomos entusiastas observaban en ocasiones estas nebulosas y pensaban que habían descubierto un nuevo cometa, para luego comprobar que se habían equivocado. El más importante cazador de cometas del siglo XVIII fue el astrónomo francés Charles Messier (1730-1817), al que le molestaba caer en esta trampa.

Así pues, en 1781 empezó a confeccionar un catálogo de todos los objetos nebulosos del cielo que podían confundirse con cometas. Su intención era que cualquier cazador de cometas, antes de anunciar un nuevo descubrimiento, comprobara su resultado consultando el catálogo y asegurándose de que no se había engañado. Messier numeró los objetos del catálogo (que alcanzó la cifra de 102 objetos), y éstos se citan a veces con este número y una «M» (de Messier) prefijada al mismo.

Como es de esperar, Messier incluyó la nebulosa de Andrómeda en su catálogo. Está en el lugar treinta y uno, por lo que se denomina a veces M31.

La nebulosa de Andrómeda intrigaba a los astrónomos.

La nebulosidad más familiar del cielo era, evidentemente, la Vía Láctea, y Galileo había demostrado que estaba compuesta por estrellas de muy poco brillo, que sin telescopio se fundían formando una neblina luminosa.

En el hemisferio austral pueden verse dos manchas nebulosas que parecen fragmentos separados de la Vía Láctea. Los europeos las observaron por primera vez en 1519, durante la expedición de Fernando de Magallanes (1480-1521), que siguió la costa de Sudamérica hasta su extremo más meridional en el transcurso de su pionera circunnavegación del globo. Las manchas se llaman por este motivo «Nubes de Magallanes», y también, vistas con el telescopio, resultaron ser masas de estrellas débiles.

La nebulosa de Andrómeda, por contra, aunque tenía el mismo aspecto de la Vía Láctea y de las Nubes de Magallanes, no podía resolverse en estrellas con los telescopios del siglo XVIII (ni tampoco con los del siglo XIX). ¿Por qué?

El primero en expresar una idea útil sobre el tema fue el filósofo alemán Immanuel Kant (1724-1804). En 1755 argumentó que la nebulosa de Andrómeda y manchas semejantes de niebla cósmica estaban compuestas en realidad por estrellas, pero que estaban muy lejos, mucho más lejos que la Vía Láctea o que las Nubes de Magallanes, por lo que ni siquiera los mejores telescopios de que disponían los astrónomos podían separar la niebla en forma de estrellas. Calificó a las nebulosas de «universos islas».

Kant tenía razón en esto, toda la razón, pero no consiguió influir en el mundo de la astronomía. Estaba demasiado avanzado a su tiempo. Los astrónomos del siglo XVIII no habían determinado todavía la distancia de ninguna estrella, pero se estaba imponiendo la idea de que estaban muy lejos. El astrónomo inglés Edmund Halley (1656-1742) se había referido por primera vez a las distancias estelares utilizando lo que ahora llamamos «años luz».

Los astrónomos habían estado viviendo durante toda la historia en un universo pequeño. Se había visualizado el universo como algo cuyo tamaño apenas permitía contener lo que ahora llamamos sistema solar, y este sistema solar se consideraba mucho más pequeño de lo que ahora sabemos. Extender el horizonte a los años luz ya era bastante duro, pero cuando Kant se refirió a distancias todavía mayores, tan grandes que los telescopios no podían distinguir estrellas individuales, se pasó de la raya. Los astrónomos se estremecieron y le dieron la espalda.

Menos visionaria, y por lo tanto más aceptable, fue una segunda opinión: la del astrónomo francés Pierre-Simon de Laplace (1749-1827). Laplace propuso en 1798 que el sistema solar era en sus orígenes una gran nube en rotación de gas y de polvo que se condensó lentamente de modo que el centro de la nube se convirtió en el Sol y la periferia en los planetas. (Kant había formulado una propuesta semejante en el mismo libro en que habló de los universos islas, pero Laplace entró en más detalles).

Laplace pensó que podía fortalecer su argumento señalando un ejemplo de una estrella y de un sistema planetario en proceso de formación, y la nebulosa de Andrómeda parecía hecha a medida para ello. Ahí estaba la explicación de su brillo. Una estrella empezaba a brillar en su centro e iluminaba la vasta nube de polvo y de gas que todavía la envolvía y la ocultaba. Los telescopios no podían resolver esta nube en estrellas separadas porque no estaba formada por estrellas separadas. Era una única estrella, que todavía no estaba formada plenamente.

La idea de Laplace, que se basaba en el ejemplo de la nebulosa de Andrómeda, se llamó la «hipótesis nebular».

Así pues, si Laplace estaba en lo cierto, la nebulosa de Andrómeda no estaba situada a una distancia increíble de nosotros, como exigía el concepto de Kant, sino que debía de estar bastante próxima, puesto que de otro modo un objeto con el pequeño tamaño de un sistema planetario no parecería tan grande.

Durante el siglo XIX la nebulosa de Andrómeda fue perdiendo su carácter insólito. A medida que se exploró el firmamento con telescopios cada vez mejores, resultó que había un número bastante grande de nebulosas que eran luminosas, pero que no parecían contener una estrella ni siquiera después de un estudio a fondo.

El astrónomo irlandés William Parsons, tercer barón de Rosse (1800-1867), prestó una atención especial a estas nebulosas y en 1845 observó que algunas tenían estructuras claramente espirales, casi como si fueran diminutos remolinos de luz. El ejemplo más espectacular era uno de los objetos de la lista de Messier: M51. Todo el mundo podía ver que parecía un molinete, y pronto se la llamó «nebulosa Remolino». Los astrónomos empezaron a referirse a «nebulosas espirales» como una clase no muy rara de objetos celestes.

A medida que avanzaba el siglo XIX, pudieron empezarse a fotografiar las nebulosas con largas exposiciones, de modo que se captaban más detalles que con la simple observación visual.

En 1880, un astrónomo aficionado galés, Isaac Roberts (1829-1904), tomó un gran número de fotografías de este tipo. En 1888 pudo demostrar que la nebulosa de Andrómeda tenía una estructura espiral. Esto no había podido observarse antes porque la nebulosa de Andrómeda se ve mucho más de canto que la nebulosa Remolino.

Roberts señaló que si sucesivas fotografías de nebulosas tomadas a lo largo de algunos años mostraban cambios indicativos de que estaban girando a una velocidad medible, estas nebulosas tenían que estar próximas. En objetos tan lejanos como los universos islas de Kant deberían pasar millones de años para que pudieran observarse cambios medibles. En 1899, Roberts afirmó haber observado cambios rotacionales en sus múltiples fotografías de la nebulosa de Andrómeda.

También en 1899 se tomó por primera vez el espectro de la nebulosa de Andrómeda y se vio que poseía todas las características de la luz estelar, lo que podía indicar que había una estrella desarrollándose en su interior.

Las afirmaciones en el sentido de que la nebulosa de Andrómeda estaba girando de modo visible y el hecho de que su espectro fuera de tipo estelar parecían haber decidido ya la cuestión. En 1909, el astrónomo inglés William Huggins (1824-1910) afirmó que ya no había duda de que la nebulosa de Andrómeda era un sistema planetario en una fase avanzada de desarrollo.

Pero quedaba un pequeño punto por resolver, y éste era el tema de S Andromedae. Volveremos a este tema en el siguiente capítulo.

13. Superexplosiones Estelares

La semana pasada mi querida esposa Janet me llevó a una vieja mansión de origen colonial situada en el mismo centro de Manhattan. No me hubiera imaginado que pudiera sobrevivir en la isla una reliquia de este tipo, pero así era.

Pagamos una pequeña cantidad (que bien valía la pena) firmamos en el libro de visitantes, y una mujer muy agradable nos guió por la casa.

Cuando ya habíamos acabado se nos acercó una mujer con actitud insegura. Llevaba una edición de bolsillo de mis tres primeras novelas sobre la Fundación. (Me basta ver de lejos uno de mis libros, en cualquier edición, para reconocerlo).

—¿El doctor Asimov? —me preguntó.

—Yo mismo, señora —contesté.

—Mi hijo es un gran admirador suyo y cuando vi su nombre en el libro de visitantes le telefoneé y le dije que usted estaba en esta casa, pero que no podía reconocerle de modo seguro. Él me preguntó: «¿Hay alguna persona con grandes patillas blancas?». Le dije: «Sí, la hay». Él concluyó: «Es el doctor Asimov», y me trajo estos libros.

De modo que los firmé.

Siempre digo que yo tengo tres marcas de fábrica: mis vistosas corbatas, mis gafas de montura oscura y mis blancas patillas. Sin embargo, cualquier persona puede llevar corbatas vistosas y gafas con montura oscura. Lo que me delata realmente son mis patillas canosas, porque pocas personas tienen interés en llevar estos adornos faciales. Por suerte soy una persona natural y extrovertida y no me importa que me reconozcan, o sea que no tengo intención de afeitármelas.

Resulta que cuando sucedió esto ya sabía que iba a escribir este ensayo, porque debía concluir el tema que había estado exponiendo en los dos capítulos anteriores, y se me ocurrió que iba a hablar de una estrella que en cierto sentido delató a la nebulosa de Andrómeda, del mismo modo que mis patillas me delataron a mí. Dejen que me explique…

Señalé en el capítulo anterior que a principios del siglo XX hubo una controversia en relación con la nebulosa de Andrómeda. Había quien opinaba que se trataba de un conjunto vasto y muy distante de estrellas invisibles individualmente, situadas mucho más allá de nuestra galaxia.

En tal caso, la nebulosa de Andrómeda era sin duda uno de los muchos objetos semejantes existentes y el universo era por lo tanto un lugar mucho más enorme de lo que solían imaginar los astrónomos a principios del siglo XX.

Otros pensaban que nuestra galaxia (más las Nubes de Magallanes) formaba casi todo el universo, y que la nebulosa de Andrómeda y todos los demás cuerpos parecidos eran nubes relativamente pequeñas y próximas de polvo y de gas, situadas dentro de nuestra galaxia. Algunos pensaban incluso que estas nebulosas representaban sistemas planetarios individuales en proceso de desarrollo.

En la discusión entre los partidarios de la Andrómeda lejana y los de la Andrómeda próxima, parecía que estos últimos habían ganado la partida sin esfuerzo. La clave que lo demostraba eran fotografías de la nebulosa de Andrómeda tomadas a lo largo de los años que parecían mostrar el objeto girando con una velocidad medible. Si la nebulosa estuviera lejos de nuestra galaxia, cualquier movimiento suyo debería ser inconmensurablemente pequeño, por lo tanto el hecho de captar una rotación medible demostraba que el objeto estaba próximo.

Esto dejaba un problema por decidir. Como ya expliqué en el ensayo anterior, apareció en agosto de 1885 una estrella en la nebulosa de Andrómeda que se denominó «S Andromedae». Puesto que apareció donde antes no se había visto ninguna estrella, y puesto que al cabo de unos meses su brillo disminuyó tanto que ya no pudo verse, se trataba de una nova. Sin embargo era la nova menos brillante que se hubiera descubierto nunca, porque incluso en su momento de mayor brillo apenas había alcanzado el límite de la visibilidad a simple vista. Muy probablemente no se hubiera descubierto nunca si no hubiese aparecido en medio de la niebla indistinta de la nebulosa de Andrómeda.

En aquella época nadie le prestó mucha atención, pero a medida que la controversia sobre la nebulosa de Andrómeda subió de tono, S Andromedae ocupó el centro del escenario. Si la nova estaba realmente localizada dentro de la nebulosa, no era probable que ésta fuera una simple nube de polvo y de gas. Era más probablemente un cúmulo de estrellas muy poco brillantes, una de cuyas estrellas había explotado y había alcanzado tal brillo que pudo distinguirse con un telescopio. Éste sería un buen argumento en favor de la Andrómeda lejana.

El problema con este argumento era que no había manera de demostrar que S Andromedae formaba parte realmente de la nebulosa de Andrómeda. Podía ser una estrella situada desde siempre en la dirección de la nebulosa pero mucho más próxima a nosotros que ella. Puesto que no vemos el cielo en tres dimensiones, una S Andromedae situada en la dirección de la nebulosa de Andrómeda parecerá que forme parte de la nebulosa, aunque en realidad no sea así.

Pero si la nebulosa de Andrómeda está relativamente cerca de nosotros y S Andromedae estaba más cerca todavía, ¿por qué brillaba tan poco?

¿Y por qué no? Hay muchas estrellas próximas que tienen poco brillo. La estrella de Barnard está a sólo seis años luz de nosotros (Alpha Centauri es el único sistema más próximo todavía) y sin embargo la estrella de Barnard sólo puede verse con un telescopio.

Una de las estrellas del mismo sistema de Alpha Centauri, Alpha Centauri C, o «Próxima Centauri» (descubierta en 1913), es la estrella conocida más cercana a nosotros, y sin embargo es demasiado oscura para verse a simple vista.

Hay una gran cantidad de estrellas poco brillantes, y S Andromedae podría muy bien ser una de ellas y no ser muy brillante, ni siquiera cuando se convirtió en nova, con lo cual los partidarios de una Andrómeda cercana continuaban teniendo razón.

Pero entonces llegó 1901, cuando, como ya dije en el capítulo anterior, Nova Persei destelló brillantemente, la nova más brillante en tres siglos. Los telescopios mostraron una nube de gas y de polvo alrededor de la estrella (el resultado de su explosión) y pareció observarse un círculo de iluminación que se expandía con el tiempo. Los astrónomos pensaron que este círculo era la luz que salía de la estrella y que iluminaba el polvo a una distancia cada vez mayor. La velocidad real de la luz era bien conocida, y a partir de la velocidad aparente con que la luz se expandía hacia el exterior pudo estimarse fácilmente la distancia de la nova. Nova Persei resultó estar a unos cien años luz de distancia.

Esta distancia no es muy grande: es sólo veinticinco veces la distancia a la estrella más próxima. No es de extrañar que Nova Persei apareciera tan brillante.

¿Podía ser que todas las novas al explotar alcanzasen siempre la misma luminosidad? Todas ellas tendrían idéntico brillo aparente si estuviesen situadas a la misma distancia, pero puesto que sus distancias variaban muchísimo, las que estuviesen situadas más cerca resultarían más brillantes.

En tal caso, si S Andromedae alcanzaba la misma luminosidad en su máximo que Nova Persei, y si su poco brillo cabía atribuirlo solamente a su mayor distancia, esta distancia podía calcularse. Luego si S Andromedae no formaba parte realmente de la nebulosa de Andrómeda, esto significaba que la nebulosa tenía que estar todavía más lejos, quizá mucho más lejos.

Quienes defendían una Andrómeda lejana se animaron un poco, pero no mucho. Al fin y al cabo este argumento descansaba sobre una base muy frágil. ¿Qué justificación había para suponer que todas las novas alcanzaban aproximadamente la misma luminosidad? No había motivos de peso para suponerlo. Era igualmente razonable suponer que las estrellas poco brillantes originaban novas poco brillantes y que S Andromedae era una estrella muy brillante.

Podía estar más cerca que Nova Persei y sin embargo ser mucho menos brillante en su fase de nova.

El partido de la Andrómeda cercana parecía que continuaba minando.

Un astrónomo estadounidense era decididamente partidario de la Andrómeda lejana y se negó a aceptar este último argumento.

Era Heber Doust Curtis (1872-1942). Curtis inició su carrera académica estudiando lenguas y convirtiéndose en profesor de latín y de griego. Sin embargo, la universidad donde enseñaba tenía un telescopio y Curtis empezó a interesarse por él, y luego por la astronomía, que no había estudiado nunca en la escuela. En 1898 cambió de carrera y se convirtió en astrónomo, obteniendo luego el doctorado en esta materia en 1902.

En 1910 lo pusieron a trabajar en fotografía nebular y, como es lógico, también se introdujo en la controversia sobre si las nebulosas eran objetos distantes situados más allá de la galaxia o eran objetos próximos.

Uno de los argumentos que apoyaban la idea de que las nebulosas formaban parte de nuestra galaxia era el siguiente: si las nebulosas estaban fuera de la galaxia deberían estar distribuidas uniformemente por todo el cielo, puesto que no había motivo para que prefirieran una dirección a otra. Sin embargo se había comprobado que el número de nebulosas aumentaba a medida que la búsqueda se alejaba de la dirección de la Vía Láctea. Esto, según se afirmaba, demostraba que las nebulosas formaban parte probablemente de la galaxia porque los objetos de dentro de la galaxia podían no formarse cerca de la Vía Láctea por algún motivo u otro, mientras que los objetos situados fuera de nuestra galaxia no tenían por qué estar influidos, en un sentido u otro, por algún rasgo interior a ella.

Sin embargo, al fotografiar las distintas nebulosas, Curtis observó que muchas de ellas poseían nubes oscuras y opacas situadas en la periferia de sus masas y aplanadas a menudo en forma de torta.

Curtis pensó que el borde exterior de nuestra galaxia (trazado por la Vía Láctea) podía tener también nubes oscuras y opacas, y de hecho algunas de estas masas podían verse dentro de la Vía Láctea. Curtis afirmó, pues, que las nebulosas estaban realmente distribuidas con uniformidad por todo el cielo, pero que las nubes oscuras cercanas a la Vía Láctea ocultaban muchas de ellas, con lo que parecía que había más nebulosas lejos de la Vía Láctea que cerca de ella.

De ser esto cierto, el argumento que situaba las nebulosas dentro de nuestra galaxia se iba por los suelos y las ideas de Curtis sobre la lejanía de Andrómeda quedaban fortalecidas.

Curtis continuó razonando de este modo: la nebulosa de Andrómeda era la mayor de las nebulosas y la más brillante (junto con las Nubes de Magallanes que estaban situadas fuera mismo de nuestra galaxia, y que por así decirlo eran satélites suyos). Aparte de las Nubes de Magallanes, la nebulosa de Andrómeda era la única visible a simple vista. Esto significaba probablemente que era la nebulosa más próxima después de las Nubes de Magallanes y podía proporcionar a los astrónomos observadores detalles importantes.

Así pues, si la nebulosa de Andrómeda era un conjunto muy distante de estrellas, tan distante que las estrellas componentes no podían verse de modo individual, estas estrellas se aproximarían más a la visibilidad individual que las estrellas de cualquier otra nebulosa. Se deducía de ello que si una de las estrellas de la nebulosa de Andrómeda aumentaba de brillo por convertirse en una nova, podía resultar visible, y esto explicaría el fenómeno de S Andromedae. Esto podía no cumplirse con nebulosas más lejanas donde las estrellas individuales tendrían tan poco brillo que ni siquiera las novas resultarían visibles.

Curtis empezó en 1917 una serie cuidadosa y persistente de observaciones de la nebulosa de Andrómeda para ver si podía descubrir más novas, y lo consiguió. Descubrió que había en ella estrellas que aparecían y desaparecían, docenas de estrellas. No había duda de que se trataba de estrellas, pero su brillo era increíblemente débil. Apenas podían distinguirse con el telescopio. Esto era de esperar si la nebulosa de Andrómeda estaba realmente muy lejos.

¿Podía ser, sin embargo, que Curtis estuviera viendo simplemente novas muy débiles en la dirección de la nebulosa de Andrómeda y que ninguna de ellas estuviera en realidad dentro de ella? En tal caso, la nebulosa podía continuar siendo una simple nube de polvo y de gas.

En opinión de Curtis, esto era totalmente imposible. En ninguna otra región del cielo podía observarse una acumulación tal de novas muy débiles concentradas en una superficie pequeña equivalente a la que cubría la nebulosa de Andrómeda. De hecho había más novas observadas en la dirección de la nebulosa que en todo el resto del cielo junto. No había ningún motivo que explicara este hecho si Andrómeda era una simple nube de polvo y de gas, sin nada notable en ella.

La única explicación lógica era que las novas estaban en la nebulosa de Andrómeda y que el gran número de ellas era un simple reflejo del número mucho mayor de estrellas normales que había allí. Dicho con otras palabras, la nebulosa de Andrómeda era una galaxia como la nuestra, y en tal caso tenía que estar muy lejos. Por lo tanto esta gran distancia explicaría el brillo extraordinariamente débil de las novas.

Curtis se convirtió en el principal portavoz astronómico de la idea de una Andrómeda lejana.

Pero ¿qué podía decirse sobre la observación básica que apoyaba la idea de una Andrómeda cercana?: el hecho de que, según las observaciones, la nebulosa de Andrómeda giraba. Esto se basaba en observaciones del siglo XIX que podían ser cuestionables, pero a principios del siglo XX las observaciones fueron confirmadas.

En la misma época aproximadamente en que Curtis estaba descubriendo novas en la nebulosa de Andrómeda, el astrónomo holandés-estadounidense Adriaan Van Maanen (1884-1946) estaba observando cuidadosamente las nebulosas y comprobando su rotación aparente. Este astrónomo trabajaba con instrumentos mejores y realizaba observaciones mejores que las de sus predecesores, y dijo que había detectado de modo seguro una velocidad medible de rotación en la nebulosa de Andrómeda y también en otras nebulosas.

Esto significaba, en definitiva, que si Curtis había descubierto realmente novas de poco brillo en la nebulosa de Andrómeda, era imposible que Van Maanen hubiese captado una pequeñísima velocidad de rotación de la nebulosa. Y si Van Maanen había captado realmente una rotación de la nebulosa, era imposible que Curtis hubiese descubierto numerosas novas débiles en ella. Las dos observaciones se excluían mutuamente: ¿cuál merecía crédito?

No podía tomarse una decisión tajante. Tanto Curtis como Van Maanen estaban observando algo que estaba cerca de los mismos límites de la observación. En ambos casos, un error muy ligero del instrumento o de la capacidad de juicio del observador podía echar por los suelos la observación. Esto era más cierto todavía si se tiene en cuenta que ambos astrónomos estaban descubriendo algo que tenían muchas ganas de descubrir y que estaban seguros de que descubrirían. Incluso el científico más honrado y escrupuloso podía sentirse impulsado a observar algo inexistente e imposible de observar, si estaba motivado emocionalmente para hacerlo. Por lo tanto, aunque sólo uno de ellos podía tener razón, parecía imposible decidir quién era.

Uno de los astrónomos estadounidenses más importantes de la época era Harlow Shapley (1885-1972). Fue Shapley quien calculó las auténticas dimensiones de nuestra galaxia (en realidad había exagerado algo estas dimensiones) y quien demostró que nuestro Sol no estaba en el centro de ella, sino en la periferia.

Es posible que Shapley, en su papel de ampliador de la galaxia, no tuviera mucho aprecio por la idea de que el universo contenía muchas más galaxias, lo que reducía de nuevo su importancia. Sin embargo, es difícil aducir motivaciones psicológicas, y probablemente es injusto. Shapley tenía también motivos objetivos para favorecer la idea de una Andrómeda próxima.

Shapley era amigo íntimo y antiguo de Van Maanen, y un admirador de su labor astronómica. Era, pues, muy natural que Shapley aceptara las observaciones de Van Maanen sobre la rotación de la nebulosa de Andrómeda. Lo mismo hizo la mayor parte de la comunidad astronómica, y Curtis se vio en minoría.

El 26 de abril de 1920, Curtis y Shapley celebraron un debate de gran difusión sobre el tema ante una sala atiborrada de público de la Academia Nacional de Ciencias.

Puesto que Shapley era mucho más conocido que Curtis, los astrónomos asistentes esperaban que el primero no tendría dificultad en imponer su punto de vista.

Sin embargo, Curtis resultó un conferenciante de inesperado poder de convicción, y sus novas, el escaso brillo de ellas y su número demostraron ser un argumento de un poder sorprendente.

Desde el punto de vista objetivo, el debate debería haberse considerado un empate, pero el hecho de que Curtis no se hubiera hundido, sino que hubiese obligado al campeón a hacer tablas, constituyó una asombrosa victoria moral. A consecuencia de ello se impuso lentamente la idea de que Curtis había ganado el debate.

De hecho, Curtis consiguió que un cierto número de astrónomos se apuntaran a la idea de una Andrómeda lejana; pero los temas científicos no se deciden con una victoria en un debate. Ni las observaciones de Curtis ni las de Van Maanen eran lo bastante decisivas para dar por finalizada la controversia. Se necesitaba algo más: datos inéditos y mejores.

La persona que los proporcionó fue el astrónomo estadounidense Edwin Powell Hubble (1889-1953). Hubble tenía a su disposición un nuevo telescopio gigante con un espejo de 2,54 metros de diámetro: el de mayor alcance de todos los existentes en el mundo hasta entonces. Se estrenó en 1919, y en 1922 Hubble lo comenzó a utilizar para tomar fotografías de larga exposición de la nebulosa de Andrómeda.

El 5 de octubre de 1923, Hubble descubrió, en una de estas fotografías, una estrella situada en el borde de la nebulosa de Andrómeda. No era una nova. La fue siguiendo día a día y resultó ser una estrella del tipo «variable cefeida». Hacia finales de 1924, Hubble había encontrado en la nebulosa treinta y seis estrellas variables muy tenues, doce de ellas cefeidas. Descubrió también sesenta y tres novas, muy parecidas a las que Curtis había captado anteriormente, con la diferencia de que Hubble, gracias al nuevo telescopio, podía verlas de modo más claro e inequívoco.

Hubble dedujo, tal como había hecho Curtis, que todas esas estrellas descubiertas en la dirección de la nebulosa de Andrómeda no podían estar situadas en el espacio intermedio entre ella y nosotros. Tenían que estar dentro de la nebulosa, y por lo tanto ésta tenía que ser una aglomeración de estrellas.

Los descubrimientos de Hubble superaron los de Curtis en un aspecto decisivo. Las cefeidas variables pueden utilizarse para determinar distancias (una técnica que Shapley había empleado con gran eficacia para medir las dimensiones de nuestra galaxia). Y ahora Hubble utilizaba esa misma técnica para derribar la postura de Shapley respecto a la nebulosa de Andrómeda, porque, según las cefeidas que él había detectado, la nebulosa de Andrómeda estaba a unos 750.000 años luz de distancia. (En 1942, el astrónomo alemán-estadounidense Walter Baade (1893-1960) perfeccionó la técnica de medición con cefeidas y demostró que la distancia correcta de la nebulosa de Andrómeda es de unos 2,3 millones de años luz). Con esto, quienes creían en una Andrómeda lejana cantaron victoria. Las observaciones de Van Maanen habían sido erróneas por algún motivo (quizá por fallos instrumentales) y nadie ha observado desde entonces rotaciones medibles en la nebulosa de Andrómeda. A partir de la época de Hubble la nebulosa ha recibido el nombre de galaxia de Andrómeda, y las demás «nebulosas extragalácticas» también han empezado a llamarse galaxias.

Quedaba un problema. Como ustedes recordarán, S Andromedae había planteado el insistente interrogante que había mantenido intrigados a los astrónomos sobre la naturaleza de la nebulosa de Andrómeda. Aquella nova había puesto en duda que la nebulosa fuese un objeto próximo.

Sin embargo, una vez resuelto este asunto y cuando los astrónomos hablaban ya de la galaxia de Andrómeda, S Andromedae planteó un enigma en la otra dirección. Antes, los astrónomos se extrañaban de su poco brillo; ahora se extrañaban de su gran brillo. Todo el centenar largo de novas observadas en la galaxia de Andrómeda tenían un brillo muy débil. S Andromedae era millones de veces más brillante que ellas; era tan brillante que casi podía distinguirse a simple vista. ¿A qué se debía eso?

Había de nuevo dos posibilidades. Una posibilidad era que S Andromedae hubiera explotado realmente en la galaxia de Andrómeda y que fuera millones de veces más luminosa que las novas comunes. Esa idea parecía tan poco razonable que casi ningún astrónomo la hubiera aceptado. (No obstante, Hubble la aceptó, y en aquel momento su prestigio estaba por las nubes). La segunda posibilidad parecía más probable: S Andromedae no formaba parte de la galaxia de Andrómeda pero, por una coincidencia no imposible, se hallaba en la misma dirección que aquel cuerpo. Si estuviera solamente a una milésima de la distancia de la galaxia de Andrómeda, parecería millones de veces más brillante que las débiles novas que formaban parte de aquella galaxia. La mayoría de los astrónomos optaron por esta opinión.

Sin embargo, no se puede zanjar una discusión de este tipo con el voto de la mayoría. También esta vez se necesitaban datos inéditos y mejores, en un sentido o en otro.

Un astrónomo suizo, Fritz Zwicky (1898-1974), consideró el problema. Supongamos que S Andromedae forma parte de la galaxia de Andrómeda y que ha resplandecido con una gran luminosidad, con un brillo varios millones de veces mayor que el de cualquier nova común. Supongamos, dicho de otro modo, que S Andromedae no es solamente una estrella en explosión, sino una estrella en superexplosión, o una «supernova» (para emplear el término que el propio Zwicky introdujo). De ser así, tendríamos una supernova notable en la galaxia de Andrómeda y muchas novas comunes. Eso tiene sentido, puesto que cualquier cosa de una grandeza extrema será necesariamente mucho menos frecuente que las cosas relativamente comunes.

De poco serviría, por lo tanto, esperar que apareciera otra supernova en la galaxia de Andrómeda, o en cualquier otra galaxia. Podría tardarse decenios, o siglos, en localizar una nueva supernova.

Pero había millones de galaxias distantes, tan alejadas de nosotros que sería totalmente imposible captar en ellas novas comunes. En cambio, si aparecieran en ellas supernovas, podrían verse. S Andromedae había brillado con una intensidad equivalente a una gran parte de toda la luz del resto de la galaxia de Andrómeda (suponiendo que S Andromedae formara realmente parte de aquella galaxia). Si otras supernovas eran como S Andromedae, también brillarían con la luz concentrada de una galaxia entera, y no importaría lo lejos que pudiera estar su galaxia. Si la galaxia estaba lo bastante cerca para verse, también se vería cualquier supernova de su interior.

Cada galaxia podía tener una supernova muy de vez en cuando, pero cada año aparecerían supernovas en una u otra galaxia. Por lo tanto los astrónomos debían observar el mayor número posible de galaxias y esperar hasta que en una de ellas (en cualquiera de ellas) apareciera una estrella tan brillante como ella misma, invisible antes.

En 1934, Zwicky inició una búsqueda sistemática de supernovas. Se centró en un gran cúmulo de galaxias en la constelación de Virgo y las observó todas. Hacia 1938 había localizado no menos de doce supernovas, cada una en una galaxia distinta del cúmulo. Cada supernova, en su momento máximo, era casi tan brillante como la galaxia de la que formaba parte, y cada una de ellas debía de brillar (en su momento máximo) con una luminosidad miles de millones de veces superior a la de nuestro Sol.

¿Podía esta observación ser engañosa? Cabía la posibilidad de que Zwicky hubiera localizado casualmente doce novas comunes situadas mucho más cerca que las galaxias a las que aparentemente pertenecían, y que en realidad estuvieran situadas casualmente en la misma dirección que esas galaxias.

No, no era posible. Las doce galaxias ocupaban regiones muy pequeñas del cielo y localizar doce novas situadas precisamente cada una de ellas en la misma dirección que sus galaxias hubiera sido demasiada coincidencia. Era mucho más razonable aceptar el concepto de supernovas.

Además, Zwicky y otros descubrieron más supernovas en años sucesivos. Actualmente se han detectado en diversas galaxias más de cuatrocientas supernovas.

¿Es posible, pues, que algunas de las novas observadas en nuestra propia galaxia fueran supernovas?

Sí, en efecto. No es probable que una nova común esté tan próxima a nosotros que brille con una luz mayor que la de los planetas. Sin embargo, una supernova podría tener fácilmente tal brillo, aunque estuviera muy lejos.

Por lo tanto, las novas muy brillantes que describí en el capítulo 11 debieron de ser supernovas. Eso incluye la nova de 1054, la nova de Tycho de 1572 y la nova de Kepler de 1604.

La supernova de 1604 fue la más reciente que haya podido verse en nuestra galaxia. Desde la invención del telescopio óptico, del espectroscopio, de la cámara fotográfica, del radiotelescopio y de los cohetes, no hemos podido ver ninguna supernova más en nuestra galaxia. (Tal vez haya habido alguna supernova en el otro lado de la galaxia, oculta detrás de las nubes opacas que hay entre nosotros y el centro galáctico).

De hecho, desde 1604, la supernova más cercana que hemos visto fue S Andromedae. Esto sucedió hace un siglo y la estrella estaba a 2,3 millones de años luz de distancia.

Ninguna persona cuerda desearía que una supernova entrara en erupción demasiado cerca de la Tierra, pero estaríamos a salvo si entrara en erupción, por ejemplo, a 2.000 años luz de distancia. En tal caso los astrónomos tendrían la posibilidad de estudiar la explosión de una supernova con extraordinaria precisión, y esto, desde luego, los encantaría.

Los astrónomos están esperando, pues, que suceda algo así; pero es lo único que pueden hacer: esperar. Y rechinar de dientes, supongo.

(Nota. Menos de un mes después de haber escrito este ensayo apareció una supernova, no en nuestra galaxia, sino en nuestra vecina más cercana, la Gran Nube de Magallanes. Los astrónomos no cabían en sí de alegría por tener una supernova situada a sólo 150.000 años luz de distancia).

14. El Elemento Medio Sin Salida

Anoche estaba sentado ante mi piano y tecleaba melodías a una mano. Hasta el decenio de 1950 no pude disponer de un piano, pero incluso después de tanto tiempo recordaba perfectamente lo que me habían enseñado en el cuarto grado: el pentagrama, las notas y los sostenidos y bemoles. A partir de esto, cuando tuve un piano tecleé las notas de melodías conocidas (tengo buen oído) y las comparé con la notación musical. De este modo aprendí gradualmente yo solo a leer música, de un modo muy primitivo.

Así pues, ayer por la noche, mientras me oía a mí mismo tocar Mi vieja casa de Kentucky, La vieja familia y otras baladas simples sin tener ante mí la partitura, suspiré y dije a mi querida esposa Janet:

—Qué lástima que no tuviera un piano cuando era niño y tenía tiempo de jugar con él. Probablemente lo hubiera aporreado hasta conseguir tocar unos acordes y sacar de oído alguna música aceptable. Seguramente alguien me habría ayudado en los trozos difíciles, y cuando hubiese llegado a adulto tocaría bien el piano, lo suficiente para entretenerme, aunque no lo hiciera bien en un sentido absoluto.

Janet (que aprendió piano de pequeña y que puede tocarlo bien, lo bastante para entretenerse con él) estuvo de acuerdo conmigo, como siempre.

Pero luego busqué el aspecto agradable de la cosa, porque me molesta inspirarme lástima, y dije:

—De todos modos, hubiese perdido mucho tiempo con el piano y habría desaprovechado una parte considerable de mi vida.

Janet entendió esto muy bien, porque sabe desde hace tiempo que considero perdidas todas las horas que no dedico a escribir (aparte del tiempo que paso con ella, si no es excesivo).

He recuperado, pues, el tiempo que perdí al piano anoche escribiendo sobre él, y ahora, para no perder más tiempo, continuaré escribiendo, aunque sea sobre otra cosa.

Todos sabemos que es posible obtener energía de los núcleos atómicos si los fragmentamos en trozos más pequeños (fisión nuclear) o si los aplastamos juntos para que formen trozos mayores (fusión nuclear).

Alguien podría pensar en la posibilidad de conseguir cantidades infinitas de energía procediendo alternadamente a fragmentar los núcleos y a apretarlos y juntarlos de nuevo una y otra vez. Por desgracia, una naturaleza malévola ha previsto este plan y ha promulgado leyes termodinámicas contra él.

Los núcleos de gran masa pueden desde luego fragmentarse para producir energía, pero los productos de fisión no pueden fusionarse de nuevo para formar los núcleos originales sin antes reinsertar por lo menos la misma energía producida en la fisión.

También los núcleos ligeros pueden fusionarse para producir energía, pero los productos de fusión no pueden luego fisionarse de nuevo para reconstituir los núcleos originales sin antes reintroducir por lo menos la misma energía producida en la fusión.

Si consideramos los cambios espontáneos que se producen en el universo, veremos que los núcleos pesados tienden a fisionarse y los ligeros a fusionarse. En cada caso, el cambio es en un único sentido.

Los núcleos pesados liberan energía a medida que pierden masa. Los núcleos ligeros liberan energía a medida que aumentan de masa. En ambos casos se producen núcleos que contienen menos energía que los originales: y en cada caso esto significa que las partículas que constituyen los núcleos resultantes tienen menos masa, en promedio, que las partículas que constituían los núcleos originales.

Si continuamos pasando de núcleos pesados a núcleos menos pesados y de núcleos ligeros a núcleos más pesados, deberemos encontrarnos con un núcleo, situado en alguna posición intermedia, que contenga un mínimo de energía, y una masa media mínima por partícula. Este núcleo intermedio no podrá liberar más energía convirtiéndose en un núcleo menor o en un núcleo mayor. No podrá experimentar ningún cambio espontáneo más en su núcleo.

Este elemento medio sin salida es el núcleo del hierro-56, que está compuesto por 26 protones y 30 neutrones. Éste es el núcleo hacia el cual tienden todos los cambios nucleares.

Probemos algunas cifras…

La única partícula presente en el núcleo de hidrógeno-1 tiene una masa de 1,00797. Las doce partículas del núcleo de carbono-12 tienen una masa media de 1,00000 (éste es el promedio que define la unidad de masa nuclear). Las dieciséis partículas del núcleo de oxígeno-16 tienen una masa media de 0,99968. Y las cincuenta y seis partículas del núcleo de hierro-56 tienen una masa media de 0,99884.

(Se trata de diferencias pequeñas de masa, pero una pérdida de masa, por pequeña que sea, equivale a una ganancia relativamente enorme de energía). Si partimos del otro extremo, las 238 partículas del núcleo de uranio-238 tienen una masa media de 1,00021. Las 197 partículas del núcleo de oro-197 tienen una masa media de 0,99983. Vemos pues que desde ambas direcciones los núcleos van bajando hasta el hierro-56, que es el elemento de menor masa por partícula nuclear, y que por lo tanto contiene la menor cantidad de energía y es el más estable.

En nuestro universo, los cambios nucleares predominantes tienen el carácter de fusiones. Después de los primeros momentos de la gran explosión primordial, el universo estaba formado por hidrógeno, helio (con núcleos muy pequeños) y nada más. La entera historia del universo durante todos los quince mil millones de años transcurridos desde aquella explosión ha consistido en la fusión de estos núcleos pequeños para formar núcleos mayores.

En este proceso se forma una cantidad importante de núcleos atómicos más pesados, algunos con mayor abundancia que otros (según sean las velocidades de las distintas reacciones de fusión), incluida una cantidad de hierro bastante superior a la de otros elementos de masa nuclear semejante. Se cree por ello que el núcleo de la Tierra está formado en su mayor parte por hierro; y lo mismo podría decirse de los núcleos de Venus y de Mercurio. Muchos meteoritos contienen un 90% de hierro. Todo esto se explica porque el hierro es el elemento medio sin salida.

Es cierto que también se han formado núcleos de elementos más pesados que el hierro, porque estos elementos existen. Hay circunstancias en las que las fusiones nucleares, desde el hidrógeno hasta el hierro, tienen lugar a una velocidad tan enormemente explosiva que parte de la energía no tiene tiempo de escapar y de hecho es absorbida por los átomos de hierro, que de este modo son impulsados, por así decirlo, hacia lo alto de la escala de energías, hacia núcleos de tanta masa como el uranio, o incluso más lejos.

Estos núcleos más pesados aparecen únicamente como microelementos en el conjunto del universo. De hecho, durante los quince mil millones de años de historia del universo, sólo una proporción muy pequeña de la materia original de éste se ha fusionado formando núcleos de hierro o de masa inferior. El 90% de los núcleos que constituyen el universo continúa siendo hidrógeno y el 9% helio. Todos los demás núcleos, formados por fusión, constituyen el 1% del total, o menos.

¿A qué se debe esto? Se debe a que los procesos de fusión no tienen lugar de un modo fácil. Para que dos núcleos se fusionen deben chocar con una fuerza considerable, pero los núcleos están protegidos en una situación normal por capas de electrones. Aunque desaparezcan los electrones, los núcleos desnudos están siempre cargados positivamente y tienden a repelerse entre sí.

Para que pueda tener lugar el proceso de fusión es preciso, pues, que una masa de hidrógeno esté sometida a grandes presiones y elevadas temperaturas, condiciones que sólo se alcanzan en el centro de las estrellas.

Hay que aplicar energías enormes a los átomos de hidrógeno para eliminar primero los electrones y luego aplastar entre sí los núcleos desnudos (protones individuales), a pesar de la fuerza de repulsión de sus cargas iguales.

¿Cómo podemos decir que la fusión es un «cambio espontáneo» si se necesita tanta energía para que tenga lugar?

Esta energía es una «energía de activación», algo que sirve para iniciar el proceso. Una vez se ha iniciado el proceso de fusión, la energía liberada es suficiente para que continúe el proceso, aunque la mayor parte de ella se emite al exterior. De este modo la fusión produce una energía muy superior a la pequeña cantidad necesaria para iniciarla, y en su conjunto la fusión es una reacción espontánea que produce energía.

Si esto nos parece confuso, pensemos en un fósforo de fricción. Si lo dejamos a la temperatura ambiente no dará nunca energía. Sin embargo, basta frotarlo contra una superficie áspera para que el calor de fricción eleve tanto su temperatura que la punta química del fósforo entre en ignición. El calor del fuego elevará a continuación la temperatura de los materiales de su alrededor hasta que éstos empiecen a quemar. Esto puede continuar indefinidamente, de modo que, una vez encendido, un fósforo puede iniciar un incendio forestal que destruya muchas hectáreas.

Incluso en el centro de una estrella, el proceso de fusión tiene lugar de modo relativamente suave y lento. Nuestro Sol ha estado fusionando en su núcleo desde hace casi cinco mil millones de años sin muchos cambios externos, y continuará haciéndolo por lo menos durante cinco mil millones de años más.

Mientras nuestro Sol continúa fusionando hidrógeno para formar helio, decimos que está en la «secuencia principal». Esta situación se prolonga mucho tiempo, porque la fusión de hidrógeno en helio produce una gran cantidad de energía.

Durante los miles de millones de años de permanencia en la secuencia principal, se acumula cada vez más helio en el núcleo del Sol, y su masa aumenta lentamente. El campo gravitatorio que se acumula en el núcleo se hace cada vez más intenso y se comprime cada vez más, elevándose su temperatura y su presión hasta que al final estas cantidades son tan altas que pueden proporcionar la energía de activación necesaria para provocar la fusión de los núcleos atómicos de helio y su transformación en núcleos más pesados todavía.

Cuando se inicia la fusión del helio, el resto del proceso de fusión es relativamente corto, porque todos los procesos de fusión situados más allá del helio producen sólo una quinta parte de la energía que producía la fusión inicial del hidrógeno en helio. Además, al fusionarse el helio, la estrella empieza a cambiar radicalmente de aspecto y se dice que «abandona la secuencia principal». Debido a una serie de motivos, la estrella se expande mucho y, a causa de la expansión, su superficie (pero no su núcleo) se enfría y se enrojece. La estrella se convierte en una «gigante roja», y su vida posterior, como objeto que experimenta fusión, es breve.

Una estrella cuya masa sea aproximadamente la de nuestro Sol verá frenados sus procesos de fusión cuando su núcleo esté formado principalmente por núcleos atómicos de carbono, oxígeno y neón. Para que estos núcleos atómicos puedan continuar fusionándose hay que alcanzar una temperatura y una presión que la intensidad gravitatoria de la estrella y su núcleo no pueden producir.

La estrella no puede producir ya suficiente energía de fusión para mantenerla expandida y resistir el irrevocable impulso hacia dentro de su propia gravedad, con lo cual empieza a contraerse. La contracción eleva la presión y la temperatura en las regiones exteriores de la estrella, que todavía están compuestas principalmente por hidrógeno y helio. Estas regiones sufren una fusión rápida y son proyectadas hacia fuera por la explosión, formando un vapor incandescente. Sin embargo, la mayor parte de la estrella sufre un colapso y se convierte en una enana blanca compuesta casi enteramente por carbono, oxígeno y neón, sin hidrógeno ni helio.

Las enanas blancas son objetos estables. No experimentan fusión, sino que van perdiendo lentamente la energía que tienen, de modo que se enfrían y pierden su brillo muy lentamente hasta que al final dejan de radiar luz visible y se convierten en «enanas negras». Este proceso es tan lento que pudiera ser que en toda la historia del universo ninguna enana blanca haya tenido tiempo todavía de enfriarse del todo y convertirse en una enana negra.

Pero ¿qué sucede si una estrella es bastante mayor que nuestro Sol, si su masa es tres o cuatro veces superior, o incluso veinte o treinta veces superior? Cuanta más masa tiene una estrella, más intenso es su campo gravitatorio y más apretadamente puede comprimir su núcleo. La temperatura y la presión del núcleo estelar pueden subir mucho más de lo que es posible en nuestro Sol. El carbono, el oxígeno y el neón pueden fusionarse y formar silicio, azufre, argón y todos los elementos hasta el hierro.

Pero al llegar al hierro el proceso se detiene repentinamente, porque el hierro no puede experimentar espontáneamente ni fusión ni fisión. La producción de energía del núcleo estelar se detiene y la estrella inicia un colapso. El colapso es mucho más rápido bajo el impulso gravitatorio de una estrella gigante que bajo el de una estrella corriente, y la cantidad de hidrógeno y de helio que todavía existe es mucho mayor en la gigante. Se produce una explosión de la mayor parte del hidrógeno y del helio en un tiempo relativamente breve, y durante unos días o unas semanas la estrella brilla con una luminosidad mil millones de veces superior a la de una estrella corriente.

Llamamos a este resultado «supernova».

La enorme explosión de una supernova envía núcleos atómicos de todos los tamaños al espacio interestelar. Algunos de estos núcleos tienen más masa incluso que el hierro, porque se liberó suficiente energía para impulsar algún núcleo de hierro cuesta arriba.

Una supernova esparce grandes cantidades de núcleos atómicos de gran masa por las nubes interestelares, que al principio estaban formadas únicamente por hidrógeno y helio. Una estrella formada por nubes que contienen estos núcleos atómicos pesados (por ejemplo, nuestro Sol) los incorpora en su estructura. Los núcleos pesados acaban incorporándose también en los planetas de estas estrellas, y en las formas vivas que se desarrollan en estos planetas.

Por su parte, el núcleo estelar de la supernova en explosión, que contiene la mayor parte del hierro y los demás núcleos atómicos pesados, se encoge para formar una diminuta estrella de neutrones o un agujero negro más pequeño todavía. Por lo tanto, la mayor parte de los núcleos atómicos pesados se quedan en su lugar y no escapan nunca al espacio interestelar. Podríamos preguntarnos si estas supernovas explican la presencia de la cantidad de núcleos pesados observados generalmente en el universo.

Sin embargo, el tipo de supernova que he descrito no es el único posible.

Durante el último medio siglo se han estudiado unas cuatrocientas supernovas. (Todas pertenecían a otras galaxias, porque en nuestra galaxia no se ha detectado ninguna supernova desde 1604, para lamentación de los astrónomos). Estas supernovas pueden dividirse en dos clases, que se denominan tipo I y tipo II.

El tipo I tiende a ser más luminoso que el tipo II. Si una supernova de tipo II puede alcanzar una luminosidad mil millones de veces superior a la de nuestro Sol, una supernova de tipo I puede ser hasta dos mil quinientos millones de veces más luminosa que nuestro Sol.

Si ésta fuera la única diferencia, deberíamos suponer que las estrellas especialmente grandes explotarían para formar una supernova de tipo I, mientras que las estrellas algo menores explotarían para formar una supernova de tipo II. Esto parece tan evidente que podríamos renunciar a investigar más el tema.

Sin embargo, hay otras diferencias que contradicen esta conclusión.

Por ejemplo, las supernovas menos brillantes de tipo II se dan casi siempre en los brazos de las galaxias espirales. Es precisamente en estos brazos donde se encuentran grandes concentraciones de gas y de polvo y donde, por lo tanto, se encuentran estrellas grandes y de gran masa.

Sin embargo, las supernovas más brillantes, de tipo I, aunque a veces aparecen en los brazos de galaxias espirales, pueden encontrarse también en las regiones centrales de estas galaxias, así como en galaxias elípticas, donde hay poco polvo y gas. En estas regiones sin gas y sin polvo generalmente sólo se forman estrellas de tamaño moderado. Por lo tanto, a juzgar por la localización, parecería que las supernovas de tipo II se forman a partir de la explosión de estrellas gigantes, mientras que las supernovas de tipo I se forman a partir de la explosión de estrellas más pequeñas.

Una tercera diferencia es que las supernovas de tipo I una vez han pasado por el máximo pierden brillo de modo muy regular, mientras que las supernovas de tipo II se van desvaneciendo con gran irregularidad. También en este caso esperaríamos que una estrella más pequeña se comportara con mayor decoro que una estrella mayor. Cabría esperar que la explosión más gigantesca de una estrella mayor tendría una historia más caótica, con subexplosiones sucesivas.

Tanto el hecho de la localización como el proceso de la pérdida de brillo hacen esperar que las supernovas de tipo I provengan de estrellas más pequeñas que las supernovas de tipo II. Pero, en tal caso, ¿por qué son las supernovas de tipo I hasta 2,5 veces más luminosas que las supernovas de tipo II?

Otro punto a considerar. Las estrellas más pequeñas son siempre más corrientes que las estrellas más grandes.

Por lo tanto cabría esperar que si las supernovas de tipo I proceden de estrellas más pequeñas, serán más corrientes que las supernovas de tipo II: quizá diez veces más corrientes. ¡Pues no es así! Los dos tipos de supernova son aproximadamente igual de corrientes.

Una posible solución a este problema reside en los espectros de los dos tipos de supernova, que dan resultados muy diferentes. Las supernovas de tipo II tienen espectros con líneas de hidrógeno pronunciadas. Esto es lo que puede esperarse de una estrella gigante. Aunque su núcleo esté atiborrado de hierro, sus regiones exteriores son ricas en hidrógeno, cuya fusión proporciona la energía que mantiene la estrella inundada de luz.

Sin embargo, la supernova de tipo I ofrece un espectro que no contiene líneas de hidrógeno. Sólo aparecen elementos como el carbono, el oxígeno y el neón. ¡Pero ésta es precisamente la composición de las enanas blancas!

¿Puede ser una supernova de tipo I una enana blanca en explosión? En tal caso, ¿por qué hay tan pocas supernovas de tipo I? ¿Podría ser que sólo una minoría de las enanas blancas explotara, de modo que las supernovas de tipo I resultaran al final no más numerosas que las supernovas de tipo II? ¿Por qué explota sólo una minoría de ellas? ¿Y por qué tienen que explotar? ¿No he dicho antes, en este ensayo, que las enanas blancas son muy estables y pierden su brillo lentamente a lo largo de muchos miles de millones de años, sin sufrir más cambios?

La solución a estas preguntas vino de un estudio de las novas. (No supernovas, sino novas corrientes que entran en erupción con una luminosidad que es sólo cien mil a ciento cincuenta mil veces superior a la del Sol). Estas novas son mucho más corrientes que las supernovas, y no pueden constituir explosiones importantes de una estrella. Si lo fueran serían gigantes rojas antes de la explosión, serían mucho más brillantes en el máximo de la explosión, y después se desvanecerían del todo. En cambio, parece ser que algunas novas son estrellas corrientes de la secuencia principal antes y después de experimentar un aumento moderado en su brillo, sin que experimenten cambios aparentes a consecuencia de su aventura. De hecho, una estrella determinada puede convertirse una y otra vez en nova.

No obstante, en 1954 el astrónomo estadounidense Merle F. Walker observó una cierta estrella, llamada después DQ Herculis, que había pasado por una fase de nova en 1934 y que era en realidad un estrella binaria próxima.

Estaba formada por dos estrellas tan próximas una a otra que casi se tocaban.

Se llevaron a cabo todos los esfuerzos posibles para estudiar separadamente cada estrella del par. La más brillante de las dos era una estrella de la secuencia principal, pero la menos brillante era una enana blanca. Cuando se hubo comprobado este extremo, se descubrió que algunas estrellas que habían pasado también por la fase de nova en algún momento de su historia eran también binarias próximas y en cada caso resultó que un componente del par de estrellas era una enana blanca.

Los astrónomos llegaron rápidamente a la conclusión de que la estrella que se transformaba en nova era la enana blanca del par. La estrella de la secuencia principal era la que se observaba normalmente y no experimentaba cambios importantes, lo que explicaba que la nova pareciera ser la misma antes y después de aumentar de brillo. La enana blanca del par no se observa normalmente, con lo que no se captaba la particular importancia que tenía la nova.

Esto cambió. A partir de entonces los astrónomos llegaron rápidamente a la siguiente conclusión sobre el proceso:

Empezamos con dos estrellas de la secuencia principal que constituyen un par binario próximo. Cuanta más masa tiene una estrella, más rápidamente gasta el hidrógeno de su núcleo, con lo que la estrella de mayor masa del par es la primera que se expande y se convierte en una gigante roja. Parte de su materia en expansión se pierde en su compañera de menor masa, que está todavía en la secuencia principal, y su vida, a consecuencia de ello, resulta abreviada. Al final, la gigante roja entra en colapso y se transforma en una enana blanca.

Al cabo de un tiempo, la estrella restante de la secuencia principal, cuya vida ha sido abreviada, empieza a hincharse y a convertirse en una gigante roja y su tamaño llega a ser tan grande que parte de su masa se transfiere a la periferia de la enana blanca. Cuando el disco de acreción se ha llenado con una cantidad suficiente de gas, se hunde y se derrama sobre la superficie de la enana blanca.

La masa que cae sobre la superficie de una enana blanca se comporta de modo diferente a la que cae sobre la superficie de una estrella corriente. La intensidad de la gravedad en la superficie de la enana blanca es miles de veces superior a la intensidad de la gravedad en la superficie de una estrella normal. La materia que recoge una estrella normal se añade sin problemas a la masa de la estrella; en cambio, la materia que recoge una enana blanca sufre una compresión, debido a la intensidad de la gravedad superficial, y se fusiona.

Cuando el disco de acreción se hunde, se produce una erupción repentina de luz y de energía y el sistema binario brilla unas mil veces más de lo normal. Como es natural, esto puede suceder una y otra vez, y cada vez que pasa, la enana blanca se convierte en una nova y también gana masa.

Sin embargo, una enana blanca sólo puede tener una masa igual a 1,44 veces la masa del Sol. Demostró este hecho el astrónomo Subrahmanyan Chandrasekhar, nacido en la India en 1932, y esta masa se llama «límite de Chandrasekhar». (Chandrasekhar obtuvo con mucho retraso el premio Nobel de física por este descubrimiento en 1983). La resistencia de los electrones acaba impidiendo que la enana blanca continúe encogiéndose más. Sin embargo, cuando la enana blanca supera el límite de Chandrasekhar, la intensidad gravitatoria se hace tan grande que la resistencia de los electrones falla y empieza una nueva contracción.

La enana blanca se encoge con una velocidad catastrófica; en el proceso, todos los núcleos atómicos de carbono, de oxígeno y de neón que la forman se fusionan y la energía generada despedaza completamente la estrella, dejando tras de sí únicamente restos gaseosos y polvorientos.

Por este motivo una supernova de tipo I, que proviene de una estrella de menor masa, es más luminosa que una supernova de tipo II, que proviene de una estrella de mayor masa. La explosión de la enana blanca es total y no parcial, y es mucho más rápida que la de una estrella gigante.

El motivo de que la supernova de tipo I no sea más corriente es que no todas las enanas blancas explotan. Las enanas blancas que son estrellas solas o que están lejos de sus estrellas acompañantes (como la enana blanca Sirio B, situada lejos de su compañera de la secuencia principal, Sirio A) tienen pocas posibilidades o ninguna de ganar masa. Sólo las enanas blancas que son miembros de binarias próximas pueden ganar suficiente masa para superar el límite de Chandrasekhar.

De este modo se explican muchas de las diferencias en las características de los dos tipos de supernova, pero hay una diferencia que todavía intriga. ¿Por qué pierden su brillo las supernovas de tipo I con tanta regularidad, mientras que las supernovas de tipo II lo hacen irregularmente?

En junio de 1983 una supernova de tipo I entró en erupción en la galaxia M83, relativamente próxima a nosotros; fue especialmente brillante, y en 1984 un astrónomo llamado James R. Graham captó rastros débiles de hierro en los restos de esta supernova. Éste fue el primer indicio de que la fusión dentro de una supernova de tipo I recorrió todo el camino hasta llegar al hierro.

Graham pensó que una supernova de tipo I podía no hacerse visible. Si se fusionaba hasta llegar al hierro, se expandiría hasta alcanzar un tamaño centenares o millares de veces superior al diámetro original con tanta rapidez que su sustancia se enfriaría en el proceso y emitiría muy poca luz. Sin embargo la fusión tuvo lugar, se captó la presencia de hierro y a pesar de esto la luminosidad fue intensa.

Graham pensó que había otra fuente de energía y de luz, más lenta, aparte de la simple fusión. Propuso que la materia de la enana blanca no se fusionó dando hierro-56 (con un núcleo atómico formado por 26 protones y 30 neutrones), sino dando cobalto-56 (con un núcleo atómico que contiene 27 protones y 29 neutrones).

La masa media de las 56 partículas en el hierro-56, como ya he dicho en este artículo, es 0,99884; en cambio, la de las 56 partículas del cobalto-56 es 0,99977. La ligera cantidad de energía adicional en el cobalto-56 es tan pequeña y la pendiente del cobalto-56 al hierro-56 tan suave que la fusión pueda detenerse en el cobalto-56.

Sin embargo, las leyes de la termodinámica no pueden conculcarse del todo. El cobalto-56 se forma, pero no puede conservarse. Es un núcleo radiactivo y cada uno de estos núcleos acaba emitiendo un positrón y un rayo gamma.

La pérdida de un positrón convierte un protón en un neutrón, de modo que cada núcleo de cobalto-56 se convierte en otro núcleo con un protón menos y con un neutrón más, en definitiva en un núcleo de hierro-56. Este cambio radiactivo de todo el cobalto-56 contenido en una estrella es lo que proporciona la energía necesaria para producir la luminosidad que observamos en una supernova de tipo I.

¿Hay algún dato que apoye esta propuesta? Sí: la fusión general de los núcleos atómicos, subiendo desde el oxígeno hasta llegar al cobalto, puede transcurrir en sólo unos segundos, pero la desintegración del cobalto-56 en hierro-56 es mucho más gradual, porque el cobalto-56 tiene una semivida de 77 días. Si la desintegración radiactiva del cobalto-56 es lo que alimenta la luminosidad de una supernova de tipo I, esta luminosidad debería disminuir de modo muy regular, como sucede con la radiactividad. Y al parecer una supernova de tipo I pierde su brillo regularmente con una semivida cercana a 77 días, lo que hace sospechar mucho la intervención del cobalto-56.

Se deduce de ello que si bien ambos tipos de supernova inyectan núcleos atómicos pesados en la materia interestelar, los núcleos más pesados, como el hierro y otros más pesados todavía, se conservan generalmente en las encogidas estrellas de neutrones y en los agujeros negros producidos por las supernovas de tipo II, pero son esparcidos, junto con todo lo demás, por las explosiones totales de las supernovas de tipo I.

Se deduce, pues, que la mayor parte del hierro que acabó llegando al núcleo de la Tierra y a las rocas de su superficie, y también al interior de nuestra sangre, estuvo en otra época en enanas blancas que explotaron.

15. Partículas Opuestas

Nota. Puede parecer que el presente capítulo no pertenece a esta sección, pero es el preludio necesario al siguiente capítulo, que sí pertenece a ella.

Pasé los últimos días en Filadelfia asistiendo a las sesiones de la reunión anual de la Asociación Estadounidense para el Progreso de la Ciencia, principalmente porque estaba participando en un simposio sobre viajes interestelares, y porque me gusta, de vez en cuando, ponerme la gorra de científico.

En el transcurso de aquellos días me entrevistaron cuatro veces; en una de ellas, el entrevistador preguntó:

—Pero ¿qué es la antimateria?

Afortunadamente formuló la pregunta a un compañero entrevistado, por lo que dejé a él el trabajo de explicarse y me ocupé en recordar con cierto humor la primera vez que tuve noticia de la antimateria. Fue en una revista de ciencia-ficción, por supuesto.

En el número de abril de 1937 de Astounding Science Fiction, John D. Clark publicó una historia titulada «Planeta Menos», en la cual un objeto hecho de antimateria había llegado casualmente al sistema solar y estaba amenazando nuestro planeta. Fue mi primer encuentro con el concepto.

En el número de agosto de 1937 de la misma revista había un artículo teórico de R. D. Swisher titulado «¿Qué son los positrones?», y de nuevo aprendí algo sobre la antimateria.

Más tarde, en 1939, cuando empecé a escribir historias de robots, doté a mis robots de «cerebros positrónicos», una variación atractiva y muy de ciencia-ficción de la idea menos brillante e inspiradora de los «cerebros electrónicos».

Pero ¿cuándo empezó realmente a conocerse algo sobre la antimateria? Para saberlo volvamos a 1928.

En 1928 el físico inglés Paul Adrien Maurice Dirac (1902-1984) estaba estudiando el electrón, una de las dos únicas partículas subatómicas conocidas en aquella época, junto con el protón.

Para ello, Dirac utilizó la mecánica ondulatoria relativista, cuya parte matemática había sido elaborada por el físico austríaco Erwin Schrödinger (1887-1961) hacía sólo dos años. En este estudio, Dirac descubrió que la energía propia de un electrón en movimiento podía ser positiva o negativa. La cifra positiva representaba evidentemente el electrón ordinario, pero, en tal caso, ¿qué representaba la cifra negativa (igual en todo, excepto en el signo)?

La solución más fácil era suponer que el signo negativo correspondía a un artificio matemático sin ningún significado físico, pero Dirac prefirió encontrarle un sentido, si podía[2]:

Supongamos que el universo está formado por un mar de niveles de energía, con todos los niveles negativos llenos de electrones. Encima de este mar hay un número grande pero finito de electrones distribuidos entre los niveles positivos de energía.

Si, por algún motivo, un electrón del mar adquiere suficiente energía, sale disparado del mar para ocupar uno de los niveles de energía positiva y se convierte entonces en el tipo de electrón común a que se han acostumbrado los científicos. En el mar, sin embargo, la salida del electrón deja un «agujero» y este agujero se comporta como una partícula con propiedades opuestas a las del electrón.

Puesto que el electrón tiene una carga eléctrica, esa carga negativa tiene que haberse retirado del mar y el agujero consiguiente debe presentar una carga de naturaleza opuesta. El electrón, según una convención que se remonta a Benjamin Franklin, tiene una carga eléctrica negativa, por lo tanto el agujero debe comportarse como si tuviera una carga eléctrica positiva.

Entonces, si la energía se convierte en un electrón, la producción de un electrón debe siempre acarrear la producción simultánea de un agujero, o «antielectrón». (El agujero es lo contrario de un electrón, y el prefijo «anti» procede de la palabra griega que significa «contrario»).

Dirac estaba prediciendo de este modo la «producción por pares», la producción simultánea de un electrón y de un antielectrón, y parecía bastante claro que no se podía producir el uno sin el otro.

Sin embargo, en nuestra región del universo existe un gran número de electrones, pero no hay ningún indicio de la existencia de un número equivalente de antielectrones.

Si aceptamos este hecho sin entrar en demasiados detalles, veremos que cuando se produce otro electrón junto con su agujero acompañante, uno u otro de los muchos electrones existentes va a caer en ese agujero, y lo hace en muy poco tiempo.

Dirac predijo, pues, que un antielectrón es un objeto de muy corta vida, lo que explicaría que en aquella época nadie pareciera haber encontrado ninguno. Y, lo que es más, Dirac vio que no es posible deshacerse de un antielectrón sin deshacerse al mismo tiempo de un electrón, y viceversa. Dicho de otro modo, es un caso de «mutua aniquilación».

En la mutua aniquilación, las partículas deben emitir, una vez más, la energía que consumieron en la producción por pares. La mutua aniquilación, por tanto, tiene que ir acompañada por la producción de radiación de gran energía o de otras partículas que se desplacen a grandes velocidades y que posean una elevada energía cinética, o ambas cosas.

En la época en que Dirac desarrolló esta idea había sólo dos partículas conocidas, el electrón cargado negativamente y el protón cargado positivamente, por lo que el físico se preguntó en primer lugar si el protón no sería, por casualidad, el antielectrón.

Era evidente, sin embargo, que no podía serlo. En primer lugar, el protón tiene 1836 veces más masa que el electrón, y no parece muy probable que expulsando a un electrón del mar con nivel de energía negativa se produzca un agujero de masa 1836 veces superior a la de la partícula extraída. Parecía lógico suponer que las propiedades del agujero fueran de carácter opuesto a las de la partícula extraída, pero debían ser iguales en cantidad.

Puesto que la carga eléctrica del electrón es negativa, la carga eléctrica del antielectrón debe ser positiva; pero la carga negativa de uno y la carga positiva del otro deben tener exactamente la misma magnitud. En esto, por lo menos, el protón cumple los requisitos. Su carga positiva es precisamente igual a la carga negativa del electrón.

Esto debería cumplirse también con la masa. El antielectrón podía tener el mismo tipo de masa que el electrón, o quizá una «antimasa» contraria, pero en cualquier caso la masa o la antimasa debían ser precisamente iguales a la del electrón. El protón tenía el mismo tipo de masa que el electrón, pero era muy diferente en cuanto a la cantidad.

Además, según el razonamiento de Dirac, un electrón debía tener una vida muy corta y debía aniquilarse de modo mutuo y casi simultáneo con cualquier electrón que se encontrara. Un protón, sin embargo, parecía ser completamente estable y no mostraba tendencia alguna a aniquilarse mutuamente con los electrones.

Dirac, por lo tanto, llegó a la conclusión de que el antielectrón no era el protón, sino que era una partícula con la masa de un electrón y carga positiva.

De todos modos, nadie había encontrado nunca un electrón cargado positivamente, de modo que la mayoría de físicos consideraron que las sugerencias de Dirac eran interesantes pero insustanciales. Podían ser las simples especulaciones de un teórico que atribuía un significado demasiado literal a las relaciones matemáticas. Por lo tanto, hasta que no se realizaron observaciones apropiadas, las ideas de Dirac tuvieron que catalogarse bajo el título de «Interesantes, pero…».

Mientras Dirac desarrollaba su teoría, se había desencadenado entre los físicos una lucha homérica sobre la naturaleza de los rayos cósmicos. Algunos físicos —el más importante de los cuales era el estadounidense Robert Andrews Millikan (1868-1953)—, aseguraban que los rayos cósmicos eran un tren de ondas electromagnéticas, con más energía incluso y, por lo tanto, de más corta longitud de onda que los rayos gamma. Otros físicos, el más importante de los cuales era el estadounidense Arthur Holly Compton (1892-1962), decían que eran un flujo de partículas de gran masa, veloces y cargadas eléctricamente. (No voy a prolongar el misterio. Compton obtuvo una victoria total e incondicional). En el transcurso de la batalla, uno de los estudiantes de Millikan, Carl David Anderson (1905), estaba estudiando la interacción de los rayos cósmicos con la atmósfera.

Los rayos cósmicos de gran energía chocaban con los núcleos de átomos de la atmósfera y producían una lluvia de partículas subatómicas, de energía no muy inferior a la de los rayos cósmicos originales. Parecía posible, a partir de las partículas producidas, deducir la naturaleza de la entidad causante del fenómeno y decidir si era una radiación o una partícula.

Anderson utilizó para ello una cámara de niebla rodeada por un campo magnético muy intenso. Las partículas, al pasar a través de la cámara de niebla que contenía gases supersaturados con vapor de agua, producían fragmentos atómicos cargados (o «iones») que actuaban de núcleos para la formación de pequeñas gotas de agua.

Además, las partículas detectadas de este modo estaban cargadas eléctricamente, por lo que sus trayectorias (y las líneas de gotitas) se curvaban en presencia de un campo magnético. La trayectoria de una partícula con una carga eléctrica positiva se curvaría en una dirección; la trayectoria de una partícula con una carga eléctrica negativa se curvaría en la otra dirección. Cuanto más rápida fuera la partícula y mayor masa tuviera, menos se curvaría.

El problema era que las partículas producidas por rayos cósmicos al chocar con los núcleos tenían tanta masa o eran tan veloces (o ambas cosas) que apenas se curvaban.

Anderson se dio cuenta de que muy poco o nada podía deducir de sus trayectorias.

Tuvo entonces la ingeniosa idea de poner una plancha de plomo, de aproximadamente seis milímetros de espesor, en el centro de la cámara de niebla. Las partículas que chocaran con ella tendrían energía más que suficiente para atravesarla. Sin embargo, al hacerlo gastarían una parte importante de su energía y saldrían moviéndose más despacio. Luego se curvarían más y algo podría deducirse.

En agosto de 1932, Anderson estaba estudiando varias fotografías tomadas en cámaras de niebla, y una de ellas le sorprendió de modo especial. Presentaba una trayectoria curva con el mismo aspecto exactamente que las trayectorias curvas de los electrones a gran velocidad.

La trayectoria estaba más curvada en un lado de la plancha de plomo que en el otro. Esto significaba que el rayo había entrado en la cámara por el lado de menor curvatura. El rayo había atravesado la plancha de plomo, que había disminuido su velocidad, con lo que estaba más curvado por aquel lado. Pero si hubiera avanzado en aquella dirección un electrón, se habría curvado en la otra dirección. Al ver esta curva Anderson comprendió enseguida que había detectado un electrón de carga positiva, es decir, un antielectrón.

Como es natural, se encontraron rápidamente otros ejemplos y quedó claro, tal como había predicho Dirac, que el antielectrón no duraba mucho. Al cabo de una mil millonésima de segundo, más o menos, encontraba un electrón y se producía la mutua aniquilación, dando lugar a dos rayos gamma emitidos en direcciones opuestas.

Dirac recibió muy pronto el premio Nobel de física, en 1933, y Anderson lo obtuvo en 1936.

Hay algo en este descubrimiento que no me gusta. La nueva partícula debería haberse llamado antielectrón, como la he llamado hasta ahora, pues ese nombre la describe exactamente como «el electrón opuesto». Sin embargo, Anderson la consideró un electrón positivo. Tomó las cinco primeras letras y las tres últimas letras de la expresión (en inglés) y las fundió formando «positrón». Y éste ha continuado siendo su nombre desde entonces.

Por supuesto, si el antielectrón se llama positrón, el propio electrón debería llamarse «negatrón». Por otra parte, tampoco es «-rón» el sufijo característico de las partículas subatómicas, sino el «-ón», de protón, mesón, gluón, leptón, muón, pión, fotón, gravitón, etc. Si insistimos en poner un nombre al antielectrón, entonces debería ser «positón».

De hecho, en 1947, hubo un intento para utilizar ese nombre y llamar al electrón «negatón», pero fracasó estrepitosamente.

Desde entonces han mantenido «electrón» y «positrón», y los dos son ahora intercambiables. Pero la ciencia también está llena de nombres tercos impuestos por científicos que actuaron por impulso. (Murray Gell-Mann inventó el feo término de «quark» para las partículas fundamentales que componen los protones. Lo sacó de Finnegans Wake, pero eso no lo hace menos feo. Quizá no sabía que en alemán quark significa «basura» o «desperdicios»).

Cuando se tiene un antielectrón es imposible detenerlo.

El análisis matemático de Dirac sirve exactamente igual para los protones, por ejemplo, que para los electrones. Por lo tanto, si hay un antielectrón, deberá haber también un «antiprotón».

No obstante, durante los dos decenios que siguieron al descubrimiento del antielectrón no apareció el antiprotón por ninguna parte. ¿A qué se debía eso?

No es ningún misterio. La masa es una forma de energía muy condensada, y se requiere una gran cantidad de energía para producir incluso una pequeña cantidad de masa. Si queremos producir diez veces más masa, debemos invertir en ello diez veces más energía. La cantidad de energía requerida resulta enseguida prohibitiva.

Puesto que el protón tiene 1836 veces más masa que un electrón, se necesita para producir un antiprotón una energía (concentrada toda ella en esta especie de pequeño volumen ocupado por una partícula subatómica) 1836 veces superior a la que se necesita para producir un antielectrón.

Es evidente que los rayos cósmicos son corrientes de partículas de gran masa en rápido movimiento que poseen una amplia gama de energías. Algunas de las partículas más veloces, y por lo tanto de mayor energía, tienen energía suficiente y de sobra para formar pares de protón y antiprotón. Por ese motivo se emplearon años en estudiar con mucho cuidado los rayos cósmicos mediante una variedad de detectores de partículas, por si acaso aparecía un antiprotón. (¿Por qué no? Si se detectaba uno, el premio Nobel estaba garantizado). Un problema era que al ascender por la escala de energías, el número de partículas de rayos cósmicos con la correspondiente energía disminuía. El porcentaje de partículas de rayos cósmicos que poseía la energía suficiente para formar un par protón-antiprotón era sólo una pequeña fracción del total. Esto significaba que dentro de la mezcla abundante y compleja de partículas producidas por el bombardeo de rayos cósmicos, cualquier antiprotón formado, queda oculto totalmente por multitud de otras partículas.

De vez en cuando, alguien creía haber captado un antiprotón y lo comunicaba, pero las pruebas no eran nunca inequívocas. Podían haber aparecido antiprotones, aunque nadie estaba seguro de ello.

Lo que se necesitaba era una fuente de energía creada por el hombre, que pudiera controlarse y refinarse a fin de aumentar las posibilidades de producir y detectar antiprotones: es decir, un acelerador de partículas, un acelerador más potente que los construidos en los decenios de 1930 y 1940.

Finalmente, en 1954 se construyó un acelerador de partículas que produciría las energías necesarias. Fue el Bevatrón, construido en Berkeley, California. En 1955, el físico italo-estadounidense Emilio Segrè (1905) y su colega estadounidense Owen Chamberlain (1920) elaboraron un proyecto para llevar a cabo la tarea.

El plan consistía en bombardear un blanco de cobre con protones de energía muy elevada. Se obtendrían así pares protón-antiprotón, y también muchas partículas subatómicas más. Todas las partículas producidas pasarían luego por un campo magnético intenso. Los protones y otras partículas de carga positiva se curvarían en una dirección. Los antiprotones y otras partículas de carga negativa se curvarían en la otra dirección.

Se calculó que los antiprotones se desplazarían a una determinada velocidad y con una cierta curvatura. Todas las demás partículas de carga negativa se desplazarían más lentamente, o más rápidamente, y con una curvatura distinta. Si se situaba un aparato de detección en algún lugar adecuado de modo que actuara únicamente en un intervalo de tiempo muy breve, posterior a la colisión de los protones con el cobre, se captarían antiprotones y sólo antiprotones. De este modo pudieron captarse torrentes de antiprotones.

Es evidente que los antiprotones producidos no podían durar mucho y que chocarían con los numerosos protones que existen en todo el universo que nos rodea. Segrè y Chamberlain proyectaron contra un trozo de cristal la corriente de supuestos antiprotones captados. En este cristal tuvieron lugar innumerables aniquilaciones mutuas entre los antiprotones de la corriente y los protones del cristal. Estas aniquilaciones produjeron partículas que podían desplazarse por el cristal a mayor velocidad que la luz. (Sólo en el vacío es imposible superar la velocidad de la luz).

La radiación emitida de este modo se correspondió de modo preciso con la que produciría la aniquilación de protones con antiprotones.

Así pues, tanto la detección directa de antiprotones como el estudio de la radiación producida por la aniquilación demostraban claramente que se habían captado antiprotones. Gracias a esto, Segrè y Chamberlain compartieron el premio Nobel de física de 1959.

En aquella época se habían descubierto ya muchas partículas subatómicas, además del electrón y del protón. Una vez descubierto el antiprotón fue fácil suponer que habría una partícula opuesta por cada partícula nueva.

Los resultados lo confirmaron. Cada partícula conocida con carga eléctrica tiene una partícula correspondiente de carga opuesta a la suya. Hay «antimuones», «antipiones», «antihiperones», «antiquarks», etc. El nombre de cada una de estas partículas opuestas se forma prefijando «anti» al nombre de la partícula. La única excepción es el antielectrón, una excepción solitaria. Continúa llamándose positrón, lo cual sin duda molesta a quienes, como yo, dan mucho valor al orden y al método en la nomenclatura.

Todos los objetos «anti» pueden incluirse en el grupo de las «antipartículas».

Pero ¿qué podemos decir de las partículas que carecen de carga?

En 1932, el físico inglés James Chadwick (1891-1974) descubrió el «neutrón», que es algo más pesado que el protón, y que se diferencia de esta partícula por ser eléctricamente neutro. (Chadwick recibió a consecuencia de ello el premio Nobel de física de 1935). Se comprobó que el neutrón es el tercer componente básico de los átomos y de la materia corriente en general.

El isótopo más corriente del hidrógeno, el hidrógeno-1, tiene un único protón en su núcleo, pero todos los demás átomos tienen núcleos formados por protones y neutrones, y estos núcleos van acompañados por uno o más electrones en la periferia de los átomos.

No se ha descubierto nunca, ni se espera descubrir, ningún otro componente importante de los átomos. La materia normal está formada por protones, neutrones y electrones, y nada más. Todas las demás partículas subatómicas (y hay muchas) son manifestaciones inestables y de alta energía, o bien, si su vida es larga, existen independientemente y no como parte de la materia.

¿Qué podemos decir ahora del neutrón? Un electrón tiene una carga negativa mientras que un antielectrón tiene una carga positiva. Un protón está cargado positivamente mientras que un antiprotón está cargado negativamente.

Sin embargo, el neutrón es neutro. Carece de carga. ¿Qué es lo opuesto a la falta de carga?

A pesar de ello, los físicos no podían dejar de pensar en la posible existencia de un antineutrón, aunque ésta no dependiera de la carga eléctrica.

Se razonó que si un protón y un antiprotón pasaban rozando uno al lado de otro sin acabar de chocar, era posible que evitaran la aniquilación mutua, pero quizá conseguirían neutralizar sus respectivas cargas eléctricas. Esto dejaría dos partículas neutras que podían continuar siendo de algún modo opuestas entre sí; dicho con otras palabras, serían un neutrón y un antineutrón.

Además, al formarse un neutrón y un antineutrón, el antineutrón debería chocar muy pronto con un neutrón y aniquilarse mutuamente con él, produciendo partículas de algún modo característico.

En 1956 se descubrió ciertamente el antineutrón, y en 1958 se comprobó su reacción de aniquilación. Sin embargo, en aquel entonces las antipartículas eran algo tan normal que el descubrimiento del antineutrón no ganó para nadie un premio Nobel. ¿En qué se diferencia el antineutrón del neutrón? En primer lugar, si bien el neutrón carece de una carga eléctrica general, posee una característica llamada «espín», que genera un campo magnético. El antineutrón tiene un espín en dirección opuesta y por lo tanto un campo magnético que está orientado en la dirección opuesta a la del neutrón.

Los físicos consiguieron en 1965 reunir un antiprotón y un antineutrón y juntarlos. En la materia corriente, un protón y un neutrón juntos constituyen el núcleo de un átomo de hidrógeno-2, o «deuterio». Lo que se había formado era, pues, un núcleo de «antideuterio».

Es evidente que un núcleo de antideuterio, con una carga negativa, podría retener fácilmente un antielectrón de carga positiva. De este modo se formaría un «antiátomo». Podrían formarse teóricamente antiátomos de mayor tamaño. Lo difícil sería obligar a juntarse a todos los antiprotones y antineutrones e impedir al mismo tiempo que se aniquilaran mutuamente por colisiones casuales con la materia corriente.

Podemos imaginar también antiátomos uniéndose y formando antimoléculas y agregados de mayor tamaño todavía. Estos agregados serían «antimateria», aunque este término podría aplicarse también a antipartículas. Y ésta es la respuesta a la pregunta que al principio del ensayo puse en boca del entrevistador.

Puesto que las partículas no pueden formarse sin sus correspondientes antipartículas, durante mucho tiempo se supuso que en el universo debía de haber tanta antimateria como materia.

Nuestro sistema solar está compuesto enteramente de materia, puesto que de lo contrario las aniquilaciones mutuas serían tan frecuentes que darían resultados detectables. Un razonamiento similar nos asegura que toda nuestra galaxia está compuesta únicamente de materia.

¿Podría haber en algún lugar galaxias compuestas exclusivamente de antimateria, es decir, «antigalaxias»? Es tentador suponer que existen y que son tan numerosas como las galaxias, pero las últimas teorías sugieren que en el momento de la gran explosión no se produjeron en cantidades absolutamente iguales partículas y antipartículas. Hubo un pequeñísimo exceso de partículas, y este exceso «pequeñísimo» fue lo suficientemente grande para formar nuestro vasto universo.

Otra pregunta: ¿tienen todas las partículas, sin excepción, antipartículas?

No. Unas pocas partículas sin carga (no todas) son sus propias antipartículas, por así decirlo. Un ejemplo es el fotón, que es la unidad de toda la radiación electromagnética, desde los rayos gamma hasta las ondas de radio, pasando por la luz visible. El fotón es al mismo tiempo partícula y antipartícula y no hay un «antifotón» separado, ni siquiera en la teoría.

Si hubiera antifotones, las antiestrellas de las antigalaxias emitirían antifotones. Podríamos identificar estos objetos distantes como antigalaxias estudiando la luz que recibimos de ellos. En cambio, las antigalaxias, suponiendo que existieran, producirían la misma luz que las galaxias, y los fotones no nos ayudarían a conocer la existencia y localización de las antigalaxias.

El gravitón (que media en la interacción gravitatoria) es también su propia antipartícula. Esto significa que no podemos distinguir entre galaxias y antigalaxias basándonos en un comportamiento gravitatorio diferente.

El pión neutral es otro ejemplo de una partícula que es su propia antipartícula.

… Y una pregunta final: ¿podría tener la antimateria alguna utilidad práctica? ¿Si no ahora, en algún momento futuro?

Permítanme que exponga este tema en el capítulo siguiente.

16. ¡Avante! ¡Avante!

En 1985, cuando se acercaba el cometa Halley, varias revistas me pidieron que escribiera artículos sobre él.

Hice uno de estos artículos para una revista y me lo devolvieron con el comentario de que lo había llenado con todo tipo de material científico, de poco interés, pero que había descuidado tratar lo que más interesaba: cuándo y dónde se vería mejor el cometa.

Contesté señalando que sería inútil hacerlo, porque el cometa pasaría a bastante distancia de la Tierra y con un ángulo tal que sólo estaría alto en el cielo en el hemisferio austral. Para alcanzar a verlo era recomendable irse de viaje al Sur, y pocos lectores de la revista podrían permitirse este gasto; además, quienes fueran al Sur sólo verían, como máximo, una mancha pequeña y poco brillante de neblina.

También expresé algo de malhumor por la increíble publicidad y exageración que se estaba desplegando en relación con el cometa. Esto tenía que provocar al final el desengaño de muchas personas, y concluí: «No tengo intención de participar en esta campaña».

El director de la revista no se mostró conmovido por mi elocuencia. Rechazó el artículo y no cobré nada por él. (Sin embargo, amable lector, no llores por mí. Vendí el artículo, sin cambiar una palabra, a otra revista, una revista mejor, y exactamente por el doble de la cantidad que la primera me había ofrecido).

En enero de 1985 yo había publicado un libro en Walker and Company titulado Guía de Asimov al cometa Halley. En él tampoco ofrecía indicaciones concretas sobre cómo observarlo. De hecho afirmaba claramente que el cometa no sería un buen espectáculo. Pueden estar seguros de que algunos críticos no dejaron de atacarme por omitir información detallada sobre cómo observar el cometa.

Lo que me entristece de todo esto no es solamente que el cometa decepcionara a tantas personas, sino que muchas de ellas acabaran desilusionadas con la ciencia. Me pregunto cuántos de ellos pensaron que el poco brillo del cometa se debía a la ineficacia e ignorancia de los astrónomos que habían montado el espectáculo.

Me hubiera gustado únicamente que los astrónomos se hubiesen mostrado más explícitos al describir el aspecto que tendría el cometa y un poco más dispuestos a denunciar todo aquel reclamo sin base. Sin embargo los astrónomos estaban ocupados con las sondas lanzadas en cohete que pasarían cerca del cometa (tal como hicieron) y que convirtieron su llegada en la más útil de todas (desde el punto de vista científico).

Estoy contento de que todo esto haya pasado. Yo también contribuí a hablar y a escribir sobre los cometas (sin caer en exageraciones), incluso en esta serie de ensayos, pero me alegra poder pasar a otros temas. Está, por ejemplo, el tema de los viajes interestelares, algo muy corriente en la ciencia-ficción, pero de lo cual no se habla a menudo en otras partes.

Sin embargo, un importante investigador de estas posibilidades es el doctor Robert L. Forward, de los Laboratorios de Investigación Hughes, quien además es un conferenciante muy divertido. Yo tenía que hablar después de él en un simposio de una reciente conferencia de la Asociación Estadounidense para el Progreso de la Ciencia, y tuve que esforzarme mucho para no quedar por los suelos después de su intervención.

Permítanme que trate el tema de los viajes interestelares guiándome por algunas de las ideas de Bob, que desde luego expondré a mi manera.

Hasta el momento, todas las naves que hemos enviado al espacio, con o sin tripulación a bordo, ya sea en un vuelo suborbital o en una sonda a Urano, han sido impulsadas por un motor de reacción química.

Dicho de otro modo, hemos lanzado cohetes que transportan el combustible y su oxidante (es decir, hidrógeno líquido y oxígeno líquido). Cuando estos elementos entran en reacción química se produce energía que obliga a los gases calentados del tubo de escape a salir en una dirección, mientras que el resto del cohete se mueve en otra, según la ley de la acción y la reacción.

La energía de las reacciones químicas se consigue a expensas de la masa del sistema. La masa es una forma de energía altamente concentrada, y una cantidad determinada de energía, aunque sea muy grande (a escala humana), se forma a costa de perder una cantidad insignificante de masa.

De este modo, si quemamos 1,6 millones de kilogramos de hidrógeno líquido con 12,8 millones de kilogramos de oxígeno líquido, terminaremos teniendo 14,4 millones de kilogramos de vapor de agua. Después de ciertos cálculos precipitados que he hecho en el reverso de un sobre, me parece que si tuviéramos que pesar con precisión el vapor de agua, veríamos que pesaría sólo un gramo menos que las masas combinadas originales de hidrógeno y oxígeno.

Toda la energía producida por la combinación química de estos millones de toneladas de hidrógeno y oxígeno sería equivalente a la pérdida de un gramo de masa. Eso significa que la combinación de hidrógeno y oxígeno libera menos de una diezmilmillonésima parte de su masa en forma de energía.

Cuando veamos un enorme cohete que se aleja zumbando por el cielo, produciendo un estruendo que hace temblar la tierra bajo nuestros pies, recordemos que toda esa conmoción representa un porcentaje insignificante de la energía que, en teoría, contiene esa masa de combustible y oxidante.

Tal vez haya algunas sustancias químicas que al mezclarse y reaccionar superen en este aspecto al hidrógeno y el oxígeno, pero no será por mucho. Todos los combustibles químicos son despreciables como fuentes de energía, y deben acumularse masas enormes de ellos para obtener la energía que pueden producir. La energía química puede servir muy bien para las tareas humanas comunes en la superficie de la Tierra. En las naves con cohetes puede acumularse una masa suficiente para que la energía obtenida permita ponerlos en órbita o explorar el sistema solar. Sin embargo, para un viaje interestelar, las reacciones químicas son casi inútiles.

La diferencia entre un vuelo de aquí a Plutón y un vuelo a la estrella más cercana es casi la misma que la diferencia entre medio kilómetro y la longitud de la circunferencia de la Tierra. Podemos remar con una canoa medio kilómetro, pero es poco probable que nos planteemos dar la vuelta al mundo remando.

Es cierto que un cohete químico no tiene que estar «remando» todo el camino. Puede alcanzar una cierta velocidad y luego aprovechar el impulso, pero no dispondrá de combustible suficiente para alcanzar esa velocidad, desacelerar en el otro extremo y hacer funcionar los sistemas de mantenimiento de vida durante el período de tiempo increíblemente largo que tardará en llegar por impulso a una estrella, aunque sea la más próxima. Es demasiado, sin duda, demasiado. La cantidad de combustible que debería transportar una nave de este tipo sería prohibitiva.

Si no existiera una fuente de energía más poderosa que las reacciones químicas, el viaje interestelar sería imposible.

La energía nuclear se descubrió a comienzos del siglo XX. Si la energía química está relacionada con la reordenación de los electrones en las zonas exteriores del átomo, la energía nuclear depende de la reordenación de las partículas dentro del núcleo. La energía nuclear produce cambios de energía mucho mayores que la energía química.

Supongamos, entonces, que en lugar de quemar hidrógeno en oxígeno, extraemos la energía del uranio en el curso de su desintegración radiactiva. ¿Cuánto uranio necesitaremos para convertir un gramo de masa en energía después de que todo el uranio se haya convertido en plomo?

La respuesta (¿dónde dejé el reverso de mi sobre?) es que 4.285 gramos de uranio, después de su desintegración completa, habrán convertido un gramo suyo en energía.

Esto significa, además, que sólo el 0,023 % de la masa del uranio se convertirá en energía, pero el resultado es un poco más de tres millones de veces superior a la energía que obtendríamos de la misma masa de hidrógeno y oxígeno interaccionados.

Sin embargo hay una dificultad. La descomposición radiactiva del uranio, y la consiguiente producción de energía, se produce con extraordinaria lentitud. Si comenzamos con 4.285 gramos de uranio, la mitad de su energía de desintegración sólo se liberará después de transcurridos 4.460 millones de años, y el 95 % de su energía de desintegración sólo se habrá obtenido al cabo de 18.000 millones de años.

¿Quién podría esperar?

¿Puede acelerarse la desintegración? Durante el primer tercio del siglo no se conocía forma práctica de conseguirlo. Para producir reordenaciones nucleares había que bombardear el núcleo con partículas subatómicas. Éste es un método muy poco eficaz y la energía invertida es muchas veces superior a la energía que puede extraerse del núcleo bombardeado.

Por este motivo Ernest Rutherford pensó que no podía esperarse utilizar de forma práctica la energía nuclear a gran escala. Calificó estas ideas de disparates. Rutherford no era tonto, y de hecho figura en mi lista de los diez científicos más grandes de todos los tiempos. Lo único que pasó es que murió en 1937 y no pudo predecir la fisión. Si hubiera vivido sólo dos años y cuarto más…

En la radiactividad natural el átomo de uranio se desintegra en pequeños trozos y pedazos, pero en la fisión el átomo de uranio se desintegra en dos pedazos casi iguales. Esto libera más energía que la desintegración radiactiva común.

Unos 1.077 gramos de uranio en fisión habrán convertido uno de sus gramos en energía cuando el proceso haya terminado. Esto significa que el 0,093 % de la masa de uranio se convierte en energía por fisión. Esto es sólo cuatro veces la energía que podamos obtener del mismo peso de uranio en su desintegración radiactiva natural.

La desintegración radiactiva natural no puede acelerarse de ninguna forma práctica, pero la fisión del uranio puede producirse fácilmente a velocidad explosiva. Por lo tanto, si conseguimos utilizar la fisión nuclear para impulsar las naves espaciales, tendremos una fuente de energía doce millones de veces más abundante que las interacciones químicas. Eso aumentará sin duda la probabilidad de poder realizar viajes interestelares, pero ¿la aumentará de modo suficiente?

Bob Forward señala que si una nave espacial utilizara la fisión del uranio para producir la fuerza propulsora de una tobera de escape, una nave espacial podría, en cincuenta años, alcanzar una distancia del Sol de 200.000 millones de kilómetros.

Esta distancia es unas dieciséis veces superior a la distancia media de Plutón al Sol: el resultado no está mal, pero tampoco muy bien, porque esa distancia representa sólo 1/200 de la distancia a la estrella más próxima. Falta sin duda mucho perfeccionamiento si queremos que una nave llegue en menos de diez mil años a Alpha Centauri.

Pero la fisión no lo es todo. Puede obtenerse más energía a través de la fusión nuclear. La fusión de cuatro núcleos de hidrógeno para formar un núcleo de helio es un proceso especialmente rico en energía.

Se necesitan unos 146 gramos de hidrógeno en fusión para que al terminar la fusión se haya convertido uno de sus gramos en energía. Esto supone que se convierte en energía el 0,685 % de la masa de hidrógeno en fusión; es decir, que se obtiene 7,36 veces más energía de la fusión del hidrógeno que de la fisión del uranio.

Por supuesto, no tenemos aún fusión controlada, pero tenemos fusión incontrolada en forma de bombas de hidrógeno. Por ello se ha especulado con la posibilidad de viajar a través del espacio haciendo explotar una serie de bombas de hidrógeno en la parte posterior de la nave.

Los residuos de las explosiones de fusión se proyectarán hacia el exterior en todas direcciones y algunos chocarán con una «placa impulsora» incorporada a la nave espacial. Poderosos amortiguadores absorberán el choque y transmitirán el impulso con un ritmo razonable a la propia nave.

En 1968, Freeman Dyson imaginó una embarcación interestelar, con una masa de cuatrocientas mil toneladas, que transportaba trescientas mil bombas de fusión de una tonelada de peso cada una. Si estas bombas fueran explotando en la parte posterior de la nave a intervalos de tres segundos, la nave podría acelerarse a 1 g. Es decir, que los tripulantes habrían sentido un aparente impulso gravitacional normal en la dirección de las bombas en explosión. La nave se hubiera elevado como un ascensor en aceleración constante, y esta aceleración habría empujado los pies contra el «suelo» —de hecho la parte posterior— de la nave.

Al cabo de diez días, las trescientas mil bombas de fusión se habrían consumido y la nave habría alcanzado una velocidad de unos diez mil kilómetros por segundo. Si la nave estuviera orientada en la dirección adecuada y avanzara a esta velocidad, pasaría por Alpha Centauri al cabo de 130 años. Para aterrizar en algún objeto en órbita alrededor de una estrella de este sistema sería preciso disponer de otras trescientas mil bombas de hidrógeno y hacerlas explotar en la parte delantera de la nave; o bien habría que girar la nave con motores normales de reacción química y luego detonar las bombas de hidrógeno en la parte posterior de la nave, con su trasera encarada hacia Alpha Centauri.

Llegar a Alpha Centauri al cabo de 130 años es mucho mejor que llegar al cabo de diez mil años, pero aun así significa que los viajeros originales tendrían que pasar su vida entera a bordo de la nave y que muy probablemente serían sus nietos quienes aterrizarían en algún lugar de los sistemas planetarios de Alpha Centauri. Además, no podemos confiar en que los efectos de la relatividad acorten el tiempo para la tripulación. Los efectos de la relatividad, aun a diez mil kilómetros por segundo (un tercio de la velocidad de la luz), son insignificantes. Para los miembros de la tripulación, el tiempo aparente se reducirá aproximadamente en una hora, todo lo más.

Todo iría mejor, quizá, si dispusiéramos de una fusión controlada y pudiéramos mantener estas reacciones a bordo de la nave durante un período de tiempo prolongado. Los productos de la reacción de fusión se perderían al exterior, detrás de la nave, a una velocidad constante y practicable, produciendo un chorro que aceleraría la nave en la otra dirección, exactamente como los gases de escape de un cohete. De este modo, toda la energía de la fusión podría dirigirse y convertirse en aceleración, y no solamente la parte de la energía de las explosiones dirigida hacia la placa impulsora, mientras se pierde en el vacío del espacio la energía que apunta en otras direcciones.

Además, la reacción de fusión controlada proporcionaría la energía de forma continua, y no en descargas sucesivas. A pesar de todo, no creo que el tiempo empleado en llegar a Alpha Centauri se redujera a menos de un siglo.

Incluso así, la fusión del hidrógeno convierte menos del uno por ciento del combustible en energía. ¿Hay alguna forma de mejorar el rendimiento?

Sí, hay algo que se llama antimateria. (Ya hablé del tema en el capítulo anterior).

La antimateria se combina con la materia, y en el proceso aniquila toda la materia que interviene. Medio gramo de antimateria, al combinarse con medio gramo de materia, producirá 146 veces más energía que la fusión de un gramo de hidrógeno, o 1.075 veces más energía que la fisión de un gramo de uranio, o varios miles de millones de veces más energía que la combustión de un gramo de hidrógeno en oxígeno.

La forma de antimateria más asequible es el antielectrón (o positrón). Sin embargo, cuando los antielectrones interaccionan con los electrones producen energía pura en forma de fotones de rayos gamma. Estos emergen en todas las direcciones y no pueden canalizarse con facilidad en una tobera de escape.

La siguiente partícula simple es el antiprotón, que es el núcleo de un átomo de antihidrógeno, mientras que el protón es el núcleo de un átomo de hidrógeno. Para simplificar, pues, podemos hablar de antihidrógeno y de hidrógeno.

Si se permite que el antihidrógeno y el hidrógeno interaccionen, los principales productos resultantes son una mezcla de partículas inestables: «piones» y «antipiones». Estas partículas están cargadas eléctricamente y pueden canalizarse en la tobera de escape de un cohete muy rápido, dirigiendo la nave hacia delante. Los piones y los antipiones se convierten en «muones» y «antimuones» después de un corto intervalo, y, después de un intervalo algo más largo, los muones y antimuones se convierten en electrones y antielectrones. Al final, toda la masa de hidrógeno y antihidrógeno original se convierte en energía, aparte de una pequeña cantidad que escapa en forma de electrones y no-electrones que permanecieron separados sin interaccionar.

Podría añadirse también una gran cantidad de hidrógeno común a la mezcla interactiva. Este hidrógeno se calentaría a temperaturas muy altas y emergería por la tobera de escape del cohete contribuyendo a la aceleración.

Forward ha calculado que nueve kilogramos de antihidrógeno y cuatro toneladas de hidrógeno podrían acelerar, entre ambos, una nave espacial a una décima parte de la velocidad de la luz (treinta mil kilómetros por segundo), y eso significaría llegar a Alpha Centauri en unos cuarenta años.

Quizá si se utilizara suficiente antimateria, podrían alcanzarse velocidades iguales a un quinto de la velocidad de la luz (sesenta mil kilómetros por segundo). En ese caso podría realizarse un viaje de ida y vuelta a Alpha Centauri en no más de cuarenta años. Sería posible entonces ir y volver en una sola vida, y cabe imaginar que, si las naves espaciales fueran lo bastante grandes y cómodas, habría gente joven dispuesta a dedicar su vida a la empresa.

Pero se presentan obstáculos.

Para empezar, en nuestra parte del universo, y quizá en el conjunto del universo, los antiprotones existen sólo en cantidades mínimas. Sería preciso fabricarlos.

Podría conseguirse esto, por ejemplo, bombardeando objetivos metálicos con protones de alta velocidad. El chorro de energía resultante se convierte, en parte, en partículas, y entre estas partículas hay algunos antiprotones. De momento, el número de antiprotones formado es de sólo dos por cada cien millones de protones lanzados al objetivo.

Intentar reunir suficientes antiprotones para una misión interestelar a este ritmo sería un empresa cara, desde luego, pero es lógico suponer que la eficacia de la producción de antiprotones aumentará mucho con el tiempo.

Una vez producidos los antiprotones, surge otra dificultad. Los antiprotones reaccionarán inmediatamente con cualquier protón que encuentren, y cualquier pedazo de materia común contiene protones. El trabajo que supone mantener el hidrógeno y el oxígeno alejados para que no exploten incontrolablemente antes de que necesitemos su combustión metódica, no es nada comparado con el de impedir que los antiprotones exploten de modo prematuro y más grave todavía.

Una vez formados, los antiprotones deben aislarse de toda materia y mantenerse aislados hasta que deseemos su interacción con los protones. Aunque esto es difícil, no es imposible. Podemos imaginar antihidrógeno sólido, almacenado en una cámara de vacío, cuyas «paredes» consistirían en campos magnéticos o eléctricos. Si algún día esto se lograra, las naves impulsadas por antihidrógeno podrían atravesar el espacio y llegar de la Tierra a Marte en unas semanas, a Plutón en algunos meses, y a la estrella más cercana en algunos decenios.

En todos los sistemas descritos hasta ahora las naves interestelares deben llevar combustible. El combustible más concentrado posible que conocemos es el antiprotón, pero ¿qué sucedería si no necesitáramos combustible?

No lo necesitaríamos si el combustible estuviera en todas partes en el espacio: y en cierto modo así es. El espacio no está realmente vacío; no lo está ni siquiera el espacio entre las galaxias, y no lo está desde luego el espacio entre las estrellas del interior de una galaxia. Por todas partes hay átomos dispersos de hidrógeno (o sus núcleos).

Imaginemos que lanzamos al espacio una nave con un mínimo de combustible ordinario, el suficiente para alcanzar la velocidad que nos permita recoger suficiente hidrógeno interestelar. Podríamos fusionar este hidrógeno y proyectar al exterior, por detrás, los productos de fusión como gases de escape, primero para complementar y después para sustituir el combustible original.

Luego podríamos continuar acelerando indefinidamente, porque no habría peligro de quedarnos sin combustible, y cuanto más deprisa fuéramos, más combustible podríamos obtener por unidad de tiempo. Este motor es un «estatorreactor interestelar» y con él podríamos alcanzar velocidades tan próximas a la velocidad de la luz como quisiéramos. Si tenemos en cuenta la aceleración y la deceleración, podríamos realizar el viaje de ida y vuelta a Alpha Centauri en sólo quince años.

Éste sería el tiempo transcurrido según los de la Tierra. Para los propios astronautas, que viajarían a velocidades ultrarrápidas, la sensación del paso del tiempo sería más lenta. Lo que en la Tierra parecería quince años, podría parecer a los astronautas unos siete años solamente.

Siete años de una vida no está tan mal. Es sólo la mitad del tiempo que necesitaron los supervivientes del viaje de Magallanes, hace casi cinco siglos, para circunnavegar la Tierra por primera vez.

Además, si los astronautas siguen avanzando a casi la velocidad de la luz, apenas notarán el paso del tiempo. Si deciden viajar al otro extremo de la galaxia, o a una galaxia desconocida a centenares de millones de años luz de distancia, quizá tengan la sensación de que la primera travesía dura sólo varios meses más y la segunda un par de años más.

Por supuesto, volverán a casa para descubrir que en la Tierra han pasado cientos de miles o un centenar de millones de años, lo que puede aguarles la fiesta. Pero con los estatorreactores interestelares, el problema de viajar entre las estrellas podría parecer resuelto.

Siguen habiendo algunos obstáculos. Para obtener suficiente hidrógeno del espacio interestelar, suponiendo que contuviera mil átomos por centímetro cúbico, necesitaríamos una pala de recogida de más de un centenar de kilómetros de sección, y esto suponiendo que los átomos de hidrógeno estén ionizados y que su carga eléctrica permita recogerlos mediante campos eléctricos o magnéticos adecuados.

Desgraciadamente, el espacio interestelar alrededor del Sol contiene escaso hidrógeno, menos de 0,1 átomos de hidrógeno por cada centímetro cúbico. Por este motivo, la pala de recogida debería ser de diez mil kilómetros de sección y tener una superficie igual a dos quintas partes de la Tierra. Además, los átomos de hidrógeno en nuestras proximidades no están ionizados, y por lo tanto no pueden recogerse con facilidad. (Quizá esto no sea una absoluta desgracia. Si nuestra región del espacio estuviera llena de hidrógeno ionizado, la situación estaría tan próxima a un desenlace violento que hubiese sido difícil imaginar la supervivencia de la vida en la Tierra). Además, aunque pudiéramos recoger suficiente hidrógeno y alimentar con él los motores de fusión, no sería conveniente para una nave interestelar ir más rápido que a un quinto de la velocidad de la luz.

Al fin y al cabo, cuanto más rápido vayamos más difícil será evitar las colisiones con objetos pequeños y más daños producirá una colisión así. Aunque tengamos la fortuna de esquivar todos los objetos de un tamaño considerable, no podremos esquivar el polvo y los átomos individuales que están esparcidos por todo el espacio.

A dos décimas partes de la velocidad de la luz, el polvo y los átomos quizá no produzcan daños importantes ni siquiera en un viaje de cuarenta años, pero cuanto más rápido vayamos, peor: el espacio comienza a volverse abrasivo. Cuando nos acerquemos a la velocidad de la luz, cada átomo de hidrógeno se convertirá en una partícula de rayos cósmicos, que freiría a la tripulación. (Un átomo de hidrógeno o su núcleo que choque con la nave a una velocidad próxima a la de la luz es una partícula de rayo cósmico; no hay diferencia alguna si la nave choca con un átomo de hidrógeno o con un núcleo de hidrógeno a una velocidad próxima a la de la luz. Sancho Panza dice que tanto si la piedra da al cántaro, como el cántaro a la piedra, el cántaro saldrá perdiendo. De modo que sesenta mil kilómetros por segundo pueden ser el límite de velocidad conveniente para el viaje espacial).

Incluso el estatorreactor espacial utiliza el principio del cohete. Sin embargo, Bob Forward habla de un «misil sin cohete». Podríamos impulsar la nave con pequeños proyectiles lanzados desde el interior del sistema solar o mediante un rayo máser o un rayo láser.

Estos sistemas evitarían que una nave espacial interestelar tuviera que transportar su propio combustible y permitirían una acumulación progresiva de velocidades próximas a la de la luz. La ventaja de este sistema en comparación con los estatorreactores sería que no dependería de que el espacio circundante tuviera características muy especiales y difíciles de satisfacer.

De todos modos, las dificultades serían en ese caso formidables. Un rayo láser, por ejemplo, tendría que dar en una vela fabricada de lámina de aluminio que tendría mil kilómetros de diámetro y que, por fina que fuera, pesaría con toda seguridad unos ochenta millones de kilos. Y no resultaría práctico alcanzar velocidades superiores a un quinto de la velocidad de la luz.

Creo, por tanto, que un viaje de ida y vuelta de cuarenta años, con combustible de antimateria, es el mejor sistema para explorar los espacios interestelares durante el período de vida de un astronauta. E incluso esto nos llevaría únicamente a la estrella más próxima.

Lo cual, desde luego, ya tiene mérito. Nos permitirá estudiar detalladamente una segunda estrella muy parecida a nuestro Sol (Alpha Centauri A), otra que es claramente más pequeña y más tenue (Alpha Centauri B), y otra que es una pequeña enana roja (Alpha Centauri C); por no hablar de los objetos planetarios que puedan girar alrededor de alguna de las tres.

Si pudiéramos establecer una civilización independiente en el sistema de Alpha Centauri, podríamos entonces enviar naves aún más lejos de nosotros, alcanzando en el período de vida de un astronauta una estrella que sería inaccesible desde la Tierra.

De esta forma, una ola de exploración podría ir avanzando a saltos hacia el exterior, en todas direcciones, y cada nueva base podría llegar a una, dos o incluso tres estrellas que los demás seguramente no podrían alcanzar.

La humanidad podría ir dispersándose por la galaxia durante un período de varios centenares de miles de años.

El contacto no depende exclusivamente de los viajes.

Cada nuevo mundo puede mantener contacto con mundos cercanos mediante señales que viajen a la velocidad de la luz. Las noticias podrían viajar de un mundo a otro por relevos y pasar de una punta de la galaxia a otra en un centenar de miles de años, más o menos.

Todo eso, sin embargo, no es el tipo de viaje interestelar ni el tipo de imperio galáctico que los escritores de ciencia-ficción estamos constantemente describiendo.

No, porque lo que allí perseguimos es viajar con mayor rapidez que la luz. No nos sirven otras cosas. Éste ha sido un tema central de la ciencia-ficción desde que E. E. Smith lo introdujo en La alondra del espacio, publicado en 1928.

Desde entonces, todo el mundo, incluyéndome a mí, lo ha utilizado (con alguna explicación verosímil o sin ella).

Como por desgracia no veo nada en perspectiva que nos ofrezca la posibilidad práctica de viajar a una velocidad superior a la de la luz, me temo que mi Imperio Galáctico de la serie Fundación se quede probablemente para siempre en… ciencia-ficción.

A pesar de todo, les advierto que tengo la intención de seguir aprovechando esta posibilidad…