La evolución de la ciencia
Freeman Dyson
FREEMAN DYSON, miembro de la Royal Society, es catedrático emérito de Física en el Instituto de Estudios Avanzados de Princeton. Sus trabajos de investigación abarcan muchos campos, desde la matemática pura hasta la física de partículas y la ingeniería nuclear. Su contribución más importante ha sido la interpretación de la electrodinámica cuántica, la teoría física que describe las interacciones entre la materia y los campos electromagnéticos. Ha escrito varios libros de divulgación científica, entre los que se incluyen Disturbing the Universe, Orígenes de la vida, El infinito en todas direcciones (Metatemas 25) y De Eros a Gaia (Metatemas 35).
Analogías
Se me ha pedido que escriba sobre la evolución de la ciencia, un tema tan amplio que debería ser historiador para estar a la altura. Pero no lo soy. Sólo soy un científico con tres o cuatro nociones de historia, y prefiero escribir sobre cosas que conozco. En este capítulo no hablaré de la verdad histórica, sino que contaré algunas historias. Escribiré sobre astronomía, que sólo es una pequeña parcela de la ciencia, y sobre algunos sucesos recientes que me son familiares. La historia reciente de la astronomía me servirá para ilustrar algunos temas evolutivos que pueden ser extensibles —o quizá no— a épocas anteriores o a otras áreas de la ciencia.
Mi enfoque de la evolución se basa en algunas analogías entre la biología, la astronomía y la historia. Empiezo con la biología. Los principales agentes de la evolución orgánica son la especiación y la simbiosis, unas palabras habituales en el mundo de la biología. La vida ha evolucionado mediante especiación, un proceso de mejora sucesiva y subdivisión de formas y funciones, que ha sido puntuado por la simbiosis, que funde especies genéticamente distintas en un único organismo. A raíz del trabajo de la bióloga Lynn Margulis y otros precursores, la perspectiva inicialmente herética de que la simbiosis ha sido el mecanismo crucial para la evolución de la vida ha pasado a formar parte de la ortodoxia. Cuando contemplamos la evolución de la vida desde una perspectiva ecológica, y no sólo anatómica, se incrementa la importancia de la simbiosis respecto de la especiación.
Como físico, me sorprende que la apropiación de conceptos de la biología por la astronomía sea válida en dos niveles. Como mostraré a continuación, en el cielo pueden observarse muchas analogías entre los procesos astronómicos y los biológicos. También pueden encontrarse analogías similares entre los procesos intelectuales y los biológicos en la evolución y la taxonomía de las disciplinas científicas. La evolución del universo y la evolución de la ciencia se pueden describir con el mismo lenguaje que la evolución de la vida.
Especiación en los cielos
En el contexto astronómico, la especiación se produce mediante un proceso de transición de fase. Una transición de fase es un cambio súbito en las propiedades físicas o químicas de la materia, que suele producirse mediante un calentamiento o un enfriamiento. La congelación del agua, la magnetización del hierro y la precipitación de la nieve a partir del vapor de agua atmosférico son algunos ejemplos cotidianos de transiciones de fase. En muchos casos, la fase más caliente es una mezcla uniforme y desordenada, mientras que la fase más fría se divide en dos componentes separados con estructuras más ordenadas. Estas transiciones se denominan transiciones orden-desorden. Un ejemplo típico es la transición de un aire húmedo a un aire seco con copos de nieve; estos copos son especies nuevas, dotadas de una estructura cristalina compleja que no existía en el aire húmedo del que surgieron. Es más, por efecto de la gravedad terrestre, los copos de nieve se separan espontáneamente del aire y caen al suelo. En todas las etapas de la evolución del universo podemos ver transiciones de esta clase: la aparición repentina de estructuras no existentes previamente y la separación física de las estructuras recién creadas en diferentes regiones del espacio.
Las transiciones de fase de un estado desordenado a otro ordenado se conocen también como rupturas de simetría. Desde el punto de vista matemático, una fase desordenada tiene un grado de simetría más elevado que una fase ordenada. Por ejemplo, el entorno de una molécula de agua en un aire húmedo es el mismo en todas direcciones, mientras que el entorno de la misma molécula en un copo de nieve es un cristal regular, con ejes orientados en direcciones definidas. La molécula ve que su entorno cambia desde la simetría máxima de una esfera hasta la simetría menor de un prisma hexagonal. El cambio de un entorno desordenado a otro ordenado está asociado con una pérdida de simetría. A medida que el universo evoluciona, se observa una pérdida repentina de simetría en muchas de las transiciones de fase más importantes.
En las primeras etapas de su historia, el universo era caliente, denso y se expandía rápidamente; la materia y la radiación estaban totalmente desordenadas y mezcladas uniformemente. Una de las rupturas de simetría más importantes fue la separación del universo en dos fases: la primera contenía la mayor parte de la materia, que luego se condensaría en forma de estrellas y galaxias, y la otra contenía la mayor parte de la radiación, que luego se convertiría en el vacío intergaláctico. La separación ocurrió cuando el universo se volvió lo bastante transparente para que grandes pedazos de materia, unidos por su propia gravedad, pudieran radiar su energía gravitatoria al vacío que los rodeaba. Esta transición hizo que el universo perdiera su simetría espacial original: de un espacio uniforme se pasó a un conjunto de masas irregulares. Este proceso de ruptura de simetría se repitió más tarde a escalas cada vez más pequeñas. La primera generación de objetos estaba formada por enormes masas de gas, uniformes y simétricas a escala local. La uniformidad local de este gas desapareció cuando empezó a condensarse para formar los objetos de segunda generación que llamamos galaxias. El gas de cada galaxia se enfrió y se condensó, originando la tercera generación de objetos, las nubes moleculares gigantes. Por último, el gas y el polvo de algunas regiones de las nubes moleculares se condensaron, dando lugar a la cuarta generación de objetos: las estrellas y los planetas. El universo se convirtió en un conjunto jerárquico de masas de distintas formas y tamaños. Cada etapa de la formación de estos objetos masivos fue promovida por la gravedad y asistida por transiciones de fase que permitieron la separación física de la materia y su diferenciación.
El proceso astronómico de especiación no se detuvo tras la formación de las estrellas y planetas. Cuando la Tierra se hubo condensado a partir del polvo interestelar, surgieron nuevas oportunidades para la separación de fases y el crecimiento de estructuras. Primero vino la separación del interior de la Tierra en sus componentes principales: el núcleo, el manto y la corteza. Luego tuvo lugar la separación de la superficie en tierra, océano y atmósfera. Este proceso aún continúa: el agua circula constantemente del océano a la atmósfera y de ésta a la tierra y al océano. El tercer proceso que transformó la Tierra fue la fragmentación de la corteza y la formación y destrucción de las placas en sus bordes respectivos, en un proceso conocido con el nombre de tectónica de placas. Estos fenómenos generan fuerzas muy intensas, que producen constantemente nuevas estructuras. El cuarto proceso creador de orden y estructura en la Tierra es el más poderoso de todos. Estoy hablando de la vida, que apareció hace entre tres y cuatro mil millones de años y dio un nuevo sentido al concepto de especiación.
La transición de la fase inerte a la viva fue de un nuevo tipo. En este caso la fase ordenada adquirió la capacidad de perpetuarse después de que cambiaran las condiciones que propiciaron la transición. Hay muchas teorías sobre el origen de la vida, pero ninguna de ellas está apoyada por evidencias lo bastante claras para imponerse. Todo lo que podemos asegurar es que una mezcla compleja de materiales orgánicos experimentó una transición a una fase ordenada que podía crecer, replicarse y obtener alimento de su entorno. Una vez establecida, esta fase ordenada se hizo lo bastante flexible para mutar y diversificarse en millones de especies diferentes. La vida ha dado a nuestro planeta una riqueza de estructuras que no observamos en ningún otro lugar del universo. Pero la diversificación de las formas de vida en la Tierra es muy similar en algunos aspectos a la diversificación de las especies celestes (galaxias y nubes de polvo, estrellas y planetas) en el universo antes de que surgiera la vida. La evolución de la vida encaja lógicamente en la evolución del universo. Tanto en el universo inanimado como en la Tierra viva, la evolución alterna periodos largos de metaestabilidad con periodos cortos de cambio rápido. Durante estos últimos, las estructuras antiguas se vuelven inestables y se dividen en otras nuevas. Durante los periodos de metaestabilidad, estas nuevas estructuras se consolidan, ajustándose y adaptándose a un entorno que parece inmutable. De repente, el medio ambiente cruza cierto umbral que sumerge las estructuras existentes en una nueva inestabilidad y el ciclo de especiación comienza de nuevo.
Simbiosis
Las transiciones de fase constituyen la primera de las dos fuerzas motoras de la evolución. La otra es la simbiosis, es decir, la reunión de dos estructuras que han evolucionado por caminos separados. El resultado es una estructura compuesta con un comportamiento diferente del que tenían los componentes por separado. La simbiosis tuvo un papel fundamental en la evolución de las células eucariotas a partir de las procariotas. Las mitocondrias y los cloroplastos, dos constituyentes fundamentales de las células modernas, fueron en otro tiempo criaturas independientes que invadieron la célula eucariota ancestral y se adaptaron a vivir en su interior. Así, la célula simbiótica adquirió una complejidad estructural y funcional muy superior a la de sus componentes aislados. La simbiosis permite que la evolución avance a pasos agigantados. Una criatura simbiótica puede saltar a un nivel superior de complejidad mucho más deprisa que una criatura que evoluciona mediante los procesos habituales de la mutación y la especiación.
La simbiosis predomina tanto en la biología como en el cielo. Los astrónomos suelen hablar de estrellas simbiontes. La razón básica de la importancia de la simbiosis en astronomía es el doble modo de acción de las fuerzas gravitatorias. Cuando la gravedad actúa sobre una distribución uniforme de materia que ocupa un gran volumen de espacio, su primer efecto es concentrar la materia en cuerpos separados por espacio vacío. Los cuerpos se diferencian y evolucionan por separado hasta convertirse en especies distintas. Luego, tras un periodo de existencia independiente, la gravedad actúa de nuevo juntando los cuerpos de dos en dos. La formación de pares es un proceso esporádico que depende de encuentros casuales. En general, se necesita mucho tiempo para que dos cuerpos formen un par. Pero el universo dispone de tiempo de sobras. Al cabo de unos pocos miles de millones de años, muchos objetos de todos los tamaños acaban formando sistemas simbiontes, ya sean pares o cúmulos. Una vez ligados por la gravedad, los procesos disipativos los acercan cada vez más. Esto hace que interaccionen con una intensidad cada vez mayor, y que los efectos de la simbiosis resulten más llamativos.
Podemos observar ejemplos de simbiosis astronómica en cualquier parte del firmamento. A grandes escalas, son comunes los pares simbióticos y los cúmulos de galaxias. Cuando dos galaxias entran en contacto, su evolución interna suele modificarse profundamente. La existencia de núcleos galácticos activos, que aparecen en el cielo como fuentes de luz intensa, es un signo corriente de actividad simbiótica. La causa probable de la emisión de luz es la absorción de gas por un agujero negro en el centro de la galaxia debido a perturbaciones gravitatorias producidas por otra galaxia. Las galaxias grandes suelen engullir a las pequeñas. Los núcleos de las galaxias engullidas se observan en su interior, como si fueran huesos de ratón en el estómago de una serpiente. Esta forma de simbiosis se conoce con el nombre de canibalismo galáctico.
En cuanto a las estrellas, podemos distinguir muchos tipos de simbiosis porque hay muchos tipos de estrellas y muchas fases evolutivas para cada estrella del par. Los pares simbióticos más llamativos son los formados por un componente en un estado muy condensado (una enana blanca, una estrella de neutrones o un agujero negro) y una estrella normal. Si las dos estrellas giran muy cerca una de otra, el gas de la estrella normal fluye hacia el intenso campo gravitatorio de la estrella condensada. En su caída por este profundo pozo gravitatorio, el gas se calienta mucho y produce efectos inusuales como explosiones recurrentes, emisiones intensas de rayos X y variaciones rápidas de luminosidad. Otros pares simbióticos menos espectaculares y más comunes consisten en estrellas normales que giran una alrededor de otra lo bastante cerca para intercambiar masa.
La clase menos frecuente de pares simbióticos consiste en dos estrellas condensadas. Son observables mediante radiotelescopios si uno de los miembros del par es un púlsar, es decir, una estrella de neutrones que emite pulsos de ondas de radio al girar. Uno de estos pares, una simbiosis de dos estrellas de neutrones, fue descubierto por los astrónomos Joseph Taylor y Russell Hulse, lo que les valió el premio Nobel de física en 1993. La importancia científica de este par simbiótico de estrellas de neutrones estriba en haber proporcionado la primera prueba firme de la existencia de ondas gravitatorias. El arrastre producido por las ondas gravitatorias hace que las estrellas se vayan acercando, hasta que se encuentran tan próximas que entran en un estado de inestabilidad dinámica y se convierten en una única estrella con dos brazos espirales que se llevan la mayor parte del momento angular. El colapso tiene lugar en milésimas de segundo y origina una intensa emisión de rayos gamma. Los detalles del proceso han sido calculados por Fred Rasio, un joven astrónomo del Instituto Tecnológico de Massachusetts, y podrían explicar las misteriosas emisiones de rayos gamma que se detectan en distintos lugares del firmamento, a razón de una al día, con una distribución espacial aleatoria. (Más adelante comentaré cómo se descubrieron estas emisiones.) Si los cálculos de Fred Rasio son correctos, estaríamos ante los sucesos más violentos de todo el universo, más energéticos que las supernovas de las que surgen las estrellas de neutrones. Un par simbiótico de estrellas de neutrones puede liberar mucha más energía que una sola estrella. La simbiosis adquiere cada vez más protagonismo a medida que el universo evoluciona.
Desde el punto de vista humano, el ejemplo más importante de simbiosis astronómica es la que existe entre la Tierra y el Sol. El sistema formado por el Sol, los planetas y sus satélites es un ejemplo típico de simbiosis astronómica. Durante la formación del sistema solar, el Sol y la Tierra nacieron con diferentes composiciones químicas y distintas propiedades físicas. El Sol estaba formado básicamente por hidrógeno y helio, en tanto que la Tierra estaba formada por elementos más pesados. La física del Sol era simple, consistía en una esfera de gas calentada por la fusión del hidrógeno, que brillaba pausadamente durante miles de millones de años. La Tierra tenía una física compleja; su superficie, en parte líquida y en parte sólida, se transformaba continuamente mediante transiciones de fase. La simbiosis de estos dos mundos tan diferentes hizo posible la aparición de la vida. La Tierra proporcionó una diversidad química y ambiental que la vida podía explorar. El Sol proporcionó estabilidad física y una fuente ininterrumpida de energía. La combinación de la variabilidad de la Tierra con la constancia del Sol proporcionó las condiciones para la evolución y el progreso de la vida.
Herramientas y conceptos
Pasaré ahora de la astronomía a la historia, de la evolución del universo a la evolución de la ciencia. Los sucesos más importantes en la historia de la ciencia suelen llamarse revoluciones científicas, y pueden clasificarse en dos tipos: las revoluciones impulsadas por nuevos conceptos y las impulsadas por nuevas herramientas. Estos cambios son análogos a las revoluciones biológicas impulsadas por la especiación y la simbiosis, o las revoluciones astronómicas impulsadas por las transiciones de fase y las ligaduras gravitatorias. Cuando un nuevo concepto penetra en un campo científico, la revolución se produce desde dentro, a partir de inconsistencias o contradicciones internas, y se traduce en una transición de fase hacia un nuevo paradigma. Cuando un campo científico es invadido por nuevas herramientas, la revolución empieza desde fuera, a partir de instrumentos importados desde otra disciplina, y se traduce en una simbiosis de dos disciplinas. En ambos tipos de revolución, el resultado final es una nueva subdisciplina de la ciencia y una nueva especie de científico, especializado en las nuevas ideas o en las nuevas herramientas según sea el caso.
En su famoso libro La estructura de las revoluciones científicas (1962), Thomas Kuhn habló casi exclusivamente de conceptos y casi nada de herramientas. Su idea de una revolución científica se basaba en un ejemplo singular: la revolución que se produjo en la física teórica tras el advenimiento de la mecánica cuántica en los años veinte. Éste era un buen ejemplo de revolución impulsada por conceptos, y el libro de Kuhn estaba tan bien escrito que enseguida se convirtió en un clásico que extravió a toda una generación de estudiantes e historiadores de la ciencia, a quienes hizo creer que todas las revoluciones científicas están impulsadas por conceptos. Las revoluciones conceptuales son las que más atraen la atención y tienen un mayor impacto en la percepción pública de la ciencia, pero son poco frecuentes en comparación con las impulsadas por herramientas. Además de la revolución mecanocuántica que Kuhn adoptó como modelo, en los últimos 500 años se han producido cinco importantes revoluciones conceptuales, que se asocian respectivamente a los nombres de Copérnico, Newton, Darwin, Einstein y Freud. Durante este mismo periodo han tenido lugar unas veintidós revoluciones impulsadas por herramientas, quizá no tan llamativas a los ojos del gran público, pero igual de importantes para el progreso de la ciencia. No las enumeraré todas. Dos buenos ejemplos son la revolución galileana, producto del uso del telescopio en astronomía, y la revolución de Watson y Crick, derivada del empleo de la técnica de difracción de rayos X para determinar la estructura de macromoléculas orgánicas. Galileo introdujo en la astronomía una herramienta que tomó prestada de la óptica. James Watson y Francis Crick introdujeron en la biología herramientas que tomaron prestadas de la física. Las revoluciones conceptuales explican hechos conocidos de otra manera. Las revoluciones impulsadas por herramientas descubren hechos nuevos que requieren explicación. En astronomía han predominado las revoluciones impulsadas por herramientas. Hemos tenido más éxito a la hora de descubrir cosas que a la hora de explicarlas.
Hasta aquí he hablado de generalidades; pero me interesan más los detalles de ciertas revoluciones científicas que las reglas generales que puedan (o no) extraerse de ellas. Los detalles son reales, mientras que las reglas generales son sólo aproximaciones a la realidad y, en el peor de los casos, espejismos. En el siglo XIX hubo varias revoluciones impulsadas por herramientas en astronomía. Una fue la introducción de la espectroscopia de alta resolución por parte de Joseph von Fraunhofer, que permitió a los astrónomos estudiar la composición química del Sol y las estrellas. Otra fue la introducción de la fotografía astronómica de larga exposición a cargo de Henry Draper y James Keeler, que permitió estudiar objetos miles de veces más débiles que los discernibles por el ojo humano. En ambos casos, la comunidad de astrónomos absorbió tecnologías ajenas con diferentes tradiciones. Fraunhofer venía del mundo de la fabricación comercial de lentes, y la fotografía abrió las puertas de los observatorios a expertos en el oficio del retrato de estudio. La simbiosis de los observadores del cielo con estas dos tradiciones ajenas dio lugar a la astrofísica, una nueva ciencia que intenta describir de forma cuantitativa los procesos físicos que tienen lugar en las estrellas y otros cuerpos celestes.
Bernhard Schmidt y Fritz Zwicky
Pasemos ahora a las revoluciones del siglo XX. La primera se asocia a los nombres de Bernhard Schmidt, que inventó una nueva clase de telescopio, y Fritz Zwicky, que le encontró uso. Ambos eran personajes bastante heterodoxos. Schmidt era un técnico en óptica que pasó su infancia en una pequeña isla del mar Báltico. De niño experimentaba con explosivos caseros hasta que, con doce años, se voló la mano derecha, después de lo cual aprendió de forma autodidacta el arte de fabricar telescopios con la mano izquierda. Se ganaba la vida vendiendo espejos de gran calidad a astrónomos aficionados y observatorios profesionales de toda Europa. En 1932 construyó en Hamburgo el primer «telescopio Schmidt». Éste era un instrumento revolucionario que permitía obtener imágenes de gran nitidez con un campo visual cientos de veces mayor que el de los telescopios convencionales. Por vez primera era posible obtener fotografías nítidas de grandes áreas del cielo de manera rápida y práctica, lo que permitió fotografiar todo el firmamento en un tiempo y con un coste razonables. Schmidt era hombre de pocas palabras: sus obras completas ocupan tres páginas.
El joven físico suizo Fritz Zwicky trabajaba en el Instituto Tecnológico de California cuando Schmidt inventó su telescopio. Zwicky se interesaba por las supernovas, estrellas que, de forma esporádica, brillan en el cielo durante unas pocas semanas con una intensidad extraordinaria. Hasta entonces se habían visto muy pocas supernovas. Tycho Brahe observó una y Kepler otra más antes de que hubiera telescopios, pero no estaba claro que fueran diferentes de las novas ordinarias. Zwicky fue uno de los pocos que se interesó seriamente por este fenómeno, y supo ver antes que nadie que se trataba de eventos catastróficos a una escala mucho mayor que la de las novas ordinarias. Comprendió que una supernova era un suceso enormemente violento, que probablemente acarreaba la disgregación de la estrella. Zwicky tenía claro que para entender mejor el fenómeno era necesario observar una amplia muestra de supernovas y no sólo una o dos, y que el telescopio de Schmidt era la herramienta que necesitaba, la única que le permitiría detectar un número razonable de supernovas y estudiarlas de forma sistemática.
Treinta años después, Zwicky escribió una autobiografía titulada Discovery, Invention, Research trough the Morphological Approach. Creía apasionadamente en una teoría personal que aplicaba a todo, que llamaba el «método morfológico». La idea básica consiste en escribir una lista completa de todas las maneras concebibles de solucionar un problema antes de elegir la buena. Si juzgamos el método de Zwicky por la cantidad de descubrimientos importantes que hizo, tenemos que concluir que es muy efectivo. Su desventaja es que no parece funcionar tan bien cuando lo aplica otra persona.
He aquí la descripción de Zwicky, extraída de su autobiografía, de cómo utilizó el enfoque morfológico para estudiar las supernovas.
Me gustaría advertir a los impetuosos que no es recomendable querer hacer todo al mismo tiempo, un error que suelen cometer los individuos y las instituciones cuyos fondos son limitados. Por ejemplo, la construcción de telescopios multiuso no es recomendable en general. Es mejor concentrar la atención en problemas concretos y construir instrumentos específicos para su solución. Luego se suele descubrir que estos instrumentos también se pueden usar para otros propósitos. Como ejemplo mencionaré el telescopio Schmidt de Monte Palomar, cuya construcción impulsé en 1935 para la tarea concreta de observar supernovas… Puse a punto este instrumento en la noche del 5 de septiembre de 1936 y enseguida empecé a estudiar varios miles de galaxias.
Tan pronto como Zwicky supo del invento de Schmidt, movió cielo y tierra, con la ayuda entusiasta de George Hale, para adquirir un telescopio Schmidt de 18 pulgadas e instalarlo en la cúpula del observatorio de Monte Palomar, la misma que después albergaría el telescopio de 200 pulgadas. El pequeño «Schmidt» de Zwicky fue el primer telescopio de Monte Palomar y el primer telescopio Schmidt del mundo que se instaló en un lugar con cielos despejados y buena visibilidad. De hecho, aún sigue allí y aún se utiliza para investigaciones importantes. Zwicky lo tenía para él solo, cosa que consideraba esencial para realizar un trabajo serio en astronomía. Tenía un único asistente con dedicación exclusiva. Su programa de investigación se convirtió en prototipo de todos los estudios astronómicos posteriores llevados a cabo con grandes instrumentos y mayores presupuestos. Zwycky sabía que, para detectar sucesos esporádicos, tenía que examinar todo el cielo repetidamente, una y otra vez. Durante cinco años, noche tras noche, Zwycky y su ayudante Johnson fotografiaron extensiones enormes del firmamento del hemisferio boreal. Observaron 50.000 galaxias y 10.000 cúmulos de galaxias, que luego compilaron en un catálogo. Cada tres meses, más o menos, comparaban la imagen de cada galaxia con las que habían obtenido previamente. De este modo encontraron nuevas manchas brillantes, que identificaron como supernovas. A continuación, las candidatas a supernova se estudiaban en detalle y su espectro se analizaba con telescopios mayores. Trabajando de esta guisa durante cinco años, de 1936 a 1941, Zwicky y Jonhson descubrieron veinte supernovas. A partir de esta muestra, Zwicky pudo calcular aproximadamente la frecuencia de aparición de supernovas en el universo, determinó su luminosidad absoluta e identificó dos tipos principales de supernova. De repente, las supernovas pasaron de los límites oscuros de la astronomía a ocupar una posición central y bien visible.
Las consecuencias de la revolución de Schmidt y Zwicky trascendieron sus descubrimientos iniciales. De hecho, provocaron un gran cambio en nuestra percepción global del universo. La antigua perspectiva aristotélica de la esfera celeste como lugar de paz y armonía perfectas había sobrevivido intacta a las revoluciones intelectuales que asociamos con los nombres de Copérnico, Newton y Einstein, y había dominado la práctica astronómica hasta 1935. Zwicky fue el primer astrónomo que imaginó un universo violento. Eligió estudiar las supernovas porque proporcionaban la prueba más directa de procesos explosivos a escala cósmica. A partir de 1935, la idea de un universo dominado por este tipo de fenómenos fue ganando aceptación hasta que, treinta años después, fue confirmada por los espectaculares descubrimientos de los radioastrónomos y los astrónomos de rayos X. Hoy en día damos por sentado que vivimos en un universo violento, pero esto no fue evidente hasta el año 1935, gracias al pequeño telescopio Schmidt de Monte Palomar.
Hotel Vela
Veinte años después de la revolución de Schmidt y Zwicky hubo otras dos revoluciones impulsadas por herramientas, dos simbiosis de la astronomía tradicional con tecnologías ajenas. Primero vinieron los radiotelescopios, y después los telescopios de rayos X. No me entretendré en las revoluciones de la radioastronomía y la astronomía de rayos X porque su historia es bien conocida y no tengo nada nuevo que decir. En vez de eso consideraré otra revolución, la de los rayos gamma, la que treinta años más tarde motivó el lanzamiento del Observatorio Compton de Rayos Gamma que gira ahora sobre nuestras cabezas.
Pocos años antes de la revolución de los rayos gamma, Zwicky había sentenciado que no hay que construir telescopios multiuso, sino concentrar la atención en problemas específicos y construir instrumentos ex profeso; también había dicho que era muy probable que un instrumento construido con un propósito concreto tuviera aplicaciones inesperadas posteriormente. La revolución de los rayos gamma confirma la regla de Zwicky. Todo empezó en el Laboratorio Nacional de Los Álamos con un proyecto llamado Hotel Vela, concebido para verificar el cumplimiento del Tratado para la Limitación de Pruebas Nucleares de 1963. Hotel Vela desplegó satélites en órbitas muy alejadas de la geosincronicidad, que incorporaban, entre otras cosas, detectores de rayos gamma sensibles a explosiones nucleares en el espacio o en las capas superiores de la atmósfera terrestre. Los detectores de rayos gamma nunca captaron pruebas nucleares pero, como había conjeturado Zwicky, resultaron adecuados para detectar sucesos naturales de un tipo inesperado. En particular, detectaron estallidos de rayos gamma de fuentes desconocidas, independientes de cualquier actividad humana o cualquier objeto astronómico conocido. A raíz de esto, parte de la tradición armamentista de Los Alamos fue absorbida por la pacífica tradición astronómica.
Los astrofísicos R. W. Klebesadel, I. B. Strong y R. A. Olson anunciaron el primer descubrimiento de estallidos de rayos gamma en 1973. Tras describir los detectores Hotel Vela, afirmaban que «sus capacidades proporcionan una cobertura continua en el tiempo que, combinada con una respuesta isótropa, es idónea para la astronomía observacional». Una afirmación inmodesta, pero cierta. Hasta entonces, ningún instrumento astronómico había sido capaz de detectar señales las veinticuatro horas del día en todo el firmamento. Los detectores Hotel Vela tenían otras tres ventajas sobre instrumentos anteriores: registraban sucesos con gran resolución temporal, los localizaban en el tiempo de forma precisa y disponían de cuatro detectores independientes en puntos bien separados del espacio. Estas características permitían situar en el firmamento la mayoría de los sucesos observados con una precisión razonable. Las prestaciones de los instrumentos del proyecto Hotel Vela eran una consecuencia natural de las necesidades en el campo de las armas nucleares. La cultura astronómica anterior al proyecto Hotel Vela nunca las había demandado.
Recuerdo muy bien una visita a Los Alamos en la que Ian Strong me comentó que Hotel Vela había encontrado indicios de explosiones con intensas emisiones de rayos gamma. Strong era reacio a publicar los resultados, no tanto porque los datos fueran secretos, sino porque parecían demasiado extraños para ser creíbles. El equipo de Los Alamos retrasó cuatro años su publicación. Este retraso es una prueba de que el descubrimiento se consideraba revolucionario. Sus autores pensaban que sus datos serían más creíbles si asociaban algunas de estas fuentes de rayos gamma con objetos inusuales, pero observables en radiofrecuencias o longitudes de onda visibles. A pesar de sus esfuerzos, no consiguieron identificarlos de manera convincente hasta diez años después. Como suele suceder cuando se abre una nueva ventana al universo, la imagen era tan extraña que publicarla requirió un gran coraje.
El que los satélites Hotel Vela tuvieran la capacidad de detectar fuentes de rayos gamma fue un accidente afortunado. Tenían órbitas altas, sensibilidad continua en todo el cielo y varios detectores ampliamente separados en el espacio. Por desgracia, el Observatorio Compton de Rayos Gamma tuvo que renunciar a todas estas ventajas a causa de las limitaciones impuestas por la utilización de la lanzadera espacial. Este satélite tiene una órbita baja, por lo que casi la mitad de su campo de visión queda tapado por la Tierra y no es capaz de medir con precisión la dirección de las fuentes por triangulación. Su diseño como observatorio de propósito general viola la regla de Zwicky. Esperemos que las generaciones futuras de detectores de explosiones de rayos gamma incorporen instrumentos con objetivos específicos y aprovechen completamente las ventajas de la arquitectura Hotel Vela. Esta revolución no se completará hasta que se estudien sucesos esporádicos en otras partes del espectro electromagnético. Deberíamos utilizar la arquitectura Hotel Vela con detectores de luz visible, infrarroja, ultravioleta y rayos X, desplegando pequeños satélites en órbitas altas que permitan efectuar triangulaciones. Estos satélites estarían asociados a detectores terrestres que rastrearían fenómenos esporádicos en otros canales, como las ondas de radio, los neutrinos y las ondas gravitatorias. A la revolución Hotel Vela le queda todavía un largo camino por recorrer.
Astronomía digital
La revolución que sigue a la Hotel Vela es la revolución digital. En realidad, es una revolución que aún está en marcha. Ha sido impulsada por otro instrumento de observación, conocido popularmente como cámara CCD. También fue predicha por Fritz Zwicky. Citaré un fragmento de la conferencia Halley de 1948, impartida por Zwicky en la Universidad de Oxford con el título «Astronomía morfológica» (páginas 126-127). Para abreviar he omitido algunas frases y expresiones, pero no he añadido ninguna palabra.
El telescopio fotoelectrónico introduce las siguientes novedades. (1) Los electrones se aceleran desde la superficie de la imagen hasta la superficie de detección y la potencia eléctrica aplicada al telescopio puede aumentar la intensidad de las señales… (2) El fondo uniforme de luz… puede eliminarse mediante compensación eléctrica… de forma que el cielo de fondo se borre… (3) Aunque la imagen original se mueva, baile o parpadee… a causa de inestabilidades atmosféricas, la imagen reenfocada en la superficie de detección puede fijarse… (4) Zworykin ya ha construido un estabilizador de este tipo… (5) Las imágenes de los telescopios fotoelectrónicos pueden televisarse, y la búsqueda de imágenes de novas, supernovas, estrellas variables, cometas, meteoros y otros objetos astronómicos puede realizarse a gran escala.
Por aquel entonces Zwicky esperaba que todas estas mejoras podrían conseguirse con una cámara de televisión que estaba desarrollando con su amigo Vladimir Zworykin en la RCA (Radio Corporation of America). Zworykin era vecino mío en Princeton, un gran ingeniero y un gruñón, casi tan excéntrico como Zwicky. La cámara de la RCA no respondió a las esperanzas de Zwicky. El sistema fracasó fundamentalmente porque dependía de placas fotográficas para el registro de las imágenes. El éxito de las CCD estriba en que las imágenes no se registran en una placa, sino en una memoria digital. La revolución de la astronomía digital tuvo que esperar hasta la aparición de microprocesadores potentes y memorias digitales capaces de soportar el volumen de datos necesario para el procesamiento de las imágenes.
La revolución digital en astronomía va ahora viento en popa. La astronomía actual es el resultado de la simbiosis íntima de tres culturas: la vieja tradición de los telescopios ópticos, la nueva tradición de la electrónica y la tradición aún más joven de la informática. Uno de los resultados de esta simbiosis es el Sloan Digital Sky Survey (SDSS), un proyecto en el que están implicados muchos de mis colegas de Princeton. El SDSS es una versión actual de la cartografía del cielo del hemisferio norte que se realizó en Monte Palomar en 1956 y proporcionó a los astrónomos el primer mapa preciso a gran escala del universo. Las placas del observatorio de Monte Palomar han sido muy útiles, pero ya es tiempo de sustituirlas por algo mejor. El resultado del SDSS consistirá en un preciso mapa fotométrico del universo en cinco colores, además de una colección de espectros que proporcionará los corrimientos al rojo de cerca de un millón de galaxias y otros objetos interesantes. Este esfuerzo tendrá como resultado colateral la elaboración de un catálogo de cerca de 100.000 cuásares, lentes gravitatorias, enanas marrones y otros objetos peculiares, que proporcionará una lista completa de los objetos en cada categoría por debajo de cierta magnitud límite.[8] El resultado de este estudio se transmitirá electrónicamente a cualquier centro astronómico que posea suficiente memoria para almacenarlo. El volumen de datos se medirá en decenas de terabytes (un terabyte es un millón de megabytes). Los ordenadores que no dispongan de esta memoria pantagruélica podrán conseguir versiones predigeridas del resultado, con los datos fotométricos comprimidos en catálogos estelares y catálogos de galaxias, a los que se añadirán imágenes de áreas locales especialmente interesantes. La diferencia básica entre SDSS y los estudios previos es que el resultado será lineal y consistirá en intensidades luminosas medidas directamente, y no a partir de una placa fotográfica. Los datos se almacenarán de forma que puedan aplicarse todos los trucos del proceso de datos moderno.
El SDSS es un proyecto en el que colaboran otros seis socios además de Princeton. Utiliza un nuevo telescopio con un campo de 2,5 metros de abertura, construido en Nuevo México, que se dedicará al proyecto durante cinco años. Si todo va bien, el estudio acabará en el año 2002. El plano focal del telescopio alberga una gran matriz de detectores CCD. Los componentes materiales del proyecto no aportan innovaciones en cuanto al diseño de telescopios o detectores; la novedad principal es el software que controla la secuencia de operaciones, calibra los detectores CCD, inspecciona el cielo y aplica diferentes niveles de compresión de datos al resultado antes de distribuirlo a los usuarios. La mayor parte del coste del proyecto corre a cargo de la Fundación Sloan, que sigue el buen ejemplo de la National Geografical Society, que financió el estudio de Monte Palomar hace cincuenta años. El coste total estimado es de unos 50 millones de dólares, lo que incluye una gran inversión en el telescopio. No obstante, esto es más o menos la mitad de lo que vale un gran telescopio terrestre y treinta veces menos de lo que costó el Telescopio Espacial Hubble.
Cuando finalice nuestro pequeño estudio digital del cielo, habrá otros estudios que almacenarán digitalmente mapas del universo cada vez mayores y más detallados. Hay muchos caminos que explorar. Uno podría apuntar hacia objetos más tenues y distantes, otro hacia mayores resoluciones angulares, otro hacia una gama más amplia de longitudes de onda, otro hacia mayores resoluciones espectrales. La revolución de la astronomía digital continuará proporcionando visiones más claras y más amplias de la estructura a gran escala del universo. No hay límite natural al crecimiento de las investigaciones digitales hasta que todos los fotones procedentes del cielo se procesen por separado y se registren la longitud de onda y la polarización de cada uno de ellos.
Por último, me gustaría referirme a la ciencia espacial. En este campo, más que en la astronomía de superficie, la revolución digital ha creado grandes posibilidades aún no completamente explotadas. Las misiones espaciales a gran escala, como las exploraciones de los planetas exteriores por las sondas Voyager y las observaciones de galaxias lejanas por el Telescopio Espacial Hubble, han incrementado sobremanera nuestro conocimiento. Pero el coste de estas misiones es desproporcionado en relación a su valor científico. Desde este punto de vista, ni los Voyager ni el Hubble han sido rentables. Ambas misiones se lanzaron en un clima político que los valoraba como símbolos de gloria nacionalista más que como instrumentos científicos. En la actualidad, las tendencias políticas se mueven en sentido contrario y los científicos del espacio son muy conscientes de que los tiempos han cambiado. Ya no están de moda las misiones de miles de millones de dólares. En el futuro la financiación será arriesgada. Las misiones pequeñas y baratas son las que tendrán más oportunidades de despegar.
En el año 1995 pasé algunas semanas en el Jet Propulsión Laboratory de Pasadena, que construyó y controló las misiones Voyager. Es la división más imaginativa e independiente de la NASA. Yo estaba particularmente interesado en dos propuestas de misiones planetarias que el JPL quería enviar: el Pluto Fast Fly-by (sobrevuelo rápido de Plutón) y el Kuiper Express. El PFF completaría la exploración de los planetas exteriores del Voyager tomando fotografías de alta resolución de Plutón y su satélite Caronte. El Kuiper Express exploraría el cinturón de Kuiper de objetos planetarios recién descubiertos más allá de la órbita de Plutón. Ambas misiones partían de una disminución radical del tamaño de los instrumentos que llevaban los Voyager, conseguida gracias a la revolución digital. Sostengo en mis manos el prototipo del instrumental de las nuevas misiones, que apenas pesa siete kilogramos. Tiene las mismas prestaciones que el instrumental del Voyager, que pesaba media tonelada. Todos los componentes ópticos, mecánicos, estructurales y electrónicos se han reducido drásticamente de tamaño y peso sin sacrificar el rendimiento.
Daniel Goldin, administrador de la NASA, animó al JPL a que diseñara estas nuevas misiones para continuar la exploración del sistema solar exterior con naves espaciales mucho más baratas que el Voyager. Cada misión Voyager costó cerca de mil millones de dólares. Los diseñadores del JPL volvieron a ver a Goldin con su proyecto para el PFF. Su coste estimado era de 700 millones de dólares. Según se cuenta, Goldin dijo: «Lo siento, pero esto no era lo que esperaba» y el proyecto no se aprobó. Su fracaso se debió a que no se alejaba lo suficiente del modelo de los Voyager. El prototipo aún contaba para su suministro eléctrico con el pesado generador termoeléctrico del Voyager, que utilizaba plutonio-238 como fuente de energía, y aún dependía de cohetes químicos pesados para ganar la velocidad necesaria para el largo trayecto de la Tierra a Plutón. Era vino nuevo en una botella vieja, instrumentos nuevos montados en un sistema de propulsión anticuado. Los instrumentos habían disminuido radicalmente de tamaño, pero el resto de la nave no lo había hecho en la misma proporción.
Entre tanto se ha realizado un nuevo diseño, el Pluto Express, que combina partes del viejo PFF y del Kuiper Express. El Pluto Express es vino nuevo en botella nueva. Es la primera nave espacial planetaria radicalmente nueva desde los primeros Pioneer que fueron a Venus. El Pluto Express utiliza propulsión eléctrica solar para alcanzar altas velocidades. Su propelente es xenón, que puede transportarse en forma de líquido supercrítico con la densidad del agua sin necesidad de refrigeración. El prototipo de motor de iones de xenón estaba siendo sometido a pruebas de resistencia en un tanque cuando visité el JPL. Debería funcionar sin fallos y sin pérdida de rendimiento durante dieciocho meses; ésta es una condición previa para que se considere seriamente su utilización en una misión operativa. La fuente de alimentación del prototipo está formada por dos enormes paneles solares muy ligeros, lo bastante grandes para proporcionar energía a los instrumentos y mantener comunicaciones con la Tierra desde el cinturón de Kuiper, que está muy lejos del Sol. No hará falta ningún generador de plutonio. El Pluto Express se ha librado de la última pieza pesada del Voyager, lo que le permite viajar de forma más rápida y autónoma.
El Pluto Express es una empresa audaz, innovadora en muchos aspectos. Requiere nuevas tecnologías y una nueva forma de administración. Podría fracasar, como ocurrió con el PFF, si sus ingenieros se acobardan y buscan demasiadas soluciones de compromiso. Pero la propulsión eléctrica solar ha abierto la puerta a una nueva generación de pequeñas naves espaciales rentables, que sacan todo el partido de la revolución digital. Si el Pluto Express no consigue despegan lo harán otras misiones más atrevidas. El uso de la propulsión eléctrica solar cambiará la naturaleza y el estilo de las misiones planetarias. Naves impulsadas por paneles solares podrían deambular por el sistema solar, modificando sus trayectorias de vez en cuando en función de las necesidades cambiantes de la ciencia. Esta fuente de energía las haría adaptables, pequeñas y baratas. La nueva generación de naves espaciales evolucionará a partir de los Voyager de la misma manera que los pájaros surgieron de los dinosaurios. En la ciencia espacial, como en la biología evolutiva o la política internacional, el derrumbamiento del viejo orden abre nuevas oportunidades para los espíritus emprendedores.
BIBLIOGRAFÍA
Klebesadel, R. W., I. B. Strong y R. A. Olson, «Observations of gamma-ray bursts of cosmic origin», Astrophysical Journal Letters 182 (1973), L85. (Esta carta anunciaba el descubrimiento de las explosiones de rayos gamma, cuya naturaleza es todavía uno de los grandes misterios de la astronomía.)
Kuhn, T., The Structure of Scientific Revolutions, Chicago University Press, Chicago, 1962. Segunda edición. 1970. [Trad. esp.: La estructura de las revoluciones científicas, FCE, México, 2000.)
Margulis, L., Symbiosis in Cell Evolution, Freeman & Co., San Francisco, 1981. (Ésta es la argumentación clásica en favor de la simbiosis como principio director de la evolución.)
Margulis, L. y M. F. Dolan, «Swimming against the current», The Sciences Enero-Febrero (1997), págs. 20-25. (Este breve ensayo describe nuevas evidencias surgidas tras la publicación del libro de Margulis y que amplían el papel evolutivo de la simbiosis.)
Zwicky, F., Discovery, invention, Research through the Morphological Approach, MacMillan, Toronto, 1969. (Publicado originalmente en alemán —Muenchen-Zuerich, Droemersche Verlagsanstalt, 1966— es una mezcla de autobiografía y ciencia, que muestra tanto la excentricidad como la brillantez de Zwicky.)
Zwicky, F., «Morphological astronomy», The Observatory 68 (1948), págs. 121-143. (Ésta fue la conferencia Halley de Zwicky, impartida en Oxford el 12 de mayo de 1948. Es una exposición breve y menos polémica de su filosofía, repleta de ideas interesantes.)