El gran físico del Instituto Tecnológico de California, Richard Feynman, dijo una vez que si hubiese que reducir la historia científica a una declaración importante, ésta sería: «Todas las cosas están compuestas por átomos». Están en todas partes y lo forman todo. Mira a tu alrededor Todo son átomos. No sólo los objetos sólidos como las paredes, las mesas v los sofás, sino el aire que hay entre ellos. Y están ahí en cantidades que resultan verdaderamente inconcebibles.
La disposición operativa fundamental de los átomos es la molécula (que significa en latín «pequeña masa»). Una molécula es simplemente dos o más átomos trabajando juntos en una disposición más o menos estable: si añades dos átomos de hidrógeno a uno de oxígeno, tendrás una molécula de agua. Los químicos suelen pensar en moléculas más que en elementos, lo mismo que los escritores suelen pensar en palabras v no en letras, así que es con las moléculas con las que cuentan ellos, y son, por decir poco, numerosas. Al nivel del mar y a una temperatura de 0º C, un centímetro cúbico de aire (es decir, un espacio del tamaño aproximado de un terrón de azúcar) contendrá 45.000 millones de millones de moléculas.2 Y ese es el número que hay en cada centímetro cúbico que ves a tu alrededor Piensa cuántos centímetros cúbicos hay en el mundo que se extienden al otro lado de tu ventana, cuántos terrones de azúcar harían falta para llenar eso. Piensa luego cuántos harían falta para construir un universo. Los átomos son, en suma, muy abundantes.
Son también fantásticamente duraderos. Y como tienen una vida tan larga, viajan muchísimo. Cada uno de los átomos que tú posees es casi seguro que ha pasado por varias estrellas y ha formado parte de millones de organismos en el camino que ha recorrido hasta llegar a ser tú. Somos atómicamente tan numerosos y nos reciclamos con tal vigor al morir que, un número significativo de nuestros átomos (más de mil millones de cada uno de nosotros,3 según se ha postulado), probablemente pertenecieron alguna vez a Shakespeare. Mil millones más proceden de Buda, de Gengis Kan, de Beethoven y de cualquier otro personaje histórico en el que puedas pensar (los personajes tienen que ser, al parecer, históricos, ya que los átomos tardan unos decenios en redistribuirse del todo; sin embargo, por mucho que lo desees, aún no puedes tener nada en común con Elvis Presley).
Así que todos somos reencarnaciones, aunque efímeras. Cuando muramos, nuestros átomos se separarán v se irán a buscar nuevos destinos en otros lugares (como parte de una hoja, de otro ser humano o de una gota de rocío). Sin embargo, esos átomos continúan existiendo prácticamente siempre.4 Nadie sabe en realidad cuánto tiempo puede sobrevivir un átomo pero, según Martin Rees, probablemente unos 1035 años, un número tan elevado que hasta yo me alegro de poder expresarlo en notación matemática.
Sobre todo, los átomos son pequeños, realmente diminutos. Medio millón de ellos alineados hombro con hombro podrían esconderse detrás de un cabello humano. A esa escala, un átomo solo es en el fondo imposible de imaginar, pero podemos intentarlo.
Empieza con un milímetro, que es una línea así de larga: -. Imagina ahora esa línea dividida en mil espacios iguales. Cada uno de esos espacios es una micra. Ésta es la escala de los microorganismos. Un paramecio típico, por ejemplo (se trata de una diminuta criatura unicelular de agua dulce) tiene unas dos micras de ancho (0,002 milímetros), que es un tamaño realmente muy pequeño. Si quisieses ver a simple vista un paramecio nadando en una gota de agua,» tendrías que agrandar la gota hasta que tuviese unos doce metros de anchura. Sin embargo, si quisieses ver los átomos de esa misma gota, tendrías que ampliarla hasta que tuviese 24 kilómetros de anchura.
Dicho de otro modo, los átomos existen a una escala de diminutez de un orden completamente distinto. Para descender hasta la escala de los átomos, tendrías que coger cada uno de esos espacios de micra y dividirlo en 10.000 espacios más pequeños. Ésa es la escala de un átomo: una diezmillonésima de milímetro. Es un grado de pequeñez que supera la capacidad de nuestra imaginación, pero puedes hacerte una idea de las proporciones si tienes en cuenta que un átomo es, respecto a la línea de un milímetro de antes, como el grosor de una hoja de papel respecto a la altura del Empire State.
La abundancia y la durabilidad extrema de los átomos es lo que los hace tan útiles. Y la pequeñez es lo que los hace tan difíciles de detectar y de comprender La idea de que los átomos son esas tres cosas (pequeños, numerosos y prácticamente indestructibles) y que todas las cosas se componen de átomos, no se le ocurrió a Antoine-Lautrent Lavoisier, como cabría esperar; ni siquiera a Henry Cavendish ni a Humphry Davy, sino más bien a un austero cuáquero inglés de escasa formación académica, llamado John Dalton, con quien ya nos encontramos en el capítulo y.
Dalton nació en 1766, en la región de los lagos, cerca de Cockermouth, en el seno de una familia de tejedores cuáqueros pobres y devotos. (Cuatro años después se incorporaría también al mundo en Cockermouth el poeta William Wordsworth.) Dalton era un estudiante de una inteligencia excepcional, tanto que a 105 doce años, una edad increíblemente temprana, le pusieron al cargo de la escuela cuáquera local. Eso quizás explique tanto sobre la escuela como sobre la precocidad de Dalton, pero tal vez no: sabemos por sus diarios que, por esas mismas fechas, estaba leyendo los Principia de Newton -los leía en el original, en latín- y otras obras de una envergadura igual de formidable; a los quince años, sin dejar de enseñar en la escuela, aceptó un trabajo en el pueblo cercano de Kendal y, diez años después, se fue a Manchester de donde apenas se movió en los cincuenta restantes años de su vida. En Manchester se convirtió en una especie de torbellino intelectual: escribió libros y artículos sobre temas que abarcaban desde la meteorología hasta la gramática. La ceguera cromática, una enfermedad que padecía, se denominó durante mucho tiempo daltonismo por sus estudios sobre ella. Pero lo que le hizo famoso fue un libro muy gordo titulado Un nuevo sistema de filosofía química, publicado en 1808.
En ese libro, en un breve capítulo de cinco páginas -de las más de novecientas que tenía-, los ilustrados encontraron por primera vez átomos en una forma que se aproximaba a su concepción moderna. La sencilla idea de Dalton era que en la raíz de toda la materia hay partículas irreductibles extraordinariamente pequeñas. «Tan difícil sería introducir un nuevo planeta en el sistema solar,6 o aniquilar uno ya existente, como crear o destruir una partícula de hidrógeno», decía.
Ni la idea de los átomos ni el término mismo eran exactamente nuevos. Ambas cosas procedían de los antiguos griegos. La aportación de Dalton consistió en considerar los tamaños relativos y las características de estos átomos y cómo se unían. El sabía, por ejemplo, que el hidrógeno era el elemento más ligero, así que le asignó un peso atómico de uno. Creía también que el agua estaba formada por siete partes de oxígeno y una de hidrógeno, y asignó en consecuencia al oxígeno un peso atómico de siete. Por ese medio, pudo determinar los pesos relativos de los elementos conocidos. No fue siempre terriblemente exacto, el peso atómico del oxígeno es 16 en realidad, no 7, pero el principio era sólido y constituyó la base de toda la química moderna y de una gran parte del resto de la ciencia actual.
La obra hizo famoso a Dalton, aunque de una forma modesta, como correspondía a un cuáquero inglés. En 1826, el químico francés P. J. Pelletier fue hasta Manchester7 para conocer al héroe atómico. Esperaba que estuviese vinculado a alguna gran institución, así que se quedó asombrado al encontrarle enseñando aritmética elemental a los niños de una pequeña escuela de un barrio pobre. Según el historiador de la ciencia E. J. Holmyard, Pelletier tartamudeó 8 confuso contemplando al gran hombre:
«Est-ce que j'ai l'honneur de m 'addresser á monsieur Dalton?», pues le costaba creer lo que veían sus ojos, que aquel fuese el químico famoso en toda Europa y que estuviese enseñando a un muchacho las primeras cuatro reglas. «Sí -repuso el cuáquero con total naturalidad-. ¿Podría sentarse y esperar un poco, que estoy explicando a este muchacho aritmética?»
Aunque Dalton intentó rehuir todos los honores, le eligieron miembro de la Real Sociedad contra su voluntad, lo cubrieron de medallas y le concedieron una generosa pensión oficial. Cuando murió, en 1844, desfilaron ante su ataúd cuarenta mil personas, y el cortejo fúnebre se prolongó más de tres kilómetros.9 Su entrada del Dictionary of National Biography es una de las más largas, sólo compite en extensión entre los científicos del siglo XIX con las de Darwin y Lyel1.
La propuesta de Dalton siguió siendo sólo una hipótesis durante un siglo10 y unos cuantos científicos eminentes (entre los que destacó el físico vienés Ernst Mach, al que debe su nombre la velocidad del sonido) dudaron de la existencia de los átomos. «Los átomos no pueden apreciarse por los sentidos… son cosas del pensamiento», escribió. Tal era el escepticismo con que se contemplaba la existencia de los átomos en el mundo de habla alemana, en particular, que se decía que había influido en el suicidio del gran físico teórico y entusiasta de los átomos Ludwig Boltzmann en 1906.11
Fue Einstein quien aportó en 1905 la primera prueba indiscutible de la existencia de los átomos, con su artículo sobre el movimiento browniano, pero esto despertó poca atención y, de todos modos, Einstein pronto se vería absorbido por sus trabajos sobre la relatividad general. Así que el primer héroe auténtico de la era atómica, aunque no el primer personaje que salió a escena, fue Ernest Rutherford.
Rutherford nació en 1871 en el interior de Nueva Zelanda, de padres que habían emigrado de Escocia para cultivar un poco de lino y criar un montón de hijos (parafraseando a Steven Weinberg).12 Criado en una zona remota de un país remoto, estaba todo lo alejado que se podía estar de la corriente general de la ciencia, pero en 1895 obtuvo una beca que le llevó al Laboratorio) Cavendish de la Universidad de Cambridge, que estaba a punto de convertirse en el lugar más interesante del mundo para estudiar la física.
Los físicos son notoriamente despectivos con los científicos de otros campos. Cuando al gran físico austriaco Wolfgang Paul le abandonó su mujer por un químico, no podía creérselo. «Si hubiese elegido un torero 13 lo habría entendido comentó asombrado a un amigo. Pero un químico…»
Era un sentimiento que Rutherford habría entendido.14 «La ciencia es toda ella o física o filatelia», dijo una vez una frase que se ha utilizado muchas veces desde entonces. Hay por tanto cierta ironía simpática en que le diesen el premio Nobel de Química en 1908 y no el de Física.
Rutherford fue un hombre afortunado… afortunado por ser un genio, pero aún más afortunado por vivir en una época en que la física y la química eran muy emocionantes y compatibles (pese a sus propios sentimientos». Nunca volverían a solaparse tan cómodamente.
Pese a todo su éxito, Rutherford no era una persona demasiado brillante y no se le daban demasiado bien las matemáticas. Era frecuente que se perdiese en sus propias ecuaciones en sus clases, hasta el punto de verse obligado a medio camino a renunciar y a decirles a sus alumnos que lo resolviesen ellos por su cuenta.15 Según James Chadwic, que fue colega suyo mucho tiempo, y que descubrió el neutrón, ni siquiera se le daba demasiado bien la experimentación. Era simplemente tenaz y objetivo. Se valía de la astucia y de una audacia especial más que de la inteligencia. Según un biógrafo, su mente «se dirigía siempre hacia las fronteras, todo lo lejos que podía llegar;16 y eso era siempre ir mucho más lejos de lo que podían llegar la mayoría de los hombres». Enfrentado a un problema insoluble, estaba dispuesto a trabajar en él con más ahínco y durante más tiempo que la mayoría de la gente y a ser más receptivo a las explicaciones heterodoxas. Su mayor descubrimiento se produjo porque estaba dispuesto a pasarse horas infinitamente tediosas, sentado frente a una pantalla, contando los centelleos de las denominadas partículas alía, que era el tipo de tarea que normalmente se encargaba a otro. Fue uno de los primeros (puede que el primero) que se dio cuenta17 de que la energía contenida en el átomo podría servir, si se utilizaba, para fabricar bombas lo bastante potentes para «hacer que este viejo mundo se desvanezca en humo».
Físicamente era grande e imponente con una voz que hacía encoger-se a los tímidos. En una ocasión, un colega al que le dijeron que Rutherford estaba a punto de hacer una transmisión de radio a través del Atlántico, preguntó secamente: «¿Y porqué utiliza la radio?».18 Poseía también una cuantía inmensa de seguridad bonachona en sí mismo. Alguien comentó en una ocasión que siempre parecía estar en la cresta de la ola, y él respondió: «Bueno, después de todo, la ola la hice yo, ¿no?). C. P. Snow recordaba que le oyó comentar en una sastrería de Cambridge: «Me expando a diario en el contorno físico. Y mentalmente»19
Pero tanto el contorno físico expandido como la fama se hallaban aún muy lejos de él en 1895, cuando empezó a trabajar en el Laboratorio Cavendish.* Fue un periodo singularmente crucial para la ciencia. Un el año que Rutherford llegó a Cambridge, Wilhelm Roentgen descubrió los rayos X en la Universidad de Würzburg, en Alemania; al año siguiente, Henri Becquerel descubrió la radiactividad. Y el propio Laboratorio Cavendish estaba a punto de iniciar un largo periodo de grandeza. Allí, en 1897, J. J. Thompson y unos colegas suyos descubrieron el electrón, en 1911 C. T. R. Wilson construyó el primer detector de partículas (como ya veremos) y, en 1932, James Chadwick descubrió el neutrón. Más adelante, en 1953, James Watson y Francis Criick descubrirían, también en el Laboratorio Cavendish, la estructura del ADN.
* El nombre procede de los mismos Cavendish que produjeron a Henry, se trataba en este caso de William Cavendish, séptimo duque de Devonshire, que era un matemático de grandes dotes y un barón del acero de la Inglaterra victoriana. En 1870 doné a la universidad 6.300 libras para construir un laboratorio experimental. ‹N. del A.›
Rutherford trabajó al principio en ondas de radio con cierta distinción (consiguió transmitir una señal nítida a más de 1.600 metros de distancia, un triunfo muy notable para la época), pero lo dejó al convencerlo un colega más veterano de que la radio tenía poco futuro.20 Sin embargo, no hizo demasiados progresos en el Laboratorio Cavendish y, después de pasar tres años allí, considerando que no estaba yendo a ninguna parte, acepto un puesto en la Universidad McGill de Montreal, donde inició su larga y firme ascensión a la grandeza. En la época en que recibió su premio Nobel (por «investigaciones sobre la desintegración de los elementos y la química de las sustancias radiactivas» según la mención oficial) se había trasladado ya a la Universidad de Manchester y sería allí, en realidad, donde haría su trabajo más importante sobre la estructura y la naturaleza del átomo.
A principios del siglo xx se sabía que los átomos estaban compuestos de partes -lo había demostrado Thompson al descubrir el electrón-, pero no se sabía cuántas partes había, cómo encajaban entre sí ni qué forma tenían. Si bien algunos físicos pensaban que los átomos podían ser cubiformes,21 por lo bien que pueden agruparse los cubos sin desperdicio alguno de espacio. La idea predominante era, sin embargo, que un átomo se parecía más a un bollito de pasas que a budín de ciruelas, es decir, era un objeto denso, sólido con una carga positiva pero tachonado de electrones de carga negativa, como las pasas de un bollo de pasas.
En 1910, Rutherford – con la ayuda de su alumno Hans Geiger, que inventaría más tarde el detector de radiación que [leva su nombre- disparó átomos de helio ionizados, o panículas alfa, contra una lámina de oro.* Rutherford comprobó asombrado que algunas de las panículas rebotaban. Era, se dijo, como si hubiese disparado una bala de 15 pulgadas contra una hoja de papel y hubiese rebotado cayéndole en el regazo. No se suponía que pudiese suceder aquello. Tras una considerable reflexión comprendió que sólo había una explicación posible: las panículas que rebotaban lo hacían porque chocaban con algo pequeño y denso, situado en el corazón del átomo, mientras que las otras panículas atravesaban la lámina de oro sin impedimentos. Rutherford comprendió que un átomo era mayoritariamente espacio vacío, con un núcleo muy denso en el centro. Era un descubrimiento sumamente grato, pero planteaba un problema inmenso: de acuerdo con todas las leyes de la física convencional, los átomos no deberían existir.
* Geiger se convertiría también más tarde en un nazi leal, traicionando sin vacilar a colegas judíos, incluidos muchos que le habían ayudado. (N. del A.)
Detengámonos un momento a considerar la estructura del átomo tal como la conocemos hoy. Cada átomo está compuesto por tres clases de panículas elementales: protones, que tienen una carga eléctrica positiva; electrones, que tienen una carga eléctrica negativa; y neutrones, que no tienen ninguna carga. Los protones y los neutrones están agrupados en el núcleo, mientras que los electrones giran fuera, en torno a él. El número de protones es lo que otorga a un átomo su identidad química.22 Un átomo con un protón es un átomo de hidrógeno, uno con dos protones es helio, con tres protones litio y así sucesivamente siguiendo la escala. Cada vez que añades un protón consigues un nuevo elemento. (Como el número de protones de un átomo está siempre equilibrado por un número igual de electrones, verás a veces escrito que es el número de electrones el que define un elemento; viene a ser la misma cosa. Lo que a mí me explicaron fue que los protones dan a un átomo su identidad, los electrones su personalidad.)
Los neutrones no influyen en la identidad del átomo, pero aumentan su masa. El número de neutrones es en general el mismo que el número de protones, pero puede haber leves variaciones hacia arriba y hacia abajo.
Añade o quita un neutrón o dos y tendrás un isótopo.23 Los términos que oyes en relación con las técnicas de datación en arqueología se refieren a isótopos, el carbono 14 por ejemplo, que es un átomo de carbono con seis protones y ocho neutrones (el 14 es la suma de tos dos).
Los neutrones y los protones ocupan el núcleo del átomo. El núcleo es muy pequeño (Sólo una millonésima de milmillonésima de todo el volumen del átomo),24 pero fantásticamente denso porque contiene prácticamente toda su masa. Como ha dicho Cropper si se expandiese un átomo hasta el tamaño de una catedral, el núcleo sería sólo del tamaño aproximado de una mosca (aunque una mosca muchos miles de veces más pesada que la catedral).25 Fue esa espaciosidad (esa amplitud retumbante e inesperada) lo que hizo rascarse la cabeza a Rutherford en 1910.
Sigue resultando bastante pasmoso que los átomos sean principalmente espacio vacío, y que la solidez que experimentamos a nuestro alrededor sea una ilusión. Cuando dos objetos se tocan en el mundo real (las bolas de billar son el ejemplo que se utiliza con más frecuencia) no chocan entre sien realidad. «Lo que sucede más bien – como explica Timothy Ferris – es que los campos de las dos bolas que están cargados negativamente se repelen entre sí… Si no fuese por sus cargas eléctricas, podrían, como las galaxias, pasar una a través de la otra sin ningún daño.»26 Cuando te sientas en una silla, no estás en realidad sentado allí, sino levitando por encima de ella a una altura de un angstrom (una cienmillonésima de centímetro), con tus electrones y sus electrones oponiéndose implacablemente a una mayor intimidad.
La imagen de un átomo que casi todo el mundo tiene en la cabeza es la de un electrón o dos volando alrededor de un núcleo, como planetas orbitando un sol. Esa imagen la creó en 1904, basándose en poco mas que una conjetura inteligente, un físico japonés llamado Hantaro Nagaoka. Es completamente falsa, pero ha perdurado pese a ello. Como le gustaba decir a Isaac Asimov, inspiró a generaciones de escritores de ciencia ficción a crear historias de mundos dentro de mundos, en que los átomos se convertían en diminutos sistemas solares habitados o nuestro sistema solar pasaba a ser simplemente una mota en una estructura mucho mayor. Hoy día incluso la Organización Europea para la Investigación Nuclear (cuyas siglas en inglés son CERN) utiliza la imagen de Nagaoka como logotipo en su portal de la red. De hecho, como pronto comprendieron los físicos, los electrones no se parecen en nada a planetas que orbitan, sino más bien a las aspas de un ventilador que gira, logrando llenar cada pedacito de espacio de sus órbitas simultáneamente, pero con la diferencia crucial de que las aspas de un ventilador sólo parecen estar en todas partes a la vez y los electrones están.
No hace falta decir que en 1910, y durante mucho tiempo después, se sabía muy poco de todo esto. El descubrimiento de Rutherford planteó inmediatamente algunos grandes problemas, siendo uno de los más graves el de que ningún electrón debería ser capaz de orbitar un núcleo sin estrellarse en él. Según la teoría electrodinámica convencional, un electrón en órbita debería quedarse sin energía muy pronto (al cabo de un instante, más o menos) y precipitarse en espiral hacia el núcleo, con consecuencias desastrosas para ambos. Se planteaba también el problema de cómo los protones, con sus cargas positivas, podían amontonarse en el núcleo sin estallar y hacer pedazos el resto del átomo. Estaba claro que, pasase lo que pasase allá abajo, el mundo de lo muy pequeño no estaba gobernado por las mismas leyes que el macromundo en el que residen nuestras expectativas.
Cuando los físicos empezaron a ahondar en este reino subatómico se dieron cuenta de que no era simplemente distinto de todo lo que conocían, sino diferente de todo lo que habían podido imaginan «Como el comportamiento atómico es tan distinto de la experiencia ordinaria 27-comentó en una ocasión Richard Feynman-, resulta muy difícil acostumbrarse a él y nos parece extraño y misterioso a todos, tanto al novicio como al físico experimentado.» Cuando Feynman hizo este comentario, los físicos habían tenido ya medio siglo para adaptarse a la rareza del comportamiento atómico. Así que piensa cómo debieron de sentirse Rutherford y sus colegas a principios de 1910, cuando era todo absolutamente nuevo.
Una de las personas que trabajaban con Rutherford era un afable y joven danés, llamado Niels Bohr En 1913, cuando cavilaba sobre la estructura del átomo, a Bohr se le ocurrió una idea tan emocionante que pospuso su luna de miel para escribir lo que se convirtió en un artículo que hizo época.
Los físicos no podían ver nada tan pequeño como un átomo, así que tenían que intentar determinar su estructura basándose en cómo se comportaba cuando se le hacían cosas, como había hecho Rutherford disparando partículas alfa contra una lámina de oro. Nada tiene de sorprendente que los resultados de esos experimentos fuesen a veces desconcertantes. Uno de estos rompecabezas que llevaba mucho tiempo sin aclararse era el relacionado con las lecturas del espectro de las longitudes de onda del hidrógeno. Se producían pautas que indicaban que los átomos de hidrógeno emitían energía a ciertas longitudes de onda, pero no a otras. Era como si alguien sometido a vigilancia apareciese continuamente en emplazamientos determinados, pero no se le viese nunca viajando entre ellos. Nadie podía entender cómo podía pasar aquello.
Y fue cavilando sobre esto como se le ocurrió a Bohr una solución y escribió rápidamente su famoso artículo. Se titulaba «Sobre la composición de los átomos y las moléculas» y explicaba cómo podían mantenerse en movimiento los electrones sin caer en el núcleo, postulando que sólo podían mantenerse en ocupar ciertas órbitas bien definidas. De acuerdo con la nueva teoría, un electrón que se desplazase entre órbitas desaparecería de una y reaparecería instantáneamente en otra sin visitar el espacio intermedio.
Esta teoría (el famoso «salto cuántico») es, por supuesto, absolutamente desconcertante, pero era también demasiado buena para no ser cierta. No sólo impedía a los electrones precipitarse en espiral catastróficamente en el núcleo sino que explicaba también las longitudes de onda inexplicables del hidrógeno. Los electrones sólo aparecían en ciertas órbitas por-que sólo existían en ciertas órbitas. Fue una intuición deslumbradora y proporcionó a Bohr el premio Nobel de Física en 1911, el mismo año que recibió Einstein el suyo.
Entre tanto, el incansable Ruthertord, ya de nuevo en Cambridge tras suceder a J. J. Thomson como director del Laboratorio Cavendish, dio con un modelo que explicaba por qué no estallaba el núcleo. Pensó que la carga positiva de los protones tenía que estar compensada por algún tipo de partículas neutralizadoras, que denominó neutrones. La idea era sencilla y atractiva, pero nada fácil de demostrar Un colaborador suyo, James Chadwick, dedicó once intensos años a cazar neutrones, hasta que lo consiguió por fin en 1931. También a él le otorgaron un premio Nobel de Física en 1935. Como indican Boorse y sus colegas en su crónica de todo esto, la demora en el descubrimiento fue probablemente un hecho positivo,28 ya que el control del neutrón era esencial para la fabricación de la bomba atómica. (Como los neutrones no tienen carga, no los repelen los campos eléctricos en el corazón del átomo y podían, por ello, dispararse como diminutos torpedos en el interior de un núcleo atómico, desencadenándose así el proceso destructivo conocido como fisión.) Si se hubiese aislado el neutrón en la década de los veinte, indican, es «muy probable que la bomba atómica se hubiese fabricado primero en Europa, indudablemente por los alemanes».
Pero no fue así la cosa, los europeos se hallaban muy ocupados intentando entender la extraña conducta del electrón. El principal problema con el que se enfrentaban era que el electrón se comportaba a veces como una partícula y otras como una onda. Esta dualidad inverosímil estuvo a punto de volver locos a los especialistas. Durante la década siguiente se pensó y escribió afanosamente por toda Europa proponiendo hipótesis rivales. En Francia, el príncipe Louis-Víctor de Broglie, vástago de una familia ducal, descubrió que ciertas anomalías en la conducta de los electrones desaparecían cuando se los consideraba ondas. Este comentarlo llamó la atención del austriaco Erwin Schródinger, que introdujo algunas mejoras e ideo un sistema práctico denominado mecánica ondular. Casi al mismo tiempo, el físico alemán Werner Heísenberg expuso una teoría rival llamada mecánica matricial. Era tan compleja matemáticamente que casi nadie la entendía en realidad, ni siquiera el propio Heisenberg («Yo no sé en realidad lo que es una matriz»,29 le explicó desesperado en determinado momento a un amigo), pero parecía aclarar ciertas incógnitas que las ondas de Schródinger no conseguían desvelar.
El problema era que la física tenía dos teorías, basadas en premisas contrapuestas, que producían los mismos resultados. Era una situación imposible.
Finalmente, en 1926, Heisenberg propuso un célebre compromiso, elaborando una nueva disciplina que se llamaría mecánica cuántica. En el centro de la misma figuraba el principio de incertidumbre de Heisenberg, según el cual el electrón es una partícula pero una partícula que puede describirse en los mismos términos que las ondas. La incertidumbre en torno a la cual se construye la teoría es que podemos saber qué camino sigue un electrón cuando se desplaza por un espacio, podemos saber dónde está en un instante determinado, pero no podemos saber ambas cosas.* Cualquier intento de medir una de las dos cosas perturbará inevitablemente la otra. No se trata de que se necesiten simplemente más instrumentos precisos,30 es una propiedad inmutable del universo.
Lo que esto significa en la práctica es que nunca puedes predecir dónde estará un electrón en un momento dado. Sólo puedes indicar la probabilidad de que esté allí. En cierto modo, como ha dicho Dennis Overbye, un electrón no existe hasta que se le observa. O, dicho de forma un poco distinta, un electrón debe considerarse, hasta que se le observa, que esta «al mismo tiempo en todas partes y en ninguna». 31
Si esto os parece desconcertante, tal vez os tranquilice un poco saber que también se lo pareció a los físicos. Overbye comenta: «Bohr dijo una vez que una persona que no se escandalizase al oír explicar por primera vez la teoría cuántica era que no entendía lo que le habían dicho».32 Heisenberg, cuando le preguntaron cómo se podía imaginar un átomo, contestó: «No lo intentes».33
Hay cierta incertidumbre respecto al uso del término incertidumbre en relación con el principio de Heisenberg Michael Frayn, en un epílogo a su obra Copenhage, comenta que los traductores han empleado varias palabras en alema o (Unsicherheit, Unschárfe, Ungenauigkeit y Unbestimmtheit) pero que ninguna equivale del todo al inglés uncertainty (incertidumbre). Frayn dice que índeterminacy (indeterminación) sería una palabra mejor para definir el principio y que indeterminability (indeterminabilidad) sería aun mejor En cuanto al propio Heisenherg, utilizó en general Unbestimmtheít. (N. del A.)
Así que el átomo resultó ser completamente distinto de la imagen que se había formado la mayoría de la gente. El electrón no vuela alrededor del núcleo como un planeta alrededor de su sol, sino que adopta el aspecto más amorfo de una nube. La «cáscara«de un átomo no es una cubierta dura y brillante como nos inducen a veces a suponer las ilustraciones, sino sólo la más externa de esas velludas nubes electrónicas. La nube propiamente dicha no es más que una zona de probabilidad estadística 34 que señala el área más allá de la cual el electrón sólo se aventura muy raras veces. Así, un átomo, si pudiésemos verlo, se parecería más a una pelota de tenis muy velluda que a una nítida esfera metálica (pero tampoco es que se parezca mucho a ninguna de las dos cosas y, en realidad, a nada que hayas podido ver jamás; estamos hablando de un mundo muy diferente al que vemos a nuestro alrededor).
Daba la impresión de que las rarezas no tenían fin. Como ha dicho James Trefil, los científicos se enfrentaban por primera vez a «un sector del universo que nuestros cerebros simplemente no están preparados para poder entender».35 O, tal como lo expresó Feynman, «las cosas no se comportan en absoluto a una escala pequeña como a una escala grande» 36 Cuando los físicos profundizaron más, se dieron cuenta de que habían encontrado un mundo en el que no sólo los electrones podían saltar de una órbita a otra sin recorrer ningún espacio intermedio, sino en el que la materia podía brotar a la existencia de la nada absoluta…37 «siempre que -como dice Alan Lightman del MIT- desaparezca de nuevo con suficiente rapidez».
Es posible que la más fascinante de las inverosimilitudes cuánticas sea la idea, derivada del Principio de Exclusión enunciado por Wolfgang Pauli en 1925, de que ciertos pares de partículas subatómicas pueden «saber» instantáneamente cada una de ellas lo que está haciendo la otra, incluso en el caso de que estén separadas por distancias muy considerables. Las partículas tienen una propiedad llamada giro o espín y, de acuerdo con la teoría cuántica, desde el momento en que determinas el espín de una partícula, su partícula hermana, por muy alejada que esté, empezará a girar inmediatamente en la dirección opuesta y a la misma velocidad.
En palabras de un escritor de temas científicos, Lawrence Joseph, es como si tuvieses dos bolas de billar idénticas,38 una en Ohio y otra en las islas Fiji, y que en el instante en que hicieses girar una la otra empezase a giraren dirección contraria a la misma velocidad exacta. Sorprendentemente, el fenómeno se demostró en 1997,39 cuando físicos de la Universidad de Ginebra lanzaron fotones en direcciones opuestas a lo largo de 11 kilómetros y comprobaron que, si se interceptaba uno, se producía una reacción instantánea en el otro.
Las cosas alcanzaron un tono tal que Bohr comentó en una conferencia, hablando de una teoría nueva› que la cuestión no era si se trataba de una locura sino de si era lo bastante loca. Schródinger, para ejemplificar el carácter no intuitivo del mundo cuántico, expuso un experimento teórico famoso en el que se colocaba en el interior de una caja un gato hipotético con un átomo de una sustancia radiactiva unido a una ampolla de ácido cianhídrico. Si la partícula se desintegraba en el plazo de una hora, pondría en marcha un mecanismo que rompería la ampolla y envenenaría al gato. Si no era así, el gato viviría. Pero no podíamos saber lo que sucedería, así que no había más elección desde el punto de vista científico que considerar al gato un 100 % vivo y un 100 % muerto al mismo tiempo. Esto significa, como ha dicho Stephen Hawking con cierto desasosiego comprensible, que no se pueden ‹predecir los acontecimientos futuros con exactitud40 si uno no puede medir siquiera el estado actual del universo con precisión».
Debido a todas estas extravagancias, muchos físicos aborrecieron la teoría cuántica, o al menos ciertos aspectos de ella, y ninguno en mayor grado que Einstein. Lo que resultaba bastante irónico, porque había sido él, en su annus mirabilis de 1905, quien tan persuasivamente había explicado que los fotones de luz podían comportarse unas veces como partículas y otras como ondas, que era el concepto que ocupaba el centro mismo de la nueva física. «La teoría cuántica es algo muy digno de consideración -comentó educadamente, pero en realidad no le gustaba-, Dios no juega a los dados.»* Einstein no podía soportar la idea de que Dios hubiese creado un universo en el que algunas cosas fuesen incognoscibles para siempre. Además, la idea de la acción a distancia (que una partícula pudiese influir instantáneamente en otra situada a billones de kilómetros) era una violación patente de la Teoría Especial de la Relatividad. Nada podía superar la velocidad de la luz y, sin embargo, allí había físicos que insistían en que, de algún modo, a nivel subatómico, la información podía. (Nadie ha explicado nunca, dicho sea de pasada, cómo logran las partículas realizar esta hazaña. Los científicos han afrontado este problema, según el físico Yakir Aharanov, «no pensando en él».) 41
* O así es al menos como casi siempre se cita. Sus palabras auténticas fueron: Parece difícil echarle un vistazo furtivo a las cartas de Dios. Pero que juegue a los dados y utilice métodos "telepáticos"…, es algo que yo no puedo creer ni por un momento». (N. del A.)
Se planteaba sobre todo el problema de que la física cuántica introducía un grado de desorden que no había existido anteriormente. De pronto, necesitabas dos series de leyes para explicar la conducta del universo: la teoría cuántica para el mundo muy pequeño y la relatividad para el universo mayor, situado más allá. La gravedad de la teoría de la relatividad explicaba brillantemente por qué los planetas orbitaban soles o por qué tendían a agruparse las galaxias, pero parecía no tener absolutamente ninguna influencia al nivel de las partículas. Hacían falta otras fuerzas para explicar lo que mantenía unidos a los átomos y en la década de los treinta se descubrieron dos: la fuerza nuclear fuerte y la fuerza nuclear débil. La fuerza fuerte mantiene unidos a los átomos; es lo que permite a los protones acostarse juntos en el núcleo. La fuerza débil se encarga de tareas más diversas, relacionadas principalmente con el control de los índices de ciertos tipos de desintegración radiactiva.
La fuerza nuclear débil es, a pesar de su nombre, miles de miles de millones de veces más fuerte que la gravedad,42 v la fuerza nuclear fuerte es más potente aún (muchísimo más en realidad), pero su influjo sólo se extiende a distancias minúsculas. El alcance de la fuerza fuerte sólo llega hasta aproximadamente una cienmilésima del diámetro de un átomo. Es la razón de que el núcleo de los átomos sea tan denso y compacto, así como de que los elementos con núcleos grandes y atestados tiendan a ser tan inestables: la fuerza fuerte no es sencillamente capaz de contener a todos los protones.
El problema de todo esto es que la física acabó con dos cuerpos de leyes (uno para el mundo de lo muy pequeño y otro para el universo en su conjunto) que llevan vidas completamente separadas. A Einstein tampoco le gustó esto. Dedicó el resto de su vida43 a buscar un medio de unir los cabos sueltos mediante una «gran teoría unificada». No lo consiguió. De vez en cuando, creía que lo había logrado. Pero al final siempre se le desmoronaba todo. Con el paso del tiempo, fue quedándose cada vez más al margen y hasta se le llegó a tener un poco de lástima. Casi sin excepción, escribió Snow, «sus colegas pensaban, y aún piensan, que desperdició la segunda mitad de su vida».44
Pero se estaban haciendo progresos reales en otras partes. A mediados de la década de los cuarenta, los científicos habían llegado a un punto en que entendían el átomo a un nivel muy profundo… como demostraron con excesiva eficacia en agosto de 1945 al hacer estallar un par de bombas atómicas en Japón.
Por entonces, se podía excusar a los físicos por creer que habían conquistado prácticamente el átomo. En realidad, en la física de partículas todo estaba a punto de hacerse mucho más complejo. Pero antes de que abordemos esa historia un tanto agotadora, debemos poner al día otro sector de nuestra historia considerando una importante y saludable narración de avaricia, engaño, mala ciencia, varias muertes innecesarias y la determinación final de la edad de la Tierra.
CLOROFLUOROCARBONOS Y LA
EDAD DEFINITIVA DE LA TIERRA
Middley era ingeniero y el mundo habría sido sin duda un lugar más seguro si se hubiese quedado en eso. Pero empezó a interesarse por las aplicaciones industriales de la química. En 1921, cuando trabajaba para la General Motors Research Corporation en Dayton (Ohio), investigó un compuesto llamado plomo tetraetílico (conocido también equívocamente como tetraetilo de plomo) y descubrió que reducía de forma significativa el fenómeno de trepidación conocido como golpeteo del motor
Aunque era del dominio público la peligrosidad del plomo, en los primeros años del siglo xx podía encontrarse plomo en todo tipo de productos de consumo. Las latas de alimentos se sellaban con soldadura de plomo. El agua solía almacenarse en depósitos recubiertos de plomo. Se rociaba la fruta con arseniato de plomo, que actuaba como pesticida. El plomo figuraba incluso como parte de la Composición de los tubos de dentífricos. Casi no existía un producto que no incorporase un poco de plomo a las vidas de los consumidores. Pero nada le proporcionó una relación mayor y más íntima con los seres humanos que su incorporación al combustible de los motores.
El plomo es neurotóxico. Si ingieres mucho, puede dañarte el cerebro y el sistema nervioso central de forma irreversible. Entre los numerosos síntomas relacionados con la exposición excesiva al plomo se cuentan la ceguera, el insomnio, la insuficiencia renal, la pérdida de audición, el cáncer,' la parálisis y las convulsiones. En su manifestación más aguda produce alucinaciones bruscas y aterradoras, que perturban por igual a víctimas y observadores, y que suelen ir seguidas del coma y la muerte. No tienes realmente ninguna necesidad de incorporar demasiado plomo a tu sistema nervioso.
Además, el plomo era fácil de extraer y de trabajar, y era casi vergonzosamente rentable producirlo a escala industrial… y el plomo tetraetílico hacía de forma indefectible que los motores dejasen de trepidan Así que, en 1923, tres grandes empresas estadounidenses, General Motors, Du Pont y Stardard Oíl de Nueva Jersey crearon una empresa conjunta: la Ethyl Gasoline Corporation (más tarde sólo Ethyl Corporation), con el fin de producir tanto plomo tetraetílico como el mundo estuviese dispuesto a comprar, y eso resultó ser muchísimo. Llamaron «etilo» a su aditivo porque les pareció más amistoso y menos tóxico que «plomo», y lo introdujeron en el consumo público (en más sectores de los que la mayoría de la gente percibió) el 1 de febrero de 1923.
Los trabajadores de producción empezaron casi inmediatamente a manifestar los andares tambaleantes y la confusión mental característicos del recién envenenado. Casi inmediatamente también, la Ethyl Corporation se embarcó en una política de negación serena e inflexible que le resultaría rentable durante varios decenios. Como comenta Sharon Bertsch McGrayne en Prometheans in the Lab [Prometeanos en el laboratorio], su apasionante historia de la química industrial, cuando los empleados de una fábrica empezaron a padecer delirios irreversibles, un portavoz informó dulcemente a los periodistas: «Es posible que estos hombres se volvieran locos porque trabajaban demasiado».2 Murieron un mínimo de quince trabajadores en el primer periodo de producción de gasolina plomada, y enfermaron muchos más, a menudo de gravedad. El número exacto no se conoce porque la empresa casi siempre consiguió silenciar las noticias de filtraciones, derrames y envenenamientos comprometedores. Pero a veces resultó imposible hacerlo, sobre todo en 1924, cuando, en cuestión de días, murieron cinco trabajadores de producción de un solo taller mal ventilado y otros treinta y cinco se convirtieron en ruinas tambaleantes permanentes.
Cuando empezaron a difundirse rumores sobre los peligros del nuevo producto, el optimista inventor del etilo, Thomas Midgley, decidió realizar una demostración para los periodistas con el fin de disipar sus inquietudes. Mientras parloteaba sobre el Compromiso de la empresa con la seguridad, se echó en las manos plomo tetraetílico y luego se acercó un vaso de precipitados lleno a la nariz y lo aguantó sesenta segundos, afirmando insistentemente que podía repetir la Operación a diario sin ningún peligro. Conocía en realidad perfectamente las consecuencias que podía tener el envenenamiento con plomo.3 Había estado gravemente enfermo por exposición excesiva a él unos meses atrás y, a partir de entonces no se acercaba si podía evitarlo a donde lo hubiese, salvo cuando quería tranquilizar a los periodistas.
Animado por el éxito de la gasolina con plomo, Midgley pasó luego a abordar otro problema tecnológico de la época. Los refrigeradores solían ser terriblemente peligrosos en los años veinte porque utilizaban gases insidiosos y tóxicos que se filtraban a veces al exterior Una filtración de un refrigerador en un hospital de Cleveland (Ohio) provocó la muerte de más de cien personas en 1929.4 Midgley se propuso crear un gas que fuese estable, no inflamable, no corrosivo y que se pudiese respirar sin problema. Con un instinto para lo deplorable casi asombroso, inventó los clorofluorocarbonos, o los CFC.
Raras veces se ha adoptado un producto industrial más rápida y lamentablemente. Los CFC empezaron a fabricarse a principios de la década de los treinta, y se les encontraron mil aplicaciones en todo, desde los acondicionadores de aire de los automóviles a los pulverizadores de desodorantes, antes de que comprobase medio siglo después que estaban destruyen-do el ozono de la estratosfera. No era una buena cosa, como comprenderás.
El ozono es una forma de oxígeno en la que cada molécula tiene tres átomos de oxígeno en vez de los dos normales. Es una rareza química, porque a nivel de la superficie terrestre es un contaminante, mientras que arriba, en la estratosfera, resulta beneficioso porque absorbe radiación ultravioleta peligrosa. Pero el ozono beneficioso no es demasiado abundante. Si se distribuyese de forma equitativa por la estratosfera, formaría una capa de sólo unos dos milímetros de espesor Por eso resulta tan fácil destruirlo.
Los clorofluorocarbonos tampoco son muy abundantes (constituyen aproximadamente una parte por cada mil millones del total de la atmósfera), pero poseen una capacidad destructiva desmesurada. Un solo kilo de CFC puede capturar y aniquilar 70.000 kilos de ozono atmosféricos Los CFC perduran además mucho tiempo (aproximadamente un siglo como media) y no cesan de hacer estragos. Son, por otra parte, grandes esponjas del calor. Una sola molécula de CFC es aproximadamente diez mil veces más eficaz intensificando el efecto invernadero que una molécula de dióxido de carbono… v el dióxido de carbono no es manco que digamos, claro, en lo del efecto invernadero. En fin, los clorofluorocarbonos pueden acabar siendo el peor invento del siglo xx.
Midgley nunca llegó a enterarse de todo esto porque murió mucho antes de que nadie se diese cuenta de lo destructivos que eran los CFC. Su muerte fue memorable por insólita. Después de quedar paralítico por la polio, inventó un artilugio que incluía una serie de poleas motorizadas que le levantaban y le giraban de forma automática en la cama. En 1944, se quedó enredado en los cordones cuando la máquina se puso en marcha y murió estrangulado.
La Universidad de Chicago era en la década de los cuarenta el lugar adecuado para alguien que estuviese interesado en descubrir la edad de las cosas. Willard Libby estaba a punto de inventar la datación con radiocarbono, que permitiría a los científicos realizar una lectura precisa de la edad de los huesos y de otros restos orgánicos, algo que no habían podido hacer antes. Hasta entonces, las fechas fidedignas mas antiguas no se remontaban más allá de la Primera Dinastía egipcia,5 es decir; unos 3.000 años a. C. Nadie podía decir con seguridad, por ejemplo, cuándo se habían retirado las últimas capas de hielo o en qué periodo del pasado habían decorado los cromañones las cuevas de Lascaux (Francia).
La idea de Libby era tan útil que recibiría por ella un premio Nobel en 1960. Se basaba en el hecho de que todas las cosas vivas tienen dentro de ellas un isótopo de carbono llamado carbono 14 que empieza a desintegrarse a una tasa medible en el instante en que mueren. El carbono 14 tiene una vida media (es decir, el tiempo que tarda en desaparecer la mitad de una muestra cualquiera) de unos 5.600 años, por lo que, determinando cuánto de una muestra dada de carbono se había desintegrado, Libby podía hacer un buen cálculo de la edad de un objeto… aunque sólo hasta cierto punto. Después de ocho vidas medías, sólo subsiste el 0,39 % de los restos originales de carbono radiactivo,9 lo que es demasiado poco para efectuar un cálculo fiable, por lo que la datación con radiocarbono sólo sirve para objetos de hasta unos cuarenta mil años de antigüedad.
Curiosamente, justo cuando la técnica estaba empezando a difundirse, se hicieron patentes ciertos fallos. Para empezar; se descubrió que uno de los elementos básicos de la fórmula de Libby, conocido como la constante de desintegración, estaba equivocada en aproximadamente un 3 %. Pero, por entonces, se habían efectuado ya miles de mediciones en todo el mundo. En vez de repetir cada una de ellas, los científicos decidieron mantener la constante errónea. «Así -comenta Tim Flannery- toda fecha establecida con radiocarbono que leas hoy es aproximadamente un 3% mayor»10 El problema no se limitaba a eso. No tardó en descubrirse también que las muestras de carbono 14 podían Contaminarse con facilidad con carbono de otra procedencia, por ejemplo, un trocito de materia vegetal recogida con la muestra cuya presencia pasase inadvertida. En las muestras más jóvenes (las de menos de unos veinte mil años) no siempre importa mucho una leve contaminación, pero en las muestras más viejas puede ser un problema grave por los pocos átomos que quedan para contar En el primer caso, como dice Flannery, es algo parecido a equivocarse en un dólar cuando se cuentan mil; en el segundo, es más parecido a equivocarse en un dólar cuando sólo tienes dos para Contar
El método de Libby se basaba también en el Supuesto de que la cantidad de carbono 14 en la atmósfera, y la tasa a la que lo han absorbido las cosas vivas, ha sido Constante a través de la historia. En realidad, no lo ha sido. Sabemos ahora que el volumen del carbono 14 atmosférico varía según lo bien que el magnetismo de la Tierra está desviando los rayos cósmicos, y que eso puede oscilar significativamente a lo largo del tiempo. Y eso significa que unas fechas establecidas con carbono 14 pueden variar más que otras. Entre las más dudosas figuran las que corresponden aproximadamente a la época en que llegaron a América sus primeros pobladores,12 que es uno de los motivos de que aún siga discutiéndose la fecha.
Las lecturas pueden verse afectadas por factores externos que no parecen estar relacionados, Como, por ejemplo, la dieta de aquellos cuyos huesos se examinan. Un caso reciente es el del viejo debate de si la sífilis es originaria del Nuevo Mundo o del Viejo Mundo.13 Arqueólogos de Hull descubrieron que los monjes del Cementerio de un monasterio habían padecido sífilis, pero la conclusión inicial de que los monjes la habían contraído antes del viaje de Colón se puso en entredicho al caerse en la cuenta de que habían comido en vida mucho pescado, lo que podría hacer que los huesos pareciesen más viejos de lo que eran en realidad. Es muy posible que los monjes tuviesen la sífilis, pero Cómo llegó hasta ellos y cuándo siguen siendo problemas torturantes sin resolver
Los científicos, en vista de los defectos acumulados del carbono 14, idearon otros métodos de datación de materiales antiguos, entre ellos la termolumíniscencia, que contabiliza los electrones atrapados en las arcillas, y la resonancia del espín del electrón, método este último en el que se bombardea una muestra con ondas electromagnéticas y se miden las vibraciones de los electrones. Pero ni siquiera el mejor de esos métodos podría fechar algo de más antigüedad que unos doscientos mil años, y no podrían datar de ninguna manera materiales inorgánicos como las rocas, que es precisamente lo que se necesita hacer para determinar la edad de nuestro planeta.
Los problemas que planteaba la datación de rocas eran tales que llegó un momento en que casi todo el mundo desistió de intentarlo. Si no hubiese sido por cierto profesor inglés llamado Arthur Holmes, podría haberse abandonado del todo la investigación.
Holmes fue heroico no sólo por los resultados que consiguió, sino también por los obstáculos que superó. En los años veinte, cuando estaba en la cúspide de su carrera, la geología había pasado de moda -lo que más entusiasmo despertaba por entonces era la física-y se destinaban a ella muy pocos fondos, sobre todo en Inglaterra, su cuna espiritual. Holmes fue durante muchos años todo el departamento de geología de la Universidad de Durham. Era frecuente que tuviese que pedir prestado equipo o que arreglarlo como podía para seguir con su datación radiométrica de rocas. En determinado momento, sus cálculos tuvieron que quedar paralizados un año entero mientras esperaba a que la universidad le proporcionase una simple máquina de sumar De vez en cuando tenía que abandonar del todo la vida académica para ganar lo suficiente para mantener a su familia -llevó durante un tiempo una tienda de artículos exóticos en Newcastle del Tyne- y, a veces, no podía permitirse ni siquiera las ~ libras anuales de la cuota de socio de la Sociedad Geológica.
La técnica que utilizó Holmes en su trabajo era sencilla en teoría y se basaba directamente en el proceso que había observado por primera vez Rutherford en 1904, por el que algunos átomos se desintegraban pasando de ser un elemento a ser otro a un ritmo lo bastante predecible para que se pudiesen usar como relojes. Si sabes cuánto tarda el potasio 40 en convertirse en argón 40 y determinas la cuantía de cada uno de ellos en cada muestra, puedes calcular la antigüedad del material. Lo que hizo Holmes fue medir la tasa de desintegración del uranio hasta convertirse en plomo para calcular la edad de las rocas y, con ello -esperaba-, la de la Tierra.
Pero había que superar muchas dificultades técnicas. Holmes necesitaba además-o al menos le habría venido muy bien- instrumental específico y preciso que le permitiese efectuar mediciones muy exactas de muestras muy pequeñas, y ya hemos explicado el trabajo que le costaba conseguir una simple máquina de suman Así que fue toda una hazaña que pudiese proclamar con cierta seguridad, en 1946, que la Tierra tenía como mínimo tres mil millones de años de antigüedad y, posiblemente, bastante más. Chocó entonces, por desgracia, con otro formidable impedimento para conseguir la aceptación: 14 el espíritu conservador de sus colegas, los otros científicos. Aunque muy dispuestos a alabar su metodología, muchos de ellos sostenían que lo que había calculado no había sido la edad de la Tierra sino simplemente la de los materiales con los que la Tierra se había formado.
Fue justo por entonces cuando Harrison Brown, de la Universidad de Chicago, ideó un nuevo método para Contar isótopos de plomo en rocas ígneas (es decir, las que se Crearon a través del calor; a diferencia de las formadas por acumulación de sedimentos). Dándose Cuenta de que la tarea sería demasiado tediosa, se la asignó al joven Clair Patterson como su proyecto de tesis. Es fama que le aseguró que determinar la edad de la Tierra con su nuevo método sería «pan comido». En realidad, llevaría años.
Patterson empezó a trabajaren el proyecto en 1048. Comparado con las llamativas aportaciones de Thomas Midgley al avance del progreso, el descubrimiento de la edad de la Tierra por Patterson parece bastante insulso. Trabajó siete años, primero en la Universidad de Chicago y luego en el Instituto Tecnológico de California (al que pasó en 1952), en un laboratorio esterilizado, efectuando mediciones precisas de las proporciones plomo/uranio en muestras cuidadosamente seleccionadas de rocas antiguas.
El problema que planteaba la medición de la edad de la Tierra era que se necesitaban rocas que fuesen extremadamente antiguas, que contuviesen cristales con plomo y uranio que fuesen más o menos igual de viejos que el propio planeta cualquier cosa mucho más joven proporcionaría Como es lógico fechas engañosamente juveniles-, pero en realidad raras veces se encuentran en la Tierra rocas verdaderamente antiguas. A finales de los años cuarenta, nadie entendía por qué tenía que ser así. De hecho, y resulta bastante sorprendente, hasta bien avanzada la era espacial nadie fue capaz de explicar de una forma plausible dónde habían ido las rocas viejas de la Tierra. (La solución era la tectónica de placas, a la que, por supuesto, ya llegaremos.) Entre tanto se dejó que Patterson intentase dar un poco de sentido a las cosas con materiales muy limitados. Al final se le ocurrió la ingeniosa idea de que podía solventar el problema de la escasez de rocas utilizando las de fuera de la Tierra. Recurrió a los meteoritos.
Partió de la consideración que parecía un poco forzada, pero que resultó correcta- de que muchos meteoritos son básicamente sobras de materiales de construcción del periodo inicial de nuestro sistema solar, y se las han arreglado por ello para preservar una química interna más o menos prístina. Determina la edad de esas rocas errantes y tendrás también la edad (bastante aproximada) de la Tierra.
Pero, como siempre, nada es tan sencillo como una descripción tan despreocupada hace que parezca serlo. Los meteoritos no abundan y no es nada fácil conseguir muestras meteoríticas. Además, la técnica de medición de Brown resultó ser complicada en extremo e hicieron falta muchos retoques para perfeccionarla. Y estaba sobre todo el problema de que las muestras de Patterson quedaban invariable e inexplicablemente contaminadas con grandes dosis de plomo atmosférico en cuanto se las exponía al aire. Fue eso lo que acabó llevándole a crear un laboratorio esterilizado,15 que fue -según una versión, al menos- el primero del mundo.
Patterson necesitó siete años de paciente trabajo para descubrir v datar muestras apropiadas para la comprobación final. En la primavera de 1953 fue con sus especímenes al Laboratorio Nacional de Argonne de Illinois, donde le permitieron usar un espectrógrafo de masas último modelo, un aparato capaz de detectar v medir las cantidades minúsculas de uranio y plomo alojadas en cristales antiguos. Patterson se puso tan nervioso cuando obtuvo sus resultados que se fue derecho a la casa de Iowa de su infancia v mandó a su madre que le ingresara en un hospital porque creía estar sufriendo un ataque al corazón.
Poco después, en una reunión celebrada en Wisconsin, Patterson proclamó una edad definitiva para la Tierra de 4.550 millones de años (70 millones de años más o menos), «una cifra que se mantiene invariable cincuenta años después»,16 como comenta McGrayne admirativamente. Después de doscientos años de intentos, la Tierra tenía al fin una edad.
Casi al mismo tiempo, Patterson empezó a interesarse por el hecho de que hubiese todo aquel plomo en la atmósfera. Se quedó asombrado al enterarse de que lo poco que se sabía sobre los efectos del plomo en los humanos era casi invariablemente erróneo o engañoso… cosa nada sorprendente si tenemos en cuenta que, durante cuarenta años, todos los estudios sobre los electos del plomo los han costeado en exclusiva los fabricantes de aditivos de plomo.
En uno de estos estudios, un médico que no estaba especializado en patología química17 emprendió un programa de cinco años en el que se pedía a voluntarios que aspirasen o ingiriesen plomo en cantidades elevadas. Luego se examinaban la orina y las heces. Desgraciadamente, aunque al parecer el médico no lo sabía, el plomo no se excreta como producto de desecho. Se acumula más bien en los huesos y en la sangre -eso es lo que lo hace tan peligroso-y ni los huesos ni la sangre se examinaron. En consecuencia, se otorgó al plomo el visto bueno sanitario.
Patterson no tardó en comprobar que había muchísimo plomo en la atmósfera (aún sigue habiéndolo, porque el plomo nunca se va) y que aproximadamente un 90 % de él parecía proceder de los tubos de escape de los coches;18 pero no podía demostrarlo. Necesitaba hallar un medio de comparar los niveles actuales de plomo en la atmósfera con los que había antes de 1923, en que empezó a producirse a escala comercial plomo tetraetílico. Se le ocurrió que los testigos de hielo podían aportar la solución.
Era un hecho sabido que, en lugares como Groenlandia, la nieve se acumula en capas anuales diferenciadas porque las diferencias estacionales de temperatura producen leves cambios de coloración del invierno al verano. Contando hacia atrás esas capas y midiendo la cuantía de plomo de cada una, podía determinar las concentraciones globales de plomo atmosférico en cualquier periodo a lo largo de centenares y hasta miles de años. La idea se convirtió en la base de los estudios de testigos de hielo, en los que se apoya gran parte de la investigación climatológica moderna. 19
Lo que Patterson descubrió fue que antes de 1923 si no había plomo en la atmósfera y que los niveles de plomo habían ido aumentando constante y peligrosamente desde entonces. A partir de ese momento, convirtió la tarea de conseguir que se retirase el plomo de la gasolina en el objetivo de su vida. Para ello se convirtió en un crítico constante y a menudo elocuente de la industria del plomo y de sus intereses.
Resultaría ser una campaña infernal. Ethyl era una empresa mundial poderosa con muchos amigos en puestos elevados. (Entre sus directivos habían figurado el magistrado del Tribunal Supremo Lewis Powell y Gilbert Grosvenor de la National Geographic Society) Patterson se encontró de pronto con que le retiraban parte de los fondos con que financiaba su investigación o que le resultaba difícil conseguirlos. El Instituto Americano de Petróleo canceló un contrato de investigación que tenía con él y lo mismo hizo el Servicio de Salud Pública de Estados Unidos, un Organismo oficial supuestamente neutral.
Patterson fue convirtiéndose cada vez más en un problema para su institución, y los miembros del consejo de administración del Instituto Tecnológico de California fueron objeto de repetidas presiones de directivos de la industria del plomo para que le hiciesen callar o prescindiesen de él. Según decía en el año 2000 Jamie Lincoln Kitman en The Natión, ejecutivos de Ethyl se ofrecieron presuntamente a financiar una cátedra en el instituto «si se mandaba a Patterson hacer las maletas»20 Se llegó al absurdo de excluirle de una comisión del Consejo Nacional de Investigación que se creó en 1971 para investigar los peligros del envenenamiento con plomo atmosférico, a pesar de ser por entonces indiscutiblemente el especialista más destacado del país en plomo atmosférico.
Para gran honra suya, Patterson se mantuvo firme. Finalmente, gracias a sus esfuerzos, se aprobó la Ley de Aire Limpio de 1970 y acabaría consiguiendo que se retirase del mercado toda la gasolina plomada en Estados Unidos en 1986. Casi inmediatamente se redujo en un 80 % el nivel de plomo en la sangre de los estadounidenses.21 Pero, como el plomo es para siempre, los habitantes actuales del país tienen cada uno de ellos, unas 625 veces más plomo en sangre del que tenían los que vivieron en el país hace un siglo.22 La cuantía de plomo en la atmósfera sigue aumentando también, de una forma completamente legal en unas cien mil toneladas al año,23 procedentes sobre todo de la minería, la fundición y las actividades industriales. Estados Unidos prohibió también el plomo en la pintura de interior «cuarenta v cuatro años después que la mayoría de los países de Europa»,24 como índica McGravne. Resulta notable que no se prohibiese la soldadura de plomo en los envases de alimentos en el país hasta 1993, pese a su toxicidad alarmante.
En cuanto a la Ethyl Corporation, aún es fuerte, a pesar de que la General Motors, la Standard Oil y Du Pont no tengan ya acciones de ella. (Se las vendieron a una empresa llamada Albermarle Paper en 1962.) Según McGrayne, Ethyl seguía sosteniendo aún en febrero de 2001 «que la investigación no ha conseguido demostrar que la gasolina plomada constituya una amenaza para la salud humana25 ni para el medio ambiente». En su portal de la red hay una historia de la empresa en la que no se menciona siquiera el plomo ‹ni tampoco a Thomas Midgley) y sólo se dice del producto original que contenía «cierta combinación de sustancias químicas».
Ethyl no fabrica ya gasolina plomada, aunque, de acuerdo con su balance de la empresa del año 2001, todavía hubo unas ventas ese año de plomo tetraetílico (O TEL, como le llaman ellos) por el importe de 25.100.000 dólares en 2000 (de un total de ventas de 795 millones) más que los 24.100.000 dólares de 1999, pero menos que los 117 millones de dólares de 1998. La empresa comunicó en su informe que había decidido «maximizar los ingresos generados por TEL aunque su utilización siga descendiendo en el mundo». Ethyl comercializa TEL en todo el mundo mediante un acuerdo con Associated Octel Ltd. de Inglaterra.
En cuanto al otro azote que nos legó Thomas Midgley, los clorofluorocarbonos se prohibieron en ¡974 en Estados Unidos, pero son diablillos tenaces y, los que se soltaron a la atmósfera antes de eso (en desodorantes o pulverizadores capilares, por ejemplo), es casi seguro que seguirán rondando por ahí y devorando ozono mucho después de que tú y yo hayamos dado el último suspiro.26 Y lo que es peor, seguimos introduciendo cada año enormes cantidades de CEC en la atmósfera.27 Según Wayne Bíddle, aún salen al mercado anualmente 27 kilos por un valor de 1.500 millones de dólares. ¿Quién lo está haciendo? Nosotros… es decir, muchas grandes empresas siguen produciéndolo en sus fábricas del extranjero. En los países del Tercer Mundo no estará prohibido hasta el año 2010.
Clair Patterson murió en 1995. No ganó el premio Nobel por su trabajo. Los geólogos nunca lo ganan. Ni tampoco se hizo famoso, lo que es más desconcertante. Ni siquiera consiguió que le prestasen demasiada atención pese a medio siglo de trabajos coherentes y cada vez más abnegados. Sin duda podría afirmarse que fue el geólogo más influyente del siglo xx. Sin embargo, ¿quién ha oído hablar alguna vez de Clair Patterson? La mayoría de los textos de geología no le mencionan. Dos libros recientes de divulgación sobre la historia de la datación de la Tierra se las arreglan incluso para escribir mal su nombre.25 A principios de 2001, un crítico que hacía una recesión de uno de esos libros en la revista Nature, cometió el error adicional, bastante asombroso, de creer que Patterson era una mujer29
Lo cierto es que, pese a todo, gracias al trabajo de Clair Patterson, en 1953 la Tierra tenía al fin una edad en la que todos podían estar de acuerdo. Ahora el único problema era que resultaba ser más vieja que el universo que la contenía.
MARK
El artilugio funcionaba muy bien, pero produjo además un beneficio inesperado. Cuando aceleró una partícula alía a través de la cámara para sembrar sus supuestas nubes, la partícula dejó un rastro visible, como las estelas de condensación que deja un avión al pasan Acababa de inventar el detector de partículas. Este detector aportó una prueba convincente de que las partículas subatómicas existían realmente.
Luego otros dos científicos del Cavendish inventaron un instrumento de haz de protones más potente, mientras que en California, Ernest Lawrence fabricó en Berkeley su famoso e impresionante ciclotrón o desintegrador de átomos, que fue el emocionante nombre que se dio a estos aparatos durante mucho tiempo. Todos estos artefactos funcionaban (y siguen haciéndolo) basándose mas o menos en el mismo principio, en la idea de acelerar un protón u otra partícula cargada hasta una velocidad elevadísima a lo largo de una pista (unas veces circular, otras lineal), hacerla chocar con otra partícula y ver que sale volando. Por eso los llamaron desintegradores de átomos. No era un procedimiento científico muy sutil, pero resultaba en general efectivo.
Cuando los físicos construyeron maquinas mayores y más ambiciosas, empezaron a descubrir o a postular partículas o familias de partículas aparentemente sin fin: muones, piones hiperones, mesones, mesones K, bosones Higgs, bosones vectoriales intermedios, bariones, taquiones. Hasta los físicos empezaron a sentirse un poco incómodos. «Joven – contestó Enrico Fermi a un estudiante que le preguntó el nombre de una partícula concreta-, si yo fuese capaz de recordar los nombres de esas partículas me habría hecho botánico.2
Hoy los aceleradores tienen nombres que parecen de cosas que podría usar Flash Gordon en combate: el sincrotón superprotónico, la gran cámara de reacción electrón-positrón la gran cámara de reacción hadrónica, la cámara de reacción relativista de iones pesados. Empleando enormes cantidades de energía algunos operan sólo de noche para que los habitantes de las poblaciones del entorno no tengan que presenciar como se debilitan las luces de sus casas al ponerse en marcha el aparato-, pueden acelerar partículas hasta un estado de agitación tal que un solo electrón puede dar 47.000 vueltas a un túnel de siete kilómetros en menos de un segundo.3 Se han despertado temores de que los científicos pudiesen crear en su entusiasmo, e involuntariamente, un agujero negro o incluso algo denominado ‹quarks extraños› que podría interactuar en teoría con otras partículas subatómicas y propagarse incontrolablemente. Si estás leyendo esto es que no ha sucedido).
Encontrar partículas exige cierta dosis de concentración. No sólo Son pequeñas y rápidas, sino que suelen ser también fastidiosamente evanescentes. Pueden aflorar a la existencia y desaparecer de nuevo un periodo tan breve como 0,000000000000000000000001 de segundo (10-24 segundos). Ni siquiera las más torpes4 e inestables persisten más de 0,0000001 segundos (10-7 segundos).
Algunas partículas son casi ridículamente escurridizas. Cada segundo visitan la Tierra 10.000 billones de billones de diminutos neutrinos que casi carecen de masa -la mayoría disparados por los terribles calores nucleares del Sol – y prácticamente todos atraviesan el planeta y todo lo que hay en él, incluidos tú y yo, como si no existiéramos. Para atrapar sólo unos cuantos, los científicos necesitan depósitos que contengan hasta 57.000 metros cúbicos de agua pesada (es decir; agua con una abundancia relativa de deuterio› en cámaras subterráneas (normalmente antiguas minas) donde no pueden interferir otras radiaciones.
Uno de esos neutrinos viajeros chocará de vez en cuando con uno de los núcleos atómicos del agua y producirá un soplito de energía. los científicos cuentan estos soplitos y, por ese medio, nos acercan más a una comprensión de las propiedades básicas del universo. Observadores japoneses informaron en 1998 que los neutrinos tienen masa,5 aunque no mucha… aproximadamente una diezmillonésima parte de la de un electrón.
Lo que hace falta hoy en realidad para encontrar partículas es dinero, y mucho. Existe una curiosa relación inversa en la física moderna entre la pequeñez de lo que se busca y la escala de los instrumentos necesarios para efectuar la búsqueda. La CERN es como una pequeña ciudad. Se extiende a ambos lados de la frontera francosuiza, cuenta con tres mil empleados, ocupa un emplazamiento que se mide en kilómetros cuadrados y se ufana de poseer una serie de imanes, que pesan más que la torre Eiffel, V un túnel subterráneo circular de unos 26 kilómetros.
Desintegrar átomos, como ha dicho James Trefil, es fácil;6 lo haces cada vez que enciendes una lámpara fluorescente. Desintegrar núcleos atómicos requiere, sin embargo, muchísimo dinero y un generoso suministro de electricidad. Descender hasta el nivel de los quarks (las partículas que componen las partículas) requiere aún más; billones de voltios de electricidad y el presupuesto de un pequeño estado centroamericano. La nueva gran cámara hadrónica de la CERN, que está previsto que empiece a funcionar en el año 2005, dispondrá de 14 billones de voltios de energía7 y su construcción costará unos 1.500 millones de dólares.
Pero esos números no son nada comparado con lo que podría haberse conseguido, y lo que podría haberse gastado, con la inmensa supercámara de reacción superconductora, condenada ya por desgracia a la inexistencia, que empezó a construirse cerca de Waxahachie (Texas) en los años ochenta, antes de que sufriese una supercolisión propia con el Congreso estadounidense. El propósito de esa cámara de reacción era que los científicos pudiesen sondear «la naturaleza básica de la materia», como se dice siempre, recreando con la mayor exactitud posible las condiciones del universo durante sus primeras diezbillonésimas de segundo. El plan consistía en lanzar partículas por un túnel de 84 kilómetros de longitud, hasta conseguir 99 billones de voltios, algo verdaderamente escalofriante. Era un proyecto grandioso, pero habría costado 11.000 millones de dólares realizarlo (una cifra que acabó elevándose a 8.000 millones de dólares) y cientos de millones de dólares al año mantenerlo en marcha.
El Congreso, tal vez en el mejor ejemplo de la historia de lo que es tirar el dinero por un agujero, gastó 2.000 millones de dólares y luego canceló el proyecto en 1993, después de haberse excavado ya 22 kilómetros de túnel. Así que ahora Texas dispone del agujero más caro del universo. El lugar es, según me ha dicho mi amigo Jeff Cuinn, del Fort Worih Star-Telegraph, «básicamente un enorme campo despejado salpicado a lo largo de su circunferencia por una serie de poblaciones decepcionantemente pequeñas».8
* Todo este costoso esfuerzo ha tenido consecuencias adicionales. La World Wide Web es un vástago de la CERN. La inventó un científico de la CERN, Tim Berlers-Lee en 1989. (N. del A.)
Desde el desastre de la supercámara de reacción, los físicos de partículas han puesto sus miras en objetivos algo más humildes. Pero hasta los proyectos relativamente modestos pueden resultar costosísimos silos comparamos, bueno, casi con cualquier cosa. La construcción de un observatorio de neutrinos en la antigua Mina Homestake de Lead (Dakota del Sur)9 costaría 500 millones -y se trata de una mina que ya está excavada-antes de que se pudiesen calcular siquiera los costes anuales de funcionamiento. Habría además 281 millones de dólares de «costes generales de conversión». Por otra parte, readaptar un acelerador de partículas en Fermilab (Illinois)10 sólo cuesta 260 millones de dólares.
En suma, la física de partículas es una empresa enormemente cara. Pero también es productiva. El número actual de partículas es de bastante más de 150,11 con unas cien más, cuya existencia se sospecha. Pero desgraciadamente, según Richard Feynman: «Es muy difícil entender las relaciones de todas esas partículas, y para qué las quiere la naturaleza, o bien cuáles son las conexiones que existen entre ellas». Cada vez que conseguimos abrir una caja, nos ncontramos indefectiblemente con que dentro hay otra. Hay quien piensa que existen unas partículas llamadas taquiones,12 que pueden viajar a una velocidad superior a la de la luz. Otros ansían hallar gravitones, que serían la sede de la gravedad. No es fácil saber en qué momento llegamos al fondo irreductible. Carl Sagan planteó en Cosmos la posibilidad de que, viajases hacia abajo hasta entrar en un electrón, podrías encontrarte con que contiene un universo propio, lo que recuerda todos aquellos relatos de ciencia ficción de la década de los cincuenta. «En su interior; organizados en el equivalente local de galaxias y estructuras más pequeñas, hay un número inmenso de partículas elementales mucho más pequeñas, que son a su vez universos del siguiente nivel, y así eternamente…13 una regresión infinita hacia abajo, universos dentro de universos, interminablemente. Y también hacia arriba.»
Para la mayoría de nosotros es un mundo que sobrepasa lo comprensible. Incluso el simple hecho de leer hoy una guía elemental de la física de partículas obliga a abrirse camino por espesuras léxicas como ésta:
«El pión cargado y el antipión se desintegran respectivamente14 en un muón, más un antineutrino y un antimuón, más un neutrino con una vida media de 2.603 X 10-8 segundos, el pión neutral se desintegra en dos fotones con una vida media de aproximadamente 0,8 x 10-16 segundos, y el muón y el antimuón se desintegran respectivamente en…» y así sucesivamente. Y esto procede de un libro escrito para el lector medio, por uno de los divulgadores (normalmente) más lúcidos, Steven Winherg.
En la década de los sesenta, en un intento de aportar un poco de sencillez a las cosas, el físico del Instituto Tecnológico de California, Murray Gell-Mann inventó una nueva clase de partículas, básicamente, según Steven Winberg, «para reintroducir una cierta economía en la multitud de hadrones»,15 un término colectivo empleado por los físicos para los protones, los neutrones y otras partículas gobernadas por la fuerza nuclear fuerte. La teoría de Gell-Mann era que todos los hadrones estaban compuestos de partículas más pequeñas e incluso más fundamentales. Su colega Richard Feynman quiso llamar a estas nuevas partículas básicas partones,16 como en Dolly, pero no lo consiguió. En vez de eso, pasaron a conocerse como quarks.
Gell-Mann tomó el nombre de una frase de Finnegan’s Wake: «Tres quarks para Muster Mark» (algunos físicos riman la palabra con storks, no con larks aunque esta última es casi con seguridad la pronunciación en la que pensaba Joyce). La simplicidad básica de los quarks no tuvo larga vida. En cuanto empezaron a entenderse mejor; fue necesario introducir subdivisiones. Aunque los quarks son demasiado pequeños para tener color, sabor o cualquier otra característica física que podamos identificar; se agruparon en seis categorías (arriba, abajo, extraño, encanto, superior e inferior), a las que los físicos aluden curiosamente como sus «aromas» y que se dividen a su vez en los colores rojo, verde y azul. (Uno sospecha que no fue simple coincidencia que estos términos se aplicaran por primera vez en California en la época de la siquedelia.)
Finalmente, emergió de todo esto lo que se denomina Modelo Estándar,17 fue es esencialmente una especie de caja de piezas para el mundo subatómico. El Modelo Estándar consiste es seis quarks, seis leptones, cinco bosones conocidos y un sexto postulado, el bosón de Higgs (por el científico escocés Peter Higgs), más tres de las cuatro fuerzas físicas: las fuerzas nucleares fuerte y débil y el electromagnetismo.
Esta ordenación consiste básicamente en que entre los bloques de construcción fundamentales de la materia figuran los quarks; éstos se mantienen unidos por unas partículas denominadas gluones; y los quarks y los gluones unidos forman protones v neutrones, el material del núcleo del átomo. Los lectones son la fuente de electrones v neutrinos. Los quarks y los lectones unidos se denominan fermiones. Los boones (llamados así por el físico indio S. N. Bose) son partículas que producen y portan fuerzas,18 e incluyen fotones y gluones. El bosón de.Higgs puede existir o no existir en realidad. Se inventó simplemente como un medio de dotar de masa a las partículas.
Es todo, como puedes ver; un poquito difícil de manejar; pero es el modelo más sencillo que puede explicar todo lo que sucede en el mundo de las partículas. Casi todos los físicos de partículas piensan, como Comentó León Lederman en un documental de televisión en 1985, que el Modelo Estándar carece de elegancia y de sencillez. «Es demasiado complicado. Tiene parámetros demasiado arbitrarios.19 No podemos imaginarnos en realidad al creador jugueteando con 20 teclas para establecer 20 parámetros para crear el universo tal como lo conocemos», comento. La física sólo es en verdad una búsqueda de la sencillez básica, pero lo que tenemos hasta el momento es una especie de desorden elegante… O, en palabras de Lederman: «Existe el sentimiento profundo de que el cuadro no es bello».
El Modelo Estándar no sólo es incompleto y difícil de manejar. Por una parte, no dice absolutamente nada sobre la gravedad. Busca cuanto quieras en el Modelo Estándar y no encontrarás nada que explique por qué cuando dejas un sombrero en una mesa no se eleva flotando hasta el techo. Ni puede explicar la masa, como ya hemos comentado hace un momento. Para dar algo de masa a las partículas tenemos que introducir ese hipotético bosón de Higos.20 Si existe en realidad o no es una cuestión que han de resolver los físicos en el siglo XXI. Como comentaba despreocupadamente Feynman: «Estamos, pues, apegados a una teoría21 v no sabemos si es verdadera o falsa, pero lo que si sabemos es que es un poco errónea o, al menos, incompleta».
Los físicos, en un intento de agruparlo todo, se han sacado de la manga algo llamado la teoría de las supe recuerdas, que postula que todas esas cositas, como los quarks22 y los lectones, que habíamos considerado anteriormente partículas, son en realidad «cuerdas», fibras vibrantes de energía que oscilan en II dimensiones, consistentes en las tres que ya conocemos, más el tiempo, y otras siete dimensiones que son, bueno, incognoscibles para nosotros. Las cuerdas son muy pequeñas… lo bastante pequeñas como pata pasar por partículas puntuales.23
La teoría de las surpercuerdas, al introducir dimensiones extra, permite a los físicos unir leyes cuánticas y gravitatorias en un paquete relativamente limpio y ordenado. Pero significa también que cualquier cosa que digan los científicos sobre la teoría empieza a parecer inquietantemente como el tipo de ideas que te espantaría Si te la expusiese un conocido en el banco de un parque. He aquí, otro ejemplo, al físico Michio Kaku explicando la estructura del universo desde el punto de vista de las supercuerdas:
La cuerda heterótica está formada por una cuerda cerrada que tiene dos tipos de vibraciones,24 una en el sentido de las agujas del reloj y, la otra, en el sentido contrario, que se tratan de una forma diferente. Las vibraciones en el sentido de las agujas del reloj viven en un espacio decadimensional. Las que van en el sentido contrario viven en un espacio de 26 dimensiones, 16 de las cuales han sido compactadas. (Recordamos que, en el espacio de cinco dimensiones, la quinta estaba compactada por hallarse agrupada en un círculo.)
Y así sucesivamente, durante más de 350 páginas.
La teoría de las cuerdas ha generado además una cosa llamada teoría M,25 que incorpora superficies conocidas como membranas… o simplemente branas, para las almas selectas del mundo de la física. Me temo que esto es la parada en la autopista del conocimiento en la que la mayoría de nosotros debemos bajan He aquí unas frases del New York Times explicándolo de la forma más simple para el público en general:
El proceso ekpirótico se inicia en el pasado indefinido26 con un par de branas planas y vacías, dispuestas entre sí en paralelo en un espacio alabeado de cinco dimensiones… Las dos branas, que forman las paredes de la quinta dimensión, podrían haber brotado de la nada como una fluctuación cuántica en un pasado aún más Lejano y haberse separado luego.
No hay discusión posible. Ni posibilidad de entenderlo. Ekpirótico, por cierto, se deriva de la palabra griega que significa conflagración.
Las cosas han llegado a un extremo en física que, como comentaba en Nature Paul Davies, es «casi imposible para los no científicos diferenciar entre lo legítimamente extraño y la simple chifladura».27 La cosa llegó a un interesante punto álgido18 en el otoño de 2002 cuando dos físicos franceses, los hermanos gemelos Igor y Grichak Bogdanov, elaboraron una teoría de ambiciosa densidad que incluía conceptos como «tiempo imaginario» y la «condición Kubo-Schwinger-Martin» y que se planteaba describir la nada que era el universo antes de la Gran Explosión… un periodo que se consideró siempre incognoscible (ya que precedía al nacimiento de la física y de sus propiedades).
La teoría de los Bogdanov provocó casi inmediatamente un debate entre los físicos respecto a si se trataba de una bobada, de una idea genial o de un simple fraude. «Científicamente, está claro que se trata de un disparate más o menos completo -comentó al New York Times el físico de la Universidad de Columbia Peter Woid-, pero eso no la diferencia mucho de gran parte del resto de la literatura científica que se expone últimamente».
Karl Poppet, a quien Steven Weinberg ha llamado «el decano de los filósofos de la ciencia modernos», dijo en cierta ocasión que puede que no haya en realidad una teoría definitiva para la física,29 que cada explicación debe necesitar más bien una explicación posterior; produciéndose con ello «una cadena infinita de más y más principios fundamentales». Una posibilidad rival es que ese conocimiento se halle simplemente fuera de nuestro alcance. «Hasta ahora, por fortuna -escribe Weinberg en El sueño de una teoría definitiva-, no parece que estemos llegando al límite de nuestros recursos intelectuales.»30
Seguramente este campo sea un sector en el que veremos posteriores avances del pensamiento; y serán pensamientos que quedarán casi con seguridad fuera del alcance de la mayoría.
Mientras los físicos de las décadas medias del siglo xx examinaban perplejos el mundo de lo muy pequeño, los astrónomos se hallaban no menos fascinados ante su incapacidad de comprender el universo en su conjunto.
La última vez que hablamos de Edwin Hubble, había decidido que casi todas las galaxias de nuestro campo de visión se están alejando de nosotros y que la velocidad y la distancia de ese retroceso son perfectamente proporcionales: cuanto más lejos está la galaxia, más deprisa se aleja. Hubble se dio cuenta de que esto se podía expresar con una simple ecuación, Ho = v/d (donde Ho es una constante, v es la velocidad recesional de una galaxia en fuga y d la distancia que nos separa de ella). Ho ha pasado a conocerse desde entonces como la constante de Hubble y, el conjunto, como la Ley de Hubble. Valiéndose de su fórmula, Hubble calculó que el universo tenía unos dos mil millones de años de antigüedad,31 lo que resultaba un poco embarazoso porque incluso a finales los años veinte estaba cada vez más claro que había muchas cosas en el universo (incluida probablemente la propia Tierra) que eran más viejas. Precisar más esa cifra ha sido desde entonces una preocupación constante de la cosmología.
Casi la única cosa constante de la constante de Hubble ha sido el gran desacuerdo sobre el valor que se le puede asignan Los astrónomos descubrieron en 1956 que las cefeidas variables eran más variables de lo que ellos habían pensado; había dos variedades, no una. Esto les permitió corregir sus cálculos y obtener una nueva edad del universo de entre siete mil y veinte mil millones de años…32 una cifra no demasiado precisa, pero lo suficientemente grande al menos para abarcar la formación de la Tierra.
En los años siguientes surgió una polémica, que se prolongaría interminablemente,33 entre Alían Sandage, heredero de Hubble en Monte Wilson, y Gérard de Vaucouleurs, un astrónomo de origen francés con base en la Universidad de Texas. Sandage, después de años de cálculos meticulosos, llegó a un valor para la constante de de Hubble de 50 lo daba una edad para el universo de 20.000 millones de años. De Vancouleurs, por su parte, estaba seguro de que el valor de la constante de Hubble era 100.*
*Tienes derecho a preguntarte, Claro que está, qué es lo que quiere decir exactamente «una constante de 50» o «una constate de 100». La respuesta está en la unidades astronómicas de medición Los astrónomos no utilizan nunca, salvo en el lenguaje coloquial, los años luz. Utilizan una distancia llamada el pársec (una a contracción de paralaje y segundo), basada en una medida universal denominada paralaje estelar y que equivale a 3,26 años luz. Las mediciones son realmente grandes, como las del tamaño de un universo, se expresan en megaparsecs: 1 megaparsec = 1 millón de parsecs. La constante se expresa en kilómetros por segundo por megaparsewc. Así que cuando los astrónomos hablan de una constante Hubble de 50, lo que en realidad quieren decir es «50 kilómetros por segundo por megaparsec». Se trata, sin duda, de una medida que para nosotros no significa absolutamente nada; pero, bueno, en la mayoría de las mediciones astronómicas las distancias son tan inmensas que no significan absolutamente nada (N. del A.)
Esto significaba que el universo solo tenía la mitad del tamaño y de la antigüedad que creía Sandage (10.000 millones de años. Las cosas dieron un nuevo bandazo hacia la incertidumbre cuando un equipo de los Observatorios Carnegie de California aseguraron, en 1994, basándose en mediciones del Telescopio espacial Hubble, que el universo podía tener sólo ocho mil millones de años antigüedad… una edad que aceptaban que era inferior a la de alguna de las estrellas que contenía. En febrero de 2003, un equipo de la Nasa34 y Centro de Vuelos Espaciales Goddard do Maryland, utilizando un nuevo tipo de satélite de largo alcance llamado la Sonda Anisotrópica Microndular Wilkinson, proclamó con cierta seguridad que la edad del universo es de 13.700 millones de años, cien millones de años arriba o abajo. Así están las cosas; al menos por el momento.
Que sea tan difícil hacer un cálculo definitivo se debe a que suelen haber un margen muy amplio para la interpretación. Imagina que estas en pleno campo de noche e intentas determinar a qué distancia están de ti dos luces eléctricas alejadas. Utilizando instrumentos bastantes sencillos de astronomía puedes calcular sin mucho problema que las bombillas tienen el mismo brillo y que una esta, por ejemplo, un 50% más alejada que la otra. Pero de lo que no puedes estar seguro es de si la luz más cercana es, por ejemplo, de una bombilla de 58 vatios que esta a 37 metros de distancia o de una de 61 vatios que esta a 36,5 metros de distancia. Amén de eso, debes tener en cuenta las perturbaciones causadas por variaciones por la atmósfera de la Tierra, por polvo intergaláctico, por luz estelar contaminante de fondo y muchos otros factores. El resultado final es que tus cálculos se basan inevitablemente en una serie de supuestos interdependientes, cualquiera de los cuales puede ser motivo de discusión. Además está el problema de que el acceso a telescopios es siempre difícil y medir las desviaciones hacia el rojo ha sido muy costoso históricamente en tiempo de telescopio. Podría llevar toda una noche conseguir una sola exposición. En consecuencia, los astrónomos se han visto impulsados (o han estado dispuestos) a basar conclusiones en pruebas bastante endebles. Como ha dicho el periodista Geoffrey Carr, en cosmología tenemos «una montaña de teoría edificada sobre una topera de pruebas».35 O como ha dicho Martin Rees: «Nuestra satisfacción actual [con los conocimientos de que disponemos puede deberse a la escasez de datos más que a la excelencia de la teoría».
Esta incertidumbre afecta, por cierto, a cosas relativamente próximas tanto como a los bordes lejanos del universo. Como dice Donald Goldsmith, cuando los astrónomos dicen que la galaxia M87 está a sesenta millones de años luz de distancia, lo que en realidad quieren decír36
–«pero lo que no suelen resaltar para el público en general»- es que está a una distancia de entre cuarenta y noventa millones de años luz de nosotros… y no es exactamente lo mismo. Para el universo en su conjunto, esto, como es natural, se amplía. Pese al éxito clamoroso de las últimas declaraciones, estamos muy lejos de la unanimidad.
Una interesante teoría, propuesta recientemente, es la de que el universo no es ni mucho menos tan grande como creíamos; que, cuando miramos a lo lejos, alguna de las galaxias que vemos pueden ser simplemente reflejos, imágenes fantasmales creadas por luz rebotada.
Lo cierto es que hay mucho, incluso a nivel básico, que no sabemos… por ejemplo, nada menos que de qué está hecho el universo. Cuando los científicos calculan la cantidad de materia necesaria para mantener unidas las cosas, siempre se quedan desesperadamente cortos. Parece ser que un 90% del universo, como mínimo, y puede que hasta el 99 %, está compuesto por la «materia oscura» de Fritz Zwicky… algo que es, por su propia naturaleza, invisible para nosotros. Resulta un tanto fastidioso pensar que vivimos en un universo que en su mayor parte no podemos ni siquiera ver; pero ahí estamos. Por lo menos los nombres de los dos principales culpables posibles son divertidos: se dice que son bien WIMP (Weakly Interacting Massive Particles, o grandes partículas que interactúan débilmente, que equivale a decir manchitas de materia invisible que son restos de la Gran Explosión) o MACHO (Massive Compact Halo Objects, objetos con halo compactos masivos, otro nombre en realidad para los agujeros negros, las enanas marrones y otras estrellas muy tenues).
Los físicos de partículas han tendido a inclinarse por la explicación basada en las partículas, las WINW, los astrofísicos por la estelar de los MACHO. Estos últimos llevaron la voz cantante durante un tiempo, pero no se localizaron ni mucho menos los suficientes así que la balanza acabó inclinándose por las WIMP… con el problema de que nunca se había localizado ni una sola. Dado que interactúan débilmente son -suponiendo que existan- muy difíciles de identificar. Los rayos cósmicos provocaban demasiadas interferencias. Así que los científicos deben descender mucho bajo tierra. A un kilómetro de profundidad, los bombardeos cósmicos serían una millonésima de lo que serían en la superficie. Pero incluso en el caso de que se añadieran todas ellas, dos tercios del universo no figuran aún en el balance»37 como ha dicho un comentarista. De momento podríamos muy bien llamarlas DUNNOS (de Dark Unknown Nonreflective Nondetectable Objects Somewhere, objetos oscuros desconocidos no reflectantes e indetectables situados en alguna parte).
Pruebas recientes indican no sólo que las galaxias del universo están huyendo de nosotros, sino que lo están haciendo a una tasa que se acelera. Esto contradice todas las expectativas. Además, parece que el universo puede estar lleno no sólo de materia oscura, sino de energía oscura. Los científicos le llaman a veces también energía del vacío o quintaesencia. Sea lo que sea, parece estar pilotando una expansión que nadie es capaz de explicar del todo. La teoría es que el espacio vacío no está ni mucho menos tan vacío,38 que hay partículas de materia v antimateria que afloran a la existencia y desaparecen de nuevo, y que esas partículas están empujando el universo hacia fuera a un ritmo acelerado. Aunque resulte bastante inverosímil, lo único que resuelve todo esto es la constante cosmológica de Einstein.39 el pequeño añadido matemático que introdujo en la Teoría General de la Relatividad para detener la presunta expansión del universo y que él calificó como «la mayor metedura de pata de mi vida». Ahora parece que, después de todo, puede que hiciese bien las cosas.
Lo que resulta de todo esto es que vivimos en un universo cuya edad no podemos calcular del todo, rodeados de estrellas cuya distancia de nosotros y entre ellas no podemos conocer; lleno de materia que no somos capaces de identificar, que opera según leyes físicas cuyas propiedades no entendemos en realidad…
Y, con ese comentario bastante inquietante, regresemos al planeta Tierra y consideremos algo que sí entendemos…, aunque tal vez a estas alturas no te sorprenda saber que no lo comprendemos del todo y que, lo que entendemos, hemos estado mucho tiempo sin entenderlo.
El señor Hapgood desechaba esas ideas tranquilamente, indicando que geólogos como K. E. Castor y J.C. Mondes habían hecho abundante trabajo de campo en ambas costas del Atlántico y habían demostrado, indiscutiblemente, que no existían tales similitudes. Sabe Dios qué rocas examinarían los señores Castor y Mondos, porque, en realidad, muchas de las formaciones rocosas de ambos litorales del Atlántico son las mismas… No son sólo muy parecidas, sino que son idénticas.
No se trataba de una idea con la que estuviesen de acuerdo ni el señor Hapgood ni muchos otros geólogos de su época. La teoría a que aludía Hapgood había sido postulada por primera voz en 1908 por un geólogo aficionado estadounidense, llamado Frank Bursley Taylor. Taylor procedía de una familia acaudalada, disponía de medios y estaba libro do limitaciones académicas, por lo que podía emprender vías de investigación heterodoxas. Era uno de los sorprendidos por la similitud de forma entre los litorales opuestos de África y de Suramérica y dedujo, a partir do esa observación, que los continentes habían estado en movimiento en otros tiempos. Propuso resultó una idea clarividente- que el choque de los continentes podría haber hecho surgir las cadenas montañosas del planeta. No consiguió aportar pruebas sin embargo, y la teoría se consideró demasiado estrambótica para merecer una atención seria.
Pero un teórico alemán, Alfred Wegener; tomó la idea do Taylor y prácticamente se la apropió. Wegener era un meteorólogo do la Universidad de Marburg. Investigó numerosas muestras de plantas y animales fósiles, que no encajaban en el modelo oficial de la historia de la Tierra, y comprendió que tenía muy poco sentido si se interpretaba do forma convencional. Los fósiles do animales aparecían insistentemente en orillas opuestas de océanos que eran demasiado grandes para cruzarlos a nado. ¿Cómo habían viajado, se preguntó, los marsupiales desde Suramérica hasta Australia? ¿Cómo aparecían caracoles idénticos en Escandinavia y en Nueva Inglaterra? Y, puestos a preguntar, ¿cómo se explicaban las votas carboníferas y demás restos semitropicales en lugares tan gélidos como Spitsbergen, más de 600 kilómetros al norte de Noruega, si no habían emigrado allí de algún modo desde climas más cálidos?
Wegener elaboró la teoría de que los continentes del mundo habían sido en tiempos una sola masa terrestre que denominó Pangea, donde flora y fauna habían podido mezclarse, antes do dispersarse y acabar llegando a sus emplazamientos actuales. Expuso la teoría en un libro titulado Die Entstchung der Kontinente und Ozeane, o The Origin of Continents and Oceans [El origen de los continentes y los océanos], publicado en alemán en 1912 y en inglés (pese a haber estallado entro tanto la Primera Guerra Mundial) tres años más tarde.
La teoría de Wegener no despertó al principio mucha atención debido a la guerra. Pero, en 1920, publicó una edición revisada y ampliada que se convirtió enseguida en tema de debate. Todo el mundo aceptaba que los continentes se movían… poro hacia arriba y hacia abajo, no hacia los lados. El proceso del movimiento vertical, conocido como isostasia, fue artículo de fe en geología durante generaciones, aunque nadie disponía de teorías sólidas que explicasen cómo y por qué se producía. Una idea que persistió en los libros de texto hasta bien entrada mi época de estudiante era la de la «manzana asada», propuesta por el austriaco Eduard Suess poco antes de fin de siglo. Suess afirmaba que, cuando la Tierra fundida se había enfriado, se había quedado arrugada igual que una manzana asada, formándose así las cuencas oceánicas y las cadenas de montañas. No importaba que James Hutton hubiese demostrado hacía mucho tiempo que cualquier disposición estática de ose género desembocaría en un esferoide sin rasgos en cuanto la erosión alisase los salientes y rellenase los huecos. Estaba también el problema, planteado por Rutherford y Soddy años antes en el mismo siglo, de que los elementos térreos contenían inmensas reservas de calor… demasiado para que fuese posible el tipo de enfriamiento y arrugamiento que proponía Suess. Y, de todos modos, si la teoría de Suess fuese correcta, las montañas estarían distribuidas de modo uniforme en la superficie de la Tierra, lo que claramente no era así; y serían todas más o menos de la misma edad. Sin embargo, a principios de la década de 1900, ya era evidente que algunas cordilleras, como los Urales y los Apalaches, eran cientos de millones de años más antiguas que otras, como los Alpes y las Rocosas. Es indudable que todo estaba a punto para una nueva teoría. Por desgracia, Alfred Wegener no era el hombre que los geólogos querían que la proporcionase.
En primer lugar, sus ideas radicales ponían en entredicho las bases de la disciplina, lo que no suele ser un medio eficaz de generar simpatía entre el público interesado. Un reto de ese tipo habría sido bastante doloroso procediendo de un geólogo, pero Wegener no tenía un historial en geología. Era meteorólogo, Dios santo. Un hombre del tiempo… un hombre del tiempo alemán. Eran defectos que no tenían remedio.
Así que los geólogos se esforzaron todo lo posible por refutar sus pruebas y menospreciar sus propuestas. Para eludir los problemas que planteaba la distribución de los fósiles, postularon «puentes de tierra» antiguos siempre que era necesario.1 Cuando se descubrió que un caballo antiguo llamado Hipparion había vivido en Francia y en Florida al mismo tiempo, se tendió un puente de tierra que cruzaba el Atlántico. Cuando se llegó a la conclusión de que habían existido simultáneamente tapires antiguos en Suramérica y en el sureste asiático, se tendió otro puente de tierra. Los mapas de los mares prehistóricos no tardaron en ser casi sólidos debido a los puentes de tierra hipotéticos que iban desde Norteamérica a Europa, de Brasil a África, del sureste asiático a Australia, desde Australia a la Antártida… Estos zarcillos conexores no sólo habían aparecido oportunamente siempre que hacía falta trasladar un organismo vivo de una masa continental a otra, sino que luego se habían esfumado dócilmente sin dejar rastro de su antigua existencia. De todo esto, claro, no había ninguna prueba -nada tan erróneo podía probarse-. Constituyó, sin embargo, la ortodoxia geológica durante casi medio siglo.
Ni siquiera los puentes de tierra podían explicar algunas cosas.3 Se descubrió que una especie de trilobite muy conocida en Europa había vivido también en Terranova… pero sólo en un lado. Nadie podía explicar convincentemente cómo se las había arreglado para cruzar 3.000 kilómetros de océano hostil y no había sido capaz después de abrirse paso por el extremo de una isla de 300 kilómetros de anchura. Resultaba más embarazosa aún la anomalía que planteaba otra especie de trilobite hallada en Europa y en la costa noroeste del Pacífico de América, pero en ningún otro lugar intermedio, que habría exigido un paso elevado más que un puente de tierra como explicación. Todavía en 1964, cuando la Enciclopedia Británica analizó las distintas teorias, fue la de Wegener la que se consideró llena de «numerosos y graves problemas teóricos».4 Wegener cometió errores, por supuesto. Aseguró que Groenlandia se estaba desplazando hacia el oeste a razón de 1,6 kilómetros por año, un disparate evidente. (El desplazamiento se aproxima mas a un centímetro.) Sobre todo no pudo ofrecer ninguna explicación convincente de cómo se movían las masas continentales. Para creer en su teoría había que aceptar que continentes enormes se habían desplazado por la corteza sólida como un arado por la tierra, pero sin dejar surcos a su paso Nada que se conociese entonces podía explicar de forma razonable cuál era el motor de aquellos movimientos gigantescos.
Fue el geólogo inglés Arthur Holmes, que tanto hizo por determinar la edad de la Tierra, quien aporté una sugerencia. Holmes fue el primer científico que comprendió que el calentamiento radiactivo podía producir corrientes de convección en el interior de la Tierra. En teoría, dichas corrientes podían ser lo suficientemente fuertes como para desplazar continentes de un lado a otro en la superficie. En su popular manual Principios de geología física, publicado por primera vez en 1944 y que tuvo gran influencia, Holmes expuso una teoría de la deriva continental que es, en sus ideas fundamentales, la que hoy prevalece. Era aún una propuesta radical para la época y fue muy criticada, sobre todo en Estados Unidos, don-de la oposición a la deriva continental persistió más que en ninguna otra parte. A un crítico le preocupaba -lo decía sin sombra de ironía- que Holmes expusiese sus argumentos de forma tan clara y convincente que los estudiantes pudiesen llegar realmente a creérselos.5 En otros países, sin embargo, la nueva teoría obtuvo un apoyo firme aunque cauto. En 1950, una votación de la asamblea anual de la Asociación Británica para el Progreso de la Ciencia, puso de manifiesto que aproximadamente la mitad de los asistentes aceptaba la idea de la deriva continental.6 (Hapgood citaba poco después esa cifra como prueba de lo trágicamente extraviados que estaban los geólogos ingleses.) Es curioso que el propio Holmes dudara a veces de sus convicciones. Como confesaba en 1953: «Nunca he conseguido librarme de un fastidioso prejuicio contra la deriva continental; en mis huesos geológicos, digamos, siento que la hipótesis es una fantasía».7
La deriva continental no careció totalmente de apoyo en Estados Unidos. La defendió, por ejemplo, Reginald Daly de Harvard. Pero, como recordarás, él fue quien postulé que la Luna se había formado por un impacto cósmico y sus ideas solían considerarse interesantes e incluso meritorias, pero un poco desmedidas para tomarlas en serio. Y así, la mayoría de los académicos del país siguió fiel a la idea de que los continentes habían ocupado siempre sus posiciones actuales y que sus características superficiales podían atribuirse a causas distintas de los movimientos laterales.
Resulta interesante el hecho de que los geólogos de las empresas petroleras hacía años que sabían8 que si querías encontrar petróleo tenias que tener en cuenta concretamente el tipo de movimientos superficiales implícitos en la tectónica de placas. Pero los geólogos petroleros no escribían artículos académicos. Ellos sólo buscaban petróleo.
Había otro problema importante relacionado con las teorías sobre la Tierra que no había resuelto nadie, para el que nadie había conseguido aportar ni siquiera una solución. ¿Adónde iban a parar todos los sedimentos? Los ríos de la Tierra depositaban en los mares anualmente volúmenes enormes de material de acarreo (500 millones de toneladas de calcio, por ejemplo). Si multiplicabas la tasa de deposición por el número de anos que llevaba produciéndose, obtenías una cifra inquietante: tendría que haber unos veinte kilómetros de sedimentos sobre los fondos oceánicos… o, dicho de otro modo, los fondos oceánicos deberían hallarse ya muy por encima de la superficie de los océanos. Los científicos afrontaron esta paradoja de la forma más práctica posible: ignorándola. Pero llegó un momento en que ya no pudieron seguir haciéndolo.
Harry Hess era un especialista en mineralogía de la Universidad de Princeton, al que pusieron al cargo de un barco de transporte de tropas de ataque, el Cape Jonson, durante la Segunda Guerra Mundial. A bordo había una sonda de profundidad nueva, denominada brazómetro,9 que servía para facilitar las maniobras de desembarco en las playas, pero Hess se dio cuenta de que podía utilizarse también con fines científicos v la mantuvo funcionando constantemente, incluso en alta mar y en pleno combate. Descubrió así algo absolutamente inesperado: si los fondos oceánicos eran antiguos, como suponía todo el mundo, tenían que tener una gruesa capa de sedimento, como el légamo del fondo de un río o de un lago, pero las lecturas del brazómetro indicaban que en el fondo oceánico sólo había la pegajosa suavidad de limos antiguos. Y que estaba cortado además por todas partes por cañones, trincheras y grietas y salpicado de picachos volcánicos submarinos que Hess denominé guyotes, por otro geólogo anterior de Princeton llamado Arnold Guyot10 Todo esto era un rompecabezas, pero Hess tenía por delante una guerra y dejé aparcados al fondo de la mente estos pensamientos.
Después de la guerra, Hess regresé a Princeton y a las tareas y preocupaciones de la enseñanza, pero los misterios del lecho marino siguieron ocupando un espacio en sus pensamientos. Por otra parte, durante la década de 1950, los oceanógrafos empezaron a realizar exploraciones cada vez más complejas de los fondos oceánicos v se encontraron con una sorpresa todavía mayor: la cadena montañosa más formidable y extensa de la Tierra estaba (mayoritariamente) sumergida bajo la superficie. Trazaba una ruta ininterrumpida a lo largo de los lechos marinos del mundo bastante parecida al dibujo de una pelota de tenis. Si partías de Islandia con rumbo sur, podías seguirla por el centro del océano Atlántico, doblar con ella la punta meridional de África v continuar luego por los mares del Sur y el océano Índico y luego por el Pacífico justo por debajo de Australia. Allí continuaba en ángulo, cruzando el Pacífico como si se dirigiese hacia la baja California, pero se desviaba después por la costa oeste de Estados Unidos arriba hasta Alaska. De vez en cuando, sus picos más altos afloraban sobre la superficie del agua como islas o archipiélagos (las Azores y las Canarias en el Atlántico, Hawai en el Pacífico, por ejemplo), pero estaba mayoritariamente sepultada bajo miles de brazas de agua salada, desconocida e insospechada. Sumando todos sus ramales, la red se extendía a lo largo de 75.000 kilómetros.
Hacía bastante tiempo que se sabía algo de esto. Los técnicos que tendían cables por el lecho del océano en el siglo xix habían comprobado que se producía algún tipo de intrusión montañosa, en el camino que recorrían los cables en el centro del Atlántico, pero el carácter continuado y la escala global de la cadena fue una sorpresa desconcertante. Contenía además anomalías físicas que no podían explicarse. En el centro de la cordillera en mitad del Atlántico había un cañón (una fisura o grieta o rift) de 10 kilómetros de anchura que recorría los 19.000 kilómetros de su longitud. Esto parecía indicar que la Tierra se estaba separando en las junturas, como una nuez cuya cáscara se estuviese rompiendo. Era una idea absurda e inquietante, pero no se podía negar lo evidente.
Luego, en 1960, las muestras de la corteza indicaron que el fondo oceánico era muy joven en la cordillera central del Atlántico, pero que iba haciéndose cada vez más viejo a medida que te alejabas hacia el este o el oeste. Harry Hess consideró el asunto y llegó a la conclusión de que sólo podía significar una cosa: se estaba formando nueva corteza oceánica a ambos lados de la fisura central, que iba desplazándose hacia los lados al ir surgiendo esa nueva corteza. El suelo del Atlántico era, en realidad, como dos grandes correas de transmisión, una que llevaba corteza hacia el norte de América y la otra que la desplazaba hacia Europa. El proceso se denominé ensanchamiento del lecho marino.
Cuando la corteza llegaba al final de su viaje en la frontera con los continentes, volvía a hundirse en la Tierra en un proceso denominado subducción. Eso explicaba adónde se iba todo el sedimento. Regresaba a las entrañas de la Tierra, También explicaba por qué los fondos oceánicos eran en todas partes tan relativamente jóvenes. No se había descubierto ninguno que tuviese más de unos 175 millones de años, lo que resultaba desconcertante porque las rocas continentales tenían en muchos casos miles de millones de años de antigüedad. Hess ya podía entender por qué. Las rocas oceánicas duraban sólo el tiempo que tardaban en llegar basta la costa. Era una bella teoría que explicaba muchas cosas. Hess expuso sus argumentos en un importante artículo, que fue casi universalmente ignorado. A veces el mundo simplemente no está preparado para una buena idea.
Mientras tanto, dos investigadores, trabajando cada uno por su cuenta, estaban haciendo algunos descubrimientos sorprendentes, a partir de un hecho curioso de la historia de la Tierra que se había descubierto varios decenios antes. En 1906, un físico francés llamado Bernard Brunhes había descubierto que el campo magnético del planeta se invierte de cuando en cuando y que la crónica de esas inversiones está registrada de forma permanente en ciertas rocas en la época de su nacimiento. Pequeños granos de mineral de hierro que contienen las rocas apuntaban concretamente hacia donde estaban los polos magnéticos en la época de su formación, quedando luego inmovilizados en esa posición al enfriarse y endurecerse las rocas. Así pues, esos grandes «recuerdan» dónde estaban los polos magnéticos en la época de su creación. Esto fue durante años poco más que una curiosidad, pero en los años cincuenta, Patrick Blackett, de la Universidad de Londres, y S. K. Runcorn de la Universidad de Newcastle, estudiaron las antiguas pautas magnéticas inmovilizadas en rocas británicas y se quedaron asombrados, por decir poco, al descubrir que indicaban que en algún periodo del pasado lejano Inglaterra había girado sobre su eje y viajado cierta distancia hacía el norte, como si se hubiese desprendido misteriosamente de sus amarras. Descubrieron además que, si colocaban un mapa de pautas magnéticas de Europa junto a otro de América del mismo periodo, encajaban tan exactamente como dos mitades de una carta rota. Era muy extraño, también sus descubrimientos fueron ignorados.
La tarea de atar todos los cabos correspondió finalmente a dos hombres de la Universidad de Cambridge, un físico llamado Drummond Matthews y un estudiante graduado alumno suyo, llamado Fred Vine. En 1963, valiéndose de estudios magnéticos del lecho del océano Atlántico, demostraron de modo concluyente que los lechos marinos se estaban ensanchando exactamente de la forma postulada por Hess y que también los continentes estaban en movimiento. Un desafortunado geólogo canadiense, llamado Lawrence Morley, llegó a la misma conclusión al mismo tiempo, pero no encontró a nadie que le publicase el artículo. El director del Journal of Geophysical Research le dijo, en lo que se ha convertido en un desaire célebre: «Esas especulaciones constituyen una conversación Interesante para fiestas y cócteles, pero no son las cosas que deberían publicarse bajo los auspicios de una revista científica seria». Un geólogo describió el artículo más tarde así: «Probablemente el artículo más significativo de las ciencias de la Tierra al que se haya negado la publicación».11
De cualquier modo, lo cierto es que la consideración de la corteza móvil era una idea a la que le había llegado al fin su momento.
En 1964, se celebró en Londres bajo los auspicios de la Real Sociedad un simposio, en el que participaron muchas de las personalidades científicas más importantes del campo, y pareció de pronto que todo el mundo se había convertido. La Tierra, convinieron todos, era un mosaico de segmentos interconectados cuyos formidables y diversos empujes explicaban gran parte de la conducta de la superficie del planeta.
La expresión «deriva continental» se desechó con bastante rapidez cuando se llegó a la conclusión de que estaba en movimiento toda la corteza y no sólo los continentes, pero llevó tiempo ponerse de acuerdo en una denominación para los segmentos individuales. Se les llamó al principio «bloques de corteza» o, a veces, «adoquines». Hasta finales de 1968, con la publicación de un artículo de tres sismólogos estadounidenses en el Journal of Geopbysical Research, no recibieron los segmentos el nombre por el que se los conoce desde entonces: placas. El mismo artículo denominaba la nueva ciencia tectónica de placas.
Las viejas ideas se resisten a morir, y no todo el mundo se apresuró a abrazar la nueva y emocionante teoría. Todavía bien entrados los años setenta12 uno de los manuales de geología más populares e influyentes, The Earth [La Tierra], del venerable Harold Jeffreys, insistía tenazmente en que la tectónica de placas era una imposibilidad física, lo mismo que lo había hecho en la primera edición que se remontaba a 1924. El manual desdeñaba también las ideas de convección y de ensanchamiento del lecho marino. Y John McPhee comentaba en Basín and Range [Cuenca y cordillera], publicado en 1980, que, incluso entonces, un geólogo estadounidense de cada ocho no creía aún en la tectónica de placas. 13
Hoy sabemos que la superficie terrestre está formada por entre ocho y doce grandes placas14 (según lo que se considere grande) y unas veinte más pequeñas, y que todas se mueven en direcciones y a velocidades distintas. Unas placas son grandes y relativamente inactivas; otras, pequeñas y dinámicas. Sólo mantienen una relación incidental con las masas de tierra que se asientan sobre ellas. La placa norteamericana, por ejemplo, es mucho mayor que el continente con el que se la asocia. Sigue aproximadamente el perfil de la costa occidental del continente- ése es el motivo de que la zona sea sísmicamente tan activa, debido al choque y la presión de la frontera de la placa-, pero ignora por completo el litoral oriental y, en vez de alinearse con él, se extiende por el Atlántico hasta la cordillera de la zona central de éste. Islandia está escindida por medio, lo que hace que sea tectónicamente mitad americana y mitad europea. Nueva Zelanda, por su parte, se halla en la inmensa placa del océano Índico, a pesar de encontrarse bastante lejos de él. Y lo mismo sucede con la mayoría de las placas.
Se descubrió también que las conexiones entre las masas continentales modernas y las del pasado son infinitamente más complejas de lo que nadie había supuesto.15 Resulta que Kazajstán estuvo en tiempos unido a Noruega y a Nueva Inglaterra. Una esquina de State Island (pero sólo una esquina) es europea. También lo es una parte de Terranova. El pariente más próximo de una piedra de una playa de Massachusetts lo encontrarás ahora en África. Las Highlands escocesas y buena parte de Escandinavia son sustancialmente americanas. Se cree que parte de la cordillera Shackleton de la Antártida quizá perteneciera en tiempos a los Apalaches del este de Estados Unidos. Las rocas, en resumen, andan de un sitio a otro.
El movimiento constante impide que las placas se fundan en una sola placa inmóvil. Suponiendo que las cosas sigan siendo en general como ahora, el océano Atlántico se expandirá hasta llegar a ser mucho mayor que el Pacífico. Gran parte de California se alejará flotando y se convertirá en una especie de Madagascar del Pacífico. África se desplazará hacia el norte, uniéndose a Europa, borrando de la existencia el Mediterráneo y haciendo elevarse una cadena de montañas de majestuosidad himaláyica, que irá desde París hasta Calcuta. Australia colonizará las islas situadas al norte de ella y se unirá mediante algunos ombligos ístmicos a Asia. Estos son resultados futuros, pero no acontecimientos futuros. Los acontecimientos están sucediendo ya. Mientras estamos aquí sentados, los continentes andan a la deriva, como hojas en un estanque. Gracias a los sistemas de localización por satélite podemos ver que Europa y Norteamérica se están separando aproximadamente a la velocidad que crece la uña de un dedo…16 unos dos metros en una vida humana. Si estuvieses en condiciones de esperar el tiempo suficiente, podrías subir desde Los Ángeles hasta San Francisco. Lo único que nos impide apreciar los cambios es la brevedad de la vida individual. Si miras un globo terráqueo, lo que ves no es en realidad más que una foto fija de los continentes tal como fueron durante sólo una décima del 1% de la historia de la Tierra.17
La Tierra es el único planeta rocoso que tiene tectónica y la razón de ello es un tanto misteriosa. No se trata sólo de una cuestión de tamaño o densidad (Venus es casi un gemelo de la Tierra en esos aspectos y no tiene, sin embargo, ninguna actividad tectónica), pero puede que tengamos justamente los materiales adecuados en las cuantías justamente adecuadas para que la Tierra se mantenga efervescente. Se piensa aunque es sólo una idea-que la tectónica es una pieza importante del bienestar orgánico del planeta.18 Como ha dicho el físico y escritor James Trefil: «Resultaría difícil creer que el movimiento continuo de las placas tectónicas no tiene ninguna influencia en el desarrollo de la vida en la Tierra». En su opinión, los retos que la tectónica plantea (cambios climáticos, por ejemplo) fueron un acicate importante para el desarrollo de la inteligencia. Otros creen que la deriva de los continentes puede haber producido por lo menos algunos de los diversos procesos de extinción de la Tierra. En noviembre del año 2002, Tony Dickson, de la Universidad de Cambridge, escribió un articulo que publicó la revista Science, en que postula resueltamente la posible existencia de una relación entre la historia de las rocas y la historia de la vida.19 Dickson demostró que la composición química de los océanos del mundo se ha alterado, de forma brusca y espectacular a veces, durante los últimos 500 millones de años, y que esos cambios se corresponden en muchos casos con importantes acontecimientos de la historia biológica: la profusa y súbita irrupción de pequeños organismos que creó los acantilados calizos de la costa sur de Inglaterra, la brusca propagación de la moda de las conchas entre los organismos marinos en el periodo Cámbrico, etcétera. Nadie ha podido determinar cuál es la causa de que la composición química de los océanos cambie de forma tan espectacular de cuando en cuando, pero la apertura v el cierre de las cordilleras oceánicas serían culpables evidentes y posibles.
Lo cierto es que la tectónica de placas no sólo explicaba la dinámica de la superficie terrestre (cómo un antiguo Hipparion llegó de Francia a Florida, por ejemplo), sino también muchos de sus procesos internos. Los terremotos, la formación de archipiélagos, el ciclo del carbono, los emplazamientos de las montañas, la llegada de las eras glaciales, los orígenes de la propia vida… no había casi nada a lo que no afectase directamente esta nueva y notable teoría. Según McPhee, los geólogos se encontraron en una posición que causaba vértigo, en la que «de pronto, toda la Tierra tenía sentido».20
Pero sólo hasta cierto punto. La distribución de continentes en los tiempos antiguos está mucho menos claramente resuelta de lo que piensa la mayoría de la gente ajena a la geofísica. Aunque los libros de texto dan representaciones, que parecen seguras, de antiguas masas de tierra con nombres como Laurasia, Gondwana, Rodinia y Pangea, esas representaciones se basan a menudo en conclusiones que no se sostienen del todo. Como comenta George Gaylord Simpson en Fossíls and the History of Life [Fósiles y la historia de la vida], especies de plantas y animales del mundo antiguo tienen por costumbre aparecer inoportunamente donde no deberían y no estar donde sí deberían.
El contorno de Gondwana, un continente imponente que conectaba en tiempos Australia, África, la Antártida y Suramérica, estaba basado en gran parte en la distribución de un género del antiguo helecho lengua llamado Glossopteris, que se halló en todos los lugares adecuados. Pero mucho después se descubrió también el Glossopteris en zonas del mundo que no tenían ninguna conexión conocida con Gondwana. Esta problemática discrepancia fue (y sigue siendo) mayoritariamente ignorada. Del mismo modo, un reptil del Triásico llamado listrosaurio se ha encontrado en la Antártida yen Asia, dando apoyo a la idea de una antigua conexión entre esos continentes, pero nunca ha aparecido en Suramérica ni en Australia, que se cree que habían formado parte del mismo continente en la misma época.
Hay también muchos rasgos de la superficie que no puede explicar la tectónica.22 Consideremos, por ejemplo, el caso de Denver Está, como es sabido, a 1.600 metros de altitud, pero su ascensión es relativamente reciente. Cuando los dinosaurios vagaban por la Tierra, Denver formaba parte del lecho oceánico y estaba, por tanto, muchos miles de metros más abajo. Pero las rocas en las que Denver se asienta no están fracturadas ni deformadas como deberían estarlo si Denver hubiese sido empujado hacia arriba por un choque de placas y; de todos modos, Denver estaba demasiado lejos de los bordes de la placa para que le afecten los movimientos de ésta. Sería como si empujases en un extremo de una alfombra con la esperanza de formar una arruga en el extremo opuesto. Misteriosamente y a lo largo de millones de años, parece que Denver ha estado subiendo como un pan en el horno. Lo mismo sucede con gran parte de África meridional; un sector de ella, de 1.000 kilómetros de anchura, se ha elevado sobre kilómetro y medio en un centenar de millones de años sin ninguna actividad tectónica conocida relacionada. Australia, por su parte, ha estado inclinándose y hundiéndose. Durante los últimos cien millones de años, mientras se ha desplazado hacia el norte, hacia Asia, su extremo frontal se ha hundido casi doscientos metros. Parece ser que Indonesia se está hundiendo lentamente y arrastrando con ella a Australia. Nada de todo esto se puede explicar con las teorías de la tectónica.
Alfred Wegener no vivió lo suficiente para ver confirmadas sus ideas.23
En 1930, durante una expedición a Groenlandia, el día de su quincuagésimo cumpleaños, abandonó solo el campamento para localizar un lanzamiento de suministros. Nunca regresó. Le encontraron muerto unos cuantos días después, congelado en el hielo. Le enterraron allí mismo y todavía sigue allí, aunque un metro más cerca del continente norteamericano que el día que murió.
Tampoco Einstein llegó a vivir lo suficiente para ver que no había apostado por el caballo ganador. Murió en Princeton, Nueva Jersey, en 1935, antes incluso, en realidad, de que se publicasen las simplezas de Charles Hapgood sobre las teorías de la deriva continental.
El otro actor principal de la aparición de la teoría de la tectónica, Harry Hess, estaba también en Princeton por entonces y pasaría allí el resto de su carrera. Uno de sus alumnos, un joven muy inteligente llamado Walter Álvarez,24 acabaría cambiando el mundo de la ciencia de una forma completamente distinta.
En cuanto a la propia geología, sus cataclismos no habían hecho más que empezar, y fue precisamente el joven Álvarez quien ayudó a poner el proceso en marcha.
DEREK V. AGER, geólogo británico