50. Las partículas que se mueven más deprisa que la luz emiten radiación luminosa. ¿Cómo es posible, si no hay nada que se propague más deprisa que la luz?

A menudo se oye decir que las partículas no pueden moverse «más deprisa que la luz» y que la «velocidad de la luz» es el límite último de velocidad.

Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes según el medio en que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.793 kilómetros por segundo. Éste es el límite último de velocidades.

Por consiguiente, para ser precisos habría que decir que las partículas no pueden moverse «más deprisa que la velocidad de la luz en el vacío».

Cuando la luz se mueve a través de un medio transparente, siempre lo hace más despacio que en el vacío, y en algunos casos mucho más despacio. Cuanto más despacio se mueva en un medio dado, tanto mayor es el ángulo con que se dobla (refracta) al entrar en ese medio desde el vacío y con un ángulo oblicuo. La magnitud de ese doblamiento viene definida por lo que se denomina el «índice de refracción».

Si dividimos la velocidad de la luz en el vacío por el índice de refracción de un medio dado, lo que obtenemos es la velocidad de la luz en dicho medio. El índice de refracción del aire, a la presión y temperatura normales, es aproximadamente 1,003, de modo que la velocidad de la luz en el aire es 299.793 dividido por 1,0003 ó 299.703 kilómetros por segundo. Es decir, 90 kilómetros por segundo menos que la velocidad de la luz en el vacío.

El índice de refracción del agua es 1,33, del vidrio corriente 1,7 y del diamante 2,42. Esto significa que la luz se mueve a 225.408 kilómetros por segundo por el agua, a 176.349 kilómetros por segundo por el vidrio y a sólo 123.881 kilómetros por segundo por el diamante.

Las partículas no pueden moverse a más de 299.793 kilómetros por segundo, pero desde luego sí a 257.500 kilómetros por segundo, pongamos por caso, incluso en el agua. En ese momento están moviéndose por el agua a una velocidad mayor que la de la luz en el agua. Es más, las partículas pueden moverse más deprisa que la luz en cualquier medio excepto el vacío.

Las partículas que se mueven más deprisa que la luz en un determinado medio distinto del vacío emiten una luz azul que van dejando tras de sí como si fuese una cola. El ángulo que forman los lados de esta cola con la dirección de la partícula depende de la diferencia entre la velocidad de la partícula y la de la luz en ese medio.

El primero que observó esta luz azul emitida por las partículas más veloces que la luz fue un físico ruso llamado Pavel A. Cerenkov, que anunció el fenómeno en 1934. Esa luz se denomina, por tanto, «radiación de Cerenkov». En 1937, otros dos físicos rusos, Eya M. Frank e Igor Y. Tamm, explicaron la existencia de esta luz, relacionándola con las velocidades relativas de la partícula y de la luz en el medio de que se tratara. Como resultado de ello, los tres recibieron en 1958 el Premio Nobel de Física.

Para detectar dicha radiación y medir su intensidad y la dirección con que se emite se han diseñado instrumentos especiales, llamados «contadores de Cerenkov».

Los contadores de Cerenkov son muy útiles porque sólo son activados por partículas muy rápidas y porque el ángulo de emisión de la luz permite calcular fácilmente su velocidad. Los rayos cósmicos muy energéticos se mueven a una velocidad tan próxima a la de la luz en el vacío, que producen radiación de Cerenkov incluso en el aire.

Los taquiones, partículas hipotéticas que sólo se pueden mover más de prisa que la luz en el vacío, dejarían un brevísimo relámpago de radiación de Cerenkov incluso en el vacío. Las esperanzas que tienen los físicos de probar la existencia real de los taquiones se cifran en detectar precisamente esa radiación de Cerenkov (suponiendo que existan, claro está).

51. Si no hay nada más rápido que la luz, ¿qué son los taquiones, que al parecer se mueven más deprisa que ella?

La teoría especial de la relatividad de Einstein dice que es imposible hacer que ningún objeto de nuestro universo se mueva a una velocidad mayor que la de la luz en el vacío. Haría falta una cantidad infinita de energía para comunicarle una velocidad igual a la de luz, y la cantidad «plus quam infinita» necesaria para pasar de ese punto sería impensable.

Pero supongamos que un objeto estuviese moviéndose ya más deprisa que la luz.

La luz se propaga a 299.793 kilómetros por segundo. Pero, ¿qué ocurriría si un objeto de un kilogramo de peso y de un centímetro de longitud se estuviera moviendo a 423.971 kilómetros por segundo? Utilizando las ecuaciones de Einstein comprobamos que el objeto tendría entonces una masa de – kilogramos y una longitud de + centímetros.

O dicho con otras palabras: cualquier objeto que se mueva más deprisa que la luz tendría que tener una masa y una longitud expresadas en lo que los matemáticos llaman «números imaginarios» (véase pregunta 6). Y como no conocemos ninguna manera de visualizar masas ni longitudes expresadas en números imaginarios, lo inmediato es suponer que tales cosas, al ser impensables, no existen.

Pero en el año 1967, Gerald Feinberg, de la Universidad Columbia, se preguntó si era justo proceder así. (Feinberg no fue el primero que sugirió la partícula; el mérito es de O. M. Bilaniuk y E. C. G. Sudarshan. Pero fue Feinberg quien divulgó la idea). Pudiera ser, se dijo, que una masa y una longitud «imaginarias» fuesen simplemente un modo de describir un objeto con gravedad negativa (pongamos por caso): un objeto que, dentro de nuestro universo, repele a la materia en lugar de atraerla gravitatoriamente.

Feinberg llamó «taquiones» a estas partículas más rápidas que la luz y de masa y longitud imaginarias; la palabra viene de otra que en griego significa «rápido». Si concedemos la existencia de estos taquiones, ¿podrán cumplir los requisitos de las ecuaciones de Einstein?

Aparentemente, sí. No hay inconveniente alguno en imaginar un universo entero de taquiones que se muevan más deprisa que la luz pero que sigan cumpliendo los requisitos de la relatividad. Sin embargo, en lo que toca a la energía y a la velocidad, la situación es opuesta a lo que estamos acostumbrados.

En nuestro universo, el «universo lento», un cuerpo inmóvil tiene energía nula; a medida que adquiere energía va moviéndose cada vez más deprisa, y cuando la energía se hace infinita el cuerpo va a la velocidad de la luz. En el «universo rápido», un taquión de energía nula se mueve a velocidad infinita, y cuanta más energía adquiere más despacio va; cuando la energía se hace infinita, la velocidad se reduce a la de la luz.

En nuestro universo lento ningún cuerpo puede moverse más deprisa que la luz bajo ninguna circunstancia. En el universo rápido, un taquión no puede moverse más despacio que la luz en ninguna circunstancia. La velocidad de la luz es la frontera entre ambos universos y no puede ser cruzada.

Pero los taquiones ¿realmente existen? Nada nos impide decidir que es posible que exista un universo rápido que no viole la teoría de Einstein, pero el que sea posible no quiere decir quesea.

Una posible manera de detectar el universo rápido se basa en la consideración de que un taquión, al atravesar un vacío con velocidad superior a la de la luz, tiene que dejar tras sí un rastro de luz potencialmente detectable. Naturalmente, la mayoría de los taquiones irían muy, muy deprisa, millones de veces más deprisa que la luz (igual que los objetos corrientes se mueven muy despacio, a una millonésima de la velocidad de la luz).

Los taquiones ordinarios y sus relámpagos de luz pasarían a nuestro lado mucho antes de que nos pudiésemos percatar de su presencia. Tan sólo aquellos pocos de energía muy alta pasarían con velocidades próximas a la de la luz. Y aun así, recorrerían un kilómetro en algo así como 1/300.000 de segundo, de modo que detectarlos exigiría una operación harto delicada.

52. Los taquiones de energía cero se mueven con velocidad infinita. ¿Es de verdad posible una velocidad infinita?

La idea de una partícula que se mueve a velocidad infinita tiene sus paradojas. Iría de A a B en un tiempo nulo, lo cual significa que estaría en A y B al mismo tiempo, y también en todos los lugares intermedios. Y seguiría hasta los puntos C, D, E, etc., a través de una distancia infinita, todo ello en un tiempo nulo. Una partícula que se moviera a velocidad infinita tendría por tanto las propiedades de una barra sólida de longitud infinita.

Si el espacio es curvo, como sugiere la teoría de la relatividad de Einstein, esa barra sólida sería en realidad un gran círculo, o espiral, o una curva sinuosa de forma aún más complicada.

Pero supongamos que hay un universo de taquiones, es decir de partículas que poseen todas ellas una velocidad mayor que la de la luz. A medida que van adquiriendo más y más energía, se mueven cada vez más lentamente, hasta que, al llegar a una energía infinita, su velocidad se reduce a la de la luz. Al perder energía, van cada vez más deprisa, yendo a velocidad infinita cuando la energía es nula.

Es de imaginar que en un universo así habría partículas de muy distintas energías. Unas muy energéticas, otras muy poco y otras intermedias (como ocurre con las partículas de nuestro universo).

La transferencia de energía de una partícula a otra en ese universo (igual que en el nuestro) tendría que ser a través de una interacción, como puede ser, por ejemplo, un choque. Si la partícula A, de poca energía, choca con la partícula B, de alta energía, lo más probable es que A gane energía a expensas de B, con lo cual habría una tendencia general a la formación de partículas de energía intermedia.

Claro está que habría excepciones. Al interaccionar dos partículas de igual energía, puede que una gane energía a expensas de la otra, ampliando así la gama. Incluso es posible (aunque improbable) que una partícula de alta energía gane aún más al chocar con otra de baja energía, dejando a ésta con menos energía que al comienzo.

Teniendo en cuenta la naturaleza fortuita de tales colisiones y de la transferencia de energía, se llega a la conclusión de que habrá toda una gama de energías y de que la mayoría de las partículas serán de energía intermedia; habrá algunas de alta (o baja) energía; pocas de muy alta (o muy baja) energía; un número pequeñísimo de muy, muy alta (o muy, muy baja) energía; y sólo trazas de energía muy, muy, muy alta (o muy, muy, muy baja).

Esta distribución de energías a lo largo de una determinada gama podríamos expresarla matemáticamente, y entonces veríamos que ninguna de las partículas tendría en realidad una energía infinita o una energía nula; habría partículas que se acercarían mucho a estos valores, pero sin alcanzarlos nunca. Algunos taquiones se moverían a veces a una velocidad ligeramente superior a la de la luz, pero sin llegar a ella; y habría otros que quizá se moverían a velocidades verdaderamente gigantescas, un millón (o un billón o un trillón) de veces más deprisa que la luz, pero nunca a velocidades realmente infinitas.

Supongamos que dos taquiones de la misma categoría chocan exactamente de frente. ¿No se anularían entonces las energías cinéticas de ambas partículas, abandonando éstas el lugar de la colisión a velocidad infinita? He aquí de nuevo una situación a la que nos podemos aproximar cuanto queramos, pero sin llegar nunca a ella. La probabilidad de que los dos taquiones tengan exactamente la misma energía y choquen exactamente de frente es despreciable.

Dicho con otras palabras, en el universo de taquiones las velocidades podrían acercarse al infinito pero nunca alcanzarlo; y en ese caso no hay que preocuparse por las paradojas que el infinito siempre parece plantear.

53. ¿Qué es el principio de incertidumbre de Heisenberg?

Antes de explicar la cuestión de la incertidumbre, empecemos por preguntar: ¿qué es la certidumbre? Cuando uno sabe algo de fijo y exactamente acerca de un objeto, tiene certidumbre sobre ese dato, sea cual fuere.

¿Y cómo llega uno a saber una cosa? De un modo o de otro, no hay más remedio que interaccionar con el objeto. Hay que pesarlo para averiguar su peso, golpearlo para ver cómo es de duro, o quizá simplemente mirarlo para ver dónde está. Pero grande o pequeña, tiene que haber interacción.

Pues bien, esta interacción introduce siempre algún cambio en la propiedad que estamos tratando de determinar. O digámoslo así: el aprender algo modifica ese algo por el mismo hecho de aprenderlo, de modo que, a fin de cuentas, no lo hemos aprendido exactamente.

Supongamos, por ejemplo, que queremos medir la temperatura del agua caliente de un baño. Metemos un termómetro y medimos la temperatura del agua. Pero el termómetro está frío, y su presencia en el agua la enfría una chispa. Lo que obtenemos sigue siendo una buena aproximación de la temperatura, pero no exactamente hasta la billonésima de grado. El termómetro ha modificado de manera casi imperceptible la temperatura que estaba midiendo.

O supongamos que queremos medir la presión de un neumático. Para ello utilizamos una especie de barrita que es empujada hacia afuera por una cierta cantidad del aire que antes estaba en el neumático. Pero el hecho de que se escape este poco de aire significa que la presión ha disminuido un poco por el mismo acto de medirla.

¿Es posible inventar aparatos de medida tan diminutos, sensibles e indirectos que no introduzcan ningún cambio en la propiedad medida?

El físico alemán Werner Heisenberg llegó, en 1927, a la conclusión de que no. La pequeñez de un dispositivo de medida tiene un límite. Podría ser tan pequeño como una partícula subatómica, pero no más. Podría utilizar tan sólo un cuanto de energía, pero no menos. Una sola partícula y un solo cuanto de energía son suficientes para introducir ciertos cambios. Y aunque nos limitemos a mirar una cosa para verla, la percibimos gracias a los fotones de luz que rebotan en el objeto, y eso introduce ya un cambio.

Tales cambios son harto diminutos, y en la vida corriente de hecho los ignoramos; pero los cambios siguen estando ahí. E imaginemos lo que ocurre cuando los objetos que estamos manejando son diminutos y cualquier cambio, por diminuto que sea, adquiere su importancia.

Si lo que queremos, por ejemplo, es determinar la posición de un electrón, tendríamos que hacer rebotar un cuanto de luz en él ―o mejor un fotón de rayos gamma― para «verlo». Y ese fotón, al chocar, desplazaría por completo al electrón.

Heisenberg logró demostrar que es imposible idear ningún método para determinar exacta y simultáneamente la posición y el momento de un objeto. Cuanto mayor es la precisión con que determinamos la posición, menor es la del momento, y viceversa. Heisenberg calculó la magnitud de esa inexactitud o «incertidumbre» de dichas propiedades, y ese es su «principio de incertidumbre».

El principio implica una cierta «granulación» del universo. Si ampliamos una fotografía de un periódico, llega un momento en que lo único que vemos son pequeños granos o puntos y perdemos todo detalle. Lo mismo ocurre si miramos el universo demasiado cerca.

Hay quienes se sienten decepcionados por esta circunstancia y lo toman como una confesión de eterna ignorancia. Ni mucho menos. Lo que nos interesa saber es cómo funciona el universo, y el principio de incertidumbre es un factor clave de su funcionamiento. La granulación está ahí, y eso es todo. Heisenberg nos lo ha mostrado y los físicos se lo agradecen.

54. ¿Qué es la paridad?

Supongamos que damos a cada partícula subatómica una de dos etiquetas, la A o la B. Supongamos además que siempre que una partícula A se desintegra en otras dos partículas, éstas son o ambas A o ambas B. Cabría entonces escribir A = A + A o A = B + B. Al desintegrarse una partícula B en otras dos, una de ellas sería siempre A y la otra B, de modo que podríamos escribir B = A + B.

Quizá descubriríamos también otras situaciones. Al chocar dos partículas y desintegrarse en otras tres, podríamos encontrar que A + A = A + B + B, o que A + B – B + B + B.

Pero habría situaciones que nunca observaríamos. No encontraríamos, por ejemplo, que A + B = A + A, ni que A + B + A = B + A + B.

¿Qué significa todo esto? Pues bien, imaginemos que A representa un número entero par (2 ó 4 ó 6) y B cualquier entero impar, como 3, 5 ó 7. La suma de dos enteros pares siempre es un entero par (6 = 2 + 4), de modo que A = A + A. La suma de dos enteros impares siempre es par (8 = 3 + 5), de modo que A = B + B. Sin embargo, la suma de un entero par y otro impar es siempre impar (7 = 3 + 4), de modo que B = A + B.

Dicho con otras palabras, hay ciertas partículas subatómicas que cabría llamar «impares» y otras que cabría llamar «pares», porque, sólo forman aquellas combinaciones y desintegraciones que se cumplen en el caso de sumar enteros pares e impares.

Cuando dos enteros son ambos pares o ambos impares, los matemáticos dicen que «tienen la misma paridad». Si uno de ellos es par y el otro impar, son de «paridad diferente». Por consiguiente, cuando las partículas subatómicas se comportan como si algunas de ellas fuesen pares y otras impares, sin quebrantar nunca las reglas de adición de números pares e impares, se considera que hay «conservación de la paridad».

En 1927, el físico Eugene Wigner demostró que había conservación de la paridad entre las partículas subatómicas, porque podía decirse que dichas partículas poseían una «simetría izquierda-derecha». Los objetos que poseen tal simetría son idénticos a sus imágenes especulares (la imagen reflejada en un espejo). Los numerales 8 y 0 y las letras H y X tienen esa simetría. Si volvemos el 8, el 0, la H o la X de manera que lo que estaba antes a la izquierda esté ahora a la derecha y viceversa, lo que obtendríamos seguiría siendo 8, 0, H y X. Las letras b y p no tienen esa simetría izquierda-derecha. Si les damos la vuelta, la b se convierte en d y la p en q, letras completamente distintas.

En 1956, los físicos Tsung Dao Lee y Chen Ning Yang demostraron que la paridad no se debería conservar en ciertos tipos de sucesos subatómicos, y los experimentos demostraron en seguida que estaban en lo cierto. Según esto, había partículas subatómicas que se comportaban como si no fuesen simétricas bajo ciertas condiciones.

Por esta razón se elaboró una ley de conservación más general. Allí donde una partícula no era simétrica, su antipartícula (de carga eléctrica o campo magnético opuesto) tampoco lo era, pero de manera contraria. Si una partícula era como p, su antipartícula era como q.

Juntando la carga eléctrica (C) y la paridad (P), se puede establecer una regla elemental que nos dice qué sucesos subatómicos pueden tener lugar y cuáles no. Esto es lo que se denomina la «conservación CP».

Más tarde se vio que para que la regla estuviese a salvo de todo riesgo había que considerar también la dirección del tiempo (T); pues hay que señalar que los sucesos subatómicos cabe contemplarlos como si se desarrollaran para adelante o para atrás en el tiempo. Esto es lo que se denomina «conservación CPT».

Hace poco se ha puesto también en tela de juicio la conservación CPT pero hasta ahora no se ha llegado a una decisión final.

55. ¿Por qué se habla de la vida media de un isótopo y no de su vida entera?

Hay átomos que son inestables. Abandonados a su suerte, tarde o temprano experimentan espontáneamente un cambio. De su núcleo saldrá una partícula energética o un fotón de rayos gamma y el átomo se convertirá en otro diferente. (Los isótopos son tipos particulares de átomos). Una serie de átomos inestables agrupados en un lugar radiarán partículas o rayos gamma en todas direcciones, por lo cual se dice que son radiactivos.

No hay ningún modo de predecir cuándo un átomo radiactivo va a experimentar un cambio. Puede que sea al cabo de un segundo o de un año o de billones de años. Por tanto, es imposible medir la «vida entera» de un átomo radiactivo, es decir el tiempo que permanecerá inalterado. La «vida entera» puede tener cualquier valor, y por consiguiente no tiene sentido hablar de ella.

Pero supongamos que lo que tenemos es una multitud de átomos de un determinado isótopo radiactivo concentrados en un lugar. En cualquier momento dado habrá algunos que estén experimentando un cambio. En esas condiciones se comprueba que aunque es imposible saber cuándo va a cambiar un átomo concreto, sí que se puede predecir que al cabo de tantos segundos cambiarán tantos y tantos átomos de un total de un cuatrillón, pongamos por caso.

Todo es cuestión de estadística. Es imposible saber si Fulanito de tal va a morir o no en un accidente de coche en tal y tal año, pero sí se puede predecir con bastante precisión cuántos habitantes del país van a morir en carretera ese año.

Dado un número grande de átomos de un isótopo determinado, es posible medir la cantidad de radiación en un momento dado y predecir la radiación (el número de átomos que cambian) en cualquier tiempo futuro. Y se comprueba que, en virtud de cómo se producen esos cambios, siempre hace falta el mismo tiempo para que cambien 1/10 de todos los átomos, independientemente de cuántos hubiese al principio. Es más, siempre hace falta el mismo tiempo para que cambien 2/10 de ellos, ó 4/17, ó 19/573, o cualquier otra fracción, independientemente del número inicial de átomos.

Así pues, en lugar de hablar de la «vida entera» de los átomos de un isótopo particular ―que carecería de sentido―, se suele hablar del tiempo que tarda en cambiar una fracción determinada de los átomos, lo cual es muy fácil de medir. La fracción más simple es 1/2, y por eso se suele hablar del tiempo que tiene que pasar para que la mitad de los átomos de un isótopo experimenten un cambio. Esa es la «vida media» del isótopo.

Cuanto más estable es un isótopo, menos probable es que sus átomos experimenten un cambio y que un número dado de átomos experimenten un cambio al cabo de una hora, por ejemplo, después de iniciar las observaciones. Esto significa que hace falta más tiempo para que la mitad de los átomos cambien.

Con otras palabras: cuanto más larga es la vida media de un isótopo, tanto más estable; cuanto más corta la vida media, menos estable.

Algunas vidas medias son verdaderamente grandes. El isótopo torio-232 tiene una vida media de catorce mil millones de años. Haría falta todo ese tiempo para que la mitad de cualquier cantidad de torio-232 se desintegrara. Por eso queda todavía tanto torio-232 en la corteza terrestre, pese a que lleva allí (desintegrándose continuamente) casi cinco mil millones de años.

Pero también hay vidas medias que son muy cortas. La del isótopo helio-5 es aproximadamente igual a una cienmillonésima parte de una billonésima de segundo.

56. ¿Por qué están encontrando los científicos tantas partículas subatómicas nuevas y cuál es su significado?

La clave de la respuesta puede resumirse en una sola frase: «más energía».

Y los físicos estudian la estructura interna del núcleo atómico de una manera muy bruta. Lo bombardean con todas sus fuerzas con partículas subatómicas, destrozan el núcleo en fragmentos y estudian luego los trozos.

Lo que ha cambiado en los últimos treinta años ha sido la energía con que esos «proyectiles» subatómicos irrumpen en el núcleo atómico. En los años treinta tenían energías de millones de electronvoltios; en los cuarenta, de cientos de millones; en los cincuenta, de miles de millones; en los sesenta, de docenas de miles de millones. Y a lo que se ve, en la presente década llegaremos a cientos de miles de millones de electronvoltios.

Cuanto mayor es la energía con que se irrumpe en el núcleo, mayor es el número de partículas que salen y mayor es también su inestabilidad. Y sería lógico pensar que a medida que crece la fuerza del impacto, menores deberían ser las partículas resultantes. (Al fin y al cabo, un golpe fuerte parte una roca en dos mitades, pero uno más fuerte aún la dividirá en una docena de trozos pequeños). En el caso de los núcleos no es así. Las partículas que se obtienen suelen ser bastante pesadas.

Y es que no hay que olvidar que la energía se puede convertir en masa. Las partículas subatómicas que aparecen en un proceso de ruptura de un núcleo no salen de allí como si hubiesen estado alojadas en él desde el principio. Se forman en el momento del impacto a partir de la energía de las partículas que intervienen en el choque. Cuanto mayor es la energía de la partícula entrante, mayor es la masa que podrá tener la partícula formada y mayor será también, por lo general, su inestabilidad.

En cierto modo cabría decir que las partículas subatómicas salen del núcleo destrozado de la misma manera que las chispas salen del acero al golpearlo con un pedernal. Las chispas no estaban desde el principio en el acero, sino que se forman a partir de la energía del golpe.

Pero entonces, ¿tienen algún significado todas estas partículas subatómicas nuevas? ¿No serán meros productos fortuitos de la energía, como las chispas?

Los físicos piensan que no, porque el orden que impera entre ellas es muy grande. Las partículas formadas tienen ciertas propiedades que obedecen determinadas reglas, bastante complicadas. Es decir, las diversas partículas pueden ser representadas mediante números, que a su vez son identificados por nombres como los de «spin isotópico», «rareza», «paridad», etc., y la naturaleza de dichos números viene dictada por limitaciones muy rígidas.

Detrás de estas limitaciones tiene que haber algo, indudablemente.

El físico americano Murray Gell-Mann ha ideado un sistema de ordenar las distintas partículas subatómicas de acuerdo con dichos números en una progresión regular, y gracias a ello ha logrado predecir partículas nuevas, hasta ahora desconocidas. En concreto predijo la existencia de una partícula omega negativa que poseía propiedades bastante improbables; pero después de investigar se comprobó que efectivamente existía y que poseía además dichas propiedades.

Gell-Mann sugiere también que los cientos de partículas que hoy se conocen quedarían ordenadas de modo muy natural de la manera que él ha demostrado, sólo con que estuviesen compuestas de unos cuantos tipos de partículas más elementales llamadas «quarks». Los físicos buscan hoy día con ahínco esos quarks. De encontrarlos, podrían ofrecernos una visión completamente nueva, y quizá muy útil, de la naturaleza fundamental de la materia.

57. ¿Qué es un quark?

La noción de los quarks tuvo su origen en el hecho de que en el último cuarto de siglo se han descubierto un centenar corrido de diferentes tipos de partículas subatómicas. Hay que decir que muy pocas de ellas viven más de una milmillonésima de segundo antes de desintegrarse, pero el mero hecho de su existencia basta para que los físicos anden de cabeza.

¿Por qué hay tantas y todas ellas diferentes? ¿No podrán agruparse en varias familias? Dentro de cada familia, las distintas partículas podrían diferir unas de otras de un modo perfectamente regular. Y entonces no sería necesario explicar la existencia de todas y cada una de las partículas, sino sólo de unas cuantas familias, poniendo así un poco de orden en lo que de otro modo parece una «jungla» subatómica.

El físico americano Murray Gell-Mann y el físico israelita Yuval Ne’emen idearon en 1961, cada uno por su lado, un sistema de organizar las partículas en tales familias. Gell-Mann llegó incluso a presentar una familia que incluía la partícula que él llamó omega negativa, que poseía propiedades muy raras y que jamás había sido observada. Sabiendo qué propiedades debía tener, los físicos sabían también dónde y cómo buscarla. En 1964 la encontraron, descubriendo que era exactamente como Gell-Mann la había descrito.

Estudiando sus familias, Gell-Mann pensó que las distintas partículas subatómicas quizá podrían estar constituidas por combinaciones de unas cuantas partículas aún más elementales, lo cual simplificaría mucho la visión del universo. Según él, postulando tres partículas subatómicas con determinadas propiedades sería posible disponerlas de diferentes modos y obtener así todas las partículas subatómicas conocidas.

La necesidad de combinar tres de estas hipotéticas partículas para construir todas las partículas conocidas le recordó a Gell-Mann un pasaje de la obra Finnegans Wake de James Joyce (libro en que el autor retuerce y distorsiona palabras con fines literarios) que dice: «Three quarks for Musther Mark».

Y así fue como Gell-Mann llamó «quarks» a esas partículas hipotéticas.

Lo curioso del caso es que los quarks tendrían que tener cargas eléctricas fraccionarias. Todas las cargas conocidas son iguales o a la de un electrón (–1), o a la de un protón (+1) o a un múltiplo exacto de estas dos. La carga del quark p, sin embargo, sería +2/3, y las del quark n y quark lambda –1/3, Un protón, por ejemplo, estaría constituido por un quark n y dos quarks p, un neutrón por dos quarks n y un quark p, etc.

Pero el quark ¿existe realmente o es pura ficción matemática?

Para aclarar la pregunta, consideremos un billete de un dólar. Un billete de un dólar podemos considerarlo igual a diez monedas de diez centavos, pero ¿se trata sólo de una ecuación matemática o es realmente posible que al romper el billete en diez trozos comprobemos que cada uno de éstos es una moneda metálica de diez centavos?

Desde que Gell-Mann propuso la existencia de los quarks, los físicos han intentado localizar indicios de su presencia, pero en vano. En 1969, ciertos informes de Australia hablaron de que entre la lluvia de partículas producida por choques de rayos cósmicos se habían detectado rastros de partículas con carga eléctrica fraccionaria. Pero las pruebas eran sumamente marginales, y la mayoría de los físicos se mostraron muy escépticos hacia el informe.

58. Se ha dicho que los protones están constituidos por combinaciones de tres quarks p y también que un quark es treinta veces más pesado que un protón. ¿Cómo pueden ser ciertas ambas cosas a la vez?

Ambos enunciados pueden ser ciertos. Por lo menos, no tienen por qué ser contradictorios. La clave de esta aparente contradicción está en que la masa es un aspecto de la energía.

Se puede decir que cualquier objeto posee energía cinética respecto a algún sistema de referencia apropiado. La energía cinética es igual a la mitad del producto de la masa del objeto por el cuadrado de su velocidad. Cuando aumenta su energía aumentan también la masa y la velocidad (la segunda principalmente a bajas energías, y la primera sobre todo a energías muy altas).

Señalemos a continuación que cuanto más pequeños son los objetos y más íntimamente unidos están, más fuertes son (por lo general) las fuerzas que los mantienen unidos. Los cuerpos de tamaño verdaderamente grande, como el Sol o la Tierra, mantienen su integridad gracias al campo gravitatorio, que es con mucho la fuerza más débil de las que se conocen.

Los átomos y las moléculas se mantienen unidos por el campo electromagnético, que es mucho más fuerte. Gracias a él mantienen firmemente algunas moléculas su estructura; más firmemente aún los átomos de una molécula; y todavía más, los electrones y núcleos dentro de un átomo.

Las partículas dentro de un núcleo atómico se mantienen juntas gracias a un campo nuclear que es unas cien veces más intenso que el campo electromagnético y de hecho la fuerza más intensa que se conoce. (Por eso son mucho más violentas las explosiones nucleares que las químicas.)

Si los protones (y neutrones) que se encuentran dentro del núcleo están compuestos a su vez por partículas aún más fundamentales ―los quarks―, las ligaduras que mantienen unidos a los quarks tendrán que ser mucho más fuertes que las que sujetan a los protones y neutrones. Y en ese sentido puede ser que exista un nuevo campo, mucho más intenso que los que hasta ahora se conocen.

Para romper un protón o un neutrón y descomponerlo en quarks hará falta invertir energías enormes, mucho mayores que las que hacen falta para romper el conglomerado de protones y neutrones que forman el núcleo atómico.

Al desintegrarse el protón o el neutrón, los quarks que aparecen recogen la energía previamente invertida. Parte de ella se manifestaría en la forma de velocidades muy grandes, y otra parte en la forma de una gran masa. En resumen, gracias al empleo de enormes energías, el quark, que dentro del protón sólo tenía un tercio de la masa del protón, se convierte en una partícula mucho más masiva que él.

Los quarks en libertad tendrían una tendencia muy grande a volverse a unir, debido a la insólita intensidad del campo, que les hace experimentar esa atracción mutua. La reunificación liberaría grandes cantidades de energía, y la pérdida de ésta se traduciría en una pérdida de masa. La masa de los quarks se reduciría entonces lo suficiente como para hacer que la combinación de tres de ellos no tuviera una masa mayor que la de un protón.

Hoy día los físicos no disponen de la energía necesaria para dividir las partículas subatómicas en quarks, por lo cual no es fácil comprobar si la hipótesis es buena o no. Pero hay algunas partículas de los rayos cósmicos que sí tienen tales energías, y en la actualidad se están buscando los quarks en las lluvias de partículas que aquéllas producen al chocar con átomos.

59. En la bomba atómica se convierte materia en energía. ¿Es posible hacer lo contrario y convertir energía en materia?

Sí que es posible convertir energía en materia, pero hacerlo en grandes cantidades resulta poco práctico. Veamos por qué.

Según la teoría especial de la relatividad de Einstein, tenemos que e = mc2, donde e representa la energía, medida en ergios, m representa la masa en gramos y c es la velocidad de la luz en centímetros por segundo.

La luz se propaga en el vacío a una velocidad muy próxima a los 30.000 millones (3·1010) de centímetros por segundo. La cantidad c2 representa el producto c·c, es decir, 3·1010·3·1010 ó 9·1020. Por tanto, c2 es igual a 900.000.000.000.000.000.000.

Así pues, una masa de un gramo puede convertirse, en teoría en 9 x 1020 ergios de energía.

El ergio es una unidad muy pequeña de energía. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia, convertido a energía, daría 2,2·1010 (22.000 millones) de kilocalorías. Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

O expresémoslo de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia bastaría para tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.

O bien: la energía que representa un solo gramo de materia equivale a la que se obtendría de quemar unos 32 millones de litros de gasolina.

Nada tiene de extraño, por tanto, que las bombas nucleares, donde se convierten en energía cantidades apreciables de materia, desaten tanta destrucción.

La conversión opera en ambos sentidos. La materia se puede convertir en energía, y la energía en materia. Esto último puede hacerse en cualquier momento en el laboratorio. Una partícula muy energética de energía ―un fotón de rayos gamma― puede convertirse en un electrón y un positrón sin grandes dificultades. Con ello se invierte el proceso, convirtiéndose energía en materia.

Ahora bien la materia formada se reduce a dos partículas ligerísimas, de masa casi despreciable. ¿Podrá utilizarse el mismo principio para formar una cantidad mayor de materia, lo suficiente para que resulte visible?

¡Ah! Pero la aritmética es implacable. Si un gramo de materia puede convertirse en una cantidad de energía igual a la que produce la combustión de 32 millones de litros de gasolina, entonces hará falta toda esa energía para fabricar un solo gramo de materia.

Aun cuando alguien estuviese dispuesto a hacer el experimento y correr con el gasto de reunir toda esa energía (y quizás varias veces más, a fin de cubrir pérdidas inevitables) para formar un gramo de materia, no lo conseguiría. Sería imposible producir y concentrar toda esa energía en un volumen suficientemente pequeño para producir de golpe un gramo de materia.

Así pues, la conversión es posible en teoría, pero completamente inviable en la práctica. En cuanto a la materia del universo, se supone, desde luego, que se produjo a partir de energía, pero en unas condiciones que sería imposible reproducir hoy día en el laboratorio.

60. Las antipartículas ¿producen antienergía?

A principios del siglo XX los físicos empezaron a comprender que toda la materia consistía en determinadas clases de partículas. El físico inglés Paul Dirac, que trabajaba en la teoría de esas partículas, llegó en 1930 a la conclusión de que cada clase tenía que tener su opuesta.

El electrón, por ejemplo, tiene una carga eléctrica negativa y el protón una carga eléctrica positiva exactamente igual, pero las dos partículas no son opuestas, porque la masa del protón es mucho mayor que la del electrón.

Según Dirac, tenía que haber una partícula con la misma masa que el electrón pero con carga eléctrica positiva, y otra con la misma masa que el protón pero con carga eléctrica negativa. Ambas fueron descubiertas en su día, de modo que hoy conocemos el «antielectrón» (o «positrón») y el «antiprotón».

El neutrón no tiene carga eléctrica, pero en cambio posee un campo magnético que apunta en una determinada dirección. Y existe el «antineutrón», que tampoco tiene carga eléctrica pero cuyo campo magnético apunta en la dirección opuesta.

Pues bien, lo siguiente es al parecer una ley de la naturaleza: una partícula puede convertirse en otra, pero siempre que se forma una partícula sin la existencia previa de otra, tiene que formarse simultáneamente una antipartícula.

He aquí un ejemplo. Un neutrón puede convertirse en un protón, lo cual es perfectamente admisible, porque lo único que ha sucedido es que una partícula se ha convertido en otra. Pero en esa conversión se forma también un electrón. Es decir, una partícula se ha convertido en dos. Para contrarrestar esa segunda partícula se forma una diminuta antipartícula llamada «antineutrino».

Una partícula (el neutrón) se ha convertido en otra (el protón) más un par partícula / antipartícula (el electrón y el antineutrino).

A partir de energía se pueden formar pares partícula / antipartícula, que a su vez pueden volver a convertirse en energía en cualquier número. De energía no podemos sacar una partícula sola, ni una única antipartícula, pero sí un par.

Como la propia energía está formada de «fotones», se plantea entonces el problema de si el fotón es una partícula o una antipartícula. No parece que haya ningún modo de convertir un fotón en un electrón, por lo cual no puede ser una partícula; ni tampoco de convertirlo en un antielectrón, por lo cual tampoco puede ser una antipartícula.

Sin embargo, un fotón de rayos gamma suficientemente energético sí puede convertirse en un par electrón / antielectrón. Parece, pues, que el fotón no es ni una partícula ni una antipartícula, sino un par partícula / antipartícula.

Todo fotón es a la vez un antifotón, o digámoslo así, un fotón es su propio opuesto.

También podríamos mirarlo del siguiente modo. Doblemos una hoja de papel por la mitad y escribamos los nombres de todas las partículas en un lado y los de las antipartículas en el otro. ¿Dónde pondríamos al fotón? Pues justo en el doblez.

Por eso la energía producida por un mundo de partículas consiste en fotones, igual que la producida por un mundo de antipartículas. La energía es la misma en ambos casos y, por lo que sabemos hoy día, no hay nada que podamos llamar antienergía.

61. ¿En qué difieren las propiedades de los rayos cósmicos de las de los neutrinos?

Los rayos cósmicos son partículas subatómicas muy rápidas, de gran masa y cargadas positivamente. Aproximadamente el 90 por 100 de las partículas son protones (núcleos de hidrógeno) y el 9 por 100, partículas alfa (núcleos de helio). El 1 por 100 restante son núcleos de átomos más complejos. Hasta se han detectado núcleos de átomos tan complejos como el hierro, cuya masa es 56 veces mayor que la del protón.

Las partículas de los rayos cósmicos, por tener tanta masa y moverse con velocidades tan grandes (casi la velocidad de la luz), son muy energéticas. De hecho son las partículas más energéticas que conocemos, algunas de ellas miles de millones de veces más que las que se pueden producir en los mayores aceleradores.

Las partículas de los rayos cósmicos, al estrellarse contra la atmósfera terrestre, rompen todos los átomos que encuentran a su paso y producen una lluvia de «radiación secundaria» que, entre otras cosas, incluye mesones y positrones. La radiación se estrella finalmente contra la Tierra propiamente dicha, penetrando parte de ella varios metros en el suelo antes de ser absorbida.

Tales partículas pueden originar cambios en los átomos que encuentran, sin excluir los del cuerpo humano. Y es posible que dichos cambios ocasionen enfermedades como la leucemia e induzcan mutaciones. Pero la probabilidad de que un individuo dado sufra una desgracia de este tipo es pequeña, porque la mayoría de las partículas de rayos cósmicos que chocan contra una persona pasan de largo sin ocasionar ningún daño.

La fuente exacta de las partículas de los rayos cósmicos y la manera en que adquieren energías tan enormes son dos temas aún debatidos.

En cualquier reacción nuclear que produzca electrones, positrones o muones se producen también neutrinos. Las reacciones nucleares que se desarrollan en el Sol, por ejemplo, producen grandes cantidades de positrones y, por tanto, también de neutrinos.

Los neutrinos, que se mueven a la velocidad de la luz, son aún más rápidos que las partículas de los rayos cósmicos pero mucho menos energéticos, porque carecen de carga eléctrica y de masa. Los neutrinos no son absorbidos por la materia a menos que choquen frontalmente contra un núcleo atómico, y este suceso es tan raro que por término medio pueden atravesar billones de kilómetros de plomo sin ser absorbidos.

Los billones de neutrinos que produce el Sol cada segundo se esparcen en todas direcciones. Los que, por casualidad, salen en dirección a la Tierra llegan hasta nosotros y pasan a través del planeta como si no estuviera allí. Los neutrinos nos bombardean día y noche durante toda nuestra vida. Pero como nos atraviesan sin ser absorbidos, no nos afectan para nada.

Claro está que, por un golpe de suerte, puede ser que un neutrino choque frontalmente contra un núcleo atómico muy cerca de nosotros. En ese caso puede ser detectado. Durante los años cincuenta, los físicos aprendieron a aprovechar estos rarísimos casos. Los neutrinos pueden servir para proporcionarnos información acerca del interior de las estrellas (donde se forman), que de otro modo no podríamos conocer.

62. ¿Qué peligro encierran los rayos cósmicos para los hombres en el espacio?

Allá por el año 1911, el físico austríaco Víctor F. Hess descubrió que la Tierra estaba siendo bombardeada por una radiación muy penetrante que venía del espacio exterior. En 1925, el físico americano Robert A. Millikan le puso el nombre de «rayos cósmicos», dado que venían del «cosmos», del universo.

Más tarde se descubrió que los rayos cósmicos consistían en núcleos atómicos de velocidad muy alta, dotados de una carga eléctrica positiva. Un 90 por 100 de ellos eran protones (núcleos de átomos de hidrógeno) y el 9 por 100 partículas alfa (núcleos de átomos de helio). El 1 por 100 restante son núcleos más complicados y de mayor masa, algunos tan grandes como el de hierro, que es 56 veces más pesado que el protón.

Los veloces núcleos que chocan contra la atmósfera exterior de la Tierra constituyen la «radiación primaria». Chocan con las moléculas de aire, las desintegran y producen una serie de partículas casi tan energéticas como la radiación primaria. Estas nuevas partículas, extraídas violentamente de las moléculas de aire, constituyen la «radiación secundaria».

Parte de la radiación llega hasta la superficie de la Tierra y penetra varios pies en la corteza. Algo de ella atraviesa también los cuerpos humanos, pudiendo ocasionar daños en las células: tal puede ser uno de los factores que producen mutaciones en los genes. Una cantidad suficiente de esta radiación podría dañar células bastantes para matar a una persona, pero lo cierto es que aquí abajo, en la parte inferior de la atmósfera, no llega tanta radiación como para eso. Las criaturas vivientes han sobrevivido miles de millones de años al bombardeo de los rayos cósmicos.

El origen de los rayos cósmicos es un tema muy debatido, pero se sabe que por lo menos parte de ellos se forman en las estrellas ordinarias. En 1942 se descubrió que el Sol produce rayos cósmicos benignos cuando una erupción solar abate su superficie.

La atmósfera superior absorbe gran parte del impacto de las partículas de los rayos cósmicos normales, mientras que la radiación secundaria es absorbida en parte más abajo. De la energía inicial de radiación, sólo sobrevive y llega hasta la superficie terrestre una pequeña fracción.

Pero allá fuera, en el espacio, tienen que contar con la posibilidad de enfrentarse con la furia desatada de la radiación primaria. Y aquí no sirve de nada un blindaje. Las partículas de los rayos cósmicos, al chocar con los átomos del blindaje, provocarían una radiación secundaria que saldría disparada en todas direcciones como metralla. Una elección equivocada del material de blindaje empeoraría incluso aún más las cosas.

La magnitud del peligro depende de la actividad de rayos cósmicos que haya en el espacio exterior, sobre todo del número de partículas de gran masa, que serían las más nocivas. Los Estados Unidos y la Unión Soviética han enviado numerosos satélites al espacio para comprobar las cantidades de rayos cósmicos, y parece ser que en condiciones normales son suficientemente bajas como para que haya una relativa seguridad.

La fuente más probable de peligro son los rayos cósmicos débiles del Sol. La atmósfera terrestre los detiene casi por completo, pero en el caso de los astronautas no hay nada que les preste ese servicio. Y aunque son débiles, en cantidad suficiente pueden ser peligrosos. Los rayos cósmicos del Sol sólo se presentan en abundancia cuando se produce una erupción solar. Las erupciones solares no son, por suerte, muy frecuentes, pero por desgracia es imposible predecirlas.

Así pues, lo único que podemos hacer mientras los astronautas se encuentran en la Luna es esperar que durante esa semana o par de semanas no se produzca ninguna gran erupción que lance sobre ellos partículas de rayos cósmicos.

63. Los neutrinos ¿son materia o energía?

Los físicos del siglo xix creían que la materia y la energía eran dos cosas completamente diferentes. Materia era todo aquello que ocupaba un espacio y que poseía masa. Y al tener masa, tenía también inercia y respondía al campo gravitatorio. La energía, en cambio, no ocupaba espacio ni tenía masa, pero podía efectuar trabajo. Además se pensaba que la materia consistía en partículas (átomos), mientras que la energía se componía de ondas.

Por otro lado, los físicos del siglo xix creían que ni la materia ni la energía, cada una por su parte, podía ser creada ni destruida. La cantidad total de materia del universo era constante, igual que la cantidad total de energía. Había, pues, una ley de conservación de la energía y una ley de conservación de la materia.

Albert Einstein demostró más tarde, en 1905, que la masa es una forma muy concentrada de energía. La masa podía convertirse en energía y viceversa. Lo único que había que tener en cuenta era la ley de conservación de la energía. En ella iba incluida la materia.

Hacia los años veinte se vio además que no se podía hablar de partículas y ondas como si fuesen dos cosas diferentes. Lo que solemos considerar partículas actúa en ciertos aspectos como ondas. Y lo que normalmente consideramos como ondas, actúa en ciertos aspectos como partículas. Así pues, podemos hablar de «ondas del electrón», por ejemplo; y también de «partículas de luz», o «fotones».

Una diferencia sí que sigue habiendo. Las partículas de materia pueden hallarse en reposo respecto a un observador. Aun estando en reposo, poseen masa. Poseen una «masa en reposo», mayor que cero.

Las partículas como los fotones, por el contrario, tienen una masa en reposo nula. Estando en reposo respecto a nosotros, no podríamos medir masa alguna. Pero eso es pura teoría, porque las partículas que tienen una masa en reposo nula jamás pueden estar paradas respecto a ningún observador. Esas partículas se mueven siempre a una velocidad de 299.793 kilómetros por segundo a través del vacío. Tan pronto como nacen, empiezan a moverse a esa velocidad.

Precisamente porque los fotones se mueven siempre a 299.793 kilómetros por segundo (en el vacío) y porque la luz está compuesta de fotones, llamamos a esta velocidad la «velocidad de la luz».

¿Y los neutrinos? Los neutrinos se forman en ciertas reacciones nucleares y ningún físico atómico ha sido hasta ahora capaz de medir su masa. Es muy probable que los neutrinos, como los fotones, tengan una masa en reposo nula.

En ese caso, los neutrinos viajan siempre a 299.793 kilómetros por segundo y adquieren esa velocidad en el instante en que se forman.

Pero los neutrinos no son fotones, porque ambos tienen propiedades muy distintas. Los fotones interaccionan fácilmente con las partículas de materia, y son retardados y absorbidos (a veces muy rápidamente) al pasar por la materia. Los neutrinos, por el contrario, apenas interaccionan con las partículas de materia y pueden atravesar un espesor de años-luz de plomo sin verse afectados.

Parece claro, por tanto, que si los neutrinos tienen una masa en reposo nula, no son materia. Por otro lado, hace falta energía para formarlos, y al alejarse se llevan algo de ella consigo, de modo que son una forma de energía.

Sin embargo, atraviesan cualquier espesor de materia sin interaccionar apenas, de modo que prácticamente no efectúan trabajo. Lo cual les distingue de cualquier otra forma de energía. Lo mejor quizá sea llamarlos simplemente… neutrinos.

64. ¿Cómo funciona una cámara de burbujas?

La cámara de burbujas es un dispositivo para detectar partículas subatómicas. Fue inventada en 1952 por el físico americano Donald A. Glaser, quien en 1960, recibió por ello el Premio Nobel de Física.

En esencia es un depósito de líquido a una temperatura superior a su punto de ebullición. El líquido se halla bajo presión, con lo cual se impide que hierva. Pero si se disminuye la presión, el líquido entra en ebullición y aparecen en él burbujas de vapor.

Imaginemos que una partícula subatómica ―un protón o un mesón, por ejemplo― se zambulle en el líquido de una cámara de burbujas. Choca contra las moléculas y átomos del líquido y les transfiere una parte de su energía, formándose así una línea de átomos y moléculas de temperatura superior al resto. Si se retira la presión que actúa sobre el líquido, las burbujas de vapor se forman en primer lugar a lo largo de la línea de energía que ha dejado atrás la partícula subatómica. El paso de las partículas queda así marcado por un trazo visible de burbujas que se puede fotografiar fácilmente.

Este rastro visible revela a los físicos muchas cosas, sobre todo si la cámara de burbujas está colocada entre los polos de un potente imán. Las partículas capaces de dejar un rastro de burbujas poseen siempre una carga eléctrica, o positiva o negativa. Si la carga es positiva, la trayectoria de la partícula se curva en una determinada dirección bajo la influencia del imán; si es negativa, se curva en la dirección contraria. Por la curvatura de la curva puede determinar el físico la velocidad de la partícula. Con esto, con el espesor de la traza y otros datos, puede determinar también la masa de la partícula.

Cuando una partícula se desintegra en dos o más partículas, la traza se ramifica. También aparecen ramales en el caso de una colisión. En las fotografías de una cámara de burbujas aparecen normalmente numerosos trazos que convergen, se separan y se ramifican. Hay veces que entre dos porciones del conjunto de trazas se observa un hueco. Lo que hay que hacer entonces es llenar ese hueco con alguna partícula sin carga; pues las partículas que carecen de carga no dejan traza alguna al pasar por una cámara de burbujas.

Para el físico nuclear, la compleja trama de trazos de una fotografía tomada en una cámara de burbujas es tan significativa como los rastros en la nieve para un cazador ducho. De la naturaleza de las trazas puede deducir el físico qué clase de partículas han intervenido o si ha encontrado un nuevo tipo de partícula.

La primera cámara de burbujas que construyó Glaser tenía sólo unas cuantas pulgadas de diámetro. Hoy día, en cambio, se construyen cámaras enormes de muchos pies de diámetro, que contienen cientos de litros de líquido.

Los líquidos que se usan en las cámaras de burbujas pueden ser de varios tipos. Algunos contienen gases nobles licuados, como el xenón o el helio. Otros, gases orgánicos licuados.

Pero el líquido más útil para las cámaras de burbujas es el hidrógeno líquido. El hidrógeno está compuesto por los átomos más elementales que se conocen. Cada átomo de hidrógeno consiste en un núcleo constituido por un único protón, alrededor del cual gira un solo electrón. Es decir, el hidrógeno líquido está formado sólo por protones y electrones aislados. Los núcleos atómicos de todos los demás líquidos son conglomerados de varios protones y neutrones.

Como consecuencia de lo anterior, los sucesos subatómicos que tienen lugar en el seno del hidrógeno líquido son especialmente simples y tanto más fáciles de deducir a partir de las trazas de burbujas.

65. ¿Qué es un reactor generador?

El uranio 235 es un combustible práctico. Es decir, los neutrones lentos son capaces de hacer que el uranio 235 se fisione (se rompa en dos), produciendo más neutrones lentos, que a su vez inducen otras fisiones atómicas, etc. El uranio 233 y el plutonio 239 son también combustibles nucleares prácticos por las mismas razones.

Por desgracia, el uranio 233 y el plutonio 239 no existen en estado natural sino en trazas mínimas, y el uranio 235, aunque existe en cantidades apreciables, no deja de ser raro. En cualquier muestra de uranio natural, sólo siete de cada mil átomos son uranio 235. El resto es uranio 238.

El uranio 238, la variedad común de uranio, no es un combustible nuclear práctico. Puede conseguirse que se fisione, pero sólo con neutrones rápidos. Los átomos de uranio 238 que se rompen en dos producen neutrones lentos, que no bastan para inducir nuevas fisiones. El uranio 238 cabría compararlo a la madera húmeda: es posible hacer que arda, pero acabará por apagarse.

Supongamos, sin embargo, que se separa el uranio 235 del uranio 238 (trabajo más bien difícil) y que se utiliza aquél para hacer funcionar un reactor nuclear. Los átomos de uranio 235 que forman el combustible del reactor se fisionan y esparcen miríadas de neutrones lentos en todas las direcciones. Si el reactor está rodeado por una capa de uranio ordinario (que en su mayor parte es uranio 238), los neutrones que van a parar allí son absorbidos por el uranio 238. Dichos neutrones no pueden hacer que el uranio 238 se fisione, pero provocarán otros cambios que, al final, producirán plutonio 239. Separando este plutonio 239 del uranio (trabajo bastante fácil), puede utilizarse como combustible nuclear práctico.

Un reactor nuclear que genera así nuevo combustible para reponer el usado es un «reactor generador». Un reactor generador de diseño adecuado produce más plutonio 239 que el uranio 235 consumido. De este modo, las reservas totales de uranio de la Tierra (y no sólo las de uranio 235) se convierten en potenciales depósitos de combustible.

El torio, tal como se da en la naturaleza, consiste todo él en torio 232, que, al igual que el uranio 238, no es un combustible nuclear práctico, porque requiere neutrones rápidos para fisionarse. Pero si se coloca torio 232 alrededor de un reactor nuclear, sus átomos reabsorberán los neutrones y, sin experimentar fisión alguna, se convertirán en átomos de uranio 233. Como el uranio 233 es un combustible práctico que se puede separar fácilmente del torio, el resultado es otra variedad de reactor generador, en este caso un reactor que convierte las reservas de torio en un combustible nuclear potencial.

La cantidad total de uranio y de torio que hay en la Tierra es unas 800 veces mayor que las reservas de uranio 235, lo cual significa que el buen uso de los reactores generadores podría multiplicar por 800 la oferta potencial de energía a través de plantas de fisión nuclear.

66. ¿Cuánto y durante cuánto tiempo hay que calentar el hidrógeno para mantener una reacción de fusión?

Al calentar el hidrógeno a temperaturas cada vez más altas, pierde energía por radiación a una velocidad cada vez mayor. Si la temperatura sigue aumentando, los átomos de hidrógeno pierden sus electrones, dejando que los núcleos desnudos choquen unos contra otros y se fundan. Esta fusión produce energía. Si la temperatura sigue subiendo, la cantidad de energía producida por fusión es cada vez mayor.

La cantidad de energía producida por la fusión aumenta más deprisa con la temperatura que la pérdida de energía por radiación. Al alcanzar cierta temperatura crítica, la energía producida por la fusión llega a ser igual a la perdida por radiación. En ese momento la temperatura se estabiliza y la reacción de fusión se automantiene. Con tal de suministrar hidrógeno al sistema, éste producirá energía a un ritmo constante.

La temperatura requerida varía con el tipo de hidrógeno. El tipo más común es el hidrógeno (H) con un núcleo compuesto por un solo protón. Después está el hidrógeno pesado, o deuterio (D), con un núcleo compuesto por un protón y un neutrón, y el hidrógeno radiactivo, o tritio (T), con un núcleo de un protón y dos neutrones.

La cantidad de energía producida por fusión nuclear a una temperatura dada con D es mayor que con H y menor que con T.

Las fusiones con H producen tan poca energía que haría falta una temperatura de más de mil millones de grados para mantener la reacción en el laboratorio. Es cierto que lo que se funde en el centro del Sol, donde la temperatura alcanza sólo los 15.000.000 de grados, es H, pero a una temperatura tan baja sólo se funde una proporción diminuta del hidrógeno. Sin embargo, la cantidad de H que hay en el Sol es tan ingente que aun esa diminuta proporción basta para mantener la radiación solar.

La fusión que menos temperatura requiere para iniciarse es la de T: basta unos cuantos millones de grados. Desgraciadamente el tritio es inestable y apenas se da en la naturaleza. Habría que formarlo en el laboratorio casi por encargo, y aun así sería imposible mantener a base de tritio la cantidad de reacciones de fusión que necesita la Tierra.

La fusión del deuterio tiene una temperatura de ignición de 400.000.000 ºC. El deuterio es estable pero raro; sólo un átomo de cada 6.700 es de deuterio. Pero tampoco exageremos. En un litro de agua ordinaria hay suficiente deuterio para producir por fusión una energía equivalente a la combustión de 67 litros de gasolina.

Un modo de alcanzar la temperatura necesaria es mediante la adición de algo de tritio para que actúe de detonador. La fusión de deuterio con tritio puede iniciarse a los 45.000.000 ºC. Si se logra prender un poco de la mezcla, el resto se calentaría lo suficiente para que el deuterio pudiese arder él solo.

El tiempo que hay que mantener la temperatura depende de la densidad del hidrógeno. Cuantos más átomos por centímetro cúbico, tantas más colisiones y más rápida la ignición. Si hay 1015 átomos por centímetro cúbico (una diezmilésima del número de moléculas por centímetro cúbico del aire normal), la temperatura habría que mantenerla durante dos segundos.

Claro está que cuanto mayor es la densidad y más alta la temperatura, tanto más difícil es mantener el deuterio en su sitio, incluso durante ese tiempo tan breve. Los sistemas de fusión han ido avanzando poco a poco durante todos estos años, pero aún no se han conseguido las condiciones para la ignición.

67. ¿Cómo funciona un microscopio electrónico?

Antes de contestar, planteemos la siguiente pregunta: ¿cómo determinamos el tamaño de un objeto?

Los rayos de luz que nos llegan desde los dos lados opuestos de un objeto forman un ángulo en la retina. Por el tamaño de ese ángulo determinamos el tamaño aparente del objeto.

Pero si esos rayos luminosos pasan por una lente convexa antes de incidir en el ojo, se doblan de tal manera que el ángulo formado en la retina se hace mayor. Por consiguiente, el objeto que vemos a través de la lente aparece agrandado, igual que cada una de sus partes. Lo que tenemos es una lupa.

Utilizando una combinación de varias lentes se puede aumentar un objeto miles de veces y ver claramente detalles que son demasiado pequeños para distinguirlos a simple vista. Lo que tenemos entonces es un «microscopio óptico», que trabaja con ondas luminosas. Con ayuda de él podemos ver objetos tan pequeños como una bacteria.

¿No podríamos apilar lente sobre lente y construir así un microscopio de tantos aumentos que nos permitiese ver objetos incluso menores que las bacterias, átomos por ejemplo?

Desgraciadamente, no. Ni siquiera utilizando lentes perfectas en perfecta combinación. La luz está compuesta de ondas de una cierta longitud (aprox. 1/20.000 de centímetro) y nuestra vista no podrá ver con claridad nada que sea más pequeño que eso. Las ondas luminosas son suficientemente grandes para «saltar» por encima de cualquier cosa menor que ellas.

Es cierto que hay formas de luz cuya longitud de onda es mucho más pequeña que la de la luz ordinaria. La de los rayos X es diez mil veces menor que la de la luz. Pero, por desgracia, los rayos X atraviesan directamente los objetos que tratamos de ver.

Mas no hay que afligirse, porque también tenemos a los electrones. Los electrones son partículas, pero también pueden comportarse como ondas, Tienen una longitud de onda más o menos igual a la de los rayos X y no atraviesan los objetos que estamos tratando de ver.

Imaginemos que lanzamos un haz de luz sobre un objeto. El objeto absorbe la luz y proyecta una sombra, y entonces vemos el objeto por el contraste de la luz con la sombra. Si se proyecta un haz de electrones sobre un objeto, éste absorberá los electrones y proyectará una «sombra electrónica». Y como sería peligroso intentar poner los ojos delante de un haz de electrones, lo que hacemos es colocar una película fotográfica. La sombra electrónica nos mostrará la forma del objeto, e incluso sus detalles, si hay partes que absorben los electrones con más intensidad que otras.

Pero ¿y si el objeto es muy pequeño? Si estuviésemos manejando haces de luz, podríamos utilizar lentes para doblar dichos haces y aumentar el tamaño del objeto. Para doblar un haz de electrones no podemos utilizar lentes ordinarias, pero sí otra cosa. Los electrones portan una carga eléctrica, y esto significa que, dentro de un campo magnético, seguirán una trayectoria curva. Utilizando un campo magnético de intensidad y forma adecuadas podemos manejar un haz de electrones de la misma manera que podemos manejar uno de luz con ayuda de una lente corriente.

Lo que tenemos, en resumen, es un «microscopio electrónico», que utiliza haces de electrones exactamente igual que un «microscopio óptico» utiliza haces luminosos.

La diferencia es que los electrones tienen una longitud de onda muchísimo más corta que la luz ordinaria, de modo que el microscopio electrónico es capaz de mostrarnos objetos del tamaño de los virus, mientras que el óptico no.

68. ¿Qué es la entropía?

La energía sólo puede ser convertida en trabajo cuando, dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.

El agua de un río está más alta y tiene más energía gravitatoria en el manantial que en la desembocadura. Por eso fluye el agua río abajo hasta el mar. (Si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo hasta el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad.)

Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua puede realizar un trabajo. El agua sobre una superficie horizontal no puede realizar trabajo, aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.

Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un depósito de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún trabajo, por muy alta que sea aquélla.

El término «entropía» lo introdujo el físico alemán Rudolf J. E. Clausius en 1850 para representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión.

Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si se coloca un objeto caliente en contacto con otro frío, el calor fluye de manera que el primero se enfría y el segundo se calienta, hasta que ambos quedan a la misma temperatura. Si tenemos dos depósitos de agua comunicados entre sí y el nivel de uno de ellos es más alto que el del otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualan y la energía gravitatoria queda distribuida uniformemente.

Clausius afirmó por tanto que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O digámoslo así: que «la entropía aumenta con el tiempo».

El estudio del flujo de energía desde puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y trabajo recibió el nombre de «termodinámica», que en griego significa «movimiento de calor».

Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. Esta regla es tan fundamental que se la denomina «primer principio de la termodinámica».

La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no menos básica, y se denomina «segundo principio de la termodinámica».

69. ¿Está degradándose el universo?

Según el «segundo principio de la termodinámica», la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van desapareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más trabajo, ni pueden producirse cambios.

Pensemos en un reloj. Los relojes andan gracias a una concentración de energía en su resorte o en su batería. A medida que el resorte se destensa o la reacción química de la batería avanza, se establece un flujo de energía desde el punto de alta concentración al de baja concentración, y como resultado de este flujo anda el reloj. Cuando el resorte se ha destensado por completo o la batería ha finalizado su reacción química, el nivel de energía es uniforme en todo el reloj, no hay ya flujo de energía y la maquinaria se para. Podríamos decir que el reloj se ha «degradado». Por analogía decimos que el universo se «degradará» cuando toda la energía se haya igualado.

Claro está que podemos dar otra vez cuerda al reloj o comprar una batería nueva. Para dar cuerda al reloj utilizamos nuestra fuerza muscular, «degradándonos» nosotros mismos un poco. O si compramos un batería nueva, esa batería habrá que fabricarla, y para fabricarla es preciso que la industria del hombre se «degrade» un poco.

Comiendo podemos reponer la fuerza muscular gastada, pero los alimentos provienen en último término de las plantas, que utilizan la luz solar. La industria del hombre funciona principalmente a base de carbón y petróleo, que fueron formados por plantas, en épocas remotas, a partir de la energía solar. A medida que las cosas se degradan, podemos volver a «darles cuerda» utilizando algo que, por lo general, se remonta a la energía del Sol y al modo en que éste se está «degradando».

El Sol se compone en su mayor parte de hidrógeno, elemento que contiene mucha más energía por partícula que otros átomos más complicados, como el helio, el oxígeno y el hierro. Dentro del Sol se está produciendo constantemente una gradual uniformización de la concentración de energía a medida que el hidrógeno se convierte en átomos más complicados. (En las plantas de energía atómica de la Tierra ocurre otro tanto, a medida que los átomos de uranio se convierten en átomos menos complejos. Si algún día se llegan a construir plantas de fusión de hidrógeno, lo que estaríamos haciendo sería copiar en cierto modo lo que ocurre en el Sol.)

Por lo que hoy sabemos, llegará un momento en que las concentraciones de energía del Sol se igualarán, quedando sólo átomos de tamaño intermedio. Y lo mismo reza para todas las demás estrellas del universo y en general para todo lo que hay en él.

Si es cierto el segundo principio de la termodinámica, todas las concentraciones de energía en todos los lugares del universo se están igualando, y en ese sentido el universo se está degradando. La entropía alcanzará un máximo cuando toda la energía del universo esté perfectamente igualada; a partir de entonces no ocurrirá nada, porque aunque la energía seguirá allí, no habrá ya ningún flujo que haga que las cosas ocurran.

La situación parece deprimente (si es que el segundo principio es cierto en todo tipo de condiciones), pero tampoco hace falta alarmarse antes de tiempo. El proceso tardará billones de años en llegar a su fin, y el universo, tal como hoy existe, no sólo sobrevivirá a nuestro tiempo, sino con toda probabilidad a la humanidad e incluso a la Tierra.

70. ¿Qué relación hay entre entropía y orden?

Imaginemos nueve personas ordenadas en un cuadrado: tres columnas de tres, separadas las filas y columnas uniformemente. A esta disposición podemos calificarla de ordenada, porque es simétrica, fácil de visualizar y fácil de describir.

Si los nueve dan al mismo tiempo un paso hacia adelante, permanecerán en formación y la disposición seguirá siendo ordenada. Y lo mismo ocurre si todos dan un paso hacia atrás, o un paso a la izquierda, o a la derecha.

Pero supongamos que a cada uno se le dice que tiene que dar un paso hacia adelante, hacia atrás, a la izquierda o a la derecha dejándole que elija la dirección. Puede ser que todos ellos, sin mutuo acuerdo, decidan dar un paso hacia adelante, y en ese caso se mantendrá el orden. Pero la probabilidad de que uno de ellos dé un paso hacia adelante es sólo de 1 entre 4, puesto que es libre de moverse en cuatro direcciones La probabilidad de que los nueve hombres decidan independientemente avanzar hacia adelante es de 1 entre 4·4·4·4·4·4·4·4, ó 1 entre 262.144.

Si todos ellos se mueven hacia la derecha, o hacia la izquierda, o hacia atrás, también seguirán en orden, de manera que la probabilidad total de que no se rompa la formación es de 4 entre 262.144, ó 1 entre 65.536. Como se ve, el orden tiene una probabilidad diminuta, y sabemos que en el momento que demos libertad para moverse, bastará un solo paso para romper el cuadrado y disminuir la cantidad de orden. Incluso si, por casualidad, todos se mueven en bloque, es casi seguro que el siguiente paso romperá la formación.

Todo esto para el caso de que sólo haya nueve hombres y cuatro direcciones de movimiento. En la mayoría de los procesos naturales intervienen billones y billones de átomos que se pueden mover en infinidad de direcciones. Si, por casualidad, la disposición de átomos estuviera en un principio sometida a alguna clase de orden, es casi seguro que cualquier movimiento aleatorio, cualquier cambio espontáneo, disminuiría ese orden, o por decirlo de otra manera, aumentaría el desorden.

De acuerdo con el segundo principio de la termodinámica, la entropía del universo está en constante aumento; es decir, la distribución de energía en el universo está constantemente igualándose. Puede demostrarse que cualquier proceso que iguala las concentraciones de energía aumenta también el desorden. Por consiguiente, esta tendencia a incrementar el desorden en el universo con los movimientos aleatorios libres de las partículas que lo componen no es sino otro aspecto del segundo principio, y la entropía cabe considerarla como una medida del desorden que existe en el universo.

Miradas las cosas de esta manera, es fácil ver la mano del segundo principio por doquier, porque los cambios naturales actúan claramente en la dirección del desorden; para restaurar el orden hace falta un esfuerzo especial, y su esfuerzo cae sobre nuestras espaldas. Los objetos se descolocan, las cosas se desordenan, los vestidos se ensucian… Y para tener las cosas a punto es preciso estar constantemente arreglando y limpiando el polvo y ordenando. Quizá sirva de consuelo pensar que todo esto es el resultado de una gran ley cósmica; pero, no sé por qué, a mí no me sirve.

71. ¿Qué relación hay entre la entropía y el tiempo?

Imaginemos una película del movimiento de la Tierra alrededor del Sol, tomada desde un lugar muy lejano del espacio y pasada a cámara rápida, de modo que la Tierra parezca recorrer velozmente su órbita. Supongamos que pasamos primero la película hacia adelante y luego marcha atrás. ¿Podremos distinguir entre ambos casos con sólo mirar el movimiento de la Tierra?

Habrá quien diga que la Tierra rodea al Sol en dirección contraria a las agujas del reloj cuando se mira desde encima del polo norte del Sol; y que si las revoluciones son en el sentido de las manillas del reloj, entonces es que la película se ha proyectado marcha atrás y por tanto el tiempo corre también marcha atrás.

Pero si miramos la Tierra desde encima del polo sur del Sol, la Tierra se mueve en la dirección de las manecillas del reloj. Y suponiendo que lo que vemos es ese sentido de rotación, ¿cómo sabremos si estamos encima del polo norte con el tiempo corriendo hacia atrás o encima del polo sur con el tiempo marchando hacia adelante?

No podemos. En procesos elementales en los que intervienen pocos objetos es imposible saber si el tiempo marcha hacia adelante o hacia atrás. Las leyes de la naturaleza se cumplen igual en ambos casos. Y lo mismo ocurre con las partículas subatómicas.

Un electrón curvándose en determinada dirección con el tiempo marchando hacia adelante podría ser igual de bien un positrón curvándose en la misma dirección pero con el tiempo marchando hacia atrás. Si sólo consideramos esa partícula, es imposible determinar cuál de las dos posibilidades es la correcta.

En aquellos procesos elementales en que no se puede decir si el tiempo marcha hacia atrás o hacia delante no hay cambio de entropía (o es tan pequeño que se puede ignorar). Pero en los procesos corrientes, en los que intervienen muchas partículas, la entropía siempre aumenta. Que es lo mismo que decir que el desorden siempre aumenta. Un saltador de trampolín cae en la piscina y el agua salpica hacia arriba; se cae un jarrón y se rompe; las hojas se caen de un árbol y quedan dispersas por el suelo.

Se puede demostrar que todas estas cosas, y en general todo cuanto ocurre normalmente en derredor nuestro, lleva consigo un aumento de entropía. Estamos acostumbrados a ver que la entropía aumenta y aceptamos ese aumento como señal de que todo se desarrolla normalmente y de que nos movemos hacia adelante en el tiempo. Si de pronto viésemos que la entropía disminuye, la única manera de explicarlo sería suponer que nos estábamos moviendo hacia atrás en el tiempo.

Imaginemos, por ejemplo, que estamos viendo una película sobre una serie de actividades cotidianas. De pronto vemos que las salpicaduras de agua se juntan y que el saltador asciende hasta el trampolín. O que los fragmentos de un jarrón suben por el aire y se reúnen encima de una mesa. O que las hojas convergen hacia el árbol y se adosan a él en lugares específicos. Todas estas cosas muestran una disminución de la entropía, y sabemos que esto está tan fuera del orden de las cosas, que la película no tiene más remedio que estar marchando al revés. En efecto, las cosas toman un giro tan extraño cuando el tiempo se invierte, que el verlo nos hace reír.

Por eso la entropía se denomina a veces «la flecha del tiempo», porque su constante aumento marca lo que nosotros consideramos el «avance» del tiempo. (Señalemos que si todos los átomos de los distintos objetos se movieran en la dirección adecuada, todas estas cosas invertidas podrían ocurrir; pero la probabilidad es tan pequeña, que podemos ignorarla tranquilamente.)

72. Si el universo está constantemente degradándose, ¿cómo fue al principio?

La mejor respuesta a esta pregunta es que nadie lo sabe. Todos los cambios se producen en la dirección de la entropía creciente, del aumento del desorden, del aumento de la aleatoriedad, de la degradación. Pero hubo un tiempo en que el universo se hallaba en una posición desde la cual podía degradarse durante billones y billones de años. ¿Cómo llegó a esa posición?

Se me ocurren tres posibles respuestas, todas ellas meras especulaciones:

  1. No conocemos todo lo que está pasando en el universo. Los cambios que efectivamente observamos ocurren todos ellos en la dirección de la entropía creciente. Pero en algún lugar puede que haya cambios, en condiciones poco usuales que aún no podemos estudiar, que se desarrollen en la dirección de la entropía decreciente. En ese caso puede ser que el universo permanezca estable en su totalidad. La parte que parece degradarse sería entonces sólo la pequeña porción que nosotros observamos, mientras que en otro lugar habría un movimiento contrario que lo compensaría.
  2. Supongamos que el universo no experimente ninguna disminución de entropía en ningún lugar y que todo él se degrada. Al llegar al punto de máxima entropía, toda la energía queda esparcida uniformemente y el tiempo deja de avanzar, ya sea hacia atrás o hacía adelante. Pero toda la energía sigue estando ahí, y por tanto todos los átomos del universo poseen algo de esa energía y se mueven al azar.
    En esas condiciones puede ser que por movimientos puramente aleatorios se concentre una cierta cantidad de energía en alguna parte del universo. Es decir, mediante movimientos al azar se produciría otra vez un poco de orden. Después, esa parte del universo comenzaría a degradarse de nuevo.
    El máximo de entropía quizá sea la condición normal de un vasto universo infinito, y puede que muy de cuando en cuando (según las medidas normales del tiempo) ocurra que ciertas regiones limitadas adquieran cierto orden; hoy día estaríamos en una de esas regiones.
  3. Es posible que la única razón de que la entropía parezca aumentar continuamente en el universo sea que el universo se está expandiendo. Puede ser entonces que en estas condiciones, y sólo en ellas, las disposiciones desordenadas sean más probables que las ordenadas.

Hay astrónomos que piensan que el universo no seguirá dilatándose para siempre. La explosión inicial lo desintegró en pedazos, pero puede ser que la atracción gravitatoria mutua de sus partes esté disminuyendo poco a poco su velocidad de expansión, hasta que finalmente los haga detenerse y volver a contraerse de nuevo. Quizá en un universo en contracción las disposiciones más ordenadas sean más probables que las menos ordenadas. Lo cual significa que habría un cambio natural en la dirección de mayor orden y por tanto una disminución continua de la entropía.

De ser así, puede que el universo se degrade mientras se expande y vuelva a regenerarse mientras se contrae, repitiendo el mismo procedimiento por los siglos de los siglos.

Cabría aún combinar las especulaciones 1 y 3 si consideramos los «agujeros negros». Los agujeros negros son regiones en las que la masa está tan concentrada y la gravedad es tan poderosa, que todo cuanto cae dentro de ellas desaparece y no vuelve jamás: ni siquiera la luz. Son algo así como muestras diminutas de un universo en contracción; puede ser que en esos agujeros negros el segundo principio de la termodinámica se invierta y que, mientras el universo se degrada en la mayor parte de los lugares, se regenere poco a poco allí.

73. Las ondas de radio y las ondas luminosas se utilizan para «ver» cosas en el espacio. ¿Hay otras clases de ondas con las que podamos «ver»?

Las ondas de radio están emparentadas con las ondas luminosas. La diferencia es sobre todo una cuestión de longitud: las primeras son mucho más largas que las segundas.

Existe toda una familia de ondas de diversa longitud, denominada espectro electromagnético. Este espectro se suele dividir en siete regiones que podemos clasificar, por orden descendente de longitud, de la siguiente manera: 1) ondas de radio, 2) microondas, 3) rayos infrarrojos, 4) luz visible, 5) rayos ultravioletas, 6) rayos X y 7) rayos gamma.

La atmósfera terrestre sólo es relativamente transparente a la luz visible y a las microondas. Las demás partes del espectro electromagnético son enteramente absorbidas mucho antes de pasar el aire. Así pues, para observar los cielos desde la superficie de la Tierra sólo nos sirven la luz y las microondas.

La humanidad ha observado desde siempre los cielos porque no en balde el hombre siempre ha tenido ojos. Fue en 1931 cuando el ingeniero americano Karl Jarisky descubrió que lo que estaba detectando eran microondas emitidas por los cuerpos celestes. Y como las microondas se clasifican a veces como ondas de radio muy cortas, esta rama de la observación astronómica recibió el nombre de «radioastronomía».

Hay objetos que, aun siendo detectables por su emisión de microondas no emiten mucha luz. Es decir, hay fuentes de radio que son invisibles para la vista.

Pero en el momento en que se empieza a hacer observaciones desde fuera de la atmósfera tenemos el espectro electromagnético completo a nuestra disposición. Las observaciones desde cohetes han demostrado que los cuerpos celestes bombardean la tierra con toda clase de radiaciones. El estudio de éstas podría contribuir mucho al conocimiento del universo.

En el cielo hay regiones, por ejemplo, que emiten luz ultravioleta en grandes cantidades. La nebulosa de Orión es una fuente de ultravioletas, igual que las regiones que circundan a la estrella Spica, de primera magnitud. El origen de esas grandes cantidades de luz ultravioleta en dichas regiones no se conoce todavía.

Más misteriosa aún es la existencia de una serie de puntos en el cielo que, según se ha descubierto, son fuentes prolíficas de rayos X. Para que un objeto emita rayos X tiene que estar extraordinariamente caliente: un millón de grados o más. Ninguna estrella corriente tiene una superficie tan caliente. Pero existen estrellas de neutrones en las que la materia está tan densamente empaquetada, que toda la masa de un objeto del tamaño del Sol quedaría reducida a una pelota de unos 16 kilómetros de diámetro. Estos objetos y otros igual de extraños pueden emitir rayos X.

Es probable que los astrónomos no puedan hacer un estudio completo de los distintos tipos de radiación que nos llegan desde el espacio hasta que no sean capaces de efectuar todas sus observaciones desde fuera de la atmósfera.

La Luna, que carece de atmósfera, sería un lugar ideal para un observatorio semejante. La posibilidad de construir esos observatorios y de potenciar así nuestro conocimiento es una de las razones más atractivas para intentar colonizar la Luna.

74. Al calentar una sustancia se pone primero roja, luego naranja, después amarilla, pero a continuación blanca. ¿Por qué no sigue el espectro y se pone verde?

Cualquier objeto, a cualquier energía superior al cero absoluto, radia ondas electromagnéticas. Si su temperatura es muy baja, emite sólo ondas de radio largas, muy pobres en energía. Al aumentar la temperatura, radia una cantidad mayor de ondas, pero también empieza a radiar ondas de radio más cortas (y más energéticas). Si la temperatura sigue subiendo, empiezan a radiarse microondas aún más energéticas y después radiaciones infrarrojas.

Esto no quiere decir que a una temperatura dada sólo se emitan ondas de radio largas, un poco más arriba sólo ondas de radio cortas, luego sólo microondas y después sólo infrarrojos. En realidad se emite toda la gama de radiaciones, pero siempre hay una radiación máxima, es decir una gama de longitudes de onda que son las más radiadas, flanqueadas por cantidades menores en el lado de las energías bajas y por cantidades todavía más pequeñas en el de las altas.

Cuando un objeto alcanza la temperatura del cuerpo humano (37 ºC) el máximo de radiación se encuentra en los infrarrojos largos. El cuerpo humano también radia ondas de radio, pero las longitudes de onda más cortas y más energéticas son siempre las más fáciles de detectar y por consiguiente las más notables.

Cuando la temperatura alcanza aproximadamente los 600 ºC, el máximo de radiación se halla en el infrarrojo corto. Pero a esas alturas la pequeña cantidad de radiación que se halla en el lado de las energías altas adquiere una importancia especial porque entra ya en la región de la luz visible roja. El objeto reluce entonces con un rojo intenso.

Este rojo constituye sólo un pequeño porcentaje de la radiación total, pero como da la casualidad de que nuestro ojo lo percibe, le otorgamos toda nuestra atención y decimos que el objeto está al «rojo vivo».

Si la temperatura sigue subiendo, el máximo de radiación continúa desplazándose hacia las longitudes de onda cortas y cada vez se emite más luz visible de longitudes cada vez menores. Aunque el objeto radia más luz roja, se van agregando poco a poco luz anaranjada y luz amarilla en cantidades menores pero significativas. Al llegar a los 1.000 ºC la mezcla de colores la percibimos como naranja, y a los 2.000 ºC como amarilla. Lo cual no significa que a los 1.000 ºC sólo se radie luz naranja o que a los 2.000 ºC se radie sólo amarilla. Porque si fuese así, habría efectivamente que esperar que lo siguiente fuese «calor verde». Lo que en realidad vemos son mezclas de colores.

Al llegar a los 6.000 ºC (la temperatura superficial del Sol) el máximo de radiación está en el amarillo visible y lo que llega a nuestros ojos son grandes cantidades de luz visible, desde el violeta hasta el rojo. La incidencia simultánea de toda la gama de luz visible sobre nuestra retina nos da la sensación de blanco, y de ahí el color del Sol.

Los objetos más calientes aún que el Sol radian todas las longitudes de onda de la luz visible y en cantidades todavía mayores. Pero el máximo de radiación se desplaza al azul, de modo que la mezcla se desequilibra y el blanco adquiere un tinte azulado.

Todo esto reza para objetos calientes que emiten «espectros continuos», es decir, que radian luz en la forma de una ancha banda de longitudes de onda. Ciertas sustancias, en condiciones adecuadas, radian sólo luz de determinadas longitudes de onda. El nitrato de bario radia luz verde cuando se calienta, y con ese fin se lo utiliza en los fuegos de artificio. «Calor verde», si así lo queréis.

75. ¿Qué es la luz polarizada?

La luz podemos imaginárnosla como si estuviese compuesta por diminutas ondas que pueden oscilar en cualquier plano. En un haz de luz cualquiera puede haber ondas que oscilen de arriba a abajo, otras que oscilen de un lado al otro y otras que lo hagan en diversas direcciones diagonales. Las direcciones de oscilación pueden estar repartidas equitativamente, sin que haya planos privilegiados que contengan una cantidad más que proporcional de ondas luminosas. La luz corriente del Sol o de una bombilla es de este tipo.

Pero supongamos ahora que la luz atraviesa un cristal transparente. El cristal está compuesto de multitud de átomos o grupos de átomos alineados en filas y capas regulares. Las ondas luminosas pasarán fácilmente a través del cristal si da la casualidad de que oscilan en un plano que les permite colarse entre dos capas de átomos. Pero si oscilan en un plano que forma un pequeño ángulo con el anterior, chocarán contra los átomos y gran parte de su energía se irá en hacerlos vibrar. En ese caso la luz sería parcial o totalmente absorbida.

(Para daros una idea de cómo funciona esto, imaginad que atáis una cuerda a un árbol del jardín del vecino, sosteniendo el otro extremo en vuestra mano. Supongamos además que la cuerda pasa entre dos palotes de una valla a mitad de camino. Si agitáis la cuerda arriba y abajo, las ondas pasarán entre los dos palotes e irán a parar al árbol. La valla sería entonces «transparente» a dichas ondas. Pero si las ondas son de derecha a izquierda, chocarán contra los palotes y no pasarán.)

Hay cristales que separan la energía de las ondas luminosas en dos rayos distintos. El plano de oscilación ya no está distribuido uniformemente. En uno de los rayos, todas las ondas oscilan en un determinado plano, mientras que en el otro oscilan en un plano perpendicular al primero. Las oscilaciones diagonales quedan totalmente excluidas.

Cuando las ondas luminosas están obligadas a oscilar en un plano determinado, se dice que la luz está «polarizada linealmente» o simplemente «polarizada». La luz ordinaria, que oscila en cualquier dirección, es luz «no polarizada».

Pero ¿por qué «polarizada»? Cuando el fenómeno recibió su nombre, allá por el año 1808, el ingeniero francés E. L. Malus, que fue quien lo bautizó, tenía una teoría equivocada acerca de la naturaleza de la luz. Malus pensaba que la luz estaba compuesta por partículas con polos, como los de un imán, y que la luz que emergía de un cristal tenía todos sus polos dirigidos en una misma dirección. La teoría resultó ser falsa, pero el nombre estaba ya demasiado afincado para cambiarlo.

Los dos rayos de luz producidos por algunos cristales, cada cual con su propio plano de polarización, tienen propiedades algo diferentes. Por ejemplo, puede que se refracten con ángulos distintos al pasar por el cristal. Aprovechando esto se pueden fabricar cristales en los cuales el primer rayo se refleje y se pierda, y sea sólo el otro el que atraviese hasta el final.

En algunos cristales sólo pasa uno de los rayos; el otro es absorbido y convertido en calor. Los cristales polaroides (que llevan diminutos cristales de este tipo incrustados en plástico) absorben gran parte de la luz por este conducto, y más aún gracias a que están coloreados. De este modo reducen los reflejos.

Cuando la luz polarizada pasa a través de una solución que contiene ciertos tipos de moléculas asimétricas, el plano de oscilación gira. La dirección y magnitud de ese giro ha permitido a los químicos deducir muchas cosas acerca de la estructura real de las moléculas, y sobre todo de las orgánicas. De ahí la enorme importancia de la luz polarizada para la teoría química.

76. La luz ¿puede ejercer fuerza sobre la materia?

Un haz de luz contiene energía. Cuando choca contra un objeto opaco y es absorbido, esa energía tiene que ir a algún lado. La mayor parte se convierte en calor, es decir, las partículas que constituyen el objeto opaco se llevan la energía luminosa y empiezan a vibrar con más rapidez.

Pero el haz de luz ¿puede ejercer una fuerza directa sobre el objeto opaco? ¿Puede comunicar su movimiento al objeto que lo absorbe? El efecto de un cuerpo sólido en movimiento sobre cualquier cosa que se cruce en su camino, es de sobra conocido. Una bola, al chocar contra un juego de bolos, los manda a paseo. Ahora bien, la luz está compuesta por partículas de masa nula. ¿Puede, pese a ello, transferir su movimiento y ejercer una fuerza sobre la materia?

Allá por el año 1873, el físico escocés J. Clerk Maxwell estudió el problema desde el ángulo teórico y demostró que la luz, aun estando compuesta por ondas sin masa, tenía que ejercer una fuerza sobre la materia. Su magnitud dependería de la energía contenida en el haz de luz por unidad de longitud. Ahí está el quid. Supongamos que encendemos una linterna durante un segundo. La luz emitida durante ese segundo contiene bastante energía, pero en ese brevísimo lapso de tiempo la primera onda de luz emitida ha avanzado ya 299.793 kilómetros. Toda la luz emitida en un segundo por ese relámpago luminoso queda repartida a lo largo de un haz de esa longitud, de modo que la energía que toca cada metro, o incluso cada kilómetro, es realmente pequeña.

Por eso, en circunstancias normales no nos percatamos de ninguna fuerza ejercida por la luz sobre la materia.

Supongamos, sin embargo, que cogemos una barra ligera, le adosamos un disco plano a cada lado y la suspendemos horizontalmente, por el punto medio, con un fino hilo de cuarzo. La más mínima fuerza sobre uno de los discos hará que la barra gire alrededor del hilo. Si hacemos incidir un haz de luz sobre uno de los discos, la barra girará siempre que el haz ejerza una fuerza sobre él.

Naturalmente, esa diminuta fuerza quedaría anulada en el momento en que hubiese un ligerísimo viento soplando en contra, de manera que el sistema entero tiene que ir encerrado en una cámara. Por otro lado, el mismo choque de las moléculas de aire contra los discos crearía fuerzas mucho mayores que la de la luz, por lo cual habrá que hacer un alto vacío en la cámara. Una vez hecho todo esto y tomadas otra serie de precauciones, se puede medir ya el pequeñísimo desplazamiento de los discos cuando sobre ellos se hace incidir un intenso haz luminoso.

Los físicos americanos Ernest F. Nichols y Gordon F. Hull realizaron en 1901 tal experimento en la Universidad Dartmouth y demostraron que la luz ejercía efectivamente una fuerza, cuya magnitud era exactamente la predicha por Maxwell veintiocho años antes. Casi al mismo tiempo, el físico ruso Peter N. Lebedev demostró lo mismo utilizando un aparato algo más complicado.

Demostrada ya la existencia de esta «presión de radiación», los astrónomos vieron en ella la explicación de un interesante fenómeno relacionado con los cometas. La cola de un cometa apunta siempre en dirección contraria a la del Sol. Cuando el cometa se va acercando a éste, la cola ondea detrás, da la vuelta en el punto de máxima aproximación y se coloca delante del cometa al alejarse éste.

«Ajajá», pensaron los astrónomos. «¡La presión de radiación!».

Durante medio siglo no dudaron de que fuera así, pero estaban equivocados. La presión de radiación de la luz solar no es lo bastante fuerte. Es el viento solar el que empuja la cola de los cometas en dirección contraria a la del Sol.

77. La luz roja es la menos desviada al pasar por un prisma, pero la que más se desvía al pasar por una red de difracción. ¿Por qué esa diferencia?

La luz cabe considerarla como un movimiento ondulatorio y la luz del Sol como una colección de ondas de diferentes longitudes. La luz de diferentes longitudes de onda produce efectos distintos sobre la retina, y es eso lo que nos da la sensación de los colores. De todas las formas visibles de luz, la roja es la de mayor longitud de onda; luego viene el anaranjado, el amarillo, el verde, el azul y finalmente el violeta.

Cuando la luz pasa del aire al vidrio, al agua o a otro medio transparente, disminuye su velocidad. Si el haz de luz incide sobre el trozo de vidrio con un ángulo oblicuo desde la derecha, la parte derecha del haz, que es la que primero choca contra el vidrio, es también la que pierde primero velocidad. Durante un instante, la parte derecha se mueve lentamente mientras que la izquierda sigue a toda velocidad. El resultado es que el haz cambia de dirección al entrar en el vidrio. Es lo que se llama «refracción».

Lo mismo ocurriría si una columna de soldados entrara oblicuamente desde una carretera asfaltada a un campo arado. Los soldados que se encuentran en el lado más próximo al campo entrarían primero en él y disminuirían antes el paso. Y a menos que se hiciera un esfuerzo deliberado para impedirlo, la columna cambiaría de dirección al entrar en el campo.

El efecto retardador del campo proviene de la dificultad de despegar las botas en un suelo blando. Una vez despegada y en el aire, se mueve igual de deprisa en un campo que una carretera. Lo cual significa que los soldados patilargos, al establecer menos contactos por unidad de distancia que los paticortos (gracias a su mayor zancada), sufrirán un retardo menor. Una columna de soldados patilargos cambiaría menos de dirección que otra de paticortos.

La luz roja, con su gran longitud de onda, es similar en este aspecto a un soldado patilargo. Su velocidad disminuye menos que la de la luz de cualquier otro color, y, por tanto, sufre una refracción mínima. Y la luz violeta es naturalmente la que se refracta más.

La difracción implica un principio completamente diferente. Un movimiento ondulatorio puede rodear libremente un obstáculo con tal de que éste no sea mayor que la longitud de una de sus ondas. Cuanto mayor es el obstáculo, peor podrá rodearlo.

Las longitudes de onda de la luz son tan diminutas (aproximadamente 1/20.000 de centímetro) que al tropezar con obstáculos corrientes no se desvía apenas nada, sino que prosigue en línea recta y proyecta sombras nítidas. (Las ondas sonoras, cuya naturaleza es muy distinta de las de la luz, son mucho más largas. Por eso se puede oír al otro lado de una esquina, pero no ver… al menos sin espejos.)

Una red de difracción consiste en un gran número de líneas opacas muy finas, todas ellas paralelas y trazadas sobre un fondo transparente. Las líneas opacas son lo bastante finas como para que incluso las diminutas ondas luminosas, al pasar por las regiones transparentes vecinas, puedan rodearlas un poco. Esto es lo que se denomina «difracción».

Está claro que cuanto más larga sea la longitud de onda de la luz, más pequeña será la obstrucción de las líneas opacas y tanto más podrá abarcar la luz alrededor de ellas. La luz roja, con su gran longitud de onda, es la que más puede abarcar alrededor de las líneas opacas y, por tanto, la que más se difracta. Y la luz violeta, por supuesto, la que menos.

Tanto los prismas de refracción como las redes de difracción dan un «arco iris» o espectro. Pero uno es el inverso del otro. Leyendo hacia fuera desde la dirección original de la luz, el espectro de refracción es rojo, anaranjado, amarillo, verde, azul y violeta. Y el de difracción: violeta, azul, verde, amarillo, anaranjado y rojo.

78. ¿Qué ocurre con la energía cuando dos haces de luz interfieren y producen oscuridad?

Un haz de luz viene a estar compuesto por un tren de ondas. Cuando dos haces luminosos chocan entre sí formando un ángulo pequeño, puede ocurrir que las ondas se encuentren de tal manera que cuando las unas bajan las otras suben, y viceversa. Las dos ondas «interfieren» y se cancelan parcial o incluso totalmente. El resultado es que la combinación de dos ondas puede producir una luz menos intensa que cualquiera de ellas por separado.

Ahora bien, cada uno de los conjuntos de ondas representa una cierta cantidad de energía. Si las dos ondas se cancelan mutuamente y provocan oscuridad allí donde antes había luz, ¿es que ha desaparecido la energía?

¡Naturalmente que no! Una de las reglas fundamentales de la física es que la energía no puede desaparecer. Tal es la «ley de conservación de la energía». En el fenómeno de la interferencia hay una energía que ha dejado de existir en forma de luz. Por tanto, tiene que aparecer una cantidad exactamente igual de energía en otra forma distinta.

La forma menos organizada de energía es la del movimiento aleatorio de las partículas que componen la materia, movimiento que llamamos «calor». La energía tiende a perder organización al cambiar de forma, de manera que cuando parece que la energía desaparece, lo mejor es buscar calor, es decir, moléculas que se muevan al azar y a velocidades mayores que antes.

Esto es lo que ocurre en el caso de la interferencia luminosa. En teoría es posible disponer dos haces de luz de manera que interfieran perfectamente. Al incidir en una pantalla la dejarán perfectamente oscura, pero aun así, la pantalla aumentará de temperatura. La energía no ha desaparecido, sólo ha cambiado de forma.

Un problema parecido es el siguiente. Supongamos que damos cuerda al resorte de un reloj. Ahora contiene más energía que cuando estaba distendido. A continuación disolvemos el resorte, todavía tenso, en un ácido. ¿Qué ocurre con la energía?

También aquí se convierte en calor. Si empezamos con dos soluciones ácidas a la misma temperatura y disolvemos en una de ellas un muelle distendido y en la otra un muelle tenso (por lo demás idénticos), la segunda solución tendrá al final una temperatura mayor que la primera.

La ley de la conservación de la energía no fue entendida del todo hasta el año 1847, cuando los físicos lograron captar en todo su sentido la naturaleza del calor. Desde entonces, la aplicación de esa ley ha permitido comprender una serie de fenómenos básicos. Las transformaciones radiactivas, pongamos por caso, producen más calor del que podían explicar los cálculos físicos decimonónicos. El problema quedó resuelto cuando Einstein elaboró su famosa ecuación e = mc2, demostrando que la propia materia era una forma de energía.

Por otro lado, en algunas transformaciones radiactivas se producen electrones de energía demasiado pequeña. En lugar de admitir una violación de la ley de conservación de la energía, Wolfgang Pauli sugirió en 1931 que en dicha transformación se producía simultáneamente otra partícula, el neutrino, que se llevaba el resto de la energía. Y tenía razón.

79. ¿Qué es el efecto Coriolis?

Moverse por un objeto que sea estacionario o que se desplace a velocidad constante con respecto a un punto fijo no representa ningún problema. Si queremos desplazarnos desde el punto A en uno de los extremos hasta el punto B en el extremo contrario, lo podremos hacer sin experimentar ninguna dificultad.

Pero la situación cambia cuando las distintas partes del objeto llevan una velocidad diferente. Pensemos en un tiovivo o cualquier otro objeto plano y grande que gire alrededor de su centro. El objeto entero gira de una pieza, pero lo cierto es que cualquier punto cercano al centro describe un círculo pequeño y se mueve despacio mientras que los puntos próximos al borde exterior describen círculos grandes y se mueven, por tanto, muy deprisa.

Imagina que estás en un punto próximo al centro y que quieres dirigirte a otro cerca del borde exterior, siguiendo una línea recta que arranque del centro. En el punto de salida, cerca del centro, participas de la velocidad de dicho punto y, por tanto, te mueves despacio. Sin embargo, a medida que avanzas hacia afuera el efecto de la inercia tiende a que sigas moviéndote despacio mientras que el suelo que pisas va cada vez más rápido. La combinación de tu lentitud y la rapidez del suelo hacen que te sientas empujado en la dirección opuesta a la del movimiento de giro. Si el tiovivo gira en dirección contraria a la de las manillas del reloj, comprobarás que tu trayectoria se curva cada vez más en el sentido de las manillas del reloj a medida que avanzas.

Si empiezas en un punto próximo al borde exterior y avanzas hacia el centro, retendrás la rapidez de dicho punto al tiempo que el suelo irá moviéndose cada vez más despacio debajo de tus pies. Por consiguiente, te sentirás empujado cada vez más en la dirección de giro. Sí el tiovivo se mueve en dirección contraria a la de las manillas del reloj, tu trayectoria se curvará cada vez más en el sentido de las agujas del reloj.

Saliendo de un punto próximo al centro, desplazándote hasta un punto cercano al borde exterior y volviendo luego al centro, comprobarás ―si sigues siempre el camino de menor resistencia― que has descrito una trayectoria más o menos circular.

Este fenómeno fue estudiado por primera vez con detalle en 1835 por el físico francés Gaspard de Coriolis, y en honor suyo se llama «efecto Coriolis». A veces se denomina «fuerza de Coriolis», pero en realidad no es una fuerza, sino simplemente el resultado de la inercia.

La consecuencia más importante del efecto Coriolis para los asuntos cotidianos tiene que ver con la rotación de la Tierra. Los puntos de la superficie terrestre cercanos al ecuador describen en el lapso de veinticuatro horas un gran círculo y, por tanto, se mueven muy deprisa. Cuanto más al norte (o al sur) nos movamos, menor es el círculo descrito por un punto de la superficie y más despacio se mueve.

Los vientos y corrientes oceánicas que corren hacia el norte desde los trópicos llevan desde el principio, por la misma rotación terrestre, un rápido movimiento de oeste a este. Al desplazarse hacia el norte conservan su velocidad, pero como resulta que la superficie de la Tierra se mueve cada vez más despacio, el viento o la corriente se adelanta y empieza a curvarse hacia el este. Al final acaban por moverse en grandes círculos: a derechas en el hemisferio norte y a izquierdas en el hemisferio sur.

Es, precisamente el efecto Coriolis el que inicia ese movimiento circular que, concentrado en mayor grado (y, por tanto, más energéticamente) da origen a los huracanes, y en grado aún mayor, a los tornados.

80. El sonido se mueve más deprisa en sustancias densas como el agua o el acero que en el aire; sin embargo se mueve más deprisa en el aire caliente que en el frío, cuando el aire caliente es menos denso que el frío. ¿Es una paradoja?

Lo que nuestros oídos detectan como sonido está causado por una vibración que a su vez origina un movimiento oscilatorio en los átomos o moléculas que constituyen el medio por el que se propaga, La vibración empuja y comprime las moléculas cercanas. Las moléculas así comprimidas vuelven a separarse después y originan otra compresión en la región adyacente, de suerte que la zona de compresión parece propagarse hacia fuera a partir de la fuente sonora. La velocidad con que se mueve la onda de compresión a partir de la fuente es la velocidad del sonido en ese medio.

La velocidad del sonido depende de la velocidad natural con que se mueven las moléculas que componen cada sustancia. Comprimida una cierta sección de aire (sí éste es el medio en cuestión), las moléculas vuelven luego a disgregarse por efecto de sus movimientos aleatorios naturales. Si este movimiento aleatorio es rápido, las moléculas de la región comprimida se disgregan rápidamente y comprimen, también rápidamente, las moléculas de la región vecina. Ésta, a su vez, se dilata rápidamente y comprime a la sección siguiente con igual celeridad. En resumidas cuentas: la onda de compresión se propaga rápidamente y la velocidad del sonido en ese medio es alta.

Cualquier factor que aumente (o disminuya) la velocidad natural de las moléculas del aire, aumenta (o disminuye) la velocidad del sonido en el aire.

Pues bien, las moléculas del aire se mueven más deprisa a temperaturas altas que a bajas. Y por eso el sonido se propaga más rápidamente a través del aire caliente que del frío. Lo cual no tiene nada que ver con la densidad.

A 0 ºC, el punto de congelación del agua, el sonido se propaga a 1.195 kilómetros por hora. Esta velocidad aumenta a razón de 2,2 kilómetros por hora con cada grado adicional de temperatura.

Los gases compuestos por moléculas más ligeras que las del aire son, por lo general, menos densos que éste. Las moléculas más ligeras se mueven también con mayor rapidez. La velocidad del sonido en esos gases ligeros es mayor que en el aire, pero no por efecto de la menor densidad, sino por la mayor rapidez de las moléculas. En hidrógeno a 0º el sonido se propaga a 4.667 kilómetros por hora.

Al pasar a los líquidos y sólidos la situación es completamente diferente a la de los gases. En éstos, las moléculas están muy distanciadas y apenas interfieren entre sí. Las moléculas, después de comprimirlas, sólo se separan por efecto de sus movimientos aleatorios. Por el contrario, las moléculas y átomos de los líquidos y sólidos se mantienen en contacto. Al comprimirlas, se separan de nuevo rápidamente debido a su repulsión mutua.

Lo anterior se aplica especialmente a los sólidos, donde los átomos y moléculas se mantienen más o menos rígidamente fijos en su sitio. Cuanto más rígida sea esta atadura, más rápidamente recuperarán su posición al comprimirlos. Por eso el sonido se propaga más deprisa en líquidos que en gases, más deprisa aún en sólidos, y aún más en sólidos rígidos. La densidad no es el factor principal.

Así, el sonido se propaga en el agua a unos 5.311 kilómetros por hora, y en el acero, a unos 17.700 kilómetros por hora.

81. ¿Se hunden los barcos hasta el fondo del mar o llega un momento en que la presión les impide seguir bajando?

Un objeto se hunde en el agua si es más denso que ella. La densidad del agua es de un gramo por centímetro cúbico, y las sustancias como la piedra o los metales son mucho más densos que eso. Los barcos, aunque están construidos de grandes masas de acero, flotan porque en su interior encierran grandes espacios de aire. La densidad media del acero y demás materiales de construcción más el volumen de aire dentro del barco es menor que la del agua. Si por accidente, entra agua en el barco, la densidad media de los materiales de construcción más el agua del interior es mayor que la del agua, y el barco se hunde.

A medida que se hunde, va experimentando presiones cada vez mayores. En la superficie del océano, la presión (debida a la atmósfera) es de 1.034 gramos por centímetro cuadrado de superficie. Diez metros más abajo, el peso de esa columna de agua añade otros 1.034 gramos por centímetro cuadrado a la presión, y lo mismo para cada uno de los diez metros siguientes. La presión en el fondo del lugar más profundo del océano que se conoce es de mil cien veces la presión atmosférica, lo que equivale a más de una tonelada por centímetro cuadrado.

Tales presiones no tienen, sin embargo, ningún efecto sobre el empuje hacia arriba que experimenta un objeto al hundirse. La presión actúa en todas las direcciones por igual, hacia abajo, hacia arriba y lateralmente, de manera que el objeto sigue hundiéndose, sin hacer ningún caso del aumento de presión.

Pero hay otro factor. La presión comprime el agua y aumenta así su densidad. ¿No podría ser que, como consecuencia de ese aumento de presión, el agua se hiciese tan densa que el objeto dejara de hundirse y quedara flotando en las profundidades del mar?

¡No! El efecto de compresión es muy pequeño. Incluso a una presión de 1 tonelada por centímetro cuadrado, la densidad del agua aumenta sólo de 1 a unos 1,05 gramos por centímetro cúbico. Un sólido que tuviera una densidad de 1,02 gramos por centímetro cúbico se hundiría, efectivamente en el agua, pero quedaría flotando a unos cinco kilómetros de profundidad. Los materiales de construcción ordinarios, sin embargo, tienen densidades muy superiores a 1,05. La densidad del aluminio es 2,7 y la del acero 7,8 gramos por centímetro cúbico. Los barcos metálicos se hundirían hasta el fondo de los abismos más profundos sin la menor posibilidad de flotar.

Pero supongamos que el océano fuese más profundo aún. ¿Llegaría un momento en que una barra de aluminio por poner un ejemplo, alcanzase una profundidad máxima? La respuesta sigue siendo, ¡no!

Si los océanos tuviesen una profundidad de 68 kilómetros (en lugar de unos 11 como máximo), la presión en el fondo alcanzaría unas 7 toneladas por centímetro cuadrado y la densidad del agua 1,3 gramos por centímetro cúbico. Pero para entonces el agua ya no sería líquida, sino que se convertiría en una sustancia sólida llamada «hielo VI». (El hielo VI es más denso que el agua, mientras que el hielo I ―el hielo ordinario― es menos denso.)

Por consiguiente, el aluminio o cualquier otra sustancia de densidad mayor que 1,3 gramos por centímetro cúbico descenderían hasta cualquier profundidad oceánica mientras el agua siguiese siendo líquida, y en último término iría a posarse sobre una superficie sólida que podría ser el fondo marino o ese hielo VI. El agua ordinaria nunca puede hacerse suficientemente densa para hacer flotar al aluminio y mucho menos al acero.

82. ¿Cuáles son los elementos químicos más activos y por qué?

Los electrones rodean al núcleo atómico en esferas concéntricas llamadas «capas». Para cada elemento hay un número fijo de electrones en cada capa. La distribución es especialmente estable cuando hay ocho electrones en la capa más exterior.

Supongamos, sin embargo, que un elemento tiene tantos electrones, que después de acomodar ocho de ellos en una de las capas exteriores quedan varios por alojar en una capa aún más externa. Estos pocos electrones, los más exteriores y ―como todos― cargados negativamente, son atraídos muy débilmente por el núcleo atómico, cargado positivamente y situado en el centro. Esos electrones exteriores son cedidos con gran facilidad a otros átomos. Lo que quede ahora del átomo es esa disposición estable de ocho electrones en la capa más externa.

Las reacciones químicas implican la transferencia de electrones, por lo cual un elemento que pueda perder fácilmente uno o más participará ávidamente en tales reacciones y será «químicamente activo». Por lo general, cuantos menos sean los electrones que excedan de ocho, tanto más fácilmente son transferidos y más activo es el elemento. Los elementos más activos con los que tienen un único electrón por encima de los ocho: aquellos en los que hay un electrón solitario en las capas exteriores.

Ejemplos de tales elementos son el sodio, con una distribución electrónica en tres capas (2, 8, 1), y el potasio, en cuatro capas (2, 8, 8, 1).

Las capas electrónicas interiores tienden a aislar a ese solitario electrón exterior del núcleo, positivamente cargado. Cuantas más capas haya entremedias, tanto más débil es la atracción del núcleo sobre el electrón exterior y tanto más fácil es que el átomo lo transfiera. Por eso el potasio es más activo que el sodio, y el cesio (2, 8, 18, 18, 8, 1) más aún que el potasio.

Todavía más activo sería el francio (2, 8, 18, 32, 18, 8, 1), pero tiene el inconveniente de que sólo se pueden estudiar unos cuantos átomos cada vez. Su isótopo más estable tiene una vida media de sólo veintiún minutos. El cesio es, por tanto, el elemento metálico estable más activo.

Supongamos ahora que a un elemento le faltan algunos electrones para completar una capa exterior de ocho. Tales átomos muestran cierta tendencia a aceptar ciertos electrones hasta completar la cifra de ocho. Por consiguiente, intervienen ávidamente en reacciones químicas y son activos.

En general, cuanto menor es el número de electrones que faltan para completar los ocho, mayor es la tendencia a aceptar electrones. Por eso los elementos más activos de esta clase son aquellos cuyos átomos contienen siete electrones en la capa exterior, necesitando sólo uno para completar los ocho.

Ejemplos de tales elementos son el cloro, cuya distribución de electrones es (2, 8, 7), y el bromo, con (2, 8, 18, 7).

En estos elementos ocurre que cuanto mayor es la atracción del núcleo, mayor es la tendencia a robar el electrón que falta. A menor número de capas internas de electrones, menor aislamiento alrededor del núcleo, mayor la atracción de éste y más activo el elemento.

De los elementos de esta clase, el que menos capas de electrones tiene es el flúor, con una disposición electrónica (2, 7). El flúor es, por tanto, el elemento no metálico más activo.

83. ¿Qué tienen de noble los gases nobles?

Los elementos que reaccionan difícilmente o que no reaccionan en absoluto con otros elementos se denominan «inertes». El nitrógeno y el platino son ejemplos de elementos inertes.

En la última década del siglo pasado se descubrieron en la atmósfera una serie de gases que no parecían intervenir en ninguna reacción química. Estos nuevos gases ―helio, neón, argón, criptón, xenón y radón― son más inertes que cualquier otro elemento y se agrupan bajo el nombre de «gases inertes».

Los elementos inertes reciben a veces el calificativo de «nobles» porque esa resistencia a reaccionar con otros elementos recordaba un poco a la altanería de la aristocracia. El oro y el platino son ejemplo de «metales nobles», y por la misma razón se llamaba a veces «gases nobles» a los gases inertes. Hasta 1962 el nombre más común era el de «gases inertes», quizá porque lo de nobles parecía poco apropiado en sociedades democráticas.

La razón de que los gases inertes sean inertes es que el conjunto de electrones de cada uno de sus átomos está distribuido en capas especialmente estables. La más exterior, en concreto, tiene ocho electrones. Así la distribución electrónica del neón es (2, 8) y la del argón (2, 8, 8). Como la adición o sustracción de electrones rompe esta distribución estable, no pueden producirse cambios electrónicos. Lo cual significa que no se pueden producir reacciones químicas y que esos elementos son inertes.

Ahora bien, el grado de inercia depende de la fuerza con que el núcleo, cargado positivamente y situado en el centro del átomo, sujeta a los ocho electrones de la capa exterior. Cuantas más capas electrónicas haya entre la exterior y el centro, más débil será la atracción del núcleo central.

Quiere esto decir que el gas inerte más complejo es también el menos inerte. El gas inerte de estructura atómica más complicada es el radón. Sus átomos tienen una distribución electrónica de (2, 8, 18, 32, 18, 8). El radón, sin embargo, está sólo constituido por isótopos radiactivos y es un elemento con el que difícilmente se pueden hacer experimentos químicos. El siguiente en orden de complejidad es el xenón, que es estable. Sus átomos tienen una distribución electrónica de (2, 8, 18, 18, 8).

Los electrones más exteriores de los átomos de xenón y radón están bastante alejados del núcleo y, por consiguiente, muy sueltos. En presencia de átomos que tienen una gran apetencia de electrones, son cedidos rápidamente. El átomo con mayor apetencia de electrones es el flúor, y así fue como en 1962 el químico canadiense Neil Bartlett consiguió formar compuestos de xenón y flúor.

Desde entonces se ha conseguido formar también compuestos de radón y criptón. Por eso los químicos rehúyen el nombre de «gases inertes», porque, a fin de cuentas, esos átomos no son completamente inertes. Hoy día se ha impuesto la denominación de «gases nobles» y existe toda una rama de la química que se ocupa de los «compuestos de gases nobles».

Naturalmente, cuanto más pequeño es el átomo de un gas noble, más inerte es, y no se ha encontrado nada que sea capaz de arrancarles algún electrón. El argón, cuya distribución electrónica es (2, 8, 8), y el neón, con (2, 8), siguen siendo completamente inertes. Y el más inerte de todos es el helio, cuyos átomos contienen una sola capa electrónica con dos electrones (que es lo máximo que puede alojar esa primera capa).

84. ¿Por qué se forman los cristales y por qué lo hacen siempre en ciertas formas?

En condiciones ordinarias existen tres estados de la materia: gaseoso, líquido y sólido. En los gases, la energía de los átomos o (lo que es más corriente) de las moléculas que los componen es tan grande y/o la atracción entre las distintas moléculas es tan pequeña, que éstas se mueven independientes de un lado para otro.

Si la energía disminuye hasta un cierto punto, las moléculas ya no pueden conservar su independencia, y tienen que permanecer en contacto unas con otras. Sin embargo, hay todavía suficiente energía para que las moléculas se muevan un poco, deslizándose unas sobre otras. Lo que tenemos entonces es un líquido.

Si la energía disminuye aún más, las moléculas ya no podrán resbalar y deslizarse, sino que tienen que permanecer fijas en una orientación determinada (aunque pueden vibrar, y de hecho vibran, de un lado a otro alrededor de esa posición fija). La sustancia es ahora un sólido.

Dos moléculas vecinas (o átomos, o iones) de un sólido no pueden ocupar una posición cualquiera, sino que adoptan una ordenación regular que depende de la proporción de partículas diferentes que haya, de las diferencias de tamaño que puedan existir, de la presión exterior, etc. En el cloruro sódico, los iones de sodio y los de cloruro están en igualdad de número y difieren en tamaño. En el fluoruro de cesio, los iones de cesio y los de fluoruro están en igualdad numérica, pero los primeros son mucho mayores que los segundos. En el cloruro de magnesio, los iones de magnesio y los de cloruro no difieren apenas en tamaño, pero hay el doble de los segundos que de los primeros. Esto hace que cada compuesto empaquete sus iones de manera diferente.

Cualquier trozo visible de materia compuesta de átomos, iones o moléculas dispuestos de manera ordenada mostrará superficies lisas que se cortan según ángulos fijos. (Es lo mismo que una formación militar vista desde el aire. Quizá no podamos ver uno a uno a cada soldado, pero si van bien formados veremos que la formación es un rectángulo, por ejemplo). La forma del trozo visible de materia (o «cristal») depende de la ordenación atómica. Para cualquier sustancia dada, y con un conjunto específico de condiciones, sólo hay una distribución atómica posible. De ahí que los cristales tengan siempre una forma dada.

Las sustancias sólidas son casi siempre de naturaleza cristalina, aunque no lo parezca. Para formar un cristal perfecto, lo mejor es empezar con una sustancia pura en disolución (para que no se cuelen átomos extraños que pueden perturbar la ordenación). Luego hay que enfriarla lentamente, para que los átomos tengan tiempo de irse colocando cada uno en su lugar. Lo que predomina en la naturaleza son mezclas de sustancias, y por eso lo que resulta al final es una yuxtaposición de diferentes tipos de cristales que se entrecruzan. Además, si el enfriamiento es muy rápido, se empiezan a formar tantos cristales que ninguno de ellos tiene la oportunidad de pasar del tamaño microscópico, con lo cual cada uno se orienta por su lado y no dan una forma determinada.

Por eso es muy raro ver cristales grandes y limpios en la naturaleza. Lo que solemos encontrar son trozos irregulares de material compuesto por cristales microscópicos que no vemos.

Hay sustancias sólidas que no son cristalinas y que, por tanto, no son realmente sólidas. El vidrio, por ejemplo. El vidrio líquido es muy viscoso, y eso impide que los iones se muevan con soltura y se ordenen adecuadamente. Al enfriarse el vidrio, los iones se van moviendo cada vez más despacio hasta que se detienen del todo, conservando en adelante la posición que tenían en ese momento.

En tales condiciones no hay ordenación ninguna, de modo que el vidrio «sólido» es realmente un «líquido subenfriado». El vidrio es ciertamente duro y parece sólido, pero no tiene estructura cristalina ni tampoco (lo cual es decisivo) un punto de fusión definido. Por eso el vidrio «sólido» se va ablandando poco a poco al calentarlo.

85. ¿Se puede comprimir el agua?

La contestación más sencilla es que cualquier cosa se puede comprimir.

Lo cierto es que es mucho más fácil comprimir materia en forma gaseosa que en cualquier otra modalidad. Y es porque los gases están compuestos de moléculas muy separadas entre sí. En el aire normal, pongamos por caso, las moléculas ocupan algo así como una décima parte del volumen total.

Para comprimir un gas basta con apretujar las moléculas un poco contra la tendencia expansiva de su propio movimiento aleatorio y eliminar algo del espacio vacío que existe entre ellas. Es un trabajo para el cual basta la fuerza muscular del hombre. Cuando hinchamos un globo estamos comprimiendo aire.

En el caso de los líquidos y sólidos, los átomos y moléculas que los componen están más o menos en contacto. Si no se acercan aún más es por la repulsión mutua de los electrones que existen en las regiones exteriores de los átomos. Esta repulsión es una resistencia mucho más fuerte a la compresión que el movimiento molecular en un gas. Se quiere decir que los músculos humanos no bastan ya para realizar este trabajo, al menos para que sea perceptible.

Pensemos por un momento que vertemos cierta cantidad de agua en un recipiente rígido abierto por arriba y que ajustamos un pistón en la abertura hasta tocar al agua. Si empujamos el pistón hacia abajo con todas nuestras fuerzas, veremos que apenas cederá. Por eso se dice a menudo que el agua es «incompresible» y que no se puede apretujar en un volumen más pequeño.

Nada de eso. Al empujar el pistón sí que comprimimos el agua, pero no lo suficiente para medirlo. Si la presión aplicada es mucho mayor que la que pueden ejercer los músculos humanos, la disminución del volumen de agua, o de cualquier otro líquido o sólido, llega a ser medible. Por ejemplo, si comprimimos 100 litros de agua con una fuerza de 1.050 kilogramos por centímetro cuadrado, su volumen se contraerá a 96 litros. Si la presión aumenta aún más, el volumen seguirá disminuyendo. Bajo tal compresión, los electrones son empujados, por así decir, cada vez más cerca del núcleo.

Si la presión se hace suficientemente grande ―digamos que por el peso acumulado de muchos miles de kilómetros de materia bajo una gran fuerza gravitatoria―, la repulsión electrostática se viene abajo. Los electrones ya no se pueden mantener en órbita alrededor del núcleo y son desplazados. La materia se reduce entonces a núcleos atómicos desnudos y electrones volando de acá para allá en movimientos alocados.

Los núcleos son mucho más diminutos que los átomos, de manera que esta «materia degenerada» sigue siendo en su mayor parte espacio vacío. La presión en el centro de la Tierra o incluso de Júpiter no es suficiente para formar materia degenerada, pero en cambio sí la hay en el centro del Sol.

Una estrella compuesta por entero de materia degenerada puede tener la misma masa que el Sol y aun así poseer un volumen no mayor que el de la Tierra. Es lo que se llama una «enana blanca». Bajo su propia gravedad puede comprimirse aún más, hasta quedar compuesta de neutrones en contacto mutuo. Tales «estrellas de neutrones» pueden albergar la masa entera del Sol en una esfera de trece kilómetros.

E incluso eso puede comprimirse, piensan los astrónomos, hasta el volumen cero de un «agujero negro».

86. ¿Qué es el hidrógeno metálico? ¿Cómo puede ser el hidrógeno un metal?

Todo el mundo reconoce un metal al verlo, porque los metales tienen propiedades muy características. En superficies lisas reflejan la luz con gran eficacia, que es lo que les confiere su «brillo metálico», mientras que los no metales son muy poco reflectantes y poseen una tonalidad opaca. Los metales son fácilmente deformables, se dejan extender en láminas y estirar en hilos, mientras que los no metales son quebradizos y se rompen o se pulverizan al golpearlos. Los metales conducen el calor y la electricidad fácilmente; los no metales, no.

¿De dónde viene la diferencia?

En la mayoría de los compuestos corrientes como los que vemos a nuestro alrededor en el mar y en la tierra, las moléculas están compuestas por átomos firmemente unidos por electrones compartidos. Cada electrón está ligado firmemente a un átomo determinado. En estos casos la sustancia exhibe propiedades no metálicas.

Según este criterio, el hidrógeno es un no metal. El hidrógeno ordinario está compuesto de moléculas constituidas por dos átomos de hidrógeno. Cada átomo de hidrógeno tiene un solo electrón, y los dos átomos que componen una molécula comparten los dos electrones a partes iguales. No sobra ningún electrón.

¿Qué ocurre cuando hay electrones que no están firmemente ligados? Consideremos, por ejemplo, el elemento potasio. Cada átomo de potasio tiene diecinueve electrones distribuidos en cuatro capas. Los únicos electrones que se pueden compartir son los de la capa exterior, de modo que en el caso del potasio cada átomo sólo puede compartir un electrón con su vecino. Además, este electrón exterior está especialmente suelto porque entre él y el núcleo atómico central que lo atrae se interponen otras capas de electrones. Estas capas intermedias aíslan al electrón exterior de la atracción central.

Los átomos del potasio sólido están empaquetados muy juntos, como esas pirámides de naranjas que se ven a veces en las fruterías. Cada átomo de potasio tiene ocho vecinos. Con tantos vecinos y tan cerca, y estando tan suelto el electrón exterior, es muy fácil que cualquiera de éstos salte de un vecino a otro.

Son estos electrones sueltos y móviles los que permiten a los átomos de potasio empaquetarse tan densamente, conducir fácilmente el calor y la electricidad y deformarse. En resumen, estos electrones sueltos y móviles son los que hacen que el potasio (y otros elementos y mezclas que los poseen) sea metálico.

Pues bien, recordemos que el hidrógeno, al igual que el potasio, tiene un solo electrón para compartir con vecinos. Pero hay una diferencia. Entre ese único electrón del hidrógeno y el núcleo central no hay electrones aislantes. Por consiguiente, el electrón está demasiado sujeto para ser suficientemente móvil y poder convertir el hidrógeno en un metal o hacer que sus átomos se empaqueten densamente.

Pero ¿y si se le da al hidrógeno una pequeña ayuda? ¿Qué ocurre si se le obliga a empaquetarse densamente, no por su propia constitución electrónica, sino por presión exterior? Supongamos que la presión aplicada es suficiente para estrujar los átomos de hidrógeno y hacer que cada átomo quede rodeado por ocho, diez o incluso doce vecinos más próximos. Podría ser entonces que el electrón de cada átomo, a pesar de la fortísima atracción del núcleo, empezara a deslizarse de un vecino a otro. Lo que tendríamos sería «hidrógeno metálico».

Para conseguir que el hidrógeno se empaquete tan densamente, tiene que hallarse en estado casi puro (la presencia de otros átomos estorbaría) y a una temperatura no demasiado alta (de lo contrario se expandiría). Por otro lado tiene que hallarse bajo enormes presiones. Uno de los lugares del sistema solar donde las condiciones son casi perfectas es el centro de Júpiter, y hay quienes creen que el interior de este planeta está compuesto por hidrógeno metálico.

87. ¿Qué es la «poliagua»? Si sigue siendo H2O, ¿cuál es la diferencia?

Al describir la molécula de agua suele decirse que está compuesta por dos átomos de hidrógeno y uno de oxígeno: H2O. Si la cosa acabara ahí, sería una molécula pequeña con bajo punto de ebullición. El sulfuro de hidrógeno (H2S), que tiene una molécula parecida, pero más pesada (porque el S es más pesado que el O), es un gas que no se licúa hasta los –61,8 ºC. Si el agua no fuese más que H2O, se licuaría a una temperatura todavía más baja, quizá alrededor de los –80 ºC.

Pero consideremos la forma de las moléculas de agua. Los tres átomos forman un ángulo casi recto, con el de oxígeno en el vértice. El oxígeno comparte dos electrones con cada uno de los átomos de hidrógeno, pero el reparto no es equitativo. El oxígeno ejerce una mayor atracción sobre los electrones, de modo que éstos, con su carga eléctrica negativa, están muy del lado del oxígeno. Por eso, aunque la molécula de agua es eléctricamente neutra en su conjunto, la parte del oxígeno tiene una pequeña carga negativa, mientras que los dos átomos de hidrógeno tienen pequeñas cargas positivas que contrarrestan a aquélla.

Las cargas de signo opuesto se atraen. Hay, pues, una tendencia a que dos moléculas del agua se alineen de manera que el extremo negativo (el del oxígeno) de una de ellas quede adyacente al positivo (el del hidrógeno) de la siguiente. Esto constituye un «enlace de hidrógeno» que es veinte veces más débil que los enlaces normales que unen al hidrógeno y al oxígeno dentro de la molécula. Sin embargo, basta para que las moléculas de agua sean «pegajosas».

Debido a esta pegajosidad, las moléculas de agua se unen con más facilidad y se separan con más dificultad que si no fuese así. Para superar esa fuerza pegajosa y hacer que hierva el agua, hace falta calentarla a 100 ºC. Cuando la temperatura baja hasta 0 ºC, la prevalencia de enlaces de hidrógeno es tal, que las moléculas de agua quedan fijas en su sitio, formándose hielo. De no ser por los enlaces de hidrógeno la temperatura tendría que ser mucho más baja para que esto ocurriera.

En una molécula como la del H2S no sucede lo mismo, porque el átomo de azufre y el de hidrógeno tienen una apetencia de electrones aproximadamente igual. No hay acumulación de cargas ni a un lado ni al otro y, por consiguiente, la molécula no es «pegajosa».

Supongamos ahora que tenemos moléculas de agua en un espacio muy limitado, un tubo de vidrio muy fino, pongamos por caso. En estas condiciones tendrán que apelotonarse unas contra otras más de lo normal. El átomo de oxígeno de una de las moléculas se verá empujado muy cerca del átomo de hidrógeno del vecino, tanto, que el enlace de hidrógeno se hará tan fuerte como un enlace ordinario. Las dos moléculas se convierten en una, y a esta doble molécula se podrá enganchar otra, y luego otra, etc.

Al final habrá multitud de moléculas fuertemente unidas entre sí, con todos los hidrógenos y oxígenos formando hexágonos regulares. La sustancia múltiple resultante es un ejemplo de «polímero». Es «agua polimerizada», o «poliagua» en abreviatura. Para poder romper esta sustancia (anunciada por vez primera por químicos soviéticos en 1965) en moléculas H2O de vapor de agua, hay que calentarla hasta 500 ºC. Y debido también a que las moléculas están aquí mucho más apelotonadas que en el agua ordinaria, la poliagua tiene una densidad 1,5 veces superior a la del agua normal.

Sin embargo, la noción de poliagua no ha sido aceptada universalmente. Muchos químicos piensan que lo que se ha llamado poliagua es en realidad agua que ha cogido impurezas o que ha disuelto un poco de vidrio. En este caso puede ser que la poliagua ni siquiera exista.

88. ¿Por qué se dilata el agua al congelarse?

Primero cabría preguntar: ¿por qué son sólidos los sólidos? ¿Y por qué son líquidos los líquidos?

Entre las moléculas de una sustancia sólida hay una cierta atracción que las mantiene firmemente unidas en una posición fija. Es difícil separarlas y, por consiguiente, la sustancia es sólida.

Sin embargo, las moléculas contienen energía de movimiento y vibran alrededor de esas posiciones fijas. Al subir la temperatura, van ganando cada vez más energía y vibrando con mayor violencia. En último término adquieren tanta energía que la atracción de las demás moléculas no basta ya para retenerlas. Rompen entonces las ligaduras y empiezan a moverse por su cuenta, resbalando y deslizándose sobre sus compañeras. El sólido se ha licuado: se ha convertido en un líquido.

La mayoría de los sólidos son cristalinos. Es decir, las moléculas no sólo permanecen fijas en su sitio, sino que están ordenadas en formaciones regulares, en filas y columnas. Esta regularidad se rompe cuando las moléculas adquieren suficiente energía para salirse de la formación, y entonces el sólido se funde.

La disposición regular de las moléculas en un sólido cristalino suele darse en una especie de orden compacto. Las moléculas se apiñan unas contra otras, con muy poco espacio entre medías. Pero al fundirse la sustancia, las moléculas, al deslizarse unas sobre otras, se empujan y desplazan. El efecto general de estos empujones es que las moléculas se separan un poco más. La sustancia se expande y su densidad aumenta. Así pues, en general los líquidos son menos densos que los sólidos.

O digámoslo así: los sólidos se expanden al fundirse y los líquidos se contraen al congelarse.

Sin embargo, mucho depende de cómo estén situadas las moléculas en la forma sólida. En el hielo, por ejemplo, las moléculas de agua están dispuestas en una formación especialmente laxa, en una formación tridimensional que en realidad deja muchos «huecos».

Al aumentar la temperatura, las moléculas quedan sueltas y empiezan a moverse cada una por su lado, con los empujones y empellones de rigor. Lo cual las separaría, si no fuese porque de esta manera muchas de ellas pasan a rellenar esos huecos. Y al rellenarlos, el agua líquida ocupa menos espacio que el hielo sólido, a pesar de los empujones moleculares. Al fundirse 1 centímetro cúbico de hielo sólo se forman 0,9 centímetros cúbicos de agua.

Como el hielo es menos denso que el agua, flota sobre ella. Un centímetro cúbico de hielo se hunde en el agua hasta que quedan 0,9 centímetros cúbicos por debajo de la superficie. Estos 0,9 cm3 desplazan 0,9 cm3 de agua líquida, que pesan tanto como el centímetro cúbico entero de hielo. El hielo es sostenido entonces por el empuje del agua, quedando 0,1 centímetros cúbicos por encima de la superficie. Todo esto es válido para el hielo en general. Cualquier trozo de hielo flota en el agua, con una décima parte por encima de la superficie y nueve décimas por debajo.

Esta circunstancia resulta muy afortunada para la vida en general, pues tal como son las cosas, cualquier hielo que se forme en una masa de agua, flota en la superficie. Aísla las capas más profundas y reduce la cantidad de calor que escapa de abajo. Gracias a ello las aguas profundas no suelen congelarse, ni siquiera en los climas más gélidos. En cambio, en épocas más calurosas el hielo flotante recibe el pleno efecto del Sol y se funde rápidamente.

Si el hielo fuese más denso que el agua, se hundiría al fondo a medida que fuese formándose, dejando al aire libre otra capa de agua, que a su vez se congelaría también. Además, el hielo del fondo no tendría posibilidad ninguna de recoger el calor del Sol y fundirse. Si el hielo fuese más denso que el agua, las reservas acuáticas del planeta estarían casi todas ellas congeladas, aunque la Tierra no estuviese más lejos del Sol que ahora.

89. ¿Qué son las pilas de combustible? ¿Qué ventajas presentan en la generación de electricidad?

Una pila de combustible es un dispositivo para generar electricidad. Para entender su valor consideremos las palabras «combustible» y «pila» por separado.

Para generar electricidad a partir de un combustible como el carbón o el petróleo hay que quemarlos primero. La energía producida por su combustión convierte agua en vapor, que se utiliza a su vez para hacer girar una turbina colocada en un campo magnético. De esta manera se genera una corriente eléctrica. Es decir, convertimos la energía química del combustible en energía térmica para luego convertir ésta en energía eléctrica.

En el transcurso de esta doble conversión se pierde gran parte de la energía química primitiva. Pero el combustible es tan barato que esa pérdida no impide producir grandes cantidades de electricidad sin un gasto excesivo.

También es posible convertir directamente energía química en energía eléctrica sin pasar por el calor. Para ello hay que usar una pila eléctrica. Esta pila consiste en una o más soluciones de ciertos productos químicos en las que se sumergen dos barras metálicas llamadas electrodos. En cada uno de los electrodos se produce una reacción química en la que o se absorben o se liberan electrones. La presión de electrones en uno es mayor que en el otro, de modo que si los dos están conectados mediante un cable, los electrones pasarán por él de un electrodo a otro.

Ese flujo de electrones es una corriente eléctrica, que persistirá mientras las reacciones químicas persistan en la célula. Las baterías de linterna son un ejemplo de tales pilas.

Hay casos en los que si se hace pasar una corriente eléctrica a través de una pila agotada, las reacciones químicas que tienen lugar en su interior se desarrollan, al revés, con lo cual la célula puede volver a almacenar energía química y producir otra vez una corriente eléctrica. Las baterías de los coches son un ejemplo de pilas reversibles.

La energía química que se pierde en una pila es mucho menor, puesto que se convierte en electricidad en un solo paso. Como contrapartida, los productos químicos que utilizan las pilas son todos ellos muy caros. Las pilas de linternas utilizan cinc, por ejemplo, y plomo las baterías de los coches. El coste de los metales necesarios para abastecer de electricidad a una ciudad entera por este procedimiento sería de miles de millones de dólares diarios.

La pila de combustible sería un dispositivo que combinase ambas ideas: la de combustible y la de la pila eléctrica. Es una célula cuyas reacciones químicas no implican el uso de metales caros, sino de combustibles baratos. La energía química de dichos combustibles se convierte en energía eléctrica en un solo paso, con una pérdida mucho menor que en el procedimiento normal de dos etapas. De este modo se puede multiplicar sustancialmente la cantidad de electricidad disponible por el hombre.

La pega es que es difícil fabricar una pila de combustible que realmente funcione con garantías. Se han fabricado algunas en las que la energía eléctrica se extrae de la combustión de hidrógeno con oxígeno, pero el hidrógeno sigue siendo bastante caro. En lugar del hidrógeno se ha utilizado también monóxido de carbono, que es algo más barato. Recientemente se han fabricado también pilas que funcionan a base de combinar desperdicios con oxígeno bajo la influencia de la acción bacteriana. No cabe duda de que la idea de convertir desperdicios en electricidad es interesantísima, porque resolvería dos problemas: la obtención de energía barata y la eliminación de desperdicios.

Aún queda mucho por hacer antes de que las pilas de combustible sean realmente prácticas, pero, con todo, representan una de las grandes esperanzas del futuro.

90. ¿Qué son las vitaminas y por qué las necesitamos?

Para entender lo que son las vitaminas tenemos que empezar por las enzimas. Las enzimas son moléculas que sirven para acelerar ciertos cambios químicos en el cuerpo. Las enzimas se presentan en miles de variedades, porque cada cambio químico está gobernado por una enzima particular.

Para controlar un cambio químico no hace falta más que una cantidad minúscula de enzima, pero esa cantidad minúscula es imprescindible. La maquinaria química del cuerpo está interconectada de un modo muy intrincado, de manera que el retardo de una sola transformación química por culpa de la falta de una enzima puede resultar en una enfermedad grave o incluso en la muerte.

La mayor parte de las enzimas las puede fabricar el cuerpo con las sustancias que se hallan presentes en casi todos los alimentos. No hay peligro de que nos quedemos sin ellas, salvo que nos estemos muriendo materialmente de hambre. Pero hay un pero.

Algunas enzimas contienen, como parte de su estructura, ciertas combinaciones atómicas poco usuales. Estas combinaciones de átomos no suelen encontrarse más que en las enzimas y, por tanto, sólo se necesitan en cantidades ínfimas, porque las propias enzimas sólo se necesitan en esas proporciones.

Pero el cuerpo tiene que tenerlas. Y si una de estas combinaciones de átomos escasea, las distintas enzimas que las necesitan dejarán de funcionar. Ciertos cambios químicos empezarán a desarrollarse mal y como consecuencia de ello sobrevendrá la enfermedad y finalmente, la muerte.

El peligro estriba en que, a pesar de que la mayoría de las moléculas enzimáticas las puede fabricar el cuerpo, estas combinaciones particulares de átomos, no. Tienen que ser absorbidas, intactas, de los alimentos. El cuerpo humano se muere si la comida que ingiere no contiene cantidades minúsculas de estas singulares combinaciones de átomos.

Cuando se descubrió esto a principios del siglo xx, no se conocía la naturaleza química de dichas naciones. Se pensaba que algunas de ellas al menos, pertenecían a una clase de sustancias llamadas «aminas». Por eso se les dio el nombre de «vitaminas» («aminas de la vida»).

Las plantas son la fuente básica de las vitaminas. Fabrican todas las sustancias de sus tejidos a partir de productos químicos elementales, como son el anhídrido carbónico, el agua, los nitratos, etc. Si no fuesen capaces de fabricar todas y cada una de vitaminas a partir de cero, no podrían sobrevivir.

Los animales, en cambio, pueden comer plantas y utilizar las vitaminas que se hallan ya presentes en los tejidos vegetales, sin tener que fabricarlas por su cuenta. Los animales almacenan las vitaminas que absorben allí donde los mecanismos enzimáticos más los necesitan: en los músculos, el hígado, los riñones, la leche, etcétera. Los animales carnívoros obtienen las vitaminas de las reservas que poco a poco han ido acumulando sus presas herbívoras.

El no tener que fabricarse sus propias vitaminas tiene ciertas ventajas, porque su fabricación exige la presencia de una maquinaria química muy respetable en cada célula. Eliminando esta función queda más espacio, por decirlo así, para desarrollar la maquinaria que requieren las muchas cosas que las plantas no tienen que hacer: acción nerviosa, contracción muscular, filtración renal, etc.

El precio que se paga, sin embargo, es la posibilidad de una falta de vitaminas. Los seres humanos que viven con una dieta muy pobre (sea porque les guste o porque no tengan otra cosa) pueden caer víctimas de enfermedades como el beriberi, el escorbuto, la pelagra o el raquitismo; todas ellas son el resultado de una química del cuerpo, que va parándose poco a poco debido al mal funcionamiento de ciertas enzimas por falta de una vitamina.

91. ¿Cómo empezó la vida?

Una respuesta clara y rotunda no la hay, porque cuando empezó la vida no había nadie allí que sirviese de testigo. Pero se pueden hacer análisis lógicos del problema.

Los astrónomos han llegado a ciertas conclusiones acerca de la composición general del universo. Han encontrado, por ejemplo, que un 90 por 100 de él es hidrógeno y un 9 por 100 helio. El otro 1 por 100 está constituido principalmente por oxígeno, nitrógeno, neón, argón, carbono, azufre, silicio y hierro.

Partiendo de ahí y sabiendo de qué manera es probable que se combinen tales elementos, es lógico concluir que la Tierra tenía al principio una atmósfera muy rica en ciertos compuestos de hidrógeno: vapor de agua, amoníaco, metano, sulfuro de hidrógeno, cianuro de hidrógeno, etc. Y también habría un océano de agua líquida con gases atmosféricos disueltos en ella.

Para que se iniciase la vida en un mundo como éste es preciso que las moléculas elementales que existían al principio se combinaran entre sí para formar moléculas complejas. En general, la construcción de moléculas complicadas de muchos átomos a base de moléculas elementales de pocos átomos requiere un aporte de energía. La luz del Sol (sobre todo su contenido ultravioleta), al incidir sobre el océano, podía suministrar la energía necesaria para obligar a las moléculas pequeñas a formar otras mayores.

Pero ¿cuáles eran esas moléculas mayores?

El químico americano Stanley L. Miller decidió en 1952 averiguarlo. Preparó una mezcla de sustancias parecida a la que, según se cree, existió en la primitiva atmósfera terrestre, y se cercioró de que era completamente estéril. Luego la expuso durante varias semanas a una descarga eléctrica que servía como fuente de energía. Al final comprobó que la mezcla contenía moléculas algo más complicadas que aquéllas con las que había comenzado. Todas ellas eran moléculas del tipo que se encuentran en los tejidos vivos y entre ellas había algunos de los aminoácidos que son los bloques fundamentales de unos importantes compuestos: las proteínas.

Desde 1952 ha habido muchos investigadores de diversos países que han repetido el experimento añadiendo detalles y refinamientos. Han construido diversas moléculas por métodos muy distintos y las han utilizado luego como punto de partida de otras construcciones.

Se ha comprobado que las sustancias así formadas apuntan directamente hacia las complejas sustancias de la vida: las proteínas y los ácidos nucleicos. No se ha hallado ninguna sustancia que difiera radicalmente de las que son características de los tejidos vivos.

Aún no se ha conseguido nada que ni por un máximo esfuerzo de imaginación pudiera llamarse viviente, pero hay que tener en cuenta que los científicos están trabajando con unos cuantos decilitros de líquido, durante unas cuantas semanas cada vez. En los orígenes de la Tierra, lo que estaba expuesto al Sol era un océano entero de líquido durante miles de millones de años.

Bajo el azote de la luz solar, las moléculas del océano fueron haciéndose cada vez más complejas, hasta que en último término surgió una que era capaz de inducir la organización de moléculas elementales en otra molécula igual que ella. Con ello comenzó y continuó la vida, evolucionando gradualmente hasta el presente. Las formas primitivas de «vida» tuvieron que ser mucho menos complejas que las formas más simples de vida en la actualidad, pero de todos modos ya eran bastante complejas. Hoy día los científicos tratan de averiguar cómo se formó esa singular molécula que acabamos de mencionar.

Parece bastante seguro que la vida se desarrolló, no como un milagro, sino debido a la combinación de moléculas según una trayectoria de mínima resistencia. Dadas las condiciones de la Tierra primitiva, la vida no tuvo por menos de formarse, igual que el hierro no tiene por menos que oxidarse en el aire húmedo. Cualquier otro planeta que se parezca física y químicamente a la Tierra desarrollaría inevitablemente vida, aunque no necesariamente inteligente.

92. ¿Es posible una vida de silicio?

Todos los seres vivientes, desde la célula más simple hasta la sequoia más grande, contienen agua, y además como la molécula más abundante, con mucho. Inmersas en el agua hay moléculas muy complejas, llamadas proteínas y ácidos nucleicos que al parecer son características de todo lo que conocemos por el nombre de vida. Estas moléculas complejas tienen una estructura básica compuesta en cadenas y anillos de átomos de carbono. A casi todos los carbonos van unidos uno o más átomos de hidrógeno. A una minoría, en cambio, van ligadas combinaciones de átomos como los de oxígeno, nitrógeno, azufre y fósforo.

Expresándolo con la máxima sencillez podemos decir que la vida, tal como la conocemos, está compuesta de derivados de hidrocarburos en agua.

¿Puede la vida estar compuesta de otra cosa? ¿Existen otros tipos de moléculas que proporcionen la complejidad y versatilidad de la vida, algo distinto del agua que proporcione, sin embargo, las propiedades poco usuales, pero necesarias, que sirven como trasfondo de la vida?

¿Es posible concebir algo parecido al agua que pudiera sustituirla? Las propiedades del amoníaco líquido son las más afines o las del agua. En un planeta más frío que la Tierra, por ejemplo, Júpiter, donde el amoníaco abunda en estado líquido mientras que el agua está solidificada, puede que sea concebible una vida basada en el amoníaco.

Por otro lado, hay que decir que si el hidrógeno va unido a tantos puntos de la cadena del carbono, es porque es un átomo muy pequeño que se acopla en cualquier lugar. El átomo de flúor es parecido al de hidrógeno en algunos aspectos y casi tan pequeño como él. Así, pues, igual que tenemos una química de los hidrocarburos podemos tener una química de los fluorcarburos, con la única salvedad de que éstos son mucho más estables que aquellos. Quizá en un planeta más caliente que la Tierra podría concebirse una vida a base de fluorcarburos.

Pero ¿y en cuanto al átomo de carbono? ¿Existe algún sustituto? El carbono puede unirse a un máximo de cuatro átomos diferentes (que pueden ser también de carbono) en cuatro direcciones distintas, y es tan pequeño que los átomos de carbono vecinos se hallan suficientemente próximos para formar un enlace muy fuerte. Esta característica es la que hace que las cadenas y anillos de carbono sean estables.

El silicio se parece mucho al carbono y también puede unirse a un máximo de cuatro átomos diferentes en cuatro direcciones distintas. El átomo de silicio, sin embargo, es mayor que el de carbono con lo cual las combinaciones silicio-silicio son menos estables que las de carbono-carbono. La existencia de largas cadenas y anillos de átomos de silicio es mucho más improbable que en el caso del carbono.

Lo que sí es posible son largas y complicadas cadenas de átomos en las que alternen el silicio con el oxígeno. Cada átomo de silicio puede unirse a otros dos átomos o grupos de átomos, y este tipo de moléculas se denominan «siliconas».

A la molécula de silicona pueden ir unidos grupos de hidrocarburos o de fluorcarburos, y estas combinaciones podrían resultar en moléculas suficientemente grandes, delicadas y versátiles como para formar la base de la vida. En ese sentido, sí que es concebible una vida a base de silicio.

Pero ¿existen realmente esas otras formas de vida en algún lugar del universo? ¿O serán formas de vida basadas en una química completamente extraña, sin ningún punto de semejanza con la nuestra? Quizá nunca lo sepamos.

93. ¿Por qué se extinguieron los dinosaurios?

Durante ciento cincuenta millones de años las criaturas más difundidas de la Tierra fueron ciertos grandes reptiles conocidos vulgarmente por el nombre de «dinosaurios». Los más grandes de entre los reptiles terrestres de esta especie puede que pesaran hasta 85 toneladas. Los grandes ictiosauros y plesiosauros dominaban el mar mientras que los pterosaurios surcaban los aires con gigantescas alas de hasta 20 pies de envergadura.

Más tarde, hace unos setenta millones de años, se extinguieron todas esas monstruosas criaturas. No de la noche a la mañana, pero sí en un tiempo bastante breve: digamos que un millón de años. Otras formas de vida animal como los peces y los mamíferos y aves primitivos salieron indemnes, igual que la vida vegetal.

Acerca de esta extinción se han hecho diversas conjeturas… pero son sólo eso, conjeturas. A ciencia cierta nadie lo sabe.

Hay quien piensa que se debió a un cambio del clima. Donde antes había un mundo suave y apacible, con pantanos y mares poco profundos, surgieron ahora montañas. El continente se secó, los mares se hicieron profundos y las estaciones adquirieron un carácter áspero y riguroso. Pero es difícil de creer que no quedaran regiones de clima apropiado. Y, por otro lado, los mares no tenían por qué verse afectados.

Otros sugieren que quizá los mamíferos primitivos empezaron a alimentarse de los huevos de dinosaurio acabando así con ellos. (Los reptiles marinos, en cambio eran vivíparos). O que quizá la Tierra se cubrió de nuevas especies de hierbas que desplazaron la antigua vegetación, más blanda y jugosa. Puede ser que los dinosaurios vegetarianos no tuvieran el tipo de dentadura necesaria para triturar esta nueva especie de hierba más dura y que, al extinguirse aquellos, los dinosaurios carnívoros, al no encontrar alimento, se extinguieran también.

Otra posibilidad es que los dinosaurios experimentaran de pronto gran cantidad de mutaciones. Como la mayoría de las mutaciones son para mal, es posible que el excesivo número de dinosaurios tarados trajese consigo la extinción de la especie.

Esta explicación ha despertado gran interés, pero ¿Por qué un aumento repentino en el número de mutaciones?

Una de las causas de las mutaciones es la radiación muy energética. La Tierra está constantemente bombardeada por los rayos cósmicos, que podrían ser la causa de las mutaciones que constantemente aparecen en organismos hoy día. La tasa actual de mutación no es demasiado alta, pero imaginemos los que ocurriría si, de cuando en cuando, incidiese sobre la Tierra un chorro muy potente de radiación.

K. D. Terry, de la Universidad de Kansas, y W. H. Tucker, de la Universidad Rice, han señalado que si explotase una supernova más o menos cerca del sistema solar, la Tierra podría verse inundada de rayos cósmicos. Terry y Tucker estimaron la frecuencia y distancia de estas explosiones y calcularon que cada diez millones de años (por término medio) la Tierra podría recibir una dosis de rayos cósmicos siete mil veces mayor que la actual. Puede ser que hace setenta millones de años la Tierra sufriese una tal andanada de rayos cósmicos.

Pero en este caso ¿por qué afectó sólo a los dinosaurios y no a otras criaturas? Quizá sí que las afectó, sólo que los dinosaurios estaban tan especializados que eran mucho más vulnerables a las mutaciones que las demás criaturas.

¿Y qué tipo de mutación pudo ser la decisiva? H. K. Erben, de la Universidad de Bonn, ha señalado recientemente que en los últimos períodos de existencia de los dinosaurios, los huevos que ponían eran de cáscara muy gruesa. Puede que esta anomalía fuese consecuencia de una mutación. Al ser cada vez más difícil romper el cascarón, fue reduciéndose cada vez más la tasa de natalidad. Entre esta mutación y otras similares se extinguió toda esta especie de magníficas criaturas.

94. ¿Cuál es la diferencia entre un cerebro y un computador? ¿Pueden pensar los computadores?

La diferencia entre un cerebro y un computador puede expresarse en una sola palabra: complejidad.

El cerebro de los grandes mamíferos es, para su tamaño, la cosa más complicada que conocemos. El cerebro humano pesa unos 1.350 gramos, pero en ese kilo y medio corto hay diez mil millones de neuronas y cientos de miles de millones de otras células menores. Estos miles y miles de millones de células están conectadas entre sí en una red enormemente compleja que sólo ahora estamos empezando a desenmarañar.

Ni siquiera el computador más complicado construido hasta ahora por el hombre puede compararse en complejidad con el cerebro. Las conexiones y componentes de los computadores ascienden a miles, no a miles de millones. Es más, los conmutadores de un computador son sólo dispositivos on-off, mientras que las células cerebrales poseen ya de por sí una estructura interna enormemente compleja.

¿Pueden pensar los computadores? Depende de lo que entendamos por «pensar». Si resolver un problema matemático es «pensar», entonces los computadores «piensan», y además mucho más deprisa que el hombre. Claro está que la mayoría de los problemas matemáticos se pueden resolver de manera bastante mecánica, repitiendo una y otra vez ciertos procesos elementales. Y eso lo pueden hacer incluso los computadores más sencillos que existen hoy día.

A menudo se ha dicho que los computadores sólo resuelven problemas porque están «programados» para resolverlos. Que sólo pueden hacer lo que el hombre quiere que hagan. Pero hay que recordar que los seres humanos tampoco pueden hacer otra cosa que aquello para lo que están «programados». Nuestros genes nos «programan» en el momento en que se forma el huevo fertilizado, quedando limitadas nuestras potencialidades por ese «programa».

Ahora bien, nuestro programa es de una complejidad tan superior, que quizá prefiramos definir la palabra «pensar» en función de la creatividad que hace falta para escribir una gran comedia o componer una gran sinfonía, concebir una brillante teoría científica o un juicio ético profundo. En ese sentido, los computadores no piensan, ni tampoco la mayoría de los mortales.

Está claro, sin embargo, que un computador al que se le dotase de suficiente complejidad podría ser tan creativo como el hombre. Si se consiguiera que fuese igual de complejo que el cerebro humano, podría ser el equivalente de éste y hacer exactamente lo mismo.

Suponer lo contrario sería suponer que el cerebro humano es algo más que la materia que lo compone. El cerebro está compuesto de células en un cierto orden, y las células están constituidas por átomos y moléculas en una determinada disposición. Si hay algo más, jamás se han detectado signos de su presencia. Duplicar la complejidad material del cerebro es, por consiguiente, duplicar todo cuanto hay en él.

¿Pero hasta cuándo habrá que esperar para construir un computador suficientemente complejo como para reproducir el cerebro humano? Quizá no tanto como algunos piensan. Puede que mucho antes de llegar a un computador igual de complejo que el cerebro, consigamos construir otro lo bastante complejo como para que diseñe un segundo más complejo que él. Este segundo computador podría diseñar otro aún más complejo, y así sucesivamente.

Dicho con otras palabras, una vez superado cierto punto los computadores toman las riendas en sus manos y se produce una «explosión de complejidad». Al cabo de muy poco podrían existir computadores que no sólo igualasen al cerebro humano, sino que lo superaran. Y luego ¿qué? El caso es que la humanidad no está distinguiéndose demasiado en la administración de los asuntos terrestres. Puede que llegue el día en que tengamos que hacernos humildemente a un lado y dejar las cosas en manos de quien las sepa llevar mejor. Y si no nos hacemos a un lado, es posible que llegue el Supercomputador y nos aparte por las malas.

95. ¿Cuál es la velocidad del pensamiento?

Depende de lo que entendamos por «pensamiento».

Puede que queramos decir «imaginación». Uno puede imaginarse que está aquí en la Tierra y un segundo más tarde que está en Marte o en Alpha Centauri o cerca de un lejano quásar. Si es eso lo que entendemos por «pensamiento», entonces puede tener cualquier velocidad hasta el infinito.

Sí, pero uno no recorre realmente esa distancia ¿verdad? Aunque yo me imagine que estoy presenciando la formación de la Tierra no quiere decir que haya hecho un viaje a través del tiempo. Y aunque me imagine en el centro del Sol no quiere decir que pueda realmente existir en esas condiciones.

Para que la pregunta tenga algún significado científico es preciso definir «pensamiento» de manera que su velocidad pueda realmente medirse por métodos físicos. A este respecto recordemos que si podemos pensar es porque hay unos impulsos que pasan de célula nerviosa a célula nerviosa. Cualquier acción que dependa del sistema nervioso depende de esos impulsos. Al tocar un objeto caliente retiramos la mano, pero no lo podremos hacer hasta que la sensación de calor pase de la mano al sistema nervioso central y luego otro impulso nervioso pase del sistema nervioso central a los músculos.

El «pensamiento» inconsciente que implica todo esto ―«noto algo caliente, y más me vale quitar la mano porque si no me la quemaré»― no puede ser más rápido que el tiempo que tarda el impulso nervioso en recorrer el trayecto de ida y vuelta. Por consiguiente, hemos de entender que la «velocidad del pensamiento» es la «velocidad del impulso nervioso», porque si no, no hay respuesta.

Allá por el año 1846, el gran fisiólogo alemán Johannes Müller decidió, en un rapto de pesimismo, que la velocidad del impulso nervioso jamás podría medirse. Seis años más tarde, en 1852, consiguió medirlo uno de sus mejores discípulos, Hermann von Helmholtz, trabajando con un músculo todavía inervado. Helmholtz estimuló el nervio en diversos puntos y midió el tiempo que tardaba el músculo en contraerse. Al estimular el nervio en un punto más alejado del músculo, la contracción se retrasaba. A partir del tiempo de retardo logró calcular el tiempo que había tardado el impulso nervioso en recorrer esa distancia adicional.

La velocidad del impulso nervioso depende del grosor del nervio. Cuanto más grueso es el nervio, mayor es la velocidad. La velocidad depende también de si el nervio está o no aislado por una vaina de material graso. Los nervios aislados conducen más rápidamente los impulsos nerviosos que los no aislados.

Los nervios de los mamíferos son los más eficaces de todo el reino animal: los de mejor calidad conducen los impulsos nerviosos a una velocidad de 362 kilómetros por hora.

Esto quizá parezca decepcionante, porque al fin y al cabo la velocidad del pensamiento no es mayor que la de los viejos aeroplanos de hélice. Pero pensemos que un impulso nervioso puede ir desde cualquier punto del cuerpo humano hasta cualquier otro y volver en menos de 1/25 de segundo (omitiendo los retrasos debidos al procesamiento en el sistema nervioso central). El nervio más largo en los mamíferos pertenece a la ballena azul, que mide unos 100 pies de longitud, e incluso en ese caso cualquier posible viaje de ida y vuelta dentro del cuerpo lo puede realizar el impulso nervioso en poco más de medio segundo. Lo cual es bastante rápido.

96. ¿Qué son los «relojes biológicos» y cómo funcionan?

Hay veces que uno no necesita mirar el reloj. Cuando tenemos hambre, sabemos que es la hora de almorzar. Cuando tenemos sueño, sabemos que es hora de irse a la cama. Naturalmente, si hemos almorzado copiosamente, es muy probable que se nos pase la hora de la cena sin que sintamos hambre. Y si hemos dormido hasta muy tarde o nos encontramos en una fiesta muy animada, es posible que se nos pase la hora de acostarnos sin que sintamos sueño. Pero en condiciones normales se puede hacer un cálculo muy exacto.

Dentro de cada uno de nosotros hay un cambio cíclico que nos hace sentir hambre cada tanto tiempo y sueño cada cuanto. Estos cambios son bastante regulares, con lo cual es posible medir el tiempo (aproximadamente) por estos ciclos. Tales ciclos son un ejemplo de «relojes biológicos».

En el mundo exterior de los organismos se producen ciclos regulares. El más notable es la alternancia de la luz del día con la oscuridad de la noche, pero también está el ritmo bidiario de las mareas, cuya amplitud varía con el cambio mensual de fase de la luna, y el ciclo de temperatura, que varía con el período día-noche y con el período anual de las estaciones.

Para el organismo resulta útil responder a estos cambios. Si tiene que procurarse el alimento de noche o sólo en la estación cálida, lo mejor que puede hacer es dormir durante el día o hibernar durante el invierno. Si pone sus huevos en la orilla, lo mejor y más prudente es que lo haga cuando hay marea alta y luna llena. Incluso las plantas responden a estos ritmos: las hojas se abarquillan al ponerse el sol, las flores y los frutos llegan en determinadas estaciones del año, etc.

Lo que no podemos suponer es que los organismos vivientes hacen todo esto conscientemente. No dicen: «Es de noche, me voy a dormir», o «los días se está acortando, voy a dejar caer mis hojas», sino que dentro del organismo hay ciclos automáticos que coinciden con los ciclos astronómicos. Esta coincidencia o sincronización es producto de la selección natural. Los animales y plantas que disfrutan de una buena sincronización se desenvuelven mejor y tienen mayores oportunidades de engendrar una prole más numerosa que los que no la disfrutan, de manera que es un factor que mejora de generación en generación.

Los ciclos internos existen incluso en el nivel molecular. La temperatura del cuerpo sube y baja regularmente, igual que la concentración de ciertos constituyentes de la sangre, la susceptibilidad del cuerpo hacia ciertas drogas, etc. La mayoría de estos ciclos tardan aproximadamente un día en completar un movimiento de sube y baja: es lo que se denomina «ritmos circadianos».

El ciclo interno ¿está controlado por los ritmos del medio ambiente? No del todo. Si colocamos un animal o una planta en un medio artificial en el cual se ha eliminado el ciclo externo ―donde, por ejemplo, la luz es constante o la temperatura no varía―, los ritmos prosiguen sin embargo su curso. Puede que sean menos marcados o que difieran un poco del ciclo estricto de veinticuatro horas, pero están ahí. Los ritmos del medio ambiente no actúan más que como un «control fino».

Cuando viajamos en avión a un país muy lejano, con una diferencia de horas muy grande, nuestros ritmos internos dejan de estar sincronizados con el período día-noche. Esto da lugar a síntomas muy desagradables, hasta que logramos poner de nuevo en hora el reloj biológico.

¿Qué cómo funciona el reloj biológico? Lo puedo describir en tres palabras: ¡Nadie lo sabe!

¿Será una especie de reacción química periódica en nuestro cuerpo? En ese caso el reloj debería variar con la temperatura o con las drogas, y no es verdad. ¿O será que está sincronizado con sutilísimos ritmos del mundo exterior que persisten aun cuando eliminemos las variaciones de luz y temperatura? Puede ser, pero en ese caso desconocemos todavía la naturaleza de esos ritmos.

97. ¿Cuál es la diferencia entre bacterias, microbios, gérmenes y virus?

Las bacterias son un grupo de organismos unicelulares reunidos por los biólogos bajo el nombre de «esquizomicetos». La célula de la bacteria tiene una pared muy parecida a la de las células vegetales normales, pero carece de clorofila. Por eso las bacterias se clasifican a veces junto con otras plantas carentes de clorofila y se denominan «hongos».

Las bacterias se distinguen de otras células vegetales en que son muy pequeñas. En efecto, son las células más pequeñas que existen. Además, no poseen un núcleo diferenciado, sino que el material nuclear está disperso por toda la célula. Por eso se clasifican a veces junto con ciertas células vegetales llamadas «algas verde-azules», cuyo material nuclear también está disperso, pero que además tienen clorofila.

Cada vez es más usual agrupar las bacterias junto con otras criaturas unicelulares, formando una clase de seres que no están considerados ni como plantas ni como animales: constituyen un tercer reino de vida, los «protistos». Hay bacterias que son patógenas, es decir, que causan enfermedades. Pero la mayoría de ellas no lo son, e incluso hay muchas que son muy beneficiosas. La fertilidad del suelo, por ejemplo, depende en gran medida de la actividad de las bacterias nitrogenantes.

Un «microbio» es, en rigor, cualquier forma de vida microscópica, porque el término viene de dos palabras griegas que significan «vida pequeña». El término «germen» es aún más general, pues significa cualquier fragmento pequeño de vida, aunque sea parte de un organismo mayor. Por ejemplo, la sección de la semilla que contiene la verdadera porción viviente es el germen; así hablamos del «germen del trigo», por ejemplo. Por otro lado, el óvulo y el espermatozoide, que portan las diminutas chispas de vida que en su día florecen en un organismo acabado, se llaman «células germinales».

En el lenguaje corriente, sin embargo, se utilizan las palabras microbio y germen como sinónimos de bacteria, en especial de bacteria patógena.

La palabra «virus» viene del latín y significa «veneno». Esta etimología viene de los tiempos en que los biólogos no sabían exactamente qué eran los virus, pero sí que ciertas preparaciones contenían algo que ocasionaba enfermedad.

Los virus difieren de las bacterias y de todos los demás organismos en que no están compuestos de células. Son mucho más pequeños que las células y su tamaño viene a ser el de una gran molécula. Están formados por un arrollamiento de ácido nucleico rodeado de un recubrimiento de proteína. En esto se parecen a los cromosomas de una célula, de modo que cabría casi considerarlos como «cromosomas sueltos».

Los cromosomas controlan la química de la célula; los virus, cuando se introducen en una célula, establecen un contracontrol por su cuenta. Por lo general son capaces de someter toda la química de la célula a sus propios fines, poniendo toda la maquinaria celular al servicio de la formación de nuevos virus. La célula suele morir en el proceso.

Los virus, a diferencia de las bacterias, no son capaces de llevar una vida independiente. Sólo se pueden multiplicar dentro de las células. Todos ellos son parásitos. El daño que ocasionan pasa a veces inadvertido, pero en otros casos producen graves enfermedades.

98. ¿Cómo se descubrieron los virus?

Hacia los años sesenta del siglo pasado el químico francés Louis Pasteur propuso la «teoría germinal de las enfermedades», según la cual todas las enfermedades eran causadas y propagadas por alguna forma diminuta de vida que se multiplicaba en el organismo enfermo, pasaba de ese organismo a otro sano, lo hacía enfermar, etc.

Pasteur, sin embargo, estaba trabajando a la sazón con una enfermedad mortal, la rabia (también llamada hidrofobia), y descubrió que aunque la enfermedad era contagiosa y podía contraerse por el mordisco de un animal rabioso, no se veía el germen por ningún lado. Pasteur concluyó que el germen sí que estaba allí, pero que era demasiado pequeño para verlo con el microscopio con que trabajaba.

Otras enfermedades también parecían carecer de germen, quizá por la misma razón. Un ejemplo era la «enfermedad del mosaico del tabaco», que atacaba a las plantas del tabaco y producía como síntoma un dibujo en forma de mosaico sobre las hojas. Triturando éstas, se podía extraer un jugo que ocasionaba esa enfermedad en plantas sanas, pero el jugo no contenía ningún germen que fuese visible al microscopio.

¿Hasta qué punto se podía fiar uno de los microscopios en el límite mismo de la visibilidad? El bacteriólogo ruso Dimitri Ivanovski abordó en 1892 el problema por un camino diferente: utilizó un filtro de porcelana sin vidriar que retenía cualquier organismo suficientemente grande para poder verlo con los microscopios de aquella época. Hizo pasar el extracto infeccioso de plantas del tabaco enfermas a través del filtro y comprobó que el producto filtrado seguía infectando a las plantas sanas. Ivanovski pensó que quizá el filtro fuese defectuoso y no se atrevió a afirmar que había gérmenes demasiado pequeños para verlos al microscopio.

En 1898, y de manera independiente, el botánico holandés Martinus Beijerinck hizo el mismo experimento y obtuvo igual resultado. Aceptó la validez del experimento y decidió que, fuese cual fuese la causa de la enfermedad del mosaico del tabaco, tenía que consistir en partículas tan pequeñas que pudiesen pasar por el filtro.

Beijerinck llamó al líquido patógeno «virus», de una palabra latina que significa «veneno». Como el líquido era capaz de pasar por un filtro sin perder su calidad venenosa, le dio el nombre de «virus filtrable». El término fue aplicado más tarde, no al líquido, sino a las partículas patógenas que contenía. Luego se eliminó el adjetivo, llamando simplemente virus a dichas partículas.

¿Pero qué tamaño tenían las partículas de los virus? Beijerinck pensó que quizá no fueran mucho mayores que las moléculas de agua, de modo que cualquier sustancia que dejara pasar el agua dejaría pasar también a los virus.

Esto es lo que decidió comprobar en 1931 el bacteriólogo inglés William Elford. Para ello utilizó membranas de colodión con orificios microscópicos de diversos tamaños. Filtrando líquidos víricos a través de membranas, encontró que una de ellas tenía unos orificios tan pequeños, que aunque las moléculas de agua pasaban, las partículas de virus quedaban retenidas. Elford vio que mientras que el líquido no filtrado transmitía la enfermedad, lo que pasaba por el filtro ya no la transmitía.

De esa manera se logró averiguar el tamaño de las partículas de virus. Eran más pequeñas que las células más pequeñas que se conocían; tanto, que quizá sólo consistieran en unas cuantas moléculas. Esas moléculas, sin embargo, eran moléculas gigantes.

99. ¿Por qué las células de la sangre se reponen cada pocos meses, mientras que la mayoría de las células del cerebro duran toda la vida?

La maquinaria de la división celular es extraordinariamente complicada. El proceso consta de numerosos pasos en los que la membrana nuclear desaparece, el centrosoma se divide, los cromosomas forman réplicas de sí mismos, son capturados en la red formada por los centrosomas divididos y se reparten en lados opuestos de la célula. Luego se forma una nueva membrana nuclear a ambos lados, mientras la célula se constriñe por el medio y se divide en dos.

Los cambios químicos involucrados en todo esto son, sin duda alguna, mucho más complicados todavía. Sólo en los últimos años se han empezado a vislumbrar algunos de ellos. No tenemos ni la más ligera idea, por ejemplo, de cuál es el cambio químico que hace que la célula deje de dividirse cuando ya no hace falta que lo haga. Si supiéramos la respuesta, podríamos resolver el problema del cáncer, que es un desorden en el crecimiento celular, una incapacidad de las células para dejar de dividirse.

Una criatura tan compleja como el hombre tiene (y debe tener) células extraordinariamente especializadas. Las células pueden realizar ciertas funciones que todas las demás pueden también realizar, pero es que en cada caso llevan su cometido hasta el extremo. Las células musculares han desarrollado una eficacia extrema en contraerse, las nerviosas en conducir impulsos eléctricos, las renales en permitir que pasen sólo ciertas sustancias y no otras. La maquinaria dedicada en esas células a la función especializada es tanta, que no hay lugar para los mecanismos de la división celular. Estas células, y todas las que poseen un cierto grado de especialización, tienen que prescindir de la división.

En términos generales podemos decir que una vez que un organismo ha alcanzado pleno desarrollo, ya no hay necesidad de un mayor tamaño, ni necesidad, por tanto, de más células.

Sin embargo, hay algunas que están sometidas a un continuo desgaste. Las células de la piel están en constante contacto con el mundo exterior, las de la membrana intestinal rozan con los alimentos y los glóbulos rojos chocan contra las paredes de los capilares. En todos estos casos, el rozamiento y demás avatares se cobran su tributo. En el caso de la piel y de las membranas intestinales, las células de las capas más profundas tienen que seguir siendo capaces de dividirse, a fin de reponer las células desprendidas por otras nuevas. De hecho, las células superficiales de la piel mueren antes de desprenderse, de modo que la capa exterior constituye una película muerta de protección, dura y resistente. Allí donde el rozamiento es especialmente grande, la capa muerta llega a formar callo.

Los glóbulos rojos de la sangre carecen de núcleo y, por consiguiente, de esa maquinaria de división celular que está invariablemente concentrada en los núcleos. Pero en muchos lugares del cuerpo, sobre todo en la médula de ciertos huesos, hay células provistas de núcleos que se pueden dividir y formar células hijas; éstas, a su vez, pierden gradualmente el núcleo y se convierten glóbulos rojos.

Algunas células que normalmente no se dividen una vez alcanzado el pleno desarrollo pueden, sin embargo hacerlo cuando hace falta una reparación. Un hueso, por ejemplo, que hace mucho que ha dejado de crecer, puede volver a hacerlo si sufre una rotura; crecerá lo justo para reparar la fractura y luego parará. (¡Qué lástima que las células nerviosas no puedan hacer lo propio!)

La vida de una célula concreta hasta ser reemplazada depende normalmente de la naturaleza y la intensidad de las tensiones a que está expuesta, por lo cual es muy difícil dar datos exactos. (Se ha comprobado qué la piel exterior de la planta de una rata queda completamente reemplazada, en ciertas condiciones, en dos semanas). Una excepción son los glóbulos rojos, que están sometidos a un desgaste continuo e invariable. Los glóbulos rojos del hombre tienen una vida predecible de unos ciento veinticinco días.

100. ¿Qué fin tiene el envejecer?

Parece una pena tener que envejecer y morir, pero evidentemente es inevitable. Los organismos como el nuestro están efectivamente diseñados para envejecer y morir, porque nuestras células están «programadas» por sus genes para que vayan experimentando gradualmente esos cambios que denominamos envejecer.

¿Qué propósito puede tener el envejecimiento? ¿Puede ser beneficioso?

Veamos. La propiedad más sorprendente de la vida, dejando aparte su propia existencia, es su versatilidad. Hay criaturas vivientes en la tierra, en el mar y en el aire, en los géiseres, en los desiertos, en la jungla, en los desiertos polares… en todas partes. Incluso es posible inventar un medio corno los que creemos que existen en Marte o en Júpiter y encontrar formas elementales de vida que lograrían sobrevivir en esas condiciones.

Para conseguir esa versatilidad tienen que producirse constantes cambios en las combinaciones de genes y en su propia naturaleza.

Al dividirse un organismo unicelular, cada una de las dos células hijas tiene los mismos genes que la célula original. Si los genes se transmitieran como copias perfectas, la naturaleza de la célula original jamás cambiaría por mucho que se dividiera y redividiera. Pero la copia no siempre es perfecta; de vez en cuando hay cambios fortuitos («mutaciones»), de modo que de una misma célula van surgiendo poco a poco distintas razas, variedades y, finalmente, especies («evolución»). Algunas de estas especies se desenvuelven mucho mejor en un medio dado que otras, y así es cómo las distintas especies van llenando los diversos nichos ecológicos de la Tierra.

Hay veces que los organismos unicelulares intercambian entre sí porciones de cromosomas. Esta primitiva versión del sexo origina cambios de las combinaciones de genes, acelerando aún más los cambios evolutivos. En los animales pluricelulares fue adquiriendo cada vez más importancia la reproducción sexual, que implica la cooperación de dos organismos. La constante producción de descendientes, cuyos genes son una mezcla aleatoria de algunos del padre y otros de la madre, introdujo una variedad superior a lo que permitían las mutaciones por sí solas. Como resultado de ello se aceleró considerablemente el ritmo de evolución; las distintas especies podías ahora extenderse más fácilmente y con mayor rapidez dentro de nuevos nichos ecológicos o adaptarse mejor a los ya existentes a fin de explotarlos con mejor rendimiento.

Vemos, pues, que la clave de todo esto fue la producción de descendientes, con sus nuevas combinaciones de genes. Algunas de las nuevas combinaciones eran seguramente muy deficientes, pero no durarían mucho. De entre las nuevas combinaciones, las más útiles fueron las que «llegaron a la meta» y engrosaron la competencia. Pero para que este sistema funcione bien es preciso que la vieja generación, con sus combinaciones «no mejoradas» de genes, desaparezca de la escena. No cabe duda de que los viejos morirían tarde o temprano en accidente o debido al desgaste general de la vida, pero es mucho más eficaz que el proceso venga acelerado por otro lado.

Aquellas especies en las que las generaciones antiguas poseyeran células diseñadas para envejecer serían mucho más eficientes a la hora de deshacerse de los vejestorios y dejar el terreno expedito para los jóvenes. De este modo evolucionarían más rápido y tendrían más éxito. La desventaja de la longevidad está a la vista. Las sequoias y los pinos están casi extinguidos. El longevo elefante no tiene ni de lejos el éxito de la efímera rata; y lo mismo diríamos de la vetusta tortuga comparada con el lagarto.

Para bien de las especies (incluida la humana) lo mejor es que los viejos se mueran para que los jóvenes puedan vivir.

¡Y perdonen!