CAPÍTULO 6
Calor, energía, entropía y átomos
Nadie podía imaginarse que un estudio sobre la evolución dinámica de una «nube de aerolitos» en el espacio, los anillos de Saturno, pudiera servir de base para un trabajo sobre el comportamiento de los gases. Sin embargo, así fue. En Aberdeen, Maxwell realizó uno de los trabajos más importantes de su carrera en un campo que se encontraba en el ojo del huracán de la física de la época, a pesar de que era un tema que llevaba discutiéndose desde la Antigüedad. Y no solo eso, sino que formuló la primera ley estadística en la historia de la física, conocida hoy como la distribución de Maxwell de las velocidades moleculares.
James se había hecho muy amigo del rector del college, el reverendo Daniel Dewar. Solía visitarle con frecuencia a su casa y un día Dewar le ofreció pasar unas vacaciones familiares con ellos. James y la hija del reverendo, Katherine Mary Dewar, empezaron a sentirse mutuamente atraídos. Hasta donde sabemos, fue la primera vez que a Maxwell le alcanzaban las flechas de Cupido tras la decepción sufrida cinco años antes. Entonces se había enamorado de su prima hermana Elisabeth (Lizzie) Cay y le pidió matrimonio. Ella aceptó. Sin embargo, la boda se truncó: la familia, preocupada por la consanguinidad, convenció a los jóvenes para que no se casaran. El 18 de febrero de 1858, Maxwell anunció su matrimonio a la familia:
Querida tía: Esta carta es para decirte que voy a tener esposa. No temas; ella no es matemática, pero hay otras cosas además de eso.
La boda se celebró a principios de junio. Se trataba de una unión inusual para la época, pues ella tenía treinta y cuatro años, siete más que él. La luna de miel la pasaron en Glenlair y Katherine le ayudaba en lo que podía en sus experimentos sobre el color. Su trabajo fue tan bueno, que la curva de cromaticidad que obtuvieron se aproxima mucho a la que se utiliza hoy, publicada en 1931 por la Commission Internationale d’Éclairage.
Poco más de un año después, en abril de 1859, en las manos de James cayó un artículo cuya lectura iba a dirigir sus pasos a un campo que se encontraba en plena efervescencia y para el que su trabajo sobre los anillos de Saturno le iba a venir como anillo al dedo. Trataba sobre el fenómeno de la difusión de los gases, lo que sucede cuando abrimos una botella de perfume y su aroma se esparce por la habitación. El artículo en cuestión había sido escrito por el físico alemán Rudolf Clausius Gottlieb (1822-1888), un nombre que siempre estará asociado a la termodinámica, la ciencia del calor.
UNA NUEVA CIENCIA
El siglo XIX fue el momento decisivo en el que se tendió un puente entre la mecánica y el calor, y sirvió para establecer el predominio de la concepción mecánica de la naturaleza. Tres hombres nacidos entre 1818 y 1824, James Joule, William Thomson y Rudolf Clausius, auparon el estudio del calor al rango de ciencia por derecho propio: la termodinámica, un término que en su origen designó el puro estudio del calor y hoy se aplica a la ciencia de las transformaciones de la energía en cualquiera de sus formas. Joule y Thomson, hombres piadosos, veían en la energía un regalo de Dios, un divino obsequio que persistiría por siempre. En este cuadro las fuerzas, bajadas de su pedestal, únicamente tejían los fenómenos transitorios del mundo. La física estaba a punto de dejar de ser la ciencia de las fuerzas para convertirse en la ciencia de la energía.
El primer momento clave en este cambio fue el mes de julio de 1847, cuando el hijo de un rico cervecero de Manchester, James Prescott Joule, presentó los resultados de sus investigaciones en la reunión de la Asociación Británica para el Avance de la Ciencia en Oxford. Llevaba haciéndolo desde 1845, pero nadie le hacía caso. Había logrado estimar cuantitativamente el equivalente mecánico del calor, una relación numérica con la que demostraba que dos conceptos que se pensaba que eran absolutamente dispares, el calor y el movimiento, eran en realidad intercambiables.
Sin embargo, nadie se dio cuenta de las implicaciones salvo un brillante joven que dos años antes, y con veinte de edad, se había graduado en la Universidad de Cambridge, William Thomson. Este físico escocés salió de la reunión de Oxford con la cabeza alborotada. «Las ideas de Joule tienen una ligera tendencia a perturbar la mente de uno», confesó a su hermano James.
Sumido en estos pensamientos, llegó a sus manos una memoria titulada Sobre la conservación de la fuerza (1847). Su autor era un físico y médico alemán, figura destacada en la escuela de fisiólogos de Berlín, de nombre Hermann von Helmholtz, y lo había escrito a partir de las notas de una conferencia con el mismo título que había pronunciado en la Physikalische Gesellschaft —Sociedad de Física— de Berlín ese año. Haciéndose eco de los trabajos de Joule, Von Helmholtz enunciaba por primera vez de manera precisa, y ofreciendo una formulación matemática, la que pocos años después iba a ser conocida como la «primera ley de la termodinámica» o el «principio de conservación de la energía»:
Sea cual sea el número o tipo de transformaciones que se producen en el universo, la suma total de todas las fuerzas [energías] del universo se mantiene constante.
Lo que Von Helmholtz decía era lo mismo que había dicho Joule: trabajo y calor son dos manifestaciones de lo mismo. Los cuidadosos experimentos de Joule habían demostrado que el concepto de «el calor de un cuerpo» era engañoso, pues inducía a pensar que estábamos hablando de algún tipo de sustancia, cuando en realidad un objeto puede aumentar su temperatura de dos formas: al entrar en contacto con otro más caliente o realizando un trabajo sobre él. El resultado de ambas acciones es idéntico.
Thomson recogió las ideas lanzadas por Joule y Von Helmholtz y en 1851 publicó el artículo «Sobre la teoría dinámica del calor», en el que desarrollaba todo el aparato matemático subyacente tras el principio de conservación. Al año siguiente, desarrollaba estas reflexiones con todo detalle en su influyente ensayo «Disipación de la energía mecánica», donde por primera vez y con todas las consecuencias aparecía la palabra «energía», un término introducido en 1807 por el inglés Thomas Young. El título de esta obra describía en cinco palabras lo que ocurre en la realidad y no en el mundo ideal y sin fricciones de la mecánica. Responde a la pregunta de a dónde va a parar la energía mecánica en el verdadero universo de los molinos y las poleas. Unifica el calor con el movimiento y tras muchos siglos de duro enfrentamiento demuestra más allá de cualquier duda que el calor está relacionado con el movimiento.
Mudar fuerza por energía no constituyó algo drástico, ni motivó enfrentamientos y acalorados debates teológicos, como ocurrió con Copérnico y Darwin, pero que la física concediese el papel de protagonista a la energía arrebatándoselo a la fuerza newtoniana marcó de manera indeleble su desarrollo posterior y permitió avances que hubieran sido imposibles sin este cambio. Sin duda alguna, fue el gran hito de la ciencia del siglo XIX, el concepto unificador de fenómenos tan dispares como el movimiento, el calor, la electricidad o el magnetismo. Sin él, Maxwell no hubiera podido resolver el problema de los anillos de Saturno, donde hizo buen uso del principio de conservación para plantear y resolver las ecuaciones.
La primera ley de la termodinámica encierra una gran riqueza intelectual. La palabra «energía», desgastada por el uso ordinario, es un término del que resulta complicado sustraerse a la complejidad conceptual que encierra, pese a que su significado es intuitivamente obvio y la entendamos como la capacidad de un sistema o cuerpo para realizar transformaciones. No obstante, el establecimiento de la primera ley trajo de la mano una nueva ley, mucho más poderosa y sutil. Fue formulada por Clausius en 1850, tras estudiar detalladamente el funcionamiento de las máquinas térmicas, nombre bajo el cual se aglutinan todos aquellos dispositivos que convierten el calor en trabajo, como la máquina de vapor de James Watt. Hay que resaltar que no la obtuvo de manera teórica, sino de la observación de los procesos donde estaba involucrado el calor. Simplemente admite la existencia de una disimetría esencial en la naturaleza: los cuerpos calientes se enfrían, pero los fríos no se calientan espontáneamente; las pelotas botan hasta detenerse, pero ninguna pelota quieta en el suelo empieza a botar; los vasos se rompen, pero ninguno se recompone solo. Clausius primero y Thomson después, se dieron cuenta de lo que sucedía. Aunque la energía total debía conservarse en cualquier proceso, la distribución de esa energía cambiaba de un modo irreversible. La primera ley de la termodinámica nos dice que los trapicheos con la energía no pueden hacerla desaparecer, y la segunda nos advierte de hacia dónde deben dirigirse esos trapicheos.
Estas dos leyes explican perfectamente y sin fisuras el funcionamiento de la máquina de vapor. Sin embargo, falta algo. Clausius se dio cuenta de que en cualquier proceso cíclico, todas las propiedades físicas involucradas vuelven a tomar sus valores iniciales, como si nada hubiera pasado. Pero, ¡demonios, algo ha pasado!: el agua ha sido bombeada, la locomotora ha llegado a su destino, el telar ha tejido… ¿Cómo es posible que en el universo real haya ocurrido un fenómeno pero no exista ninguna magnitud física que pueda describirlo, que indique que algo ha cambiado? Si volvemos a las dos leyes de la termodinámica, como hizo Clausius, encontraremos la respuesta.
La primera ley conlleva asociada una magnitud llamada «energía» que nos permite cuantificarla, expresarla en nomenclatura matemática. Sin embargo, esto no sucede con la segunda ley; no tenemos ninguna magnitud física con la cual podamos jugar matemáticamente y hacer experimentos, como hizo Joule con la energía. Clausius la encontró, y esa nueva magnitud nos dice mucho acerca de las propiedades más fundamentales de la materia. Él la llamó «entropía» —en alemán Entropie—, término que proviene de una raíz griega que significa «vuelta» o «cambio». El razonamiento que llevó a Clausius hacia la entropía abarca diversos pasos matemáticos lo suficientemente complejos y abstractos como para hacer desistir al lector más esforzado.
De esta manera, su definición más simple viene dada como sigue: el cambio de entropía de un proceso es igual al calor intercambiado dividido por la temperatura. Evidentemente, si se calienta un sistema, el calor suministrado será positivo y la entropía crecerá; si se enfría, el calor será negativo y la entropía decrecerá; si no hay intercambio de calor, la entropía no cambiará. Clausius llegó de este modo a una nueva formulación de la segunda ley:
Los procesos naturales son aquellos en los que se verifica un aumento en la entropía del universo. En los procesos reversibles, la entropía no experimenta ningún cambio.
Gracias a esta ley podemos señalar un sentido a todos los fenómenos que podamos imaginar y que comporten un cambio en el estado de un sistema. Únicamente se producirán de manera natural aquellos que, además de cumplir el principio de conservación de la energía, verifiquen que la entropía del sistema aumenta.
PROBABILIDADES ATÓMICAS
De este modo razonaron algunos científicos de la segunda mitad del siglo XIX: aceptando que la materia está compuesta por átomos y sabiendo que planetas, bolas de billar y partículas de polvo se mueven siguiendo las leyes de Newton, ¿por qué no van a hacerlo los átomos? La dificultad esencial con la que se encontraban no era que no supieran nada acerca de las fuerzas que los átomos ejercen entre ellos, sino otra de índole más práctica: ¿Cómo resolver el movimiento de los millones de átomos que componen una pequeña muestra de gas? Se necesita una ecuación por cada átomo, lo que significa resolver millones de ecuaciones simultáneamente. Algo imposible para los físicos, que ya tenían bastantes dificultades a la hora de resolver algo más sencillo como el movimiento de ocho planetas alrededor del Sol (aún no se había descubierto Plutón).
La solución llegó en 1859 de la mano de Maxwell, al estudiar la difusión de los gases. Un problema añadido al anterior era el de la velocidad de difusión. Volvamos a nuestro frasco de perfume. Inicialmente, a presión y temperaturas normales las moléculas debían moverse muy deprisa, a centenares de metros por segundo. Entonces, ¿por qué el perfume se expande tan despacio? En su artículo, Clausius había propuesto que cada molécula sufría un número muy elevado de colisiones en las que no perdía energía (en física se llaman «colisiones elásticas»), y en cada una de ellas cambiaba completamente de dirección. De este modo, que el aroma del perfume llegara al otro extremo de la habitación requería un viaje de muchos kilómetros. Maxwell explicó el problema al que se enfrentaba con claridad meridiana:
Si viajas a 17 millas por minuto y tomas un rumbo totalmente diferente 1 700 000 000 veces por segundo, ¿dónde estarás en una hora?
Clausius había supuesto que todas las moléculas del gas se movían a la misma velocidad, algo que sabía que no podía ser verdad. Pero no se le ocurría otro modo de atacar el problema. Para James, el asunto era similar al que se había enfrentado con los anillos de Saturno. Como ocurría en ese caso, no podía describir uno por uno el comportamiento de los átomos de un gas. ¿Qué hacer? Fue un momento de inspiración que, además, requirió unas altas dosis de audacia. Maxwell decidió aparcar las ubicuas leyes de Newton y enfocar el problema como si estuviera realizando un experimento en su laboratorio. En definitiva, aplicar la teoría de probabilidades y la estadística a los gases. Como buen experimentador, sabía que los errores en las medidas seguían leyes estadísticas, lo mismo que los sociólogos las usaban para estudiar las características de las poblaciones. Lo que hizo James fue un salto al vacío, pues a nadie se le había ocurrido aplicar esas mismas leyes estadísticas a los procesos físicos.
Desde esta perspectiva, no se trataba de considerar las propiedades de cada átomo aislado, sino de mediar estas propiedades al conjunto de todos ellos. No seremos capaces de decir, por ejemplo, cuál es la velocidad que lleva una molécula en concreto, pero sí podremos dar una distribución de velocidades del conjunto de moléculas que componen el gas. Eso significa que lograremos calcular con cierta exactitud cuántas moléculas se desplazan a una velocidad dada, y lo mismo podemos hacer para la energía de cada partícula. Maxwell acababa de dar un paso de gigante en la física al formular, en una sola ecuación y por primera vez en la historia, una ley estadística.
La consecuencia directa de este tratamiento molecular de los gases es inmediata. Si a nivel microscópico se puede describir lo que sucede en un gas dando la distribución de velocidades y energías de sus moléculas constituyentes, si a nivel macroscópico se le puede describir igualmente midiendo sus propiedades termodinámicas tales como presión, temperatura o energía interna, y como ambas son descripciones de una misma cosa, entonces las dos deben de estar relacionadas: debemos ser capaces de vincular, por poner un caso, la temperatura de un gas con las propiedades mecánicas de las moléculas que lo componen. Es más, temperatura, calor y trabajo no son más que la consecuencia a nivel macroscópico de lo que ocurre en el interior del gas microscópicamente.
Esta interpretación del calor en términos de la constitución molecular de la materia viene, como bien sabemos, desde tiempos de Demócrito. Pero el primer planteamiento razonablemente serio se lo debemos a John James Waterston (1811-1883), un ingeniero de ferrocarriles escocés. En 1845 enviaba un ensayo a la Royal Society en el que demostraba que la presión de un gas sobre las paredes de un recipiente se podía explicar en función de los choques de las moléculas del gas contra ellas. Se trataba de un trabajo que ponía las bases de la interpretación molecular del calor y, con ello, el comienzo de una rama de la física llamada mecánica estadística. El trabajo fue rechazado y archivado porque a los que evaluaron su artículo les resultaba difícil creer que los átomos se pudieran mover libremente por el interior del recipiente, de pared a pared, y que las propiedades de los gases se redujeran a simple mecánica. Waterston también actuó con poca previsión al olvidar mencionar que uno de los grandes científicos de todos los tiempos, Daniel Bernoulli, profesor de Matemáticas y Física en la Universidad de Basilea, había escrito algo parecido en su clásico tratado de 1738, Hidrodinámica.
En el capítulo titulado «Sobre las propiedades y movimientos de los fluidos elásticos [gases], y especialmente el aire», Bernoulli proponía la hipótesis de que un gas era una colección de partículas moviéndose muy rápidamente y que su presión era debida a los choques de estas partículas contra las paredes de la vasija que lo contiene, y suponiendo que su energía cinética era proporcional a la temperatura, dedujo que la presión era así mismo proporcional a la temperatura, que es la ley de Gay-Lussac. La hipótesis de Bernoulli no tuvo éxito, pues por aquella época se creía que el calor era la expresión sensible de un misterioso fluido imponderable que se movía de un cuerpo a otro, el calórico. Y aunque su tratado se convirtió en una obra de referencia para quien deseara saber todo lo necesario sobre dinámica de fluidos, esta propuesta fue olvidada. Dos años más tarde, en 1847, John Herapath proponía en Mathematical Physics que las propiedades de un gas eran resultado de la energía cinética de las partículas, lo que lo convierte en la primera persona en calcular la velocidad media de los átomos de un gas. Tampoco nadie le prestó atención.
«Podemos encontrar ejemplos de las más elevadas doctrinas de la ciencia en los juegos y la gimnasia, en los viajes por tierra y por agua, en las tormentas del cielo y del mar, y dondequiera que haya materia en movimiento».
— JAMES CLERK MAXWELL.
El trabajo de Waterston durmió el sueño de los justos hasta que en 1892 John William Strutt (1842-1919) —o tercer barón de Rayleigh, como le conocen los físicos— lo descubrió en los archivos y lo publicó en la revista de la sociedad. Pero Waterston ya no estaba para verlo. Este ingeniero que marchó a la India en 1839 contratado por la Compañía de las Indias Orientales y que regresó a su natal Edimburgo en 1857 para dedicarse en cuerpo y alma a la ciencia del calor, desapareció sin dejar rastro el 18 de junio de 1883. Salió a dar un paseo por los canales de Edimburgo y nunca más volvió a aparecer.
Realmente, el pobre Waterston tuvo mala suerte: no solo su artículo fue rechazado, sino que tampoco le hicieron caso cuando presentó sus ideas en una comunicación a la Asociación Británica para el Avance de la Ciencia en su reunión anual de 1851. En ella, dijo lo siguiente:
El equilibrio en presiones y temperaturas entre dos gases tiene lugar cuando las cantidades de átomos por unidad de volumen son iguales y cuando la fuerza viva [energía cinética] de cada átomo es la misma.
Acababa de comparar dos magnitudes que, al parecer de sus honorables colegas, eran imposibles de comparar: la energía cinética de las partículas y la temperatura del gas. Al afirmar que la energía cinética media de las moléculas de un gas es la misma, estaba dando la primera formulación de lo que más tarde se conocería como el teorema de equipartición de la teoría cinética de los gases. De este modo, Waterston daba un significado físico a la temperatura, pero quizá abrumado por la falta de interés por parte del resto de sus colegas, fue incapaz de ver toda la riqueza de su propuesta. Algo que sí hizo Maxwell en su artículo de 1860, «Illustrations of the Dynamical Theory of Gases».
LA TEORÍA CINÉTICA
El genio teórico de Maxwell le llevó a obtener, a partir de los mismos presupuestos que Waterston, una serie de interesantes predicciones sobre ciertas propiedades de los gases que fueron corroboradas por los experimentos. La idea base de los cálculos de Maxwell se encontraba en una serie de suposiciones bien sencillas. Primero, que los gases están compuestos por un número enorme de partículas idénticas que se mueven violentamente. Segundo, que su tamaño es despreciable en comparación con el espacio libre entre ellas y que cuando colisionan —cosa que hacen continuamente—, rebotan sin que se pierda un ápice de la energía primitiva; como mucho puede pasar de una a otra parte de la que llevan —las moléculas también cumplen el principio de conservación de la energía, y suponemos que no transfieren nada de su energía a las moléculas que componen el recipiente—. Tercero, que la única energía que poseen es la cinética propia de su movimiento por el recipiente. Siendo estrictos, esto solo ocurre cuando el gas es monoatómico, esto es, un gas que no está compuesto por moléculas, sino por átomos. En el caso de que sean moléculas —un gas diatómico, triatómico…—, existen otras energías añadidas debido a que pueden verificarse otro tipo de movimientos propios: vibraciones, rotaciones en torno al centro de gravedad…

FOTO SUPERIOR IZQUIERDA: Maxwell y su esposa Katherine en 1869.
FOTO SUPERIOR DERECHA: Ludwig Boltzmann introdujo en el panorama científico la interpretación microscópica de la entropía. En la década de 1870, el físico austríaco publicó una serie de artículos en los que reconocía la importancia de la teoría electromagnética de Maxwell.
FOTO INFERIOR IZQUIERDA: John James Waterston. Su interpretación del calor en términos de la constitución molecular no fue tomada en cuenta hasta que en 1892 John William Strutt publicó un artículo suyo que fue rechazado por la Royal Society de Londres.
FOTO INFERIOR DERECHA: El físico alemán Hermann von Helmholtz fue el primero en formular matemáticamente el principio de conservación de la energía. Retrato por Ludwig Knaus, en 1881. Antigua Galería Nacional, Berlín.
Con estas suposiciones en la mano, Maxwell reprodujo el resultado de Waterston y además obtuvo uno de los resultados más importantes de la recién nacida teoría cinética de los gases: la energía cinética promedio depende exclusivamente de la temperatura y no de la masa o del número de átomos que componen la molécula. Las consecuencias de esta conclusión son increíbles. Demuestra la existencia de una conexión entre las propiedades microscópicas y macroscópicas de los gases, pero sobre todo ofrece una nueva visión de lo que es la temperatura y el calor. Si comparamos dos gases a diferentes temperaturas, el gas más caliente es aquel cuyas moléculas tienen mayor energía cinética. Y si calentamos el más frío para que alcance la misma temperatura que el caliente, lo que estamos haciendo es aumentar la energía cinética de sus moléculas, o lo que es lo mismo, estamos aumentando su velocidad.
«Los gases se distinguen de otras formas de la materia, no solo por su poder de expansión indefinida así como por llenar cualquier recipiente, por grande que sea, y porque el calor tiene un gran efecto en su dilatación, sino por la uniformidad y la simplicidad de las leyes que regulan estos cambios».
— JAMES CLERK MAXWELL, EN TEORÍA DEL CALOR (1871).
Con la teoría cinética, también estamos capacitados para explicar por qué si ponemos en contacto dos gases a diferentes temperaturas, esta tiende a equilibrarse. Las moléculas del gas más caliente tienen mayor energía cinética que las del gas frío. Al ponerlos en contacto, las moléculas de ambos gases empiezan a colisionar entre ellas y, como suele suceder en los choques de bolas de billar, las que tienen más energía suelen transferir parte de ella a las de menor energía. Resultado: si dejamos pasar el tiempo suficiente, al final tendremos la misma distribución de energía en todas las moléculas; habremos alcanzado el equilibrio térmico.
Visto a escala microscópica, la energía de un gas es, simplemente, la suma de todas las energías de las moléculas que lo componen. Pero, ¿podemos diferenciar entre los dos tipos de transmisión de energía, el trabajo y el calor? Rotundamente, sí. Pensemos en el pistón de una máquina de vapor, una máquina que convierte el calor en trabajo. Al calentarse, el gas encerrado en el cilindro empuja el pistón. Hemos dicho que la energía interna del gas no es más que la energía cinética de la partículas, o lo que es lo mismo, el movimiento de las partículas. Por tanto, lo que tenemos es una transferencia de movimiento. Ahora bien, el movimiento de las partículas del gas es desordenado, cada una va en diferentes direcciones. Sin embargo, cuando el pistón se desplaza, sus moléculas lo hacen todas en el mismo sentido: es un movimiento ordenado. Esta es la diferencia entre calor y trabajo, el tipo de movimiento de las partículas. La transferencia de energía en forma de calor —el hecho de calentar un gas— no es otra cosa que las partículas se muevan desordenadamente, cada una por su cuenta. No obstante, cuando se transfiere en forma de trabajo, lo que ocurre es que todas ellas se mueven ordenadamente. Por tanto, una máquina térmica cuya función es convertir el calor en trabajo, en realidad lo que hace es transformar un movimiento desordenado —el de las partículas del gas— en un movimiento ordenado —el de las partículas del pistón—.
Llegados a este punto, uno puede preguntarse acerca de eso que hemos definido como entropía. ¿Qué tiene que decir la teoría cinética sobre ella? La interpretación microscópica de la entropía tiene un regusto amargo. Su descubridor, el físico austríaco Ludwig Boltzmann (1844-1906), se suicidó antes de recibir el reconocimiento de sus colegas por su gran contribución.
EL CASINO ATÓMICO
En una lápida del cementerio de Viena está cincelada una ecuación:
S = k · log W.
La letra S designa la entropía de un sistema, k es una constante fundamental de la naturaleza que hoy se conoce como constante de Boltzmann, «log» es la representación de una función matemática llamada logaritmo, y W es una medida del sistema relacionada, como veremos a continuación, con el desorden del sistema. Las implicaciones que esta ecuación tiene en nuestro mundo son tremendas. No hace falta que prolonguemos más la incógnita: la entropía es una medida del desorden del sistema. Es la variable del caos.
Para entenderlo, debemos hacer una pequeña parada en un casino muy especial, donde solo hay dos mesas de juego: una con monedas y otra con cartas. En la primera mesa, el crupier nos entrega una moneda grande y nos pide que la arrojemos al aire seis veces seguidas. En un papel debemos ir anotando lo que sale: cara, cara, cruz, cara, cruz, cruz. Ahora nos invita a hacerlo de nuevo: cara, cara, cruz, cruz, cara, cara. Si seguimos haciéndolo muchas veces consecutivas conseguiremos, además de un dolor en el dedo, una lista con todas las posibles combinaciones de cara y cruz. De hecho, y descartando todas las que salen repetidas, nos quedan solo 64 combinaciones. Una característica fundamental que tienen es que todas ellas son igualmente probables, es decir, que si hacemos una tirada más, cualquiera de ellas tiene la misma probabilidad de salir que las otras. Ahora bien, el crupier nos dice que le importa poco el orden en que salen las cruces y las caras; solo quiere saber cuántas caras han salido. En este caso, el asunto es más sencillo. Si echamos un vistazo a nuestra lista de 64 tiradas, veremos que se puede ordenar en función del número de caras: solo hay 1 tirada con todo caras, 6 donde salen cinco caras, 15 con cuatro, 20 con tres, 15 con dos, 6 con una y finalmente 1 con ninguna cara, o sea, todo cruces. Esta manera de recoger la información nos proporciona una característica que al principio se nos había pasado por alto: si hay 20 formas distintas en que pueden salir tres caras y solo una para que salgan las seis caras, como cualquier tirada es igualmente posible, si lanzamos otra vez la moneda es más probable que salgan tres caras a que salgan todas.
CAOS TÉRMICO

Retrato del botánico escocés Robert Brown por el pintor inglés Henry William Pickersgill (1782-1875).
Si llenamos un vaso de agua y lo miramos, lo que veremos será un fluido uniforme, cristalino, sin movimiento alguno —a no ser, claro, que le demos un golpe al vaso— y sin percibir ningún tipo de estructura interna. Sin embargo, esta uniformidad del agua es solo aparente. Si la observamos con un aumento de algunos millones de veces descubriremos una diáfana estructura granular, formada por innumerables partículas muy apretadas entre sí. También descubriremos que el agua se encuentra muy lejos de la quietud. Sus moléculas están en un estado de violenta agitación, dando vueltas y empujándose entre sí como la gente que abarrota un bar en un día festivo. Este movimiento irregular de las moléculas de agua recibe el nombre de movimiento o agitación térmica, por la sencilla razón de que su causa está en el calor. Nosotros no vemos esa agitación molecular, pero lo que sí provoca es cierta irritación, por decirlo de alguna forma, en nuestras células nerviosas, originando la sensación que denominamos «calor».
Movimiento browniano
Para organismos mucho más pequeños que nosotros, como pueden ser las bacterias que viven en un charco, el efecto es más pronunciado. Las pobres bacterias son pateadas, empujadas y movidas incesantemente por las inquietas moléculas de agua. Este fenómeno es conocido con el nombre de «movimiento browniano», en honor a su descubridor, Robert Brown (1773-1858). Claro que no lo hizo con bacterias, sino con diminutos polvillos de polen. Una demostración clara y meridiana de lo que acabamos de decir la tenemos si hacemos el siguiente experimento. Llenemos un vaso con agua del grifo. A su vez, calentamos agua y la vertimos en otro vaso. Si añadimos unas gotas de tinta en ambos vasos, esta se difundirá más rápidamente en el vaso de agua caliente que en el de agua fría. La razón es muy simple: las moléculas de agua se mueven con más violencia a medida que adquieren más calor y golpean con más frecuencia a las partículas de tinta, enviándolas rápidamente a puntos lejanos dentro del vaso. Esto también tiene relación con lo que llamamos «temperatura». En el fondo, la temperatura no es más que una medida de la agitación térmica de las moléculas de agua contenidas en el vaso: es el efecto visible a nuestros ojos de que las moléculas chocan unas contra otras.
Pasemos ahora a la mesa de las cartas. Allí nos espera un ilusionista. Mezcla la baraja con gran profesionalidad, y al terminar las va dejando una sobre otra, cara arriba, sobre la mesa. Ante la expectativa de un gran truco de magia, esperamos que salgan ordenadas en alguna manera sorprendente: primero las espadas, comenzando desde el as hasta el rey, y así el resto de los palos. Sin embargo, nuestra sorpresa es mayúscula cuando vemos aparecer el cuatro de espadas seguido del siete de copas, la sota de copas, el nueve de oros, el as de espadas… Todo muy desordenado. Con indignación le espetamos que no se trata de un truco de magia, que eso lo podríamos haber hecho nosotros simplemente mezclando las cartas. «¿Sí? —nos responde—. ¿Puede repetir el mismo orden en que he sacado yo las cartas de la baraja? ¿Cree que le resultaría tan fácil como sacar los palos ordenados? ¡Inténtelo!».
Si nos detenemos a pensar un poco, descubrimos que el mago tiene razón, pero hay algo que falla. El orden en que él ha sacado las cartas es igualmente probable que el que nosotros esperábamos. De hecho, cualquier orden es igualmente probable y hay 1048 ordenaciones posibles, luego la probabilidad de obtener una determinada es de uno frente a 1048, algo inconcebiblemente pequeño. Si se suele considerar que ha sucedido un milagro cuando la probabilidad de que ocurra es de una en un billón (1012), entonces, según el mago, cualquier orden en que queda la baraja tras mezclarla es un milagro. Pero nuestra intuición nos dice que lo que ha hecho el mago no es un milagro. Cuando se mezcla la baraja, debe salir ordenada —al menos de la forma que nosotros entendemos que significa «ordenada»— de alguna manera.
EL DEMONIO DE MAXWELL
Para demostrar que la segunda ley de la termodinámica tenía solo «una certidumbre estadística», Maxwell propuso un experimento mental que es conocido como «el demonio de Maxwell». Lo menciona por primera vez en una carta del 11 de diciembre de 1867 a su amigo Peter Guthrie Tait y posteriormente lo incluyó en su libro Theory of Heat (1871) en el epígrafe «Limitations of the Second Law of Thermodynamics». Su planteamiento fue el siguiente:

Imaginemos un recipiente como el de la figura, dividido en dos partes, A y B, separadas por un tabique en el que hay un agujero que se puede abrir y cerrar a voluntad. Ambas partes contienen el mismo gas a la misma temperatura. Ahora imaginemos que un ser «capaz de seguir el curso de cada molécula… abre y cierra este agujero de modo que solo permite pasar las moléculas más rápidas de A a B, y solo las lentas de B a A. De este modo, y sin hacer un gasto de trabajo, aumentaría la temperatura de B y bajaría la de A, en contradicción con la segunda ley de la termodinámica». Con este «demonio» (nombre acuñado por Thomson y que a Maxwell nunca le gustó), Maxwell quiso demostrar que todo intento por desarrollar una teoría dinámica de termodinámica —el empeño de los alemanes Clausius y Von Helmholtz— era fútil:
Estamos obligados a adoptar lo que he descrito como un método estadístico de cálculo y abandonar el estricto método dinámico.
La segunda ley era una ley estadística.
ENTROPÍA Y RÉQUIEM
Todas estas disquisiciones nos sirven para ilustrar el significado de la entropía. Recordemos que en la fórmula de Boltzmann aparece el término W, del que dijimos que está relacionado con una medida del desorden. Profundicemos más en esto. Regresemos a la mesa de las monedas. Aquí, W está representado por el número de maneras distintas en que pueden aparecer una, dos, tres, cuatro, cinco o seis caras. No importa cómo hayan salido, solo importa el número de caras y de cruces. Para el caso de las moléculas de un gas, W representa el número posible de estados (que vienen definidos por la posición, velocidad, energía… de la partícula en cuestión) en que pueden encontrarse y que nos proporcionan la misma descripción física del gas, o sea, que nos dan los mismos valores de presión, energía interna, temperatura, volumen… Así, el estado de la molécula representa la cara o la cruz de una moneda en particular, mientras que las propiedades termodinámicas son el número de caras totales. W es, simplemente, el número de maneras en que se puede organizar internamente un sistema sin que un observador externo aprecie diferencia alguna.
Por otro lado, del mismo modo que en el caso de las cartas de una baraja podemos colocarlas de 1048 situaciones posibles, los estados de las moléculas de un gas también pueden tomar infinidad de valores. Y si la mayoría de las veces la baraja aparece desordenada ante nuestros ojos, igual ocurre con los gases: el estado más probable de las partículas de un gas es el de desorden. Pero, ¿qué significa orden en un gas? En la baraja es fácil apreciarlo, pues corresponde a una disposición que nos llama particularmente la atención. Para un gas viene a ser algo parecido: todas las moléculas moviéndose en la misma dirección; dos gases que, contenidos en el mismo recipiente, no estén mezclados sino separados; un gas que se encuentre comprimido, sin influencia externa, en una esquina de la vasija que lo contiene dejando el resto totalmente vacío… Todas estas configuraciones pueden suceder, no hay ninguna ley de la dinámica que lo impida. Debido al gran número de colisiones que sufren las moléculas, puede ocurrir que, por ejemplo, todas acaben moviéndose hacia la derecha del recipiente. Sin embargo, esto es altamente improbable, más incluso que tras mezclar una baraja salga ordenada por número y palo. Esto es así por algo muy sencillo y que no debe dejar de repetirse: hay un mayor número de combinaciones desordenadas que ordenadas. Por tanto, dado que W define el número de situaciones microscópicas relacionadas con una macroscópica y como son más probables las situaciones desordenadas, entonces W está relacionado con el desorden del sistema. A mayor desorden, mayor valor de W. De todo lo dicho, la conclusión es obvia: la situación más probable de un gas es la de desorden.
Supongamos que tenemos un gas perfectamente ordenado en el que las partículas viajan todas hacia la derecha a la misma velocidad. Cuando lleguen a la pared del recipiente, rebotarán. Las primeras que lo hagan, al haber cambiado de sentido, chocarán con las que llegan. Y aquí empieza la desorganización: en los choques se transferirán energía y cambiarán sus velocidades de modo que al final desaparecerá todo vestigio de movimiento organizado. Podría ocurrir que los infinitos choques produjeran que todas las partículas se moviesen hacia la izquierda, pero eso es altamente improbable.
«[…] el objetivo de la ciencia exacta es reducir los problemas de la naturaleza a la determinación de las cantidades mediante operaciones con números».
— JAMES CLERK MAXWELL.
Ahora ya estamos en condiciones de entender lo que es la entropía: una medida del desorden en la naturaleza. Y como el desorden es más probable que ocurra que el orden, la entropía tiende a aumentar, como dice la segunda ley. Pero con una pequeña diferencia. Si hasta ahora la segunda ley «prohibía» la disminución de la entropía en cualquier proceso natural, desde un punto de vista molecular la segunda ley dice que esos sucesos no son imposibles, sino altamente improbables. En definitiva, que puede suceder que un vaso roto se recomponga o que el calor pase del cuerpo frío al caliente. Claro que puede que no viéramos eso ni aunque pasaran varias veces la edad actual del universo…
Esta fue la obra de Boltzmann. Estableció un vínculo entre las propiedades de la materia definidas por Thomson y Clausius y el comportamiento de las partículas que la componen, los átomos. Y no solo eso. Su ecuación refleja otro aspecto esencial. No importa la forma en que se disperse la energía en un proceso determinado, siempre lo hará de modo que conlleve un aumento de entropía. Ahí reside la fuerza de la ecuación de Boltzmann: da cuenta y razón de la degradación de todo lo existente. Boltzmann, aunque corto de vista, percibió mucho más allá que sus colegas, que no acababan de creerse que los átomos realmente existían. Muchos dudaron de sus argumentos creyendo que el universo tenía una finalidad, un propósito, y su evolución no era el fruto de simples colisiones azarosas. Se volvía a repetir el triste camino que otros investigadores habían recorrido antes que él. Desdeñado y desencantado por todo, en 1906 se suicidó. Irónicamente, hacía menos de un año que un joven trabajador de una oficina de patentes de Suiza llamado Albert Einstein había publicado un artículo en la revista Anales de física donde demostraba que, aplicando las suposiciones de Boltzmann, se podía explicar el movimiento errático de un grano de polen en el agua, un misterio que había permanecido sin resolver desde 1828.
REPARTIENDO ENERGÍA
Uno de los primeros pasos en el desarrollo de la teoría cinética de los gases consistió en calcular el número de moléculas que viajaban a una velocidad dada. Para ello, la intuición de Maxwell le había hecho ignorar las leyes de Newton, capaces de hacer predicciones precisas sobre el movimiento de las partículas, y arrojarse en brazos de la interpretación del movimiento molecular como un simple juego de azar. Después de todo, no estaba muy equivocado. El movimiento de la bola en una ruleta está guiado por las leyes de Newton, que son incapaces de predecir el número en el que iba a caer. Como ya hemos dicho anteriormente, para aplicar los métodos probabilísticos, Maxwell debía imponer una condición más: cualquier estado de un sistema es tan probable como cualquier otro.
En el caso de una ruleta es fácil de ver. Significa que cualquier número tiene las mismas probabilidades de salir. Pero en los gases la cosa no es tan fácil. Debemos remitirnos al principio de conservación de la energía, el cual nos dice que si tenemos un sistema aislado —un sistema que ni intercambia calor ni trabajo con el exterior—, entonces su energía total debe permanecer constante. Ahora bien, las moléculas de un gas pueden distribuirse la energía como mejor les parezca, con tal de que al final la suma completa de cada una de ellas dé el valor de la energía total del sistema. Si ahora echamos mano de la probabilidad, la consecuencia obvia es que todos los estados posibles del sistema con la misma energía total son igualmente probables.
«Es un genio, pero hay que repasar sus cuentas».
— PALABRAS DEL FÍSICO PRUSIANO GUSTAV KIRCHHOFF (1824-1887), PADRE DE LA ESPECTROSCOPIA, EN REFERENCIA A LOS ERRORES MATEMÁTICOS DE MAXWELL.
Maxwell aplicó esta conjetura a la distribución de la energía de traslación de las moléculas de un gas. Es el caso más sencillo, pues solo deben tenerse en cuenta sus movimientos de traslación por el recipiente y para nada otro tipo de movimientos, como el de rotación o el de vibración o la energía potencial de vibración. Como la energía cinética está relacionada con la velocidad, si conocemos cuántas moléculas tienen una determinada energía cinética, sabremos cuál es la distribución de velocidades del sistema.
¿Para qué servía todo eso? Dicho simplemente, para todo. Con una distribución de velocidades en la mano, cualquiera podía calcular las propiedades macroscópicas de los gases: presión, temperatura…, y la que nos interesa en estos momentos: la energía de las moléculas. Uno de los resultados más importantes obtenidos por Maxwell fue que si comparamos dos gases diferentes que se encuentran a la misma temperatura, la energía cinética media de cada molécula es la misma y depende únicamente de la temperatura absoluta del sistema y para nada de la masa o del número de átomos que componen la molécula. La energía cinética media es directamente proporcional a la temperatura. Con esta relación, válida solo cuando el gas se encuentra en equilibrio —cuando sus moléculas presentan la distribución de velocidades obtenida por Maxwell—, podemos calcular el valor de la energía cinética de una molécula multiplicando su temperatura absoluta por la constante de proporcionalidad, denominada con la letra k. Y como muestra del hermoso engarzamiento de los distintos campos de la ciencia, estamos ante la misma constante que había permitido a Boltzmann calcular el valor de la entropía de un sistema a partir de sus propiedades microscópicas, la llamada constante de Boltzmann.
Este cálculo de Maxwell es, en realidad, aplicación de una consecuencia más general de la teoría cinética llamada «teorema de equipartición», que describe las relaciones entre la energía molecular media y la temperatura para todos los tipos de movimientos que puede presentar una partícula. En nuestra discusión, el teorema de equipartición implica, en primer lugar, que moléculas de diferentes sustancias, cuando se encuentran a la misma temperatura, tienen la misma energía cinética media. Ahora bien, diferentes tipos de moléculas tienen distintas masas —el agua es dieciocho veces más pesada que el hidrógeno y el oxígeno dieciséis veces más—, luego si la energía media debe ser la misma, entonces la velocidad media no puede serlo. Las moléculas más pesadas se moverán con lentitud, y las más ligeras rápidamente. Y en segundo lugar, la energía cinética media por molécula es igual al semiproducto de la constante k por la temperatura absoluta del sistema. Luego, si aumentamos el doble el valor de la temperatura, la energía media también se doblará. O dicho como ya sabíamos, la temperatura no es más que la medida macroscópica de la energía cinética de las partículas de un sistema.
Como no podía ser de otra forma, en su aplicación a casos prácticos para comprobar la validez de su teoría, Maxwell cometió errores matemáticos. Aplicada a la conducción de calor se equivocó varias veces al derivar las ecuaciones pertinentes, además de errar en un factor 8000 a la hora de calcular la conductividad térmica del cobre respecto al aire: olvidó convertir los kilogramos en libras y las horas en segundos. Pero el problema que agobió a Maxwell desde que publicó su primer artículo sobre la teoría cinética hasta el final de sus días fue el cálculo del calor específico, que refleja la cantidad de calor que hay que suministrar a una sustancia para que eleve su temperatura un grado centígrado. Las discrepancias entre la teoría y el valor experimental eran demasiado grandes: «Aquí nos enfrentamos cara a cara con la mayor dificultad que ha encontrado la teoría molecular». Pero era un problema irresoluble desde la física clásica: solo la llegada de la mecánica cuántica resolvió el problema.
UN TRISTE FINAL

El físico y matemático alemán Rudolf Clausius, considerado uno de los pilares de la termodinámica.
Por desgracia, la historia de la teoría cinética termina con un regusto amargo a causa de un incidente que habla más de la naturaleza humana que de la de los gases. Desde 1857 y durante un periodo de quince años, Clausius y Maxwell se intercambiaron cartas y artículos científicos, lo que demuestra lo mucho que dependió de este hecho la creación y afianzamiento de la teoría cinética de los gases. De este modo, los artículos de Clausius aparecían rápidamente traducidos al inglés en el Philosophical Magazine. Sin embargo, las discrepancias teóricas fueron haciéndose mayores, hasta el punto que al final Clausius rechazó el enfoque estadístico en su conjunto. Él también había intentado definir la entropía a partir de los movimientos moleculares, siguiendo un enfoque puramente dinámico, lo que dio lugar a una cantidad considerable de comentarios críticos, sobre todo de Maxwell. Peter Guthrie Tait sacó a pasear su marcado sentimiento nacionalista: vituperó a Clausius y aprovechó la ocasión para defender la prioridad y mayor complejidad de pensamiento termodinámico de su amigo Thomson, malinterpretando el concepto de entropía al hacerlo. Clausius protestó diciendo que los británicos se estaban arrogando con más mérito sobre el desarrollo de la teoría del calor del que realmente merecían. Maxwell, buen amigo de Tait y de Thomson, se quejó del autobombo que se estaba dando Clausius y en su libro Teoría del calor (1871) ignoró totalmente su obra. El alemán se quejó, lo que obligó a Maxwell a corregir su error en la siguiente edición de su libro. Así explicó su parecer a Tait:
Observa cómo mi invencible ignorancia de ciertos modos de pensamiento han causado que Clausius esté en desacuerdo conmigo, así que he fracasado en mis intentos de minimizarlo y él no ocupa en mi libro el lugar sobre el calor, el lugar que merece por sus otras virtudes.
UN NUEVO CAMBIO
James presentó sus ideas en la reunión de la Asociación para el Avance de la Ciencia celebrada en Aberdeen en septiembre de 1859, las cuales redactó en forma de artículo al año siguiente bajo el título «Illustrations of the Dynamical Theory of Gases». Pero sus días en el Marischal College estaban contados: la unión de las dos instituciones universitarias para crear la nueva Universidad de Aberdeen se iba a concretar para el curso 1860-1861. El problema era que en el King’s College también había una plaza de profesor de Filosofía Natural y la nueva universidad no iba a conservar las dos plazas. La del King’s la detentaba David Thomson, que era además su vicerrector y secretario. Era un personaje tan astuto en las negociaciones que se había ganado el sobrenombre de «artero». No hace falta decir que en la refriega política ganó él. La excelencia de los trabajos científicos de Maxwell podría haber cambiado el fiel de la balanza, pero en Aberdeen no había nadie que supiera valorarlos.
Justo en ese momento, su mentor James Forbes dejaba vacante su plaza de profesor en la Universidad de Edimburgo para ser rector de la St. Andrews. Era una oportunidad estupenda y se presentó a la plaza. También lo hizo su amigo Tait, que en esos momentos se encontraba en Belfast. Maxwell volvió a perder. A la tercera va la vencida, y el King’s College de Londres ofreció al poco tiempo una plaza: esta vez hubo suerte y escogieron a James. El tiempo que transcurrió hasta su toma de posesión lo pasó en Glenlair poniendo en orden su propiedad, financiando en parte la construcción de una nueva iglesia en Corsock, al norte de Glenlair, escribiendo un importante artículo sobre la teoría de los gases, otro sobre esferas elásticas y un informe de sus experimentos sobre los colores para la Royal Society. Casi enseguida le comunicaron que la Royal Society le había concedido la medalla Rumford.
Pero ese verano de 1860 también estuvo a punto de morir. Había acudido a una feria de caballos para comprarle un poni a Katherine y al poco de regresar enfermó de viruela. Por suerte, se recuperó y James siempre estuvo convencido de que fue gracias a los cuidados de su esposa. En octubre de ese mismo año empaquetaron sus pertenencias para instalarse en la capital del Imperio británico.