1.2. La entropía como recuento de estados
Pero ¿de qué manera la noción física de «entropía», tal como aparece en la Segunda Ley, cuantifica realmente esta «aleatoriedad», de modo que la autorrecomposición del huevo pueda verse como abrumadoramente improbable y, por consiguiente, pueda descartarse como una posibilidad seria? Para ser un poco más explícito sobre cuál es realmente el concepto de entropía, de modo que podamos describir mejor lo que realmente afirma la Segunda Ley, consideremos un sistema físicamente bastante más sencillo que el huevo que se rompe. La Segunda Ley nos dice, por ejemplo, que si derramamos un poco de pintura roja en un recipiente y luego un poco de pintura azul en el mismo recipiente, y agitamos con fuerza la mezcla, entonces, tras un corto período de agitación, las diferentes regiones de rojo y azul perderán su individualidad, y finalmente el contenido entero del recipiente parecerá tener un color púrpura uniforme. Parece que ninguna agitación adicional convertirá de nuevo el color púrpura en las regiones originales roja y azul separadas, pese a la reversibilidad temporal de los procesos submicroscópicos subyacentes en el mezclado. De hecho, el color púrpura resultará espontáneamente, aun sin agitación, en especial si calentamos un poco la pintura. Pero con agitación el estado púrpura se alcanza mucho más rápidamente. En términos de entropía, encontramos que el estado original, en el que hay regiones claramente separadas de pintura roja y pintura azul, tendrá una entropía relativamente baja, pero el recipiente con pintura púrpura uniforme con que acabamos tendrá una entropía mucho mayor. De hecho, el procedimiento de agitación nos ofrece una situación que no sólo es compatible con la Segunda Ley sino que empieza a darnos una idea de cuál es realmente el contenido de la Segunda Ley.
Tratemos de ser más precisos sobre el concepto de entropía, para que podamos ser más explícitos acerca de lo que está sucediendo. ¿Qué es realmente la entropía de un sistema? Básicamente, la noción es bastante elemental, aunque implica algunas ideas sutiles, debidas principalmente al gran físico austríaco Ludwig Boltzmann, y tiene que ver precisamente con el recuento de las diferentes posibilidades. Para simplificar las cosas idealizaremos nuestro ejemplo del recipiente con pintura de modo que haya sólo un número finito (muy grande) de posibilidades diferentes para las posiciones de cada molécula de pintura roja o de pintura azul. Consideremos nuestro recipiente como una gran caja cúbica subdividida en N × N × N compartimentos, y pensemos en las moléculas de pintura como si fueran bolas rojas o bolas azules a las que sólo se permite ocupar posiciones discretas, centradas en los N3 compartimentos cúbicos (véase la Fig. 1.2), suponiendo que cada compartimento está ocupado por exactamente una bola, sea roja o azul (representadas como blancas y negras, respectivamente, en la figura).
Para estimar el color de la pintura en un lugar del recipiente hacemos una especie de promedio de la densidad relativa de bolas rojas frente a bolas azules en el entorno de la localización considerada. Hagámoslo rodeando dicha localización con una caja cúbica mucho más pequeña que la primera caja, pero muy grande comparada con los compartimentos cúbicos que acabamos de considerar. Supondré que esta caja intermedia contiene un gran número de los compartimentos considerados y pertenece a una red cúbica que llena toda la caja grande y es menos refinada que la red de compartimentos originales (Fig. 1.3). Supongamos que la longitud del lado de cada caja intermedia es n veces mayor que la de los compartimentos originales, de modo que hay n × n × n = n3 compartimentos en cada caja intermedia. Aquí n, aunque sigue siendo muy grande, debe tomarse mucho más pequeño que N:
N ≫ n ≫ 1.
Para simplificar las cosas, supondré que N es un múltiplo exacto de n, de modo que
N = kn
donde k es un número entero que da el número de cajas intermedias que llenan cada lado de la caja grande. Ahora habrá k × k × k = k3 de estas cajas de tamaño intermedio en toda la caja grande.
La idea consistirá en utilizar estas cajas intermedias para que nos den una medida del «color» que vemos en la localización de dicha caja, donde las propias bolas se consideran demasiado pequeñas para que puedan verse individualmente. A cada caja intermedia se le podrá asignar un color, o tono, promedio, obtenido al «promediar» los colores de las bolas rojas y azules dentro de la caja. Así, si r es el número de bolas rojas en la caja en consideración, y a es el número de bolas azules en ella (de modo que r + a = n3), entonces el tono en dicha localización se considera definido por la razón entre r y a. Por consiguiente, consideramos que tenemos un tono más rojo si r/a es mayor que 1 y un tono más azul si r/a es menor que 1.
Supongamos que la mezcla nos parece un púrpura uniforme si cada uno de estos n × n × n compartimentos tiene un valor r/a comprendido entre 0,999 y 1,001 (de modo que r y a son casi iguales, con un margen de error de una décima de 1 por ciento). A primera vista, esto puede parecer un requisito bastante restrictivo (al tenerse que aplicar a cada uno de los n × n × n compartimentos individuales). Pero cuando n se hace muy grande, encontramos que ¡la inmensa mayoría de disposiciones de bolas satisfacen esta condición! También deberíamos tener en cuenta que cuando consideramos moléculas en una lata de pintura, el número de ellas será inimaginablemente grande para los estándares ordinarios. Por ejemplo, podría haber un número del orden de 1024 moléculas en una lata de pintura ordinaria, de modo que tomar N = 108 no es en absoluto irrazonable. Además, como quedará claro cuando consideremos que los colores parecen perfectamente puros en fotografías digitales con un tamaño de píxel de 10−2 cm, también es muy razonable tomar un valor k = 103 en este modelo. A partir de esto, encontramos que con estos números (N = 108 y k = 103, de modo que n = 105) hay unas 1023.570.000.000.000.000.000.000.000 disposiciones diferentes de la colección de 1/2N3 bolas rojas y 1/2N3 que dan la apariencia de un púrpura uniforme. Hay solamente 1046.500.000.000.000 disposiciones diferentes que dan la configuración original en la que todas las bolas azules están arriba y todas las bolas rojas están abajo. Así, para bolas distribuidas completamente al azar, la probabilidad de encontrar púrpura uniforme es prácticamente una certeza, mientras que la probabilidad de encontrar todas las bolas azules arriba es del orden de 10−23.570.000.000.000.000.000.000.000 (y esta cifra no cambia sustancialmente si no exigimos que «todas» las bolas azules estén inicialmente arriba, sino que, digamos, sólo el 99,9 por ciento de ellas estén arriba).
Vamos a considerar que la «entropía» es algo parecido a una medida de estas probabilidades o, más bien, de estos diferentes números de disposiciones que dan la misma «apariencia global». En realidad, utilizar estos números directamente daría una medida extremadamente difícil de controlar, debido a sus enormes diferencias en tamaño. Por eso, es una suerte que haya buenas razones teóricas para tomar el logaritmo (natural) de estos números como una medida de «entropía» más apropiada. Para los lectores que no estén muy familiarizados con la noción de logaritmo (especialmente de logaritmo «natural») expresaré las cosas en términos de logaritmos en base 10, que se escribe «log10» (en lugar del logaritmo natural, utilizado más tarde, al que llamaré simplemente «log»). Para entender log10, la idea básica que hay que recordar es que
log10 1 = 0,
log10 10 = 1,
log10 100 = 2,
log10 1.000 = 3,
log10 10.000 = 4,
etc.
Es decir, para obtener el log10 de una potencia de 10, simplemente contamos el número de ceros. Para un número entero (positivo) que no es una potencia de 10, podemos generalizar esto diciendo que la parte entera (es decir, el número antes de la coma decimal) de su logaritmo se obtiene contando el número total de dígitos y restando 1, por ejemplo (con la parte entera escrita en negrita),
log10 2 | = | 0,301 029 995 66… | |
log10 53 | = | 1,724 275 869 60… | |
log10 9.140 | = | 3,960 946 195 73… |
etc., de modo que en cada caso el número en negrita es sólo uno menos que el número de dígitos en el número del que estamos tomando el logaritmo. La propiedad más importante de log10 (o de log) es que convierte la multiplicación en suma; es decir:
log10 (ab) = log10 a + log10 b.
(En el caso de que a y b sean ambos potencias de 10, esto es obvio a partir de lo anterior, puesto que multiplicando a = 10A por b = 10B nos da ab = 10A+B).
La trascendencia de la relación antes mostrada para el uso del logaritmo en la noción de entropía es que queremos que la entropía de un sistema que consiste en dos componentes separadas y por completo independientes sea simplemente la que obtenemos sumando las entropías de las partes individuales. Decimos que, en este sentido, el concepto de entropía es aditivo. De hecho, si la primera componente puede darse en P maneras diferentes y la segunda en Q maneras diferentes, entonces el sistema entero —que consiste en ambas componentes juntas— podrá darse en el producto PQ de maneras diferentes (puesto que para cada una de las P disposiciones en que se da la primera componente habrá exactamente Q disposiciones en que se da la segunda). Así, definiendo la entropía del estado de cualquier sistema como algo proporcional al logaritmo del número de maneras diferentes en que puede darse dicho estado, aseguramos que se satisfaga realmente esta propiedad de aditividad para sistemas independientes.
Sin embargo, todavía he sido un poco vago sobre lo que entiendo por este «número de maneras en que puede darse el estado de un sistema». En primer lugar, cuando modelamos las localizaciones de las moléculas (en una lata de pintura, digamos) normalmente no consideraríamos realista tener compartimentos discretos, puesto que en la teoría newtoniana, con todo detalle, habría un número infinito de diferentes localizaciones posibles para cada molécula y no solamente un número finito. Además, cada molécula individual podría tener una forma asimétrica, de modo que podría estar orientada en el espacio de diferentes maneras. O podría tener otros tipos de grados de libertad internos, tales como distorsiones de su forma, que tendrían que ser tenidos en cuenta. Cada una de estas orientaciones o distorsiones tendría que contar como una configuración diferente del sistema. Podemos tratar todos estos puntos considerando lo que se conoce como el espacio de configuración de un sistema, que paso a describir.
Para un sistema de d grados de libertad, el espacio de configuración sería un espacio d-dimensional. Por ejemplo, si el sistema consistiera en q partículas puntuales p1, p2, …, pq (cada una de ellas sin grados de libertad internos), entonces el espacio de configuración tendría 3q dimensiones. La razón es que cada partícula individual requiere precisamente tres coordenadas para determinar su posición, de modo que hay 3q coordenadas en total, y así un único punto P del espacio de configuración define las localizaciones de todos los p1, p2, …, pq juntos (véase la Fig. 1.4). En situaciones más complicadas, en las que hay grados de libertad internos, tendríamos más grados de libertad para cada partícula, pero la idea general es la misma. Por supuesto, no espero que el lector sea capaz de «visualizar» lo que sucede en un espacio de tan alto número de dimensiones. Esto no será necesario. Nos haremos una idea suficientemente buena si imaginamos que las cosas suceden en un espacio de sólo 2 dimensiones (tal como una región dibujada en una hoja de papel) o una región en el espacio tridimensional ordinario, con tal de que siempre tengamos en cuenta que dichas visualizaciones serán inevitablemente limitadas en algunos aspectos, a algunos de los cuales llegaremos pronto. Y, por supuesto, siempre deberíamos tener en mente que tales espacios son espacios matemáticos puramente abstractos que no deberían confundirse con el espacio físico 3-dimensional o el espacio-tiempo físico 4-dimensional de nuestras experiencias ordinarias.
Hay otro punto que necesita clarificación en nuestros intentos de una definición de entropía, y se refiere a qué es exactamente lo que estamos tratando de contar. En el caso de nuestro modelo finito teníamos números finitos de disposiciones diferentes para las bolas rojas y azules. Pero ahora tenemos un número infinito de disposiciones (puesto que las localizaciones de las partículas requieren parámetros continuos), y esto nos lleva a considerar volúmenes de altas dimensiones en el espacio de configuración para darnos una medida adecuada de tamaño, en lugar de contar sólo cosas discretas.
Para hacernos una idea de lo que se entiende por un «volumen» en un espacio de alta dimensión, es bueno pensar primero en dimensiones menores. La «medida de volumen» para una región de una superficie curva 2-dimensional, por ejemplo, sería simplemente la medida del área de dicha región. En el caso de un espacio 1-dimensional, estamos pensando simplemente en la longitud a lo largo de una porción de la curva. En un espacio de configuración n-dimensional, estaríamos pensando en términos de un análogo n-dimensional al 3-volumen de una región ordinaria.
Pero ¿de qué regiones del espacio de configuración vamos a medir los volúmenes cuando estamos interesados en la definición de entropía? Básicamente, lo que nos interesaría sería el volumen de toda esa región en el espacio de configuración que corresponde al conjunto de estados que «parecen iguales» que el estado concreto en consideración. Por supuesto, «parecen iguales» es una expresión bastante vaga. Lo que aquí significa realmente es que tenemos un conjunto razonablemente exhaustivo de parámetros macroscópicos que miden cosas tales como la distribución de densidad, el color, la composición química… pero no estamos interesados en cosas tan detalladas como las localizaciones exactas de todos los átomos que constituyen el sistema en consideración. Esta división del espacio de configuración en regiones que «parecen iguales» en este sentido se conoce como un «granulado grueso» de . Así, cada «región de grano grueso» consiste en puntos que representan estados que se considerarían indistinguibles entre sí por medio de medidas macroscópicas. Véase la Fig. 1.5.
Por supuesto, lo que aquí se entiende por medida «macroscópica» sigue siendo bastante vago, pero estamos buscando algo análogo a la noción de «tono» en la que estábamos interesados en nuestro modelo finito simplificado para la lata de pintura. Hay que reconocer que existe cierta vaguedad en tal noción de «granulado grueso», pero es el volumen de dicha región en el espacio de configuración —o, más bien, el logaritmo del volumen de dicha región de grano grueso— lo que nos interesa para la definición de entropía. Sí, esto sigue siendo un poco vago, pero aun así es extraordinario lo robusta que resulta ser la noción de entropía, debido sobre todo a las absolutamente desmesuradas razones entre volúmenes que resultan de los volúmenes de grano grueso.