Figura 7.3 La evolución del poder de los ordenadores durante el siglo XX. También se muestra la medida equivalente del poder de cálculo de la mente humana por sí sola y la evolución tecnológica de la industria de los ordenadores, desde los dispositivos mecánicos hasta los procesadores electrónicos contemporáneos, pasando por las máquinas eléctricas.
Gran VA
Un hombre, visto como un sistema de comportamiento, es bastante simple. La aparente complejidad de su comportamiento a lo largo del tiempo es en gran medida el reflejo de la complejidad del entorno en el que se encuentra.
HERBERT SIMON
Si adoptamos la postura a corto plazo de que todas las formas de vida y de complejidad extrema, distintas a las que están basadas en el carbono, no han podido evolucionar espontáneamente en el tiempo transcurrido desde que se formaron las primeras estrellas y planetas, entonces podemos clasificar estas otras formas de complejidad bajo el calificativo de «vida artificial» (VA). Este tema debería ser comparado, pero no confundido, con el estudio de la inteligencia artificial (IA): nosotros estamos interesados en una difusión de los procesos complejos más amplia que la de aquellos que imitan procesos cognitivos. Uno de los que trabajan en este campo ha descrito su objetivo más optimista como el deseo de «construir modelos tan parecidos a la vida que cesarían de ser modelos de la vida para convertirse ellos mismos en ejemplos de vida». En la práctica, esto equivale al estudio de todas las formas de complejidad organizada, haciendo hincapié especial en aquellas variedades que cambian en el tiempo e interaccionan con su entorno. Aun sin el matiz añadido por la introducción de información (input) procedente de un entorno cambiante, uno puede demostrar resultados generales bastante interesantes que ilustran lo que en principio es posible cuando la forma de vida artificial (o complejidad) se construye con propiedades particulares. Por ejemplo, uno puede imaginar una forma determinista de vida artificial que, una vez puesta en funcionamiento, no requiera ningún control o input adicional, pero que se reproduzca a sí misma indefinidamente, dando lugar a una secuencia de progenies en las que cada uno de sus miembros es superior a sus padres. Podemos imaginar una forma de vida artificial que tenga una capacidad suficiente de almacenamiento de información para abarcar todos los axiomas y reglas de la aritmética. Ésta podrá por consiguiente generar teoremas de la aritmética. La suma total de todos estos teoremas podría ser definida como su «inteligencia». No obstante, nuestra anterior discusión sobre el teorema de incompletitud de Gödel nos dice que la inteligencia de la forma de vida no puede incluir todas las verdades de la aritmética. Debe existir siempre alguna que no pueda ser probada, ni refutada. Pero cuando el organismo descubra (ya que puede) que alguna proposición de la aritmética no puede ser probada, ni refutada, a partir del conjunto de axiomas que tiene incorporado, podrá sencillamente añadir la proposición indecidible como un nuevo axioma a los anteriores. El sistema axiomático ampliado debe todavía ser incompleto en alguna forma nueva, claro está, pero el organismo evoluciona ahora repitiendo este procedimiento: identificando proposiciones indecidibles antes de incorporarlas como axiomas nuevos, volviéndose cada vez más inteligente porque cada progenie puede probar todos los teoremas que sus padres podían probar (algunos de ellos mediante secuencias mucho más cortas de deducciones lógicas debido al poder adicional derivado de sus axiomas adicionales que permiten consiguientemente nuevas secuencias de deducción lógica), más otros nuevos debido a su axioma adicional. El contenido de información de cada vástago sobrepasa el de sus padres. Aquí podríamos añadir un matiz más si cada uno de los padres tuviese dos hijos: uno incorporaría la proposición indecidible elegida como un nuevo axioma, mientras su «hermano» incorporaría su negación como un axioma.
Los rasgos principales que caracterizan la capacidad deductiva de cualquier forma de complejidad organizada son la velocidad a la que puede procesar información (esto es, transformar un conjunto de números en uno nuevo) y el tamaño de su almacén de memoria. El tamaño de la memoria determina la capacidad que posee un sistema para aprender y adaptarse al cambio. En la figura 7.4 podemos ver una comparación de estos dos atributos en una amplia variedad de sistemas complejos, entre los que a algunos los consideraríamos vivos y a otros no.
Hacemos esta vaga distinción basándonos en que, de alguna manera, las cosas vivas son siempre húmedas y blandas, mientras que las cosas no vivas suelen ser duras y metálicas. Los ordenadores y los cristales no se parecen a otras formas de vida. Pero se trata de una distinción bastante subjetiva, especialmente cuando miramos en retrospectiva a la secuencia de sucesos que pudo haber conducido a la evolución del «soporte húmedo» basado en el carbono que forma nuestras flora y fauna existentes hoy en día.
Figura 7.4 Potencia y capacidad de almacenamiento de información de una diversidad de organismos vivos y de creaciones tecnológicas del hombre.
Graham Cairns-Smith, de la Universidad de Glasgow, ha sugerido que la forma natural de vida que ahora vemos pudo no haber sido la fuente primaria de la complejidad basada en la química del carbono que caracteriza a los organismos vivos actuales. En su escenario de «conquista genética», sugiere que los primeros «organismos» fueron cristales diminutos de arcilla[13] que se transformaron por el proceso familiar de ruptura y crecimiento de un cristal.
El patrón de la estructura del cristal contiene varios patrones irregulares llamados «defectos». Estos defectos desempeñan un importante papel en la historia de la arcilla, ya que afectan a sus propiedades físicas y químicas, alterando así su eficacia como catalizador en las reacciones químicas con sustancias adyacentes. En algún momento, sugiere Cairns-Smith, algunos de los cristales incorporan aleatoriamente la capacidad de los componentes de carbono adyacentes para hacer cosas más complicadas, almacenar patrones y, en último término, producir moléculas que puedan producir réplicas de sí mismas. Una vez que este proceso comienza, la base del cristal es conquistada por la maquinaria del carbono, mucho más eficiente. El resultado evolutivo consistirá en formas de vida basada en el carbono, en las que apenas hallamos trazas, si es que hay alguna, de sus burdos orígenes cristalinos. Todo este proceso de conquista genética es muy similar en estilo a la conquista de la industria del motor del Reino Unido por los japoneses, o quizá a la futura conquista por el silicio de nuestra propia química basada en el carbono. De hecho, a un nivel más profundo podemos detectar su influjo en la mayoría de las corrientes intelectuales y culturales en las que participamos. Cuando alguien tiene una idea nueva, ésta será considerada por algún otro innovador que al principio pensará sobre ella en el mismo contexto que su creador, pero que pronto percibirá la posibilidad de mejorarla, y trasplantará su esencia a otro contexto. La idea ha evolucionado. Ha sido conquistada por una nueva mente.
Nuestra digresión acerca de las cosas vivas se ha visto motivada por el énfasis que muchos de los investigadores modernos ponen, tanto en el entendimiento, como en la simulación de la «vida». La panoplia entera de dichos estudios se encuadra ahora en el marco de la «ciencia cognitiva». En esencia, dichas investigaciones están confrontadas con el entendimiento de un tipo particular de complejidad, que es desalentadoramente multifacética. Pero nuestro interés en los sistemas vivos estaba, en este caso, motivado únicamente por el hecho de que se trata de las cosas más complejas que vemos, y no por un deseo de adscribirles un significado sobrenatural.
Hemos visto cómo un reduccionismo ingenuo, que busque reducir todas las cosas a sus partes constituyentes más pequeñas, se encuentra fuera de lugar. Si queremos lograr un entendimiento total de los sistemas complejos, especialmente de los que resultan de los mecanismos casuales de la selección natural, necesitaríamos algo más que candidatos normales a los que poder dar el título de «Teoría del Todo». Necesitamos descubrir si hay principios generales gobernando el desarrollo de la complejidad en su totalidad que puedan ser aplicados a toda una variedad de situaciones diferentes sin que se vean enmarañados en sus particularidades. Quizá exista todo un conjunto de reglas básicas sobre el desarrollo de la complejidad que se vea reducido a algunas de nuestras leyes más simples de la naturaleza en situaciones en las que el nivel de complejidad sea esencialmente inexistente. Si tales reglas existen, entonces no son como las leyes que busca el físico de partículas. Pero ¿hay alguna evidencia de que tales principios puedan existir?
El tiempo
Si todo sobre la Tierra fuese racional, no sucedería nada.
FEDOR DOSTOYEVSKI
La naturaleza del tiempo es uno de esos problemas desconcertantes que los físicos han discutido durante siglos, pero en cuyo desentrañamiento tan sólo han hecho un progreso desalentadoramente mínimo. Las teorías científicas nuevas, ya sea la relatividad o la teoría cuántica, conllevan siempre una nueva perspectiva sobre la naturaleza del tiempo, pero suelen añadir otro aspecto enigmático a los que ya tenemos, en lugar de presentar un punto de vista decididamente nuevo que reemplace todo lo anterior. Nuestro análisis de los principios organizadores proporciona una coyuntura natural para poner de relieve una tensión histórica en la actitud de los pensadores respecto a la naturaleza del tiempo. Las opiniones han ido y venido entre dos concepciones extremas durante miles de años, y puede que las investigaciones de los sistemas complejos y organizados señalen un viraje de la marea hacia el extremo que se ha visto más desfavorecido durante la mayor parte del siglo XX.
Desde los tiempos de los primeros pensadores griegos, ha existido una dicotomía entre aquellos que estaban dispuestos a reconocer el papel del tiempo en los procesos naturales como una característica inherente a las cosas existentes en el mundo. Estos pensadores, como Aristóteles y Heráclito, hicieron hincapié en el «mundo de los sucesos» accesible a la observación como la verdadera realidad a la que deberían ir dirigidas todas las tentativas de explicación e investigación. En clara contraposición a este enfoque pragmático ha existido siempre una tradición, comenzando con Parménides y alcanzando más tarde su madurez en el más elegante alegato de Platón, según la cual deberíamos intentar eliminar el tiempo de nuestra imagen de la realidad; debería ser ocultado o reducido a algo diferente. Platón llevó a cabo esta eliminación atribuyendo un significado fundamental a formas de otro mundo que aportaban las ideas perfectas de las que derivaban todos los fenómenos observados, si bien de manera imperfecta. Estas formas eternas eran invariantes intemporales, la verdadera realidad de la que las cosas observadas no eran sino sombras imperfectas. Aquí vemos el des-énfasis del papel del tiempo. Las cosas fundamentales no cambian en el tiempo, sólo las aproximaciones imperfectas a ellas manifiestan variabilidad; y es fácil por consiguiente despreciar el tiempo como algo que no pertenece a la verdadera esencia de las cosas. Este sesgo lo vemos manifiesto explícitamente en el campo de la matemática y de la ciencia de la Grecia antigua. Los griegos estaban interesados en lo que ahora llamaríamos estática: circunferencias perfectas, armonías invariantes, el significado de los números puros. El idealismo platónico posee una tendencia natural a adscribir alguna forma de inmutabilidad a las realidades fundamentales.
Los trabajos de Newton y de los científicos que siguieron sus pasos no presentaban un interés primario en las armonías estáticas. Para ellos, las leyes de la naturaleza eran leyes de cambio —dinámica. El tiempo tenía un papel explícito que jugar. Pero ello no arrojó ninguna luz sobre lo que éste era. Para evitar el verse enredado en «hipótesis», Newton escribió en las primeras páginas de los Principia:
No definiré el tiempo, el espacio, el lugar y el movimiento por tratarse de cosas bien conocidas por todos. Únicamente debo observar que la gente común no concibe estas cantidades bajo ninguna otra noción que no sea la relación que poseen con los objetos sensibles.
Su plan de acción era erigir el tiempo como un modelo eterno fijo que no se viera afectado por ninguno de los sucesos que tenían lugar en el universo. Esto lo distinguía de la idea «común» a la que Newton hacía referencia, la cual asocia siempre el paso del tiempo a alguna secuencia de sucesos (como el movimiento del Sol a través del cielo), y así atribuye un aspecto de una naturaleza temporal a esos objetos.
En la era posnewtoniana iba a emerger una perspectiva cuya influencia creció, llegando a dominar la visión del mundo de la mayoría de los físicos hasta hace muy poco relativamente. Se descubrió que existen ciertas cantidades conservadas en la naturaleza, como la energía o el momento total implicados en procesos aislados. Así, a pesar de la apariencia superficial de cambio en algunos procesos naturales complejos, existe un aspecto subyacente permanente que refleja una invariancia de las leyes de la naturaleza. Por consiguiente, es posible expresar todas las leyes tradicionales del cambio que gobiernan el movimiento mediante enunciados equivalentes según los cuales ciertas cantidades permanecen invariantes. Aquí vemos resurgir la corriente platónica. El tiempo es desenfatizado y la invariancia de ciertas cosas pasa a ser considerada más fundamental que las reglas que gobiernan los posibles cambios en el tiempo permitidos por estos invariantes.
Desde el comienzo de la década de los setenta hasta hace sólo unos pocos años, este enfoque respaldó el dramático progreso realizado por los físicos de partículas elementales con la formulación de las teorías gauge, que ya introdujimos en el capítulo 4. Ellos derivaron las leyes que gobiernan los cambios en las transmutaciones de, o interacciones entre, partículas elementales a partir de la suposición básica de una invariancia de las cosas respecto a ciertas clases de cambios en el espacio y en el tiempo. El gran éxito cosechado por este enfoque consolidó la tendencia general a otorgar un mayor significado a los aspectos intemporales de la realidad: las cantidades conservadas de la naturaleza y sus simetrías, equilibrios e invariancias asociadas. Sólo en la última década ha dejado este énfasis de dominar en las ciencias físicas y se ha generado un renovado interés por lo particular antes que por lo general. Esto, como ya vimos en nuestra anterior explicación sobre las rupturas de simetría, se ha producido gracias al reconocimiento de esa extraordinaria riqueza manifiesta en los resultados de las leyes de la naturaleza, que no es compartida por las leyes mismas. Este estudio de los resultados se ha centrado en la evolución de los sistemas complejos, las rupturas de simetría y el comportamiento caótico. En todo ello, el tiempo es esencial y la invariancia juega un papel débil que arroja muy poca, o ninguna, luz sobre las propiedades esenciales de los fenómenos en cuestión. Hay una razón fundamental por la que muchos de estos fenómenos deben ser contrapuestos a la búsqueda de una invariancia temporal en la naturaleza. Cuando hallamos secuencias de sucesos que exhiben un comportamiento que no se puede comprimir algorítmicamente, significa que no admiten una descripción abreviada. No pueden ser encapsulados en una fórmula simple que contenga la misma cantidad de información. En particular, esto significa que un proceso que no sea compresible algorítmicamente no puede ser sustituido por un principio de invariancia. Es la representación propia más simple del mismo, por lo que se requiere la secuencia entera para describirlo. Así pues, vemos aquí resurgir el énfasis aristotélico en los sucesos y en la relación entre los sucesos en el tiempo como una consideración dominante en la descripción del mundo natural en contraposición al interés por la invariancia. Cuando miramos al mundo de las partículas elementales, vemos en la invariancia una señal luminosa para guiarnos por los caminos del mundo; cuando nos limitamos al terreno medio, donde la complejidad y la organización determinan qué estructuras existirán, encontramos que el tiempo y el cambio son características esenciales de la fábrica del mundo.
Siendo y llegando a ser organizado
Las Tres Leyes de la Robótica:
1. Un robot no debe lastimar a un ser humano, o, por inacción, permitir que un ser humano sea dañado.
2. Un robot debe obedecer las órdenes que le den los seres humanos, salvo cuando dichas órdenes entren en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley.
ISAAC ASIMOV
Parece que los principios organizadores difieren de las leyes de la naturaleza convencionales porque se precisa poder aplicarlos a sistemas de tamaño finito. No determinarán el movimiento de partículas elementales. Antes bien, forzarán la manera en que toda una colección de cosas puede ser configurada. Un ejemplo muy familiar es la denominada segunda ley de la termodinámica, que gobierna el comportamiento de una gran cantidad de cosas. Dicho con palabras sencillas, esta ley exige que el grado de desorden (que puede ser definido con exactitud) en un sistema cerrado nunca disminuya con el paso del tiempo. Esta tendencia, tan evidente en muchos aspectos de las cosas, ha ejercido una renovada fascinación en pensadores de todos los campos. No fue en absoluto casual que emergiera como una rama de la ciencia con pleno derecho en la segunda mitad del siglo XIX durante el fragor de la revolución industrial. El estudio de las máquinas de vapor no sólo condujo a un entendimiento de la degradación de la energía, de formas ordenadas útiles a formas desordenadas inservibles, sino también al paradigma del universo como una enorme máquina degenerando lentamente hacia una muerte cósmica térmica. Esta idea generó un curioso pesimismo filosófico durante las primeras décadas del siglo XX y llegó a estar muy de moda en los círculos literarios el conocer la segunda ley de la termodinámica. Basta recordar que C. P. Snow la utilizó como piedra de toque de la erudición científica de los no científicos: ignorar esta ley era para el no científico tanto como no haber escuchado hablar de Shakespeare para el científico. Nosotros tendremos algo que decir sobre el análisis moderno de este problema concreto a su debido tiempo, pero aquí queremos destacar la universalidad de la segunda ley de la termodinámica. Ésta es una característica que debe ser compartida por cualquier principio que aspire a gobernar el desarrollo universal de la complejidad.
La segunda ley de la termodinámica rige el comportamiento de las máquinas de calor y de las reacciones químicas: al menos esto era de esperar. Pero, a mediados de los años setenta, se hizo un descubrimiento bastante insólito que sorprendió a los físicos y renovó su confianza en la segunda ley de la termodinámica como un principio guía en dominios de la ciencia muy alejados de aquellos que asistieron a su concepción y donde podría haberse sospechado que conceptos mucho más complicados jugaban un papel director. A principios de los años sesenta, los astrofísicos se hallaban atareados con sus primeros descubrimientos detallados sobre la estructura de los agujeros negros. Los agujeros negros son los objetos más simples del universo. Se crean cuando una gran cantidad de masa se ve confinada por la fuerza de la gravedad a un volumen suficientemente pequeño de espacio. La intensidad del campo gravitatorio resultante produce la aparición de una superficie imaginaria, u horizonte, en torno al agujero de forma tal que ninguna partícula o señal de luz en el interior podrá atravesar este horizonte hacia el exterior. El agujero negro contiene el material dentro de esta superficie, pero no es un objeto sólido. Aunque el material en el interior de este horizonte continúe cayendo hacia su centro y se vea envuelto en toda suerte de cabriolas complicadas, nada de esto es visible para un observador en el exterior. Todo lo que éste puede determinar sobre la materia que se encuentra en el interior del horizonte es su masa total junto a cualquier carga eléctrica o momento angular (una medida de la rotación global) netos que pueda poseer. Éstas son las únicas cosas que pueden conocerse sobre un agujero negro, lo cual los convierte en los objetos más simples del universo. Cuando se trata de otros objetos, como las estrellas o las personas, es necesario conocer un sinnúmero de cantidades para poder especificarlos unívocamente. Las tres cantidades que definen un agujero negro no son sorprendentes: se ha hallado que son las que se conservan completamente en todos los procesos físicos observados en el universo. El hecho de que sean propiedades de los agujeros negros garantiza que puedan seguir conservándose en la naturaleza aun cuando ésta contenga agujeros negros. Lo que resulta más interesante a este respecto es la enorme lista de cosas que quedan fuera del alcance de un observador en el exterior una vez que una complicada configuración de materia es capturada dentro de este horizonte. El forastero no podrá decir si el interior de un agujero negro contiene materia o antimateria, positrones o protones, un armazón de latón o las obras de Proust. La información que hace posible semejantes distinciones no traspasa el horizonte.
El agujero negro más general posible permitido por la teoría de la gravitación de Einstein fue hallado a principios de los años sesenta, y los físicos se pusieron a la tarea de intentar comprender la manera en que pueden producirse ciertos cambios cuando se añade materia a un agujero negro o cuando dos o más agujeros negros coalescen para formar uno nuevo más grande. Se hallaron una serie de reglas simples que gobiernan cualquier proceso que involucre agujeros negros y otras formas de materia. El campo gravitatorio debe tener una intensidad constante a lo largo de todo el horizonte de un agujero negro. El área de superficie total de todas las superficies horizonte de los agujeros negros integrantes nunca puede decrecer. Los cambios en la masa, la carga eléctrica o el momento angular de un agujero negro están interrelacionados de una manera definida. Se encontraron así tres leyes que gobiernan los cambios en los agujeros negros, pero pronto se observó que algo extraño estaba ocurriendo. Si uno sustituía las palabras «área de superficie» por «entropía», y «campo gravitatorio» por «temperatura», las leyes que determinan los cambios en los agujeros negros se convertían sencillamente en los enunciados de las leyes de la termodinámica. La regla según la cual las áreas de las superficies horizonte no pueden nunca disminuir en los procesos físicos se convertía en la segunda ley de la termodinámica según la cual la entropía nunca puede disminuir; la constancia del campo gravitatorio a lo largo del horizonte era la llamada ley cero de la termodinámica, según la cual la temperatura en un estado de equilibrio térmico debe ser la misma en todo lugar; y la regla que establece un nexo entre los cambios permitidos en las cantidades que definen el agujero negro no era más que la primera ley de la termodinámica, más conocida como la ley de conservación de la energía.
Al principio se pensó que esta sorprendente concordancia no era más que una coincidencia. Los agujeros negros, por definición, no podían tener una temperatura distinta de cero. Nada podía escapar de su superficie, por lo que su energía de radiación debía ser cero para cualquier observador en su exterior. Si se coloca un agujero negro en una caja que contenga una radiación térmica a una temperatura fija, éstas no alcanzan conjuntamente el equilibrio a una nueva temperatura. El agujero negro termina simplemente engullendo toda la radiación.
Por estas razones, la analogía termodinámica fue considerada por muchos físicos poco más que una curiosidad. Después de todo, no podía imaginarse que la termodinámica tuviera algo que ver con las leyes de la gravitación válidas en los intensos campos gravitatorios de la superficie horizonte de los agujeros negros. ¿Qué podía parecerse menos a una máquina de vapor? Fue entonces, en 1974, cuando Stephen Hawking hizo un descubrimiento espectacular. Hawking decidió examinar por primera vez lo que sucede cuando uno aplica las ideas de la mecánica cuántica a los agujeros negros. Lo que descubrió fue que los agujeros negros no son completamente negros. Cuando se toma en cuenta la mecánica cuántica en el estudio de sus propiedades, resulta posible que la energía escape de la superficie del agujero negro y sea registrada por un observador en su exterior. La variación en la intensidad del campo gravitatorio próximo a la superficie horizonte es suficientemente fuerte como para crear pares de partículas y antipartículas de forma espontánea. La energía necesaria para que esto suceda se obtiene de la fuente del campo gravitatorio, y a medida que el proceso continúa, la masa del agujero negro disminuye. Si se espera el tiempo suficiente, desaparecerá por completo, a no ser que alguna física desconocida intervenga en los estadios finales. Semejante descubrimiento era más que apasionante, pero su aspecto más satisfactorio fue el hecho de que las partículas radiadas al exterior desde la superficie del agujero negro resultaron poseer todas las características de la radiación térmica, con una temperatura precisamente igual al campo gravitatorio en el horizonte y una entropía dada por su área superficial, tal y como la analogía había sugerido. Los agujeros negros poseían una temperatura distinta de cero y obedecían a las leyes de la termodinámica, pero sólo si se incluía la mecánica cuántica en su descripción.
Parece que el significado profundo de este descubrimiento es el haber encontrado una situación física en la que convergen dos principios naturales diferentes, el de la mecánica cuántica y el de la relatividad general, que admite una sencilla descripción termodinámica. Nosotros esperábamos que todas las reglas que gobiernan el comportamiento de las cosas en una situación gravitatoria cuántica de dicha índole fueran complicadas y de gran novedad. Muchas lo son indudablemente; pero encontramos que los principios de la termodinámica conocidos y demostrados las incluyen en su dominio. Además de afianzar a los físicos en su capacidad para dilucidar problemas todavía más complejos de la ciencia básica apelando a principios termodinámicos sencillos, esta historia refuerza nuestra fe en el papel de la termodinámica como paradigma de una «ley» que gobierne la organización de los sistemas complejos.
Al principio, uno podría pensar que algo como la termodinámica es un concepto demasiado restrictivo, pues se ocupa de la temperatura y del calor. Pero su aplicación no se limita únicamente a las cuestiones térmicas. Es posible relacionar la noción de entropía, que es una medida del desorden, a la noción, más general y fructífera, de «información», que ya utilizamos al discutir la riqueza de ciertos sistemas de axiomas y reglas de razonamiento. Podemos imaginar que la entropía de un objeto grande como un agujero negro es igual al número de formas diferentes en las que pueden reordenarse sus constituyentes más elementales para producir un mismo estado macroscópico. Esto nos da el número de dígitos binarios (bits) que se necesitan para especificar con todo detalle la configuración interna de los constituyentes de los que está formado el agujero negro. Es más, también podemos apreciar que, cuando se forma un horizonte de agujero negro, se pierde definitivamente una cierta cantidad de información para un observador exterior. El área del horizonte —la entropía del agujero negro— está entonces íntimamente relacionada a la cantidad de información que se pierde para un observador exterior cuando se forma un horizonte en torno a una región del universo para crear un agujero negro.
El éxito de haber descubierto un principio termodinámico asociado al campo gravitatorio de un agujero negro ha llevado a especular con la posibilidad de que exista algún aspecto termodinámico asociado al campo gravitatorio del universo entero. La suposición más simple que puede hacerse, siguiendo el ejemplo del agujero negro, es que se trata del área superficial de los límites del universo visible. Conforme el universo se expande, su contorno aumenta, y la información sobre el universo a la que tenemos acceso también aumenta. Pero esto no parece ser nada prometedor. Lo único que parece decirnos es que el universo debe continuar expandiéndose indefinidamente, pues, si en algún momento comenzase de nuevo a colapsar, la entropía disminuiría y se violaría la segunda ley de la termodinámica. El universo puede expandirse de un sinfín de maneras diferentes sin dejar de tener un área creciente. Lo que de verdad buscamos es algún principio que nos diga por qué la organización del universo cambia en la forma en que lo hace: por qué ahora se expande tan uniforme e isotrópicamente.
La flecha del tiempo
El Tiempo viaja a paso diferente con personas diferentes. Te diré con quién el Tiempo camina al paso, con quién el Tiempo corre, con quién el Tiempo galopa, y con quién permanece quieto.
WILLIAM SHAKESPEARE
Una de las dificultades que surgen al decidir si existen o no leyes de organización de un tipo termodinámico o similar, está relacionada con un viejo problema acerca de la naturaleza del tiempo. Cualquier principio organizador debe, para ser útil, decirnos algo sobre el desarrollo de la complejidad en el tiempo, pero algunos argüirán que en la práctica el tiempo podría no ser más que el desarrollo en ciernes de ciertos tipos de organización. Mientras que la mayoría de los físicos consideran la segunda ley de la termodinámica como un reflejo de la improbabilidad de ciertos tipos de condiciones iniciales, hay otros que ven en ella una idea mucho más fundamental, preferente a las mismas leyes de la naturaleza. Más aún, la noción de tiempo sólo adquiere pleno significado en las situaciones en las que los cambios de entropía son manifiestos. Ilya Prigogine e Isobel Stengers escriben:
Sólo cuando un sistema se comporta de manera suficientemente aleatoria debe entrar en su descripción la diferencia entre pasado y futuro, y por consiguiente la irreversibilidad… La flecha del tiempo es la manifestación del hecho de que el futuro no está dado, de que, como el poeta francés Paul Valéry subrayó, «el tiempo es una construcción».
Sin embargo, aun cuando esto fuera cierto, todavía parece haber algo enigmático en una diversidad de áreas.
En general, las leyes de la naturaleza que creemos haber encontrado poseen la propiedad de reversibilidad temporal. Esto es, si las leyes permiten una cierta secuencia causal de sucesos —una historia— permitirán también la historia invertida en el tiempo. A pesar de la ubicuidad de este estado de cosas entre las leyes de la naturaleza, existe en ella una propensión inequívoca a exhibir historias en una dirección dada, pero nunca en la inversa. Esto se llama a veces la «paradoja de la reversibilidad». Hay un número de fenómenos físicos particulares que manifiestan una direccionalidad o «flecha del tiempo». Una parte del enigma consiste en determinar si sus direccionalidades individuales están o no relacionadas en alguna forma.
Todos los campos de radiación obedecen a leyes que admiten lo que se denomina soluciones «avanzadas» y «retardadas». Las soluciones retardadas describen la apariencia de una onda después de haberse originado en una fuente, esto es, después de su emisión espontánea. La solución «avanzada», por el contrario, describe una onda viajando desde el futuro hacia su fuente, donde es absorbida. En realidad, nosotros observamos únicamente las soluciones retardadas de las leyes matemáticas de la propagación de ondas. Asimismo, cerca del equilibrio termodinámico, la entropía y la complejidad aumentan con el paso del tiempo. Existen historias, igualmente permitidas, en las que disminuyen, pero no pueden ser observadas. Estados físicos en desintegración, como los núcleos radiactivos, disminuyen exponencialmente con el paso del tiempo. Y, por último, aunque no es menos importante, poseemos un sentido psicológico del paso del tiempo. Nuestra memoria actúa sobre esa parte del tiempo que llamamos pasado, la cual se distingue claramente del futuro.
Nos gustaría saber si todos estos significados diferentes de la dirección del tiempo están ligados entre sí, o incluso ligados a la flecha global del tiempo aportada por la expansión del universo. La conclusión del libro de Stephen Hawking, que ha gozado de una amplia difusión, Historia del tiempo. Del «big bang» a los agujeros negros[14], es que las flechas psicológica y termodinámica son las mismas debido a que el cerebro es esencialmente un ordenador y la computación es irreversible. Este argumento pretende admitir (aunque algunos no querrán hacerlo) que el cerebro es sólo un ordenador que realiza operaciones lógicas, y argüir entonces que la computación es irreversible por razones termodinámicas. En consecuencia, el procesamiento mental posee una flecha del tiempo aportada por la termodinámica. Este argumento no es, empero, convincente, pues los científicos de la informática han mostrado que la computación abstracta no es lógicamente irreversible. Mientras que la operación de adición ordinaria puede ser irreversible (hay una forma de sumar 3 + 3 para obtener 6, pero 6 puede obtenerse por la suma de 3 + 3, 4 + 2, 5 + 1 o 6 + 0) y la entrada lógica convencional «y/o» de los ordenadores tiene claramente un input y dos output posibles, es, sin embargo, posible construir entradas lógicas que son inversas de sí mismas. Las computaciones que utilizan dichas entradas «Fredkin» son lógicamente reversibles y, en circunstancias ideales, no devienen unidireccionales por la segunda ley de la termodinámica. Esto no prueba que las flechas termodinámicas no son idénticas, sino que esta tentativa particular de probar que no lo son falla.
Lejos del equilibrio
Aquí al nivel de la arena
entre el mar y la tierra,
¿qué construiré o escribiré
al caer de la noche?
Cuéntame de runas enterradas
que sostienen la ola rompiente,
o de bastiones por crear
para un tiempo más allá del mío.
A. E. HOUSMAN
El famoso relato sobre «Peter Wimsey», Have His Carease[15], de Dorothy Sayers, se publicó por primera vez en 1932 y fue concebido durante el período en el que la segunda ley de la termodinámica se había puesto de moda en las charlas y en las reuniones literarias. Tras el descubrimiento del cuerpo de un gigoló en una solitaria playa inglesa, Wimsey escucha las declaraciones de una serie de testigos y sospechosos. Después de oír la de la señorita Olga Kohn, ella percibe en él un cierto escepticismo respecto a ella y le pregunta:
—Pero usted me cree, ¿verdad?
—Nosotros creemos en usted, señorita Kohn —dijo Wimsey solemnemente— con la misma devoción que en la segunda ley de la termodinámica.
—¿Qué quiere usted decir? —dijo con recelo el señor Simms.
—La segunda ley de la termodinámica —explicó amablemente Wimsey—, que mantiene al universo en su cauce y sin la cual el tiempo transcurriría hacia atrás, como una película de cine, por el camino equivocado.
—¿De veras? —exclamó la señorita Kohn, muy agradecida.
—Puede que los altares se tambaleen —dijo Wimsey—, que el señor Thomas renuncie a su traje de etiqueta o el señor Snowden a su Libre Comercio, pero la segunda ley de la termodinámica perdurará mientras la memoria tenga un lugar en este globo distraído, que Hamlet tomó por su cabeza, pero que yo, con una visión intelectual más amplia, aplico al planeta que tenemos el placer de habitar. El inspector Umpelty parece sorprendido, pero yo le aseguro que no conozco una forma más impresionante de manifestarle toda mi confianza en su absoluta integridad —dijo con una ligera sonrisa—. Lo que me gusta de su evidencia, señorita Kohn, es que da el último toque de absoluta e impenetrable oscuridad al problema que el inspector y yo nos hemos propuesto resolver. Lo reduce por completo a la quintaesencia de un sinsentido incomprensible. En consecuencia, por la segunda ley de la termodinámica, que establece que en todo momento e instante nos encontramos avanzando hacia un estado de más y más aleatoriedad, podemos estar ciertamente seguros de que nos estamos moviendo por suerte y con certeza en la dirección correcta.
En este relato encontramos unas cuantas reflexiones interesantes acerca de la segunda ley. Esta es percibida como una verdadera ley que «mantiene al universo en su cauce», y no como la consecuencia de una elección particular de las condiciones iniciales, según analizamos en el capítulo 3. Más interesante es la suposición de que el tiempo transcurriría hacia atrás si la ley se invirtiese. La escritora da por sentado que el aumento de la entropía es un requisito tan imperioso que, si disminuyera con el tiempo, sólo podría significar que el tiempo habría invertido su flecha. La otra idea que cala todo el diálogo es la creencia de que la segunda ley requiere todo, por fuerza, para avanzar hacia un estado de mayor desorden. Así pues, el estado, cada vez más confuso y desordenado, de la evidencia disponible encuentra un eco en la mente de Wimsey. Pero uno se pregunta qué fue lo que pensó cuando, finalmente, todos los equívocos se resolvieron y se extrajo una conclusión coherente del montón de relatos contradictorios.
El significado termodinámico de la disminución del orden que encierra la segunda ley está a primera vista en conflicto con muchas de las complejas cosas que suceden a nuestro alrededor. Vemos cómo la complejidad y el orden aumentan con el tiempo en muchas situaciones: cuando recogemos nuestra oficina, cuando construimos un aparato de radio a partir de una colección de piezas de alambre y de cristal, siempre que una compañía de coches lanza un nuevo modelo en su cadena de producción, en la evolución de formas complejas de vida a partir de otras más simples que, según dicen los biólogos, fueron nuestros precursores. Todos estos procesos dan testimonio de la posibilidad de pasar de un estado de desorden relativo a uno de considerable orden.
En muchos de estos casos, debemos tener cuidado en tomar en cuenta todo el orden y el desorden que está presente en el problema. Pues el proceso de recoger la oficina requiere un esfuerzo físico por parte de alguien. Esto hace que cierta energía bioquímica ordenada, almacenada en los almidones y azúcares, se degrade en calor. Si uno anota esto en el presupuesto de energía, entonces la disminución de la entropía, o desorden asociado con la mesa recogida, está de sobra compensada por los otros aumentos.
No obstante, hay un matiz añadido cuando un sistema se encuentra lejos de su estado de equilibrio térmico. En esta situación, se verá mantenido por alguna conexión entre un entorno exterior y su propia organización interna. Lejos del equilibrio pueden pasar cosas inusitadas, ya que la noción que poseemos de lo que es posible o «probable» está muy condicionada por la denominada ley gaussiana de los números grandes, derivada de nuestras experiencias de lo que sucede muy cerca del equilibrio. El estudio de sistemas lejos del equilibrio está todavía en su infancia. Apenas hemos desarrollado nuestra imaginación sobre lo que es, y lo que no es, probable en fenómenos naturales complejos durante largos períodos de tiempo en los que sucesos de muy baja probabilidad pueden hacer sentir su presencia. Una Teoría del Todo no puede decirnos por sí sola qué tipos de complejidad organizada existen en la naturaleza. Dichos estados están fuertemente condicionados por su composición detallada y su historia real. Puede que estén gobernados por reglas generales de evolución aun no descubiertas, distintas de las leyes de la naturaleza, que dictan el desarrollo de todas las formas de complejidad. Una Teoría del Todo tendrá muy poco o ningún impacto sobre problemas tales como el origen de la vida y la conciencia. Éstos ocupan otro estante en el almacén de las maravillas.
Así es el mundo
Soy consciente de que este Tratado pueda probablemente sufrir la Censura de una crítica superflua, siendo yo mismo Responsable de ocasionar al lector Problemas innecesarios, pues han escrito mucho y muy bien sobre este tema los hombres ilustres de nuestro Tiempo.
JOHN RAY
La gran cuestión abierta es si existe algún principio organizador aún por descubrir que complemente las leyes de la naturaleza conocidas y determine la evolución global del universo. Para tratarse de una verdadera contribución a lo que sabemos de las leyes de la naturaleza, este principio necesitaría ser diferente de cualquier ley de la gravitación y de la física de partículas que pueda emerger en forma final de alguna Teoría del Todo. No sería un principio específico del universo, pero gobernaría la evolución de cualquier sistema complejo. Es cierto que sus nociones generales tendrían que estar hilvanadas de alguna forma a las nociones que caracterizan las cosas específicas que acontecen en un universo en evolución —la acumulación de materia en estrellas y galaxias, la conversión de materia en radiación—, pero también tendría que gobernar las formas invisibles en que el campo gravitatorio del universo puede cambiar. Cualquier descubrimiento de esta índole sería profundamente interesante porque el universo parece ser mucho más coherente de lo que podríamos razonablemente esperar. Tiene un nivel de entropía despreciable comparado con el valor, mucho mayor, que podría poseer si reorganizásemos la materia observada en otras configuraciones. Esto significa que el nivel de entropía al comienzo de la expansión del universo debe haber sido asombrosamente pequeño, de lo cual se sigue que las condiciones iniciales fueron de hecho muy especiales. Pero puede que ésta sea una conclusión demasiado simple. Hemos visto en nuestras consideraciones sobre la «inflación» en los primeros instantes del universo que la parte del universo total que ahora observamos refleja las condiciones de partida de tan sólo una región ínfima de todo el universo espacial. No podemos, por tanto, extraer ninguna conclusión respecto a la entropía del universo entero. De hecho, es posible que dicho concepto no exista si el universo tiene una extensión espacial infinita. Y la imagen del universo inflacionario nos llevaría a creer que más allá de nuestro horizonte visible parece bastante probable que las cosas estén bastante desordenadas. Desde el punto de vista termodinámico, nosotros podemos ser por consiguiente una fluctuación.
Otra curiosidad sobre la entropía del universo tiene que ver con la imagen tradicional de la «muerte térmica», según la cual nos aproximaríamos cada vez más a un estado de temperatura uniforme en un futuro muy lejano, tras el cual nada podría suceder. De hecho, la situación es bastante más complicada. Parece que, aun cuando la entropía total en el trozo observado de universo esté aumentando y puedan preverse procesos que garantizarán que este aumento prosiga su curso en el futuro, se encuentra realmente muy por detrás del nivel teórico máximo de entropía que podría en principio poseer.
En otro lugar, Frank Tipler y el presente autor han examinado las posibles historias futuras que pueden tener cabida, a la luz de los principios conocidos de la física, en la estructura a gran escala del universo. Nosotros estábamos interesados en descubrir si podría existir alguna forma de vida en todos los tiempos futuros. Para decir algo con sentido sobre una cuestión de esta índole, tenemos que reducirla en formas diversas. No conocemos todos los atributos de las cosas vivas, de manera que nos centraremos en los baremos mínimos indispensables para que la inteligencia pueda operar. En la práctica, esto significa que el procesamiento de información debe poder ser llevado a cabo y éste requiere para su realización de alguna manera de desequilibrio termodinámico. Podemos, pues, demostrar que no hay ningún obstáculo conocido para que procesadores de información de un tipo adecuado continúen procesando información en todos los tiempos futuros, o, más sencillamente, para que éstos puedan procesar una cantidad infinita de información en un futuro ilimitado. Esto no significa, claro está, que lo harán, ni siquiera que deberían hacerlo; ni que dichos dispositivos necesiten poseer otras propiedades arbitrarias que los identifiquen como vivos. Lo que se pretende mostrar es que no hay obstáculos para dicho procesamiento de información en el futuro; y, en particular, que éste no se verá extinguido inevitablemente por la tan anunciada «muerte térmica» del universo. Este es el contenido esencial del denominado principio antrópico final, o conjetura antrópica final, como podría ser designado más adecuadamente. No se trata de una especulación filosófica, sino de una propiedad que nuestro universo particular posee, o no posee. Uno podría conjeturar que si se descubre algún principio organizador total que gobierne el desarrollo global de la complejidad organizada, incluso en universos enteros, la respuesta a esta conjetura antrópica final formaría parte del mismo. Una medida de la capacidad de procesamiento de información, así como de la complejidad algorítmica y el alcance de la información que puede ser producida, podría aportarnos un candidato para la cantidad que buscamos. De hecho, estos conceptos tienen muchas características atractivas que los hacen muy recomendables. La noción de aleatoriedad no será una noción fija en un universo en expansión. Conforme la información disponible crezca y la complejidad computacional de los procesadores de información natural evolucione, la definición de lo que debe ser denominado aleatorio también evolucionará.
Si considerásemos el universo como un gran ordenador, un procesador de información, un generador de entropía, podríamos concebir de inmediato las leyes de la naturaleza como alguna forma de software aplicable sobre las formas particulares de materia que conforman el mundo de las cuerdas y las partículas elementales. Una verdadera unificación de estas dos entidades en la manera que venimos explorando en los capítulos anteriores equivaldría a un programa que contase con un hardware específico. Tales programas son fáciles de imaginar. Si pensamos en nuestro propio ordenador mental de esta manera, es claro que muchos de los subprogramas del cerebro cuentan con un hardware específico: mueven brazos y piernas y realizan otras funciones motoras específicas. Las condiciones iniciales equivalen al input inicial sobre el que el programa va a actuar. Si las condiciones iniciales deben tener formas especiales que están inextricablemente vinculadas a las leyes y a las partículas de materia, esto requeriría que los programas universales admisibles sólo tuvieran ciertas configuraciones de partida para poder funcionar. Pero parece que aún nos encontramos en un cierto impasse, en un «loop peligroso». Parece que nuestra Teoría del Todo debe crear el concepto y las capacidades de semejante computador abstracto, así como ser al mismo tiempo descrita por él.