13

LAS CUATRO VÍAS

Un estereotipo ampliamente extendido del proceso científico es el del joven innovador e idealista que se enfrenta a los viejos carcamales del establishment científico. Los vejestorios, instalados en la confortable ortodoxia de la que se han convertido al mismo tiempo en defensores y prisioneros, se escandalizan ante cualquier desafío que la cuestione. Rehúsan escuchar la voz de la crítica, enzarzarse en discusiones o aceptar la evidencia, y tratan de anular las ideas del innovador.

Este estereotipo ha sido convertido en filosofía por Thomas Kuhn, autor del influyente libro The Structure of Scientific Revolutions. Según él, el establishment científico está definido por la creencia de sus miembros en una serie de teorías dominantes que, en conjunto, forman una determinada concepción del mundo o paradigma. Un paradigma es un aparato psicológico y teórico mediante el cual los miembros del establishment observan y explican todo lo concerniente a su experiencia. (Dentro de cada campo específico de conocimiento, la física, por ejemplo, podemos hablar también de un «paradigma» específico para él). En caso de surgir alguna observación que pareciera infringir el paradigma en vigor, los miembros del establishment, simplemente, harían oídos sordos. Cuando se ven forzados a enfrentarse a la evidencia de que la teoría que sustenta ese paradigma ha sido infringida, tienden a considerarlo una «anomalía», un error experimental, un fraude o cualquier otra cosa que les permita mantener su paradigma incólume. Así pues, Kuhn cree que los valores científicos de apertura a la crítica y a la provisionalidad en la aceptación de teorías, así como los métodos científicos de comprobación experimental y de abandono de teorías dominantes cuando quedan refutadas, son, en esencia, mitos, humanamente imposibles de concretar cuando está en juego algún tema científico fundamental.

Kuhn acepta que, en el caso de asuntos científicos insignificantes, sucede algo parecido al proceso científico (tal como lo he descrito en el capítulo 3). Opina que la ciencia avanza mediante alternancia de eras: existen eras de «ciencia normal» y eras de «ciencia revolucionaria». Durante una era de ciencia normal, casi todos los científicos comulgan con las teorías fundamentales dominantes y se esfuerzan para que sus observaciones y teorías subsidiarias encajen en el paradigma en vigor. Su investigación consiste básicamente en atar cabos sueltos, mejorar las aplicaciones prácticas de las teorías, clasificar, reformular y confirmar. Cuando resulta posible, pueden incluso aplicar métodos científicos en el sentido popperiano de la palabra, pero nunca descubren nada fundamental, porque no cuestionan nada fundamental. Llegan luego algunos jóvenes alborotadores que cuestionan ciertos puntales del paradigma establecido. No es que se trate de auténtica crítica científica, ya que los provocadores tampoco están dispuestos a entrar en razón. Se trata, simplemente, de que ven el mundo desde un nuevo paradigma. ¿Cómo dieron con él? La presión de la evidencia acumulada, y el hecho de que la explicación de ésta careciera de precisión científica, sencillez y claridad al aplicarle los criterios del viejo paradigma, acabaron por resultarles insoportables. (No está mal, aunque resulta un poco difícil de entender cómo se puede sucumbir a la presión de una evidencia ante la cual se es, según esta misma hipótesis, ciego). Sea como fuere, empieza una nueva era de ciencia «revolucionaria». El grupo dominante aún trata de hacer ciencia «normal» de acuerdo con el viejo paradigma y lucha contra los revolucionarios con todos los medios a su alcance (interfiriendo publicaciones, apartando a los herejes de cargos académicos, etcétera). Los contestatarios encuentran el medio de publicar sus trabajos, ridiculizan a los viejos carcamales e intentan infiltrarse en instituciones influyentes. El poder explicativo del nuevo paradigma (en sus propios términos, ya que en los del viejo sus explicaciones resultan estrafalarias y poco convincentes) atrae a nuevos adeptos entre los jóvenes científicos aún no comprometidos. Puede también haber deserciones en ambos bandos. Algunos de los vejestorios mueren. Con el tiempo, uno de los bandos gana la batalla. Si triunfan los herejes, se convierten en el nuevo establishment científico y defienden su nuevo paradigma con tanta ceguera como defendieron sus antecesores el suyo. Si pierden, se convierten en una nota al pie de página en algún manual de historia de la ciencia. En cualquier caso, la ciencia vuelve a ser «normal».

La concepción de Kuhn del proceso científico le parece natural a mucha gente. Parece explicar los reiterados y desconcertantes cambios que la ciencia ha impuesto al pensamiento moderno, en términos de atributos e impulsos humanos generales y que nos resultan a todos familiares: ideas y prejuicios arraigados, ceguera ante cualquier evidencia de los propios errores, supresión de la disidencia en defensa de intereses creados, anhelo de estabilidad y rechazo de todo aquello que pueda perturbarla. En el extremo opuesto se encuentran la rebeldía de la juventud, la búsqueda de la novedad, la alegría de romper tabúes y la lucha por el poder. Otro atractivo de las ideas de Kuhn reside en que baja a los científicos de su pedestal. No pueden ya proclamarse nobles buscadores de la verdad que utilizan métodos racionales de conjetura, crítica y comprobación experimental para resolver problemas y crear explicaciones cada vez mejores del mundo. Kuhn nos asegura que se trata tan sólo de equipos rivales enzarzados en luchas interminables por el control del territorio.

La idea de paradigma, en sí, es indiscutible. Observamos y entendemos el mundo a través de una serie de teorías que conforman un paradigma. Pero Kuhn se equivoca al afirmar que defender un paradigma significa no poder ver los méritos de otro, o ser incapaz de cambiar de paradigma o de comprender dos paradigmas a la vez. (Para un estudio más amplio de las implicaciones de este error, véase The Myth of the Framework, de Karl Popper). Sin duda, siempre existirá el peligro de desestimar o, simplemente, no percibir la capacidad explicativa de una nueva teoría fundamental al evaluarla desde el interior del marco conceptual de otra anterior, pero es tan sólo un peligro, y podemos evitarlo poniendo el suficiente cuidado y obrando con la máxima integridad intelectual.

Es también cierto que las personas —incluyendo a los científicos, y, especialmente, a aquellos que ocupan puestos que confieren poder— tendemos a aferramos al modo dominante de hacer las cosas y a recelar de las nuevas ideas cuando nos sentimos a gusto con las existentes. Nadie puede pretender que los científicos sean uniforme y escrupulosamente racionales al juzgar nuevas ideas. La lealtad injustificada a los paradigmas es, sin duda, causa de controversias en ciencia, como en otros muchos campos. Sin embargo, considerada como una descripción o un análisis del proceso científico, la teoría de Kuhn adolece de un defecto fundamental. Explica la sucesión de un paradigma por otro en términos sociológicos o psicológicos, en vez de relacionarla básicamente con el mérito objetivo de las explicaciones rivales. Y si no se entiende la ciencia como búsqueda de explicaciones, el hecho de que descubra sucesivamente nuevas explicaciones, cada una de ellas mejor que la anterior desde un punto de vista objetivo, resulta inexplicable.

De ahí que Kuhn se vea obligado a negar de plano que haya una mejora objetiva en las sucesivas explicaciones, o que tal mejora resulte posible, incluso en principio: «… hay [un paso] que muchos filósofos de la ciencia están dispuestos a dar, pero que rechazo. Consiste en comparar las teorías como si fuesen representaciones de la naturaleza, como si fuesen enunciados acerca de “lo que existe realmente en ella”. Aun dando por sentado que ninguna de las dos teorías que se enfrentan en un momento dado de la historia es del todo cierta, buscan, sin embargo, algún sentido en que la más moderna sea una mejor aproximación a la verdad. No creo que sea posible conseguirlo» (Lakatos y Musgrave, eds., Criticism and the Growth of Knowledge, página 265).

Así pues, el desarrollo del conocimiento científico objetivo no puede explicarse en el esquema de Kuhn. De nada sirve propugnar que las sucesivas explicaciones son mejores únicamente en términos de su correspondiente paradigma. Existen diferencias objetivas. Podemos volar, a pesar de que durante la mayor parte de la historia de la humanidad sólo se podía soñar con ello. Los antiguos no habrían negado la capacidad de volar de nuestras aeronaves simplemente porque, de acuerdo con su paradigma, les resultara imposible comprender su funcionamiento. La razón por la que podemos volar es que comprendemos «lo que existe realmente en la naturaleza» lo bastante bien para poder construir aeronaves. La razón por la que los antiguos no podían hacerlo, es que su comprensión era objetivamente inferior a la nuestra.

Si aplicamos a la realidad del progreso científico objetivo la teoría de Kuhn, el resultado es que todas las innovaciones fundamentales han sido obra de un puñado de genios iconoclastas. El resto de la comunidad científica no deja de tener cierta utilidad, pero, en materias de importancia, se limita a entorpecer el desarrollo del conocimiento. Esta visión romántica (frecuentemente expuesta con independencia de las ideas de Kuhn) no se corresponde tampoco con la realidad. Han existido, sin duda, genios que, en solitario, han revolucionado ciencias enteras. Algunos han sido ya mencionados en este libro, como Galileo, Newton, Faraday, Darwin, Einstein, Gödel y Turing. Pero, en conjunto, consiguieron investigar, publicar sus trabajos y alcanzar el reconocimiento general a pesar de la inevitable oposición de los inmovilistas y los conformistas. (Galileo fue, ciertamente, acallado, pero no por científicos rivales). Si bien muchos de ellos se enfrentaron a una oposición irracional, ninguno ejemplificó con su carrera el estereotipo «iconoclasta contra el establishment científico». La mayoría de ellos se benefició de sus interacciones con científicos partidarios del paradigma anterior y sacó provecho de ellas.

Me he encontrado en ocasiones en el lado minoritario de controversias científicas fundamentales, pero nunca me he tropezado con una situación parecida a la que expone Kuhn. Por supuesto, y como ya he señalado, la mayor parte de la comunidad científica no está siempre lo abierta a la crítica que sería de desear; sin embargo, la fidelidad de su adhesión a la «adecuada práctica científica» durante el proceso de investigación resulta, francamente, notable. Basta asistir a un seminario dedicado a un problema fundamental de alguna de las ciencias experimentales para darse cuenta de hasta qué punto difiere el comportamiento como investigadores de los participantes del comportamiento humano habitual. Dirige el seminario un conocido catedrático, figura destacada de la especialidad. La sala está repleta de científicos de todos los niveles, desde estudiantes acabados de licenciar que entraron en contacto con el campo concreto del seminario hace tan sólo unas semanas hasta profesores cuyo prestigio rivaliza con el del director. La jerarquía científica es una compleja estructura de poder en la que las carreras de las personas, su influencia y su reputación están continuamente en juego, tanto o más que en cualquier gobierno o consejo de administración. Sin embargo, durante el desarrollo del seminario le resultaría difícil a un observador distinguir las categorías de los participantes. Un estudiante recién licenciado plantea una duda: «¿Se desprende realmente su tercera ecuación de la segunda? El término que omitió no me parece despreciable». El profesor está seguro de que el término es despreciable y el estudiante comete un error de apreciación, en el que alguien con más experiencia no habría caído. ¿Qué ocurre entonces?

En una situación análoga, es probable que un alto ejecutivo cuya opinión en una cuestión empresarial fuese contradecida por un empleado acabado de contratar le contestase: «Mire, he resuelto más problemas de esta clase que pelos tiene usted en la cabeza. Si le digo que es así, es que es así». Un político veterano podría contestar a la crítica de algún oscuro, pero ambicioso, militante de base del partido algo así: «¿Se puede saber de qué lado estás?». Incluso nuestro profesor, fuera del contexto del seminario (impartiendo una clase, por ejemplo) podría contestar despectivamente: «¡Más le valdría estudiar y no malgastar su tiempo ni el nuestro!». Pero en el seminario responder así a una crítica ocasionaría una verdadera conmoción en la sala. Los participantes mirarían hacia otro lado y simularían estar absortos en sus notas. Habría sonrisas forzadas y miradas de reojo. Todos estarían sorprendidos ante una actitud tan escandalosamente inadecuada. En situaciones así, recurrir al principio de autoridad (al menos, de manera explícita) está, simplemente, fuera de lugar, incluso cuando la persona más destacada de las presentes se dirige a la más insignificante.

De modo que el profesor se toma muy en serio el comentario del estudiante y responde con una argumentación concisa, pero adecuada, en defensa de su controvertida ecuación. El profesor trata de no mostrar irritación ante las críticas, por insignificante que sea quien las haga. La mayoría de las preguntas que se le dirijan contendrán críticas que, de ser válidas, podrían menoscabar o destruir el trabajo de toda una vida de investigación. Pero someter las verdades comúnmente aceptadas a las críticas más diversas y virulentas forma parte de los objetivos del seminario. Todos los presentes dan por sentado que la verdad no resulta obvia y que lo obvio no tiene por qué ser verdad, que las ideas deben ser aceptadas o rechazadas por su contenido y no por su origen, que las mentes más privilegiadas se pueden equivocar con facilidad y que la objeción en apariencia más trivial puede ser la clave de un gran descubrimiento.

Así pues, los participantes en el seminario, mientras estén ocupados en temas de ciencia, se comportarán en gran medida con racionalidad científica. Pero… termina el seminario. Acompañemos al grupo al comedor. Inmediatamente se restablece el comportamiento social humano normal. El profesor es tratado con deferencia y ocupa en la mesa el lugar central entre los de su rango. Unos pocos elegidos de rangos inferiores reciben el privilegio de ocupar los sitios próximos. La conversación trata del tiempo, de temas comunes y (especialmente) de política universitaria. En la conversación reaparecerán el dogmatismo y los prejuicios, el orgullo y la lealtad, las amenazas y las adulaciones características de cualquier interacción humana, en circunstancias similares. Pero si la conversación deriva hacia los temas objeto del seminario, los científicos vuelven inmediatamente a comportarse como tales. Se buscan explicaciones, imperan la evidencia y el razonamiento, y el rango deja de ser relevante para el desarrollo del debate. Ésta ha sido, al menos, mi experiencia personal en todos los campos en que he trabajado.

Si bien la historia de la teoría cuántica proporciona múltiples ejemplos de científicos que se aferraron irracionalmente a lo que podríamos denominar «paradigmas», resultaría difícil encontrar una refutación más clara de la teoría de Kuhn de la sucesión de paradigmas. El descubrimiento de la teoría cuántica constituyó, sin duda, una revolución conceptual, quizás la mayor después de Galileo, y hubo «viejos carcamales» que nunca la aceptaron. Pero las principales figuras de la física, incluyendo casi todas las que se podrían considerar miembros del establishment científico, se mostraron inmediatamente dispuestas a abandonar el paradigma clásico. Pronto se difundió el convencimiento de que la nueva teoría exigía una ruptura radical con el concepto clásico de la estructura de la realidad. El único debate era cuál debía ser la nueva concepción. Transcurrido un tiempo, se estableció una nueva ortodoxia por el físico Niels Bohr y su «escuela de Copenhague». Esta nueva ortodoxia nunca llegó a ser tan ampliamente aceptada en cuanto descripción de la realidad para poder ser considerada un paradigma, aunque se adhirió a ella la mayoría de los físicos (Einstein constituyó una notable excepción). Es curioso que esta escuela no se basaba en la proposición de que la nueva teoría cuántica fuese cierta, sino que, al contrario, dependía crucialmente de que fuese, al menos en su fomulación corriente, ¡falsa! Según la «interpretación de Copenhague», las ecuaciones de la teoría cuántica sólo son de aplicación a los aspectos no observados de la realidad física. Cuando tiene lugar la observación, se da otra clase de proceso, que incluye una interacción directa entre la conciencia humana y la física subatómica. Un determinado estado de la conciencia se convierte en real; el resto pasan a ser meras posibilidades. La interpretación de Copenhague sólo especificó este proceso de manera superficial; dejó para más adelante su descripción más profunda, suponiendo que llegara a estar algún día al alcance de la comprensión humana. En cuanto a los acontecimientos no observados que se interpolaban entre las observaciones conscientes, ¡«no se permitía preguntar» sobre ellos! Resulta incomprensible que los físicos —incluso durante el apogeo del positivismo y el instrumentalismo— aceptaran semejante montaje insustancial como la versión ortodoxa de una teoría fundamental. No necesitamos ocuparnos aquí de los arcaicos detalles de la interpretación de Copenhague, ya que su motivación principal consistía en evitar la conclusión de que la realidad es polivalente y, por ello, incompatible con cualquier explicación genuina de los fenómenos cuánticos.

Unos veinte años después, Hugh Everett, que a la sazón preparaba su doctorado en Princeton bajo la tutela del eminente físico John Archibald Wheeler, fue el primero en establecer las implicaciones multiversales de la teoría cuántica. Wheeler las rechazó. Estaba (y sigue estándolo) convencido de que la visión de Bohr, si bien incompleta, era la base para la explicación correcta. ¿Se comportó, sin embargo, como sería de esperar según el estereotipo de Kuhn? ¿Trató de suprimir las ideas heréticas de su doctorando? Bien al contrario, Wheeler temió que las ideas de Everett no fuesen lo suficientemente valoradas, así que escribió una breve introducción que acompañaba al trabajo de su alumno, y ambos escritos aparecieron en páginas consecutivas de Reviews of Modem Physics. El trabajo de Wheeler explicaba y defendía el de Everett tan eficazmente, que muchos lectores llegaron a la conclusión de que ambos eran responsables de su contenido. En consecuencia, y para consternación de Wheeler, la teoría multiversal fue erróneamente conocida como la «teoría de Everett-Wheeler» durante muchos años.

La ejemplar fidelidad de Wheeler a la racionalidad científica puede parecer extrema, pero no es, ni mucho menos, única. En este sentido, debo mencionar a Bryce DeWitt, otro eminente físico que se opuso inicialmente a Everett. En un histórico intercambio de correspondencia, DeWitt formuló una serie de objeciones técnicas detalladas a la teoría de Everett que fueron refutadas una tras otra por éste. DeWitt dio por terminada la discusión con una nota informal en la que señalaba que, simplemente, no notaba que se «trocease» en múltiples copias distintas de sí mismo cada vez que tenía que tomar una decisión. La respuesta de Everett recuerda la disputa entre Galileo y la Inquisición: «¿Nota que la Tierra se mueve?», le preguntó, aludiendo a que la teoría cuántica explica precisamente por qué no notamos esta multiplicidad, del mismo modo que la teoría de Galileo sobre la inercia explica por qué no notamos el movimiento de la Tierra. DeWitt se rindió.

No obstante, el descubrimiento de Everett no fue ampliamente aceptado. Por desgracia, la mayoría de los físicos de la generación situada entre la interpretación de Copenhague y Everett habían abandonado la idea de la explicación en el ámbito de la teoría cuántica. Como he dicho, eran tiempos de apogeo del positivismo en la filosofía de la ciencia. El rechazo (o la incomprensión) ante la interpretación de Copenhague, sumado a lo que podríamos denominar instrumentalismo pragmático, se convirtió (y sigue siéndolo) en la actitud típica del físico hacia la teoría más profunda conocida sobre la realidad. Si el instrumentalismo es la doctrina que afirma que las explicaciones son inútiles, puesto que una teoría es tan sólo un «instrumento» para formular predicciones, el instrumentalismo pragmático, en sí, es la práctica de utilizar las teorías sin saber lo que significan ni preocuparse por ello. A este respecto, el pesimismo de Kuhn sobre la racionalidad científica quedaba confirmado, pero no su teoría sobre cómo unos paradigmas sustituyen a otros. En cierto sentido, el instrumentalismo pragmático se convirtió por sí mismo en un «paradigma», adoptado por los físicos para reemplazar la idea clásica de una realidad objetiva. Pero, ciertamente, ¡no es la clase de paradigma que permite comprender el mundo! En cualquier caso, y sea cual fuere la investigación que estuviesen haciendo los físicos, no concebían precisamente el mundo según el paradigma de la física clásica, epítome —entre otras cosas— del realismo y el determinismo objetivos. La mayor parte de ellos lo abandonaron tan pronto como fue formulada la teoría cuántica, a pesar de que había dominado todos los aspectos de la ciencia, incuestionado, desde que Galileo ganó su pleito intelectual contra la Inquisición tres siglos antes.

El instrumentalismo pragmático ha sido posible porque, en la mayoría de las ramas de la física, la teoría cuántica no se aplica en su aspecto explicativo. Se utiliza indirectamente para la comprobación de otras teorías, y tan sólo se necesitan sus predicciones. Generaciones de físicos han creído, pues, suficiente considerar a los procesos de interferencia —por ejemplo, los que tienen lugar durante una milbillonésima de segundo cuando colisionan dos partículas elementales—, como una «caja negra»: preparan unos datos de entrada y observan otros de salida. Utilizan las ecuaciones de la teoría cuántica para predecir la una de la otra, pero no saben, ni les preocupa, cómo se produce el resultado consecuencia de la entrada. No obstante, hay dos ramas de la física en las que esta actitud resulta inviable porque se ocupan intrínsecamente del funcionamiento interno del objeto cuantomécanico. Son la teoría cuántica de la calculabilidad y la cosmología cuántica (la teoría cuántica de la realidad física como un todo). ¡Sería una pobre «teoría de la calculabilidad», realmente, aquella que nunca se planteara cómo se obtienen los resultados a partir de los datos iniciales! Por lo que respecta a la cosmología cuántica, no podemos preparar datos iniciales al principio del universo ni medir resultados al final. Su funcionamiento interno es todo lo que hay. Por esta razón, la teoría cuántica es utilizada en su forma plena y multiversal por la mayoría de los investigadores que trabajan en ambos campos.

Así pues, la historia de Everett es, efectivamente, la de un joven investigador con ganas de innovar, que desafía al consenso dominante y es ignorado por casi todo el mundo hasta que, décadas después, su concepción se convierte poco a poco en el nuevo consenso. Pero la base de la innovación de Everett no consistió en proclamar que la teoría dominante es falsa, sino cierta. El problema era que los científicos, lejos de pensar únicamente en términos de dicha teoría dominante, rehusaban hacerlo y la utilizaban tan sólo de manera instrumental, a pesar de que habían abandonado su anterior paradigma explicativo, la física clásica, sin mayores reparos tan pronto como dispusieron de una teoría mejor.

Algo parecido a este extraño fenómeno ha ocurrido con las otras tres teorías que ofrecen las principales vías de explicación de la estructura de la realidad: las teorías de la calculabilidad, la evolución y el conocimiento. En todos los casos la teoría dominante en la actualidad, si bien ha desplazado a su predecesora y a otras rivales en el sentido de que es aplicada de manera pragmática de modo habitual, no ha llegado a convertirse en el nuevo «paradigma». Es decir, no ha sido admitida por los que trabajan en ese campo como explicación fundamental de la realidad.

El principio de Turing, por ejemplo, rara vez ha sido cuestionado como verdad pragmática, al menos en sus formulaciones más sencillas (por ejemplo, que un ordenador universal podría reproducir cualquier entorno físicamente posible). Las críticas de Roger Penrose constituyen una insólita excepción, ya que no ignora que contradecir el principio de Turing implica considerar teorías radicalmente nuevas tanto en física como en epistemología, al igual que en biología. Pero nadie, ni siquiera Penrose, ha propuesto aún una teoría viable que se oponga al principio de Turing, de modo que sigue siendo la teoría fundamental dominante por lo que se refiere a la calculabilidad. Sin embargo, la proposición de que la inteligencia artificial es, en principio, posible, que se desprende por simple lógica de dicha teoría dominante, no se da en absoluto por sentada. (Una inteligencia artificial es un programa de ordenador que posee propiedades de la mente humana, como inteligencia, conciencia, libre albedrío y emociones, pero que se ejecuta mediante un soporte distinto del cerebro humano). La posibilidad de que exista la inteligencia artificial es agriamente contestada por eminentes filósofos (incluyendo, por desgracia, al propio Popper), científicos y matemáticos, así como por, al menos, un destacado experto en el campo de la informática. Sin embargo, pocos de ellos parecen darse cuenta de que al hacerlo contradicen el principio básico de una disciplina fundamental sin (a diferencia de Penrose) proponer alternativas. Es como si negasen la posibilidad de viajar a Marte sin darse cuenta de que nuestras más modernas teorías de ingeniería y física nos dicen que es posible. Infringen así un principio básico de la racionalidad: el de que las buenas explicaciones no deben descartarse a la ligera.

No son sólo los oponentes de la inteligencia artificial quienes no han incorporado el principio de Turing a su paradigma. Muy pocos científicos lo han hecho. Buena prueba de ello es que pasaron cuatro décadas desde que fue propuesto hasta que alguien investigó sus implicaciones para la física, y otra década hasta que fue descubierta la teoría cuántica. Los científicos aceptaban y usaban el principio pragmáticamente en sus ordenadores, pero no lo integraban en su concepción general del mundo.

La epistemología de Popper se ha convertido, a todos los efectos pragmáticos, en la teoría dominante por lo que respecta a la naturaleza y el desarrollo del conocimiento científico. Tanto si se trata de definir las reglas de experimentación aceptadas por los teóricos de cualquier campo como «evidencia científica» como de establecer los criterios exigidos por las revistas científicas para publicar trabajos o los seguidos por los médicos para elegir entre tratamientos rivales, el vocabulario fundamental sigue siendo el que utilizaría Popper: prueba experimental, exposición a la crítica, explicación teorética y reconocimiento de la falibilidad de los procedimientos experimentales. En los textos populares de divulgación científica, las teorías tienden a ser presentadas más como audaces conjeturas que como inferencias extraídas de datos acumulados, y la diferencia entre la ciencia y (digamos) la astrología es explicada correctamente en términos de posibilidad de comprobación más que de grado de confirmación. En los laboratorios de las escuelas, la «formulación y comprobación de hipótesis» está a la orden del día. No se espera ya que los alumnos «aprendan por la experimentación» en el sentido en que lo hicimos mis contemporáneos y yo: se nos proporcionaba un equipo y se nos daban las instrucciones sobre lo que hacer con él, pero sin ser informados de la teoría a la que se deberían conformar los resultados que obtuviésemos. Se esperaba de nosotros que la indujéramos.

A pesar de ser la teoría predominante en este sentido, la epistemología popperiana forma parte de la visión del mundo de muy pocas personas. La popularidad de la teoría de Kuhn sobre la sucesión de paradigmas constituye un buen ejemplo de ello. Más seriamente, son escasos los filósofos que se muestran de acuerdo con la afirmación de Popper de que ya no existe el «problema de la inducción» porque, de hecho, ya no obtenemos o justificamos las teorías a partir de observaciones, sino que procedemos mediante conjeturas explicativas y refutaciones. No es que la mayoría de los filósofos sean inductivistas, discrepen seriamente de la descripción que hace Popper del método científico que propugna o crean que las teorías científicas son, en realidad, poco sólidas a causa de su status conjetural. Lo que ocurre, simplemente, es que no aceptan la explicación de Popper sobre cómo funciona todo ello. He aquí, de nuevo, un eco del caso de Everett. El punto de vista mayoritario es que hay un problema filosófico fundamental con la metodología popperiana, aunque la ciencia la haya aplicado siempre allí donde podía hacerlo con éxito. La herética innovación de Popper toma la forma de una tesis que sostiene que la metodología ha sido siempre válida.

La teoría de Darwin de la evolución es también la dominante en su campo, en el sentido de que nadie duda de que la evolución mediante la selección natural, al actuar sobre poblaciones con variaciones aleatorias, es el «origen de las especies» y de la adaptación biológica en general. Ningún biólogo o filósofo serio atribuiría el origen de las especies a la creación divina o a la evolución tal como la preconizaba Lamarck. (El lamarquismo, teoría evolutiva que precedió al darwinismo, era análogo al inductivismo. Atribuía las adaptaciones biológicas a la herencia de características que el organismo se había visto obligado a adquirir durante su vida como consecuencia de presiones externas). Sin embargo, al igual que ocurre con las otras tres vías, las objeciones al darwinismo puro como explicación para los fenómenos de la biosfera son numerosas y están muy extendidas. Una fuente de objeciones es la cuestión de si la historia de la biosfera ha durado el tiempo suficiente para que la tremenda complejidad presente haya evolucionado únicamente por selección natural. Ninguna teoría rival viable ha sido expuesta en apoyo de esas objeciones, si se exceptúa la idea, de la que los astrónomos Fred Hoyle y Chandra Wickramasinghe son recientes proponentes, de que las complejas moléculas en que se basa la vida hubiesen podido originarse en el espacio exterior. Pero el objetivo de dichas objeciones, más que contradecir el modelo darwiniano, es recordar que quedan por explicar muchas cosas fundamentales acerca del origen de las adaptaciones que observamos en la biosfera.

El darwinismo ha sido también criticado por caer en un círculo vicioso, ya que invoca «la supervivencia de los más aptos» como explicación, mientras que los «más aptos» son definidos de modo retrospectivo por ser, precisamente, los que sobrevivieron. Por otra parte, y en términos de una definición independiente de «más apto», la idea de que la evolución «favorece a los más aptos» parece estar en contradicción con los hechos. Por ejemplo, la definición más intuitiva de aptitud biológica sería la «aptitud de una especie para la supervivencia en un nicho determinado», en el sentido de que un tigre podría ser considerado la máquina óptima para ocupar el nicho ecológico destinado a los tigres. Ejemplos típicos contrarios a esa «supervivencia de los más aptos» son las adaptaciones, como la cola del pavo real, que parecen causar que el organismo sea mucho menos apto para explotar su nicho. Tales objeciones parecen poner en entredicho la capacidad de la teoría de Darwin para cumplir su propósito original, que no era otro que explicar hasta qué punto el aparente «diseño» (adaptaciones) de los organismos vivos podría ser consecuencia de la acción de leyes físicas «ciegas» sobre la materia inanimada, sin la intervención intencionada de ningún «Diseñador».

La innovadora proposición de Richard Dawkins, expuesta en sus obras El relojero ciego y El gen egoísta, es otra argumentación en favor de que la teoría dominante es, después de todo, cierta. Aduce que ninguna de las objeciones corrientes al modelo darwiniano esencial resulta tener, si se examina a fondo, fundamento alguno. En otras palabras, Dawkins proclama que la teoría de la evolución de Darwin proporciona una explicación completa sobre el origen de las adaptaciones biológicas. Dawkins elabora una versión moderna de la teoría de Darwin, conocida como teoría de los replicantes. El replicante que mejor consiga hacerse replicar en un determinado entorno, desplazará con el tiempo a todas sus variantes, ya que, por definición, éstas no consiguen hacerse replicar tan bien. No es la variante más apta de especie la que sobrevive (Darwin no se dio cuenta de ello), sino la variante más apta de gen. Consecuencia de este hecho es que, algunas veces, un gen puede desplazar a genes variantes (como genes que originarían colas de pavo real menos aparatosas) por medios (tales como la selección sexual) que no promueven especialmente el bien de la especie o el individuo. Pero toda evolución promueve el «bien» (la replicación) de los genes mejores replicantes, de ahí el término «gen egoísta». Dawkins se enfrenta detalladamente a todas las objeciones a la teoría de Darwin y demuestra que ésta, interpretada del modo correcto, no tiene ninguno de los fallos que le atribuyen sus detractores y explica realmente el origen de las adaptaciones.

La versión de Dawkins del darwinismo se ha convertido en la teoría dominante de la evolución en sentido pragmático, si bien no constituye aún en modo alguno el paradigma dominante. Muchos biólogos y filósofos se sienten todavía inquietos por la sensación de que hay algún vacío fundamental en la explicación que ofrece. Y, de hecho, en el mismo sentido en que la teoría de Kuhn sobre las «revoluciones científicas» desafía la imagen popperiana de la ciencia, hay una teoría evolutiva alternativa que desafía la imagen de Dawkins de la evolución. Se trata de la teoría del equilibrio intermitente, que postula que la evolución sigue una pauta de súbitos brotes separados por períodos más o menos largos sin cambios selectivos. Esta teoría podría incluso resultar factualmente cierta, pero no contradice la teoría del «gen egoísta» más de lo que pueda contradecir a la epistemología popperiana la proposición de que las revoluciones conceptuales no ocurren todos los días, o la de que los científicos se resisten a menudo a la innovación fundamental. Pero, como sucede con la teoría de Kuhn, el modo en que han sido presentados el equilibrio intermitente y otras variantes de escenario evolutivo como solución de algún supuesto problema que ha pasado inadvertido para la teoría dominante revela hasta qué extremo el poder explicativo de la teoría de Dawkins tiene aún que ser asimilado.

El hecho de que la teoría dominante haya sido rechazada de modo general como explicación sin que hayan surgido, a pesar de ello, explicaciones rivales serias, ha tenido una desafortunada consecuencia para las cuatro vías. Se trata de que los proponentes de las cuatro teorías dominantes —Popper, Turing, Everett y Dawkins—, así como sus seguidores, se han visto obligados a estar constantemente a la defensiva frente a teorías obsoletas. El debate entre Popper y la mayoría de sus críticos se centró (como he expuesto en los capítulos 3 y 7), en efecto, en el problema de la inducción. Turing se pasó los últimos años de su vida defendiendo la proposición de que el cerebro humano no opera por medios sobrenaturales. Everett abandonó la investigación científica al no conseguir hacer progresos, y durante varios años la teoría del multiverso fue defendida casi en solitario por Bryce DeWitt, hasta que los avances experimentados por la cosmologia cuántica en los años setenta conllevaron su aceptación pragmática en dicho campo. Pero los oponentes de la teoría del multiverso como explicación raramente han propuesto explicaciones alternativas. (La de David Bohm, mencionada en el capítulo 4, es una excepción). En vez de ello, como señaló en cierta ocasión el cosmólogo Dennis Sciama, «cuando se trata de la interpretación de la mecánica cuántica, el nivel de la argumentación desciende súbitamente a cero». Los defensores de la teoría del multiverso se enfrentan a menudo a melancólicas y desafiantes, pero incoherentes, apelaciones a la interpretación de Copenhague, en la que, sin embargo, casi nadie cree ya. Y, finalmente, Dawkins se ha convertido, hasta cierto punto, en el defensor público de la racionalidad científica contra el creacionismo, aunque parezca mentira, y, más generalmente, contra la concepción precientífica del mundo, obsoleta desde Galileo. Lo más frustrante de todo ello es que mientras quienes proponen las mejores teorías de que disponemos sobre la estructura de la realidad tengan que malgastar sus energías en inútiles refutaciones reiteradas de teorías que se sabe desde hace tiempo que son falsas, el estado de nuestro conocimiento profundo no podrá mejorar. Tanto Turing como Everett habrían podido descubrir perfectamente la teoría cuántica de la calculabilidad. Popper habría podido elaborar la teoría de la explicación científica. (En honor a la verdad, hay que reconocer que comprendió y estableció algunas conexiones entre su epistemología y la teoría de la evolución). Dawkins podría, por ejemplo, trabajar en su nueva teoría de la evolución de las ideas replicantes (memes).

La teoría unificada de la estructura de la realidad que constituye el tema de este libro es, simplemente, en su nivel más sencillo, la combinación de las cuatro teorías fundamentales dominantes en sus respectivos campos. En este sentido, es también la «teoría dominante» en estos cuatro campos, considerados como un todo. Algunas de las conexiones entre ellas están incluso ampliamente reconocidas. Mi tesis, por lo tanto, adopta también la postura de que «¡después de todo, la teoría dominante es cierta!». No sólo abogo por tomar cada una de las cuatro teorías en serio como explicación de su materia correspondiente, sino que defiendo que, consideradas en conjunto, proporcionan un nuevo nivel de explicación de la estructura unificada de la realidad.

He argumentado también que cada una de las cuatro vías puede ser entendida con independencia de las demás. Ésta es quizás la clave de que no hayan sido creídas. Las cuatro comparten una poca atractiva propiedad que ha sido variadamente criticada como «idealizada e irreal», «estrecha» e «inocente», así como «fría», «mecanicista» y «falta humanidad». Creo que, en parte, resulta comprensible el sentimiento visceral de rechazo que se oculta tras estos calificativos. Por ejemplo, algunos de quienes niegan la posibilidad de la inteligencia artificial —lo que les conduce a negar que el cerebro sea un objeto físico—, sólo tratan de expresar una crítica mucho más razonable: que la explicación que da Turing de la calculabilidad parece no dejar espacio, incluso en principio, para ninguna explicación futura, en términos físicos, de atributos mentales tales como la conciencia y el libre albedrío. No es, pues, suficiente que los entusiastas de la inteligencia artificial les respondan abruptamente que el principio de Turing garantiza que un ordenador puede hacer todo lo que sea capaz de hacer un cerebro. Ello es, por supuesto, cierto, pero es una respuesta en términos de predicción, mientras que el problema es de explicación. Hay, pues, un vacío explicativo.

No creo que este vacío pueda ser llenado sin recurrir a las otras tres vías. Ahora bien, como ya he dicho, mi opinión es que el cerebro es un ordenador clásico y no cuántico, de modo que no espero que la explicación de la conciencia consista en que ésta es alguna clase de fenómeno cuantocalculatorio. Sin embargo, sí que creo que la unificación de la calculabilidad y la física cuántica —y, probablemente, de las cuatro vías— será esencial para los avances filosóficos fundamentales a partir de los cuales deberá llegar algún día la comprensión de la conciencia. Si al lector esto le resulta paradójico, permítame esbozar una analogía con un problema parecido de una época anterior. ¿Qué es la vida? Darwin resolvió esta cuestión. La esencia de la solución fue la idea de que el diseño intrincado y, al menos en apariencia, dirigido hacia un objetivo de los organismos vivos no está incorporado ab initio a la realidad, sino que es una consecuencia emergente de la acción de las leyes de la física. Ni éstas ni ningún creador han dictado específicamente el aspecto de los elefantes y los pavos reales. No hacen referencia a los resultados, y mucho menos a los emergentes, sino que determinan, simplemente, las reglas según las cuales deben interactuar los átomos y las demás partículas. Ahora bien, este concepto de que una ley de la naturaleza es un conjunto de leyes del movimiento es bastante reciente. Debe, en mi opinión, ser atribuido específicamente a Galileo, así como, y en cierta medida, a Newton. El concepto anterior de ley de la naturaleza era el de una regla que describe lo que sucede. Encontramos un buen ejemplo de ello en el contraste entre las leyes del movimiento planetario de Johannes Kepler, que describían cómo se mueven los planetas en órbitas elípticas, y las de Newton, que constituyen leyes en el moderno sentido de la palabra. No hacen mención de las elipses, pero reproducen (y corrigen) las predicciones de Kepler en las condiciones adecuadas. Nadie habría podido explicar qué es la vida mediante el concepto de «ley de física» de Kepler, puesto que habría buscado inútilmente una ley que determinara a los elefantes, del mismo modo que las leyes de Kepler determinaban a las elipses. Darwin, sin embargo, fue capaz de preguntarse por qué unas leyes de la naturaleza que no dictaban la existencia de los elefantes eran, no obstante, capaces de producirlos, del mismo modo que las de Newton producían elipses. Si bien Darwin no hizo uso específico de ninguna de las leyes de Newton, su descubrimiento habría sido inconcebible sin la concepción del mundo inmanente en dichas leyes. Éste es el sentido en el que espero que la solución al problema «¿Qué es la conciencia?» se base en la teoría cuántica. No invocará procesos cuantomecánicos específicos, pero dependerá crucialmente de una imagen del mundo cuantomecánica y, muy especialmente, multiversal.

¿De qué pruebas dispongo? He presentado ya algunas en el capítulo 8, en el que analicé la concepción multiversal del conocimiento. Si bien no sabemos qué es la conciencia, ésta se halla clara e íntimamente relacionada con el desarrollo y la representación del conocimiento en el interior del cerebro. No parece, pues, probable que podamos estar en condiciones de explicar lo que es, como proceso físico, sin haber explicado antes el conocimiento en términos físicos. Semejante explicación se le ha escurrido siempre de entre los dedos a la teoría clásica de la calculabilidad, pero, como ya he dicho, ahora disponemos de una buena base para conseguirlo gracias a la teoría cuántica: el conocimiento puede ser entendido como una complejidad que se extiende a través de múltiples universos.

Otro atributo mental asociado en cierto modo con la conciencia es el libre albedrío, que resulta igualmente difícil de entender a partir de la imagen clásica del mundo. La dificultad de reconciliar el libre albedrío con la física es atribuida frecuentemente al determinismo, pero éste no es el culpable. Lo es (como he explicado en el capítulo 11) el espacio-tiempo clásico. En éste algo me sucede en cada momento particular de mi futuro. Aun siendo impredecible, lo que me va a ocurrir está ya ahí, en la correspondiente sección del espacio-tiempo. Carece de sentido hablar de que yo «cambie» lo que está en esa sección. El espacio-tiempo no cambia, y, por consiguiente, no podemos, dentro de su física, concebir causas, efectos, futuro abierto o libre albedrío.

Así pues, reemplazar las leyes deterministas del movimiento por otras no deterministas (aleatorias) no ayudaría, ni mucho menos, a resolver el problema del libre albedrío si las leyes continuaban siendo clásicas. La libertad no tiene nada que ver con la aleatoriedad. Valoramos nuestro libre albedrío como la capacidad de expresar, mediante nuestras acciones, lo que somos como individuos. ¿Quién valoraría ser aleatorio? Lo que consideramos nuestras acciones libres no son las aleatorias o indeterminadas, sino las que están ampliamente determinadas por quienes somos, cómo pensamos y qué está en juego. (Si bien están ampliamente determinadas, pueden ser muy impredecibles por razones de complejidad).

Consideremos este enunciado típico referido al libre albedrío: «Después de considerarlo cuidadosamente, escojo X; hubiera podido escoger otra cosa; tomé la decisión acertada; se me da bien tomar esta clase de decisiones». En cualquier imagen clásica del mundo, este enunciado es un galimatías. Desde la perspectiva del multiverso, tiene una representación física directa, que se muestra en la figura 13.1. (No se trata aquí de definir valores estéticos o morales en términos de semejantes representaciones, sino, simplemente, de señalar que, gracias al carácter multiversal de la realidad cuántica, el libre albedrío y los conceptos con él relacionados son ahora compatibles con la física).

FIGURA 13.1. Traducción en términos físicos de algunas afirmaciones sobre el libre albedrío.

De este modo, el concepto de calculabilidad de Turing parece menos desconectado de los valores humanos, y no constituye ya un obstáculo para la comprensión de atributos como el libre albedrío, a condición de entenderlo en el contexto del multiverso. El mismo ejemplo libera de toda culpa a la propia teoría de Everett. A primera vista, parece que el precio de la comprensión de los fenómenos de interferencia es la creación y la exacerbación de multitud de problemas filosóficos. Pero, en realidad, y como sucede con muchos de los ejemplos que he ofrecido en este libro, ocurre exactamente lo contrario. La utilidad de la teoría del multiverso para contribuir a la solución de problemas filosóficos que existen desde hace mucho tiempo es tan grande, que valdría la pena adoptarla aunque no la apoyase la evidencia física. De hecho, el filósofo David Lewis, en su libro On the Plurality of Worlds, postula la existencia del multiverso por razones únicamente filosóficas.

Volviendo a la teoría de la evolución, puedo, de modo similar, comprender, hasta cierto punto, a quienes critican la visión darwiniana de la evolución sobre la base de que parece «poco probable» que adaptaciones tan complejas puedan haber evolucionado en el tiempo que se les atribuyese. Uno de los críticos de Dawkins nos propone que nos mostremos tan sorprendidos ante la biosfera como lo estaríamos si un montón de piezas se convirtiese por sí mismo en un Boeing 747. A primera vista, esta crítica establece una forzada analogía entre, por una parte, miles de millones de años de prueba y error sobre el planeta, y, por otra, el acontecimiento fortuito e instantáneo de una adaptación espontánea. Ello equivaldría a obviar de plano todo el meollo de la explicación evolutiva. No obstante, ¿es del todo válida la postura exactamente opuesta de Dawkins como explicación? Dawkins nos propone que no nos sorprendamos de que hayan ocurrido adaptaciones complejas de modo espontáneo. En otras palabras, proclama que su teoría del «gen egoísta» constituye una explicación completa; no, por supuesto, de las adaptaciones específicas, sino de cómo fue posible que dichas adaptaciones llegaran a existir.

Pero no es una explicación completa. Hay un vacío explicativo, y, en esta ocasión, sabemos ya mucho más sobre cómo lo podrían completar las otras tres vías. Hemos visto que el propio hecho de que las variables físicas puedan almacenar información, puedan interactuar entre sí para transferirla y replicarla, y el proceso sea estable, depende en su totalidad de las circunstancias de la teoría cuántica. Y, lo que es más, hemos visto que la existencia de replicantes altamente adaptados depende de la factibilidad física de la generación y la universalidad de la realidad virtual, las cuales, a su vez, pueden ser entendidas como consecuencias de un principio profundo, el principio de Turing, que vincula la física con la teoría de la calculabilidad sin referencia explícita alguna a replicantes, evolución o biología.

Un vacío análogo se da en la epistemología popperiana. Sus críticos se preguntan por qué funciona el método científico, o qué justifica nuestra confianza en las mejores teorías científicas. Ello los lleva a suspirar por un principio de inducción o algo parecido (si bien, como los criptoinductivistas, reconocen habitualmente que tal principio tampoco explicaría ni justificaría nada). La respuesta popperiana de que no existe la justificación, o de que nunca es racional confiar en las teorías, no es una explicación. Popper llegó a decir que «ninguna teoría del conocimiento debería intentar explicar cómo conseguimos explicar las cosas» (Objective Knowledge, página 23). Una vez que entendemos que el desarrollo del conocimiento humano es un proceso físico, vemos que no puede ser ilícito explicar cómo y por qué ocurre. La epistemología es una teoría de la física (emergente). Es una teoría factual sobre las circunstancias en que podrá o no crecer una determinada magnitud física (el conocimiento). Las aserciones esenciales de esta teoría son ampliamente aceptadas, pero no hay modo de encontrar ninguna explicación de por qué son ciertas sólo dentro de la teoría del conocimiento per se. En este sentido limitado, Popper está en lo cierto. La explicación debe involucrar a la física cuántica, al principio de Turing y, como el mismo Popper hizo notar, a la teoría de la evolución.

Los proponentes de la teoría dominante, en los cuatro casos, se ven permanentemente forzados a una posición defensiva ante los ataques de sus críticos a esos vacíos explicativos. Ello les obliga a menudo a retraerse al núcleo de su propia vía. «Aquí estoy, y esto es lo que hay», es su respuesta final y un modo de manifestar que se niegan a la autoevidente irracionalidad de abandonar la teoría fundamental y no rebatida de sus campos particulares. Esto sólo consigue hacerles parecer aún más estrechos de miras a ojos de sus críticos, y tiende a generar pesimismo sobre la posibilidad misma de una futura explicación fundamental.

A pesar de todas las muestras de comprensión que he tenido hacia los críticos de las teorías principales, la historia de las cuatro vías nos muestra que algo muy desagradable le ha sucedido a la ciencia fundamental durante la mayor parte del siglo XX. La popularidad del positivismo y de la visión instrumentalista de la ciencia estaba directamente relacionada con la apatía, la falta de confianza en uno mismo y el pesimismo sobre las explicaciones genuinas en una época de vacas gordas en que el prestigio, la utilidad y, por supuesto, la financiación para la investigación fundamental lo eran todo. Hubo, por supuesto, muchas excepciones individuales, entre las que cabe contar a los cuatro héroes de este capítulo. Pero el modo sin precedentes en que sus teorías eran aceptadas e ignoradas a un tiempo habla por sí mismo. No presumo de conocer la explicación de este fenómeno, pero, sea lo que fuera lo que lo causó, parece que está remitiendo últimamente. He señalado una de las posibles causas coadyuvantes, es decir, que, individualmente, las cuatro teorías tienen vacíos explicativos que las pueden hacer parecer estrechas, inhumanas y pesimistas. Sugiero, sin embargo que, tomadas en conjunto como explicación unificada de la estructura de la realidad, esta desafortunada propiedad se invierte. Lejos de negar el libre albedrío, lejos de situar a los valores humanos en un contexto en que pasan a ser triviales e insignificantes, lejos de ser pesimista, constituye una concepción del mundo fundamentalmente optimista, que sitúa a la mente humana en el centro del universo físico y a la explicación y la comprensión en el centro de los propósitos humanos. Espero que no tengamos que perder demasiado tiempo mirando hacia el pasado para defender esta concepción unificada ante competidores aún por surgir. Éstos no faltarán, sin duda, cuando, tras haber considerado seriamente la teoría unificada de la estructura de la realidad, empecemos a desarrollarla en profundidad.

Es hora de ponerse en marcha.