1. Determinismo e innovación

Una escuela de epistemología contemporánea pretende que el mundo de las antiguas verdades de la ciencia clásica ha muerto, que el determinismo «laplaciano» ha vivido ya demasiado, y que se abre la era de una nueva ciencia (scienza nuova) en la cual podrá florecer la innovación, en la cual el libre albedrío del hombre podrá expansionarse a su gusto lejos de las restricciones obsoletas del determinismo mecanicista. Quisiera discutir tal opinión haciendo notar dos cuestiones.

¿Es posible una innovación radical en nuestra visión del mundo? Obsérvese que una innovación radical —caso de existir— se escaparía a todos los formalismos existentes, y por eso mismo sería totalmente informulable, indescriptible. Semejante novedad, si se manifestase como un fenómeno, sólo podría ser catastrófica —en el sentido tradicional del término—. La supernova de Tycho Brahe, que arruinó la creencia en la inmutabilidad de las estrellas fijas, era sin embargo una estrella (si bien transeúnte). Efectivamente, o bien el fenómeno se manifiesta a sí mismo por su carácter sobresaliente que se impone a nuestros sentidos, y en tal caso está claramente vinculado a una catástrofe de un tipo inaudito, o bien es un fenómeno muy discreto que contraría una teoría ya establecida (como el desplazamiento del perihelio de mercurio a causa de la relatividad general) y, en tal caso, tal novedad es relativa a un aparato conceptual preexistente y no se trata, en absoluto, de novedad radical alguna. En relación con la descripción lingüística, podemos asistir a la aparición de un concepto nuevo, formulado por neologismo. (Ejemplo, la entropía de Carnot). Pero en este caso la definición del nuevo concepto (así la entropía S por ∫dQ/T) se integra también en una teoría acogiéndose a la generatividad de un formalismo (en ciencia: la matemática). De todo lo cual se concluye que, en la visión científica del mundo, la novedad radical es imposible. Observamos, sin embargo, que incluso desde un punto de vista del determinismo mecanicista, un fenómeno cualitativamente nuevo, ligado, por ejemplo, a una intensa concentración de energía (una coalición n-tupla en mecánica estadística, por ejemplo) no es en absoluto imposible. Sólo podemos afirmar que un fenómeno de esta naturaleza es muy raro, altamente improbable, a priori. [Cf. asimismo el ejemplo de la «onda centenaria» en mecánica de fluidos].

Con mayor generalidad, la ciencia es una tradición cultural: está formada por un «saber» que debemos transmitir a nuestros descendientes. De lo que resulta que un saber es un corpus cerrado de datos y de afirmaciones que sólo puede extenderse por inferencia lógica y experimentación empírica. La inferencia lógica es «informacionalmente» inútil (incluso quizá para las matemáticas…); la experimentación empírica, si no es fruto del azar, está dirigida necesariamente por una problemática existente, que tiende a verificar o a inferir resultados previamente imaginados. En todos estos casos, no cabe innovación radical alguna.

De lo cual concluimos que hay una incompatibilidad de principio entre ciencia y novedad. Las únicas innovaciones que pueden intervenir resultan de una ampliación de la imaginación: se trata de estos seres «imaginarios» que son los seres matemáticos, seres que forman parte de estructuras dotadas de una generatividad interna, o de una extensión del imaginario lingüístico, asociada a la práctica del lenguaje natural. De ahí resulta que los grandes progresos científicos hayan sido precedidos de una extensión del imaginario matemático que ha permitido construir conceptos nuevos: en cuanto a los progresos puramente conceptuales de la biología, por ejemplo la teoría darwiniana de la evolución, tiene un carácter realmente sospechoso (que en este último caso raya en tautología).

2. Innovación y determinismo

Los partidarios de la novedad han creído necesario atacar el determinismo para permitir la innovación. En este sentido, cabe precisar la noción de determinismo.

Una forma absoluta de determinismo consistiría en afirmar que la evolución del universo está predeterminada, inscrita en alguna forma en el intelecto divino. Ésta es una visión estrictamente teológica (Inch’Allah se ha escrito) que puede, quizá, presentar cierto poder de consolación, pero que es de un interés científico o pragmático nulo. Conviene decir que los partidarios de la contingencia absoluta no se hallan en mejor posición, porque decir que los fenómenos son fruto del azar, creados por el arbitrio de un demiurgo totalmente libre, en ejercicio de su libertad, no es mucho más útil. Quizás hay que ver en estas dos concepciones la eterna oposición entre dos concepciones de la divinidad: el Dios inmanente (ligado por leyes) y el Dios trascendente (auténticamente libre…).

Es decir, el determinismo, para tener un contenido epistémico real, exige sumergir la evolución del universo (o de los sistemas que se consideren) en un conjunto de evoluciones virtuales. Es la respuesta de Leibniz cuando afirmó que nuestro mundo es el mejor de los mundos posibles. Pero hay que precisar este conjunto de evoluciones virtuales y es precisamente entonces cuando no podemos contentarnos sólo con el tiempo: debemos hacer intervenir al espacio. Si suponemos el universo (o nuestro sistema) extendido en un espacio E, podemos admitir que el estado global del universo (o del sistema) se halla constituido por la reunión de todos sus estados locales. Una deformación local de un estado global puede ser considerada un estado virtual del universo. Entonces el determinismo toma una formulación matemática precisa: si s(x, t) es el estado local en un punto x, en el tiempo t, s ∈ S (espacio de los estados locales), se trata de especificar las evoluciones globales posibles s(x, t) en el seno de todas las funciones posibles s(x, t), conjunto de las evoluciones virtuales, caminos en el espacio funcional L(E, S). En el determinismo laplaciano, suponemos que estas evoluciones posibles constituyen un espacio de dimensión finita igual a la dimensión 3 × 2n (6n + 1 con el tiempo), (el espacio de las fases de posiciones y velocidades de n partículas del espacio usual). Para un sistema dado, se presupone la existencia de un espacio M de estados del sistema, dado de una vez por todas, y de un campo de vectores X en M cuya integración describirá las evoluciones posibles del estado m(t). Es preciso, darse, además, la posición inicial m0 = m(t0), que puede ser arbitraria en M.

Así se obtiene el formalismo del determinismo laplaciano que, por su flexibilidad, se ha convertido en el paradigma del determinismo científico. Efectivamente, podemos localizar el paradigma; en la medida en que dispongamos de sistemas independientes (o considerados como tales). Además, la noción de determinismo local (para sistemas extensos) puede ser precisada. Así, la condición de extremalidad (local) de un lagrangiano engendra una forma particular del sistema, las dinámicas hamiltonianas, que tiene la particularidad de eliminar la acción del tiempo, siendo el sistema en t0, o en t1 equivalentes desde el punto de vista de la totalidad de las evoluciones virtuales. El determinismo laplaciano permite asimismo definir el acoplamiento débil entre dos sistemas independientes y evaluar su efecto. Ha sorprendido mucho, estos últimos años, que el determinismo laplaciano no permitiese casi nada la previsión debido al hecho de que gran número de sistemas presentan claramente el fenómeno de la sensitividad a las condiciones iniciales (los sistemas denominados «caóticos», más correctamente «expansivos»: dos trayectorias que salen de dos puntos m0, m'0 próximos, alejándose —al principio— exponencialmente en función del tiempo |mtm't| > |m0m'0|. et, hace la previsión —no imposible— pero sí harto difícil). Estos sistemas «caóticos» permiten la previsión a corto plazo (como en metereología, donde nadie niega la utilidad de la previsión). Pero si se pretenden previsiones a largo plazo, habrá que contentarse con invariantes estadísticos (entropía de Kolmogorov-Sinai, exponente de Lyapunov, etc…).

La objeción de la mecánica cuántica al determinismo proviene de una situación distinta. Es claro que el determinismo es relativo al espacio M de los estados que suponemos permanentes en la evolución y que parametriza el conjunto de las evoluciones virtuales. Pueden haber determinismos parciales, en la medida en que se restringe el conjunto posible de evoluciones reales en el espacio funcional de los caminos de L(M, S) de todas las evoluciones virtuales. Las leyes estocásticas determinan así restricciones globales en las evoluciones globales en las evoluciones reales. La extensión (M) por multiplicación con un espacio de parámetros «ocultos» es otro procedimiento para introducir el indeterminismo. Lo ideal sería eliminar el indeterminismo cuántico por extensión mediante un espacio Y de parámetros ocultos de dimensión finita. La reciente teoría de Bell para la ecuación de Schrödinger va en esta línea, si bien los parámetros ocultos son de naturaleza no local y hacen intervenir el espacio global del universo.

Pero estoy convencido de que en esta cuestión subsisten muchas posibilidades geométricas inexplicadas: por ejemplo, la de introducir un espacio (B) «clásico» de posición del observador, un espacio S de estados, y definir una partícula mediante una hoja de una foliación del producto B × S. La proyección en B que da la visión de fenómeno de un observador colocado en B podrá ser multiforme, de acuerdo con el principio de indiscernibilidad de las partículas. En general, la relación de equivalencia más general de pertenecer a una hoja de foliación es un modelo paradigmático y el conjunto de visiones de un mismo fenómeno para un observador variable representa una relación de equivalencia de este género. Este tipo de descripciones geométricas de la realidad cuántica todavía no han sido consideradas.

Se ha pretendido que la teoría de Kolmogorov-Chaitín permitía la definición precisa de un fenómeno aleatorio. Por ejemplo, una sucesión de números enteros es «aleatoria» si todo algoritmo que permite engendrarla es de longitud superior a la de la propia sucesión. Una definición como ésta supone que el imaginario virtual de los fenómenos puede ser completamente engendrado por un procedimiento constructivo que permite definir la «complejidad algorítmica» de cada estado virtual. Esto ocurre en física, donde la importancia de las simetrías proviene de la generatividad de los grupos de Lie, que conducen a la construcción de espacios homogéneos portadores de una geometría. Debemos fijarnos, sin embargo, en que una definición del azar como la que acabamos de dar no es muy sólida; en general, no resiste la menor perturbación de los datos. Hay una dificultad de principio en el hecho de invocar procedimientos constructivos en ciencia —salvo que se invoquen fenómenos de naturaleza cualitativa del tipo de la estabilidad estructural. La teorización científica se halla, pues, desgajada entre dos estrategias: o bien buscar el acuerdo exacto entre la teoría y la experiencia, siendo los inevitables desacuerdos atribuidos a los ruidos locales de los errores experimentales de carácter insignificante. O, por el contrario, aceptar la inexactitud cuantitativa, en provecho de una precisión cualitativa que convendrá mejorar. El milagro de la física (fundamental) consistió en asociar invariantes de origen geométrico a las leyes cuantitativas. Al principio, el hombre creía que la tierra era plana; existen físicos que aún sostienen que el universo es el espacio de Minkowski. La búsqueda de la fórmula generativa de validez «mágica» es continua y permanente: lo extraño es que esto, a veces, haya ido bien. Pero ¿puede continuar? Si rechazamos el milagro, debemos volver a una aproximación hermenéutica: hallar las estructuras cualitativas más flexibles posibles que den cuenta de los fenómenos. En esta óptica, la búsqueda de los «espacios de fases» que permitan parametrizar los sistemas naturales es una tarea esencial —que carece de metodología general alguna—. La aproximación por complicación sucesiva de los espacios de fases (de las «evoluciones virtuales») es, pues, inevitable. Ello conduciría a considerar que el determinismo sólo es realmente posible a escala local (lo cual justifica, además, las causalidad expresada en el lenguaje ordinario). Todas las construcciones teóricas que impliquen postulados cosmológicos son, a priori, sospechosas, pues se hallan a merced de una extensión de datos. Pero ello no disminuye en nada la importancia del determinismo diferencial en tanto que expresión de la legalidad científica.

En conclusión, la imposibilidad principal de un modelo determinista es, en todo caso, relativa a un conjunto definido a priori de evoluciones virtuales (en mecánica cuántica, la imagen puntual de una partícula y de su trayectoria). Siempre es posible extender este conjunto a fin de restaurar el determinismo, por medio de una extensión adecuada de los formalismos de descripción. Las debilidades del determinismo son más que nada debilidades de nuestra imaginación. Nada nos permite afirmar que estas debilidades sean definitivas.

+
PARMENIDES HERACLITO
UNIDAD MULTIPLICIDAD
SIMPLICIDAD COMPLEJIDAD
ORDEN DESORDEN
DETERMINISMO AZAR
PERMANENCIA CAMBIO

Tabla exhibida por el profesor Thom para ilustrar las preferencias conceptuales de las escuelas clásica y moderna de epistemología.