13

La ciencia postmoderna como investigación de inestabilidades

Se ha indicado anteriormente que la pragmática de la investigación científica, especialmente en su aspecto de búsqueda de nuevas argumentaciones, traía a primer plano la invención de «jugadas» nuevas e incluso de nuevas reglas de juegos de lenguaje. Ahora importa subrayar este aspecto, que es decisivo en el actual estado del saber científico. De este último se podría decir paradójicamente que está a la búsqueda de «vías de salida de la crisis», siendo la crisis la del determinismo. El determinismo es la hipótesis sobre la que reposa la legitimación por medio de la performatividad: definiéndose ésta por una relación input/output, es preciso suponer que el sistema en el cual se hace entrar el input está en estado estable: obedece a una «trayectoria» regular de la que se puede establecer la función continua y derivable que permitirá anticipar adecuadamente el output.

Tal es la «filosofía» positivista de la eficiencia. Al oponerle aquí algunos ejemplos relevantes, se trata de facilitar la discusión final de la legitimación. Se trata, en suma, de mostrar con algunos elementos que la pragmática del saber científico postmoderno tiene, en sí misma, poca afinidad con la búsqueda de la performatividad.

La expansión de la ciencia no se hace por medio del positivismo de la eficiencia. Es lo contrario: trabajar con la prueba es buscar e «inventar» el contra-ejemplo, es decir, lo ininteligible; trabajar con la argumentación, es buscar la «paradoja» y legitimarla con nuevas reglas del juego de razonamiento. En los dos casos, la eficiencia no se busca por sí misma, viene dada por añadidura, a veces tarde, cuando los socios capitalistas se interesan al fin por el caso[186]. Pero lo que no puede plantearse con una nueva observación es la cuestión de la legitimidad. Pues es la propia ciencia la que se plantea esta cuestión y no la filosofía la que se la plantea.

Lo que ya no tiene vigencia no es preguntarse lo que es verdadero y lo que es falso, es representarse la ciencia como positivista, y condenada a este conocimiento sin legitimar, a este semi-saber que le atribuían los idealistas alemanes. La pregunta: ¿De que sirve tu argumento, de qué sirve tu prueba? forma de tal modo parte de la pragmática del saber científico que asegura la metamorfosis del destinatario del argumento y de la prueba en cuestión, en destinador de un nuevo argumento y de una nueva prueba y, por tanto, la renovación a la vez de los discursos y de las generaciones científicas. La ciencia se desarrolla, y nadie contesta que se desarrolla desarrollando esta pregunta. Y esta pregunta en sí misma, al desarrollarse, conduce a la pregunta, es decir, a la metapregunta o pregunta de la legitimación: ¿De qué sirve tu «de qué sirve»?[187].

Ya se ha dicho, el rasgo más llamativo del saber científico postmoderno es la inmanencia en sí misma, pero explícita, del discurso acerca de las reglas que le dan validez[188]. Lo que ha podido pasar a fines del siglo XIX por pérdida de legitimidad y caída en el «pragmatismo» filosófico o en el positivismo lógico, no ha sido más que un episodio, del cual el saber surge por la inclusión en el discurso científico del discurso acerca de la validez de enunciados con valor de leyes. Esta inclusión no es una operación sencilla, ya se ha visto, da lugar a «paradojas» asumidas como eminentemente serias, y a «limitaciones» del alcance del saber que, de hecho, son modificaciones de su naturaleza.

La investigación matemática que desemboca en el teorema de Gödel es un auténtico paradigma de ese cambio de naturaleza[189]. Pero la transformación de la dinámica no es menos ejemplar del nuevo espíritu científico y nos interesa particularmente porque obliga a corregir una noción que hemos visto está masivamente introducida en la discusión de la actuación, particularmente en materia de teoría social: la noción de sistema.

La idea de actuación implica la de sistema de fuerte estabilidad porque reposa sobre el principio de una relación, la relación siempre calculable en principio entre calor y trabajo, entre fuente caliente y fuente fría, entre input y output. Es una idea que procede de la termodinámica. Está asociada a la representación de una evolución previsible de las actuaciones del sistema, a condición de que se conozcan todas sus variables. Esta condición es expresada con claridad a título de límite por la ficción del «demonio» de Laplace[190]: en posesión de todas las variables que determinan el estado del universo en un instante t, puede prever su estado en el instante t' > t. Esto es sostenido por el principio de que los sistemas físicos, incluido el sistema de sistemas que es el universo, obedecen a regularidad, y, por consiguiente, su evolución traza una trayectoria previsible y da lugar a funciones continuas «normales» (y a la futurología…).

Con la mecánica cuántica y la física atómica, la extensión de ese principio debe ser limitada.

Y eso de dos maneras, cuyas implicaciones respectivas no tienen el mismo alcance. Primero, la definición del estado inicial de un sistema, es decir, de todas las variables independientes, para ser efectiva exigiría un consumo de energía al menos equivalente a la que consume el sistema que hay que definir. Una versión profana de esta imposibilidad de realizar la medición completa de un estado del sistema la da Borges: un emperador quiere hacer un plano perfectamente preciso del imperio. El resultado es la ruina del país: toda la población dedica toda su energía a la cartografía[191].

Con el argumento de Brillouin[192], la idea (o la ideología) del control perfecto de un sistema, que debe permitir mejorar sus actuaciones, aparece como inconsistente con relación a la contradicción: disminuye la performatividad que pretende aumentar. Esta inconsistencia explica en particular la debilidad de las burocracias estatales y socio-económicas: ahogan a los sistemas o a los sub-sistemas que controlan, y se asfixian al mismo tiempo que ellos (feedback negativo). El interés de tal explicación es que no tiene necesidad de recurrir a otra legitimación que la del sistema; por ejemplo, a la de la libertad de los agentes humanos que los levante frente a una autoridad excesiva.

Admitiendo que la sociedad sea un sistema, su control, que implica la definición precisa de su estado inicial, no puede ser efectivo, porque esta definición no puede ser realizada.

Pero esta limitación todavía no pone en cuestión más que la efectividad del saber preciso y del poder que de él resulta. Su posibilidad de principio sigue intacta. El determinismo clásico continúa constituyendo el límite, excesivamente caro, pero concebible, del conocimiento de los sistemas[193].

La teoría cuántica y la microfisica obligan a una revisión mucho más radical de la idea de trayectoria continua y previsible. La búsqueda de la precisión no escapa a un límite debido a su coste, sino a la naturaleza de la materia. No es verdadero que la incertidumbre, es decir, la ausencia de control humano, disminuya a medida que aumenta la precisión: también aumenta. Jean Perrin propone el ejemplo de la medida de la densidad verdadera (cociente masa/volumen) del aire contenido en una esfera. Varía notablemente cuando el volumen de la esfera pasa de 1.000 m3 a 1 cm3; varía muy poco de 1 cm3 a 1/1.000 de mm3, pero ya se puede observar en este intervalo la aparición de variaciones de densidad del orden de la mil millonésima, que se producen irregularmente. A medida que el volumen de la esfera se contrae, la importancia de esas variaciones aumenta: para un volumen del orden de 1/10 de micra cúbica, las variaciones llegan a la milésima; para 1/100 de micra cúbica, son del orden de un quinto.

Disminuyendo aún más el volumen, se llega al orden del radio molecular. Si la esférula se encuentra en el vacío entre dos moléculas de aire, la densidad verdadera del aire es nula. Sin embargo, aproximadamente una vez de cada mil, el centro de la esférula «caerá» en el interior de una molécula y la densidad media en ese punto es entonces comparable a lo que se llama la densidad verdadera del gas. Si se baja hasta dimensiones intraatómicas, la esférula tiene todas las oportunidades de encontrarse en el vacío, de nuevo con una densidad nula. Un vez de cada un millón de casos, sin embargo, su centro puede encontrarse situado en un corpúsculo o en el núcleo del átomo, y entonces la densidad será muchos millones de veces superior a la del agua. «Si la esférula se contrae más (…), probablemente la densidad media volverá a ser nula en seguida, así como la verdadera densidad, salvo para ciertas posiciones muy raras donde alcanzará valores desmesuradamente más elevados que los precedentes»[194].

El conocimiento referente a la densidad del aire se resuelve, pues, en una multiplicidad de enunciados que son incomparables absolutamente, y no se vuelven compatibles más que si son relativizados con respecto a la escala elegida por el enunciador. Por otra parte, a determinadas escalas, el enunciado de esta medida no se resume en una afirmación simple, sino en una afirmación modalizada del tipo: es plausible que la densidad sea igual a cero, pero sin excluir que sea del orden de 10n, siendo n muy elevado.

Aquí, la relación del enunciado del estudioso con «lo que dice» la «naturaleza» parece proceder de un juego de información no completa. La modalización del enunciado del primero expresa el hecho de que el enunciado efectivo, singular (el token) que exterioriza la segunda no es previsible. Lo que es calculable es la oportunidad de que ese enunciado diga esto más que aquello.

En un plano microfisico, una «mejor» información, es decir, más performante, no se puede obtener.

La cuestión no es saber lo que es el adversario (la «naturaleza»); es saber a qué juego juega.

Einstein se rebelaba ante la idea de que «Dios juega a los dados»[195]. Es, sin embargo, un juego que permite establecer regularidades estadísticas «suficientes» (tanto peor para la imagen que se tenía del supremo Determinante). Si jugaba al bridge, los «azares primarios» que encuentra la ciencia deberían ser imputados, ya no a la indiferencia del lado con respecto a sus caras, sino a la astucia, es decir, a una elección en sí misma dejada al azar entre múltiples estrategias puras posibles[196].

En general, se admite que la naturaleza es un adversario indiferente, pero no astuto, y se distingue a las ciencias de la naturaleza de las ciencias del hombre basándose en esa diferencia[197].

Eso significa en términos pragmáticos que la «naturaleza» en el primer caso es el referente, mudo, pero tan constante como un dado lanzado un gran número de veces, con respecto al cual los científicos intercambian enunciados denotativos que son las jugadas que se hacen unos a los otros; mientras que en el segundo caso, al ser el hombre el referente, es también un «compañero» que, al hablar, desarrolla una estrategia, incluida la mixta, frente a la del estudioso: el azar al que éste escapa entonces no es de objeto o de indiferencia, sino de comportamiento o de estrategia[198], es decir, agonístico.

Se dirá que esos problemas conciernen a la microfisica, y que permiten el establecimiento de funciones continuas suficientemente cercanas como para permitir una buena previsión probabilista de la evolución de los sistemas. Así los teóricos del sistema, que también son los de la legitimación por la actuación, creen recuperar sus derechos. Sin embargo, se ve dibujarse en la matemática contemporánea una corriente que pone en cuestión la medida precisa y la previsión de comportamientos de objetos a escala humana.

Mandelbrot sitúa sus investigaciones bajo la autoridad del texto de Perrin que hemos comentado. Pero extiende el alcance en una dirección inesperada. «Las funciones derivadas» —escribe—, «son las más simples, las más fáciles de tratar y, sin embargo, son la excepción; o si se prefiere un lenguaje geométrico, las curvas que no tienen tangente son la regla, y las curvas muy regulares, como el círculo, son casos interesantes, pero muy particulares»[199].

La constatación no tiene el simple interés de una curiosidad abstracta, vale para la mayor parte de los datos experimentales: los contornos de una pompa de jabón salado presentan tales infrangibilidades que al ojo le es imposible fijar una tangente en ningún punto de su superficie. El modelo lo proporciona aquí el movimiento browniano, del que se sabe que una propiedad suya es que el vector de desplazamiento de la partícula a partir de un punto es isótropo, es decir, que todas las direcciones posibles son igualmente probables.

Pero se vuelve a encontrar el mismo problema en la escala habitual si, por ejemplo, se quiere medir con precisión la costa de Bretaña, la superficie de la Luna cubierta de cráteres, la distribución de la materia estelar, la de las «ráfagas» de ruidos en una comunicación telefónica, las turbulencias en general, la forma de las nubes, en resumen, la mayor parte de los contornos y distribuciones de cosas que no han sufrido la regularización debida a la mano del hombre.

Mandelbrot muestra que la figura presentada por este tipo de datos los emparenta con curvas correspondientes a funciones continuas no derivables. Un modelo simplificado de éstas es la curva de von Koch[200]; posee una homotecia interna; se puede mostrar formalmente que la dimensión de homotecia sobre la que está construida no es un entero sino el log 4/log 3. Se tiene derecho a decir que una curva tal se sitúa en un espacio cuyo «número de dimensiones» está entre 1 y 2, y que, por tanto, es intuitivamente intermediaria entre línea y superficie. Porque su dimensión pertinente de homotecia es una fracción, Mandelbrot llama a esos objetos, objetos fractales.

Los trabajos de René Thom[201] van en un sentido análogo. Interrogan directamente la noción de sistema estable, que se presupone en el determinismo laplaciano e incluso posibilista.

Thom establece el lenguaje matemático que permite describir el modo en que las discontinuidades pueden producirse formalmente en sistemas determinados y dar lugar a formas inesperadas: ese lenguaje constituye la teoría llamada de las catástrofes.

Sea la agresividad una variable del estado de un perro; crece en función directa a su enfado, variable de control[202]. Suponiendo que éste sea mensurable, llegado a un punto, se traduce en ataque. El miedo, segunda variable de control, tendrá el efecto inverso y, llegado a un punto, se traducirá en huida. Sin enfado ni miedo, la conducta del perro es neutra (vértice de la curva de Gaus). Pero si las dos variables de control se cruzan, los dos puntos se acercarán al mismo tiempo: la conducta del perro se hace imprevisible, puede pasar bruscamente del ataque a la huida, y a la inversa. El sistema es llamado inestable: las variables de control varían continuamente, las de estado discontinuamente.

Thom muestra que se puede escribir la ecuación de esta inestabilidad, y designar el grafo (tridimensional, puesto que tiene dos variables de control y una de estado) que determina todos los movimientos del punto que representan el comportamiento del perro, y entre ellos el del paso brusco de un comportamiento al otro. Esta ecuación caracteriza un tipo de catástrofes, que es determinado por el número de variables de control y el de variables de estado (aquí 2 + 1).

La discusión acerca de los sistemas estables o inestables, acerca del determinismo o no, encuentra aquí una salida, que Thom formula en un postulado: «El carácter más o menos determinado de un proceso es determinado por el estado local de ese proceso»[203]. El determinismo es una especie de funcionamiento que está determinado en sí mismo: la naturaleza realiza en todas las circunstancias la morfología local menos compleja, que sea no obstante compatible con los datos iniciales locales[204]. Pero puede ser, y hasta es el caso más frecuente, que esos datos prohiban la estabilización de una forma. Pues a menudo se encuentran en conflicto: «El modelo de las catástrofes reduce todo proceso causativo a uno solo, por lo que la justificación intuitiva no plantea problemas: el conflicto, padre, según Heráclito, de todas las cosas»[205]. Hay más oportunidades de que las variables de control sean incompatibles que a la inversa. No hay, pues, más que «islotes de determinismo». El antagonismo catastrófico es la regla, en el sentido propio: hay reglas de la agonística general de las series, que se definen por el número de variables en juego.

No está prohibido encontrar un eco (atenuado, a decir verdad) a los trabajos de Thom en las investigaciones de Palo Alto, especialmente en la aplicación de la paradología al estudio de la esquizofrenia, que es conocida con el nombre de Double Bind Theory[206]. Aquí nos contentaremos con señalar ese acercamiento. Permite hacer que se comprenda la extensión de esas investigaciones centradas en las singularidades y las «inconmensurabilidades» hasta el dominio de la pragmática de las dificultades más cotidianas.

La idea que se saca de esas investigaciones (y de bastantes otras) es que la preeminencia de la función continua derivada como paradigma del conocimiento y de la previsión está camino de desaparecer. Interesándose por los indecidibles, los límites de la precisión del control, los cuanta, los conflictos de información no completa, los fracta, las catástrofes, las paradojas pragmáticas, la ciencia postmoderna hace la teoría de su propia evolución como discontinua, catastrófica, no rectificable, paradógica. Cambia el sentido de la palabra saber, y dice cómo puede tener lugar ese cambio. Produce, no lo conocido, sino lo desconocido. Y sugiere un modelo de legitimación que en absoluto es el de la mejor actuación, sino el de la diferencia comprendida como paralogía[207].

Como dice muy bien un especialista de la teoría de los juegos, cuyos trabajos van en la misma dirección: «¿Dónde está la utilidad de esta teoría? Nosotros pensamos que la teoría de los juegos, como toda teoría elaborada, es útil en el sentido en que da nacimiento a ideas»[208]. Por su parte, P. B. Medawar[209] decía que «tener ideas es el logro supremo de un savant», que no hay “método científico”[210] y que «un savant es ante todo alguien que “cuenta historias”, y está obligado a verificarlas».