Matemática y teorización científica
René Thom
Sin duda es todavía prematuro evaluar el impacto, sobre el desarrollo de la ciencia, de eso que se ha llamado la teoría de las catástrofes. Algo es ya seguro, incluso si las aportaciones de esta teoría en el campo de las aplicaciones prácticas hubieran de resultar decepcionantes: la teoría de las catástrofes va a obligar a la ciencia existente a que tome conciencia, a que realice un examen lúcido de sus métodos y de sus técnicas. Con la teoría de las catástrofes, vemos introducirse a la matemática en disciplinas que, como es el caso de la biología y de las ciencias humanas, apenas conocían su uso. Ahora bien, hasta el presente, la introducción de la técnica matemática en una ciencia se había considerado como un progreso importante, puesto que significaba la aparición del rigor y la exactitud, conceptuales o numéricas, y, en consecuencia, una considerable extensión de las posibilidades de acción. De aquí que algunos pusieran desconsideradamente sus esperanzas en la teoría, esperanzas que parecían justificadas por la publicación de modelos como los de Zeeman en el campo de las ciencias humanas (por ejemplo, modelo de la eclosión de motines en las cárceles). La aparición, en 1977, de severas críticas a la TC (abreviatura de teoría de las catástrofes) hizo que esta euforia se acabara en seco. La opinión científica parece hallarse un tanto desorientada por esta polémica, cuya aspereza proviene sin duda más del énfasis periodístico que de un conflicto efectivo. La crítica que hace referencia a la ineficacia pragmática de los modelos de la TC es, no cabe duda, una crítica esencialmente fundada. Pero que nadie espere verla desarrollarse mucho más; porque, de persistirse en ella, acabaría por poner en tela de juicio una buena parte de la producción científica contemporánea… Por ahora, el núcleo de los oponentes a la TC se recluta entre quienes trabajan en el ámbito de las matemáticas aplicadas; y es de temer que muchas de las objeciones que ponen contra los modelos de la TC (pienso en particular en la cuantificación ilusoria —spurious quantization—) se vuelvan contra su propia producción. Aun si la TC no tuviera más resultado que el de suscitar un tal debate metodológico sobre el uso de las matemáticas en ciencia, ello solo bastaría para justificar su existencia.
1. El papel de las matemáticas en las ciencias de hoy
Evidentemente, si existe algún dominio de la ciencia donde las matemáticas tienen aplicación, es en la física. Con todo, conviene hacer una distinción: en física fundamental, las grandes leyes clásicas (gravitación, electromagnetismo…) permiten edificar modelos cuya exactitud numérica es un reto para la imaginación (10−20 en el mejor de los casos); E. Wigner ha llegado a hablar, en tales casos, de la irrazonable exactitud de dichas leyes. Más adelante volveremos a hablar de la interpretación que conviene dar a esta situación. Pero, en cuanto se sale del dominio —relativamente limitado— en que esas leyes se aplican plenamente, la situación se degrada rápidamente. En mecánica cuántica, el excelente arranque a partir del átomo de hidrógeno se va perdiendo poco a poco en la arena de las aproximaciones a medida que se avanza hacia situaciones más complejas (sin olvidar el enigma de las interacciones fuertes, que se rebela ante toda cuantificación). En física macroscópica (física del estado sólido, mecánica de fluidos), muchas leyes empíricas no poseen expresión matemática explícita, al igual que sucede en termodinámica, donde la ecuación de estado de un fluido real F(p, v; T) = 0 no puede expresarse matemáticamente. Esta baja en el rendimiento del algoritmo matemático se acelera al pasar de la física a la química. La interacción entre dos moléculas un poco complejas elude toda descripción matemática precisa. Tan sólo la cinética química admite a veces una descripción en términos de un sistema diferencial, pero los coeficientes que figuran en dicho sistema (las constantes de la ley de acción de masa) están sometidos a variaciones que afectan mucho la exactitud de la descripción. En biología, excepción hecha de la teoría de poblaciones y de la genética formal, el uso de las matemáticas se reduce a la elaboración de modelos para algunas situaciones locales (propagación del impulso nervioso, circulación de la sangre en las arterias, etc.) cuyo interés teórico es muy reducido y de limitado interés práctico. En fisiología, en etología, en psicología y en ciencias sociales, las matemáticas casi no aparecen si no es en la forma de recetas estadísticas cuya propia legitimidad resulta sospechosa; sólo hay una excepción: la economía matemática, con el modelo de las economías de cambio de Walras-Pareto, que lleva a plantear problemas teóricos interesantes, pero cuya aplicabilidad a la economía real resulta más que sospechosa. Citemos también, para no dejamos nada, algunos usos de la teoría de grafos en antropología y en sociología, y prácticamente habremos hecho todo el recorrido de las aplicaciones de la matemática en el campo de la ciencia.
Desde luego, los especialistas saben de esta degeneración relativamente rápida de las posibilidades del instrumento matemático al ir de la física a la biología; pero la cuestión se airea muy poco a la vista del gran público. Creo que hay tres razones, ligadas a la propia sociología de la ciencia, para que ello sea así:
- a)Dado que los grandes éxitos pragmáticos de la mecánica y de la física fundamental proporcionaron a esas ciencias el enorme prestigio que todos conocemos, es importante que las disciplinas menos precisas, y menos perfeccionadas, puedan beneficiarse del mismo prestigio. En consecuencia, se pasan en silencio las dificultades y las imperfecciones que aquejan a esas disciplinas.
- b)Desde la perspectiva del uso interno, esas dificultades e imprecisiones se convierten, por el contrario, en ventajas. Porque las técnicas de matematización aproximada (aproximación) hacen posible la eclosión de una considerable producción «científica». Toda tentativa de modelización cuantitativa, tanto si tiene fundamento como si está poco o mal fundamentada, puede ser motivo para una publicación científica.
- c)A esto se añade la influencia de la industria de los ordenadores. Todo laboratorio, por modesto que sea, se considera obligado a tener su ordenador; ¿cómo no va a quererse rentabilizar esa inversión, incluso en condiciones en las que, a priori, no es concebible ninguna cuantificación del problema? Evidentemente, la industria informática está del todo interesada en que se crea que ninguna parte de la realidad puede escapar a la modelización cuantitativa…
En descargo de esas personas, más prácticas que teóricas, cuyo proceder queda así puesto en tela de juicio, pero de cuya buena fe no cabe sospechar —al menos, en la inmensa mayoría de los casos—, hay que hacer la siguiente observación: en el conjunto de la ciencia, el formalismo matemático no pierde su eficacia de un modo brusco. Si se parte de las situaciones puras de la física fundamental, donde se aplican de un modo exclusivo las grandes leyes constitutivas, pronto se encuentran situaciones mixtas en las que dichas leyes están presentes pero no bastan ya para determinar enteramente la evolución temporal del sistema; se hace preciso añadir hipótesis ad hoc, extraídas por lo general de consideraciones estadísticas y de leyes empíricas de las cuales se utiliza una expresión aproximada. La mecánica aplicada y la dinámica de fluidos abundan en ejemplos de este tipo.
En el cuadro que hemos esbozado antes, se ha dejado de lado el caso, bien conocido, en que se dispone de un modelo matemático exacto del sistema, pero tal que su solución efectiva es imposible a causa de su complejidad (o de su dimensión): piénsese en el problema de los n cuerpos.
Evidentemente, en estas ocasiones el ordenador puede resultar muy útil. Pero este caso es relativamente poco frecuente; por regla general, los errores provienen más de la teoría (o de la ausencia de teoría) bajo cuya dirección se ha edificado el modelo, que no de las aproximaciones resultantes del tratamiento numérico del sistema. A fin de cuentas, donde se ventila el porvenir de las aplicaciones de la matemática cuantitativa en el campo de la ciencia, es en esa franja bastante oscura que separa el dominio preciso de las leyes físicas fundamentales, del «bricolaje» de las interpretaciones estadísticas y de las matematizaciones empíricas. Por lo demás, la teoría de las catástrofes sugiere la posibilidad de que exista otro uso de las matemáticas en la ciencia, un uso que no sería cuantitativo sino exclusivamente cualitativo.
Nos vemos así llevados a formularnos las siguientes preguntas:
- a)¿Por qué razones ha de ser preferible un modelo cuantitativo en lugar de un modelo cualitativo?
- b)En el caso particular de los modelos de la TC, ¿es de esperar que el uso cualitativo se refuerce con un uso cuantitativo?
- c)¿Qué puede esperarse de un modelo puramente cualitativo?
Para tratar de contestar a la pregunta a), conviene replantear un problema muy general: ¿cuáles son los objetivos de la ciencia?
2. Los objetivos de la ciencia
Si bien es legítimo considerar la totalidad de las actividades científicas como un continuum, no es menos cierto que ese continuum posee, por decirlo así, dos polos. Un polo es competencia del conocimiento puro: en ese punto, comprender lo real constituye el objetivo fundamental de la ciencia. El otro polo concierne a la acción: según ese punto de vista, el objetivo de la ciencia sería el de actuar con eficacia sobre la realidad. Una epistemología corta de vista sentirá la tentación de afirmar que esos dos polos no pueden oponerse, porque, para actuar con eficacia, es necesario «comprender». Yo rechazo ese punto de vista: puede ser que se comprenda muy bien una situación, pero que sin embargo se sea incapaz de actuar sobre ella (ejemplo: la situación del señor que se ve sorprendido en su casa por una inundación, se refugia en el tejado y ve cómo las aguas crecen y acaban por cubrirlo); inversamente, a veces puede suceder que sea capaz de actuar eficazmente sobre la realidad sin comprender las razones de esta eficacia (podría decirse, casi sin exagerar, que toda la medicina contemporánea es una muestra de tal posibilidad, pues son muy raros los casos en que ha sido posible explicar satisfactoriamente, en el nivel «fundamental» que es el de la biología molecular, la acción de un medicamento).
En correspondencia con estos dos enfoques opuestos de la ciencia, se encuentran metodologías diferentes. La acción apunta esencialmente a la resolución de problemas locales, mientras que la comprensión apunta a lo universal, es decir, a lo global. Por una aparente paradoja, la solución de los problemas locales exige medios que no son locales; mientras que la inteligibilidad, por su parte, exige la reducción del fenómeno global a situaciones locales típicas, cuyo carácter pregnante las hace inmediatamente comprensibles. En efecto, en la acción existe siempre una intención que va más allá del fenómeno, puesto que siempre se procura realizar aquello que no se presenta espontáneamente. El objetivo último del hombre es el de romper las limitaciones del espacio-tiempo: lo que la humanidad exige para facilitar sus desplazamientos, sus transportes, sus comunicaciones, es que se exploten todos los modos de acción no local que pueden controlarse con facilidad; en el terreno de lo biológico, se procura sobrevivir —en la medida de lo posible—, es decir, alargar la duración de la vida, del individuo o de la especie, más allá de sus límites naturales. Inversamente, para esa contemplación que es el conocimiento puro, la inteligibilidad requiere que el fenómeno se reduzca a sus componentes inmediatamente comprensibles (por ejemplo, el choque de los átomos en las antiguas teorías atomistas). En otro lugar he explicado cómo los mayores éxitos científicos de la historia (la gravitación newtoniana, el electromagnetismo antes de Maxwell, la mecánica cuántica) fueron teorías no locales, a las que se intentó convertir en locales por un esfuerzo teórico ulterior (con éxito para el caso de las dos primeras, pero sin éxito para el de la última).
En resumidas cuentas, la totalidad del esfuerzo científico humano (y, en cierto sentido, también el esfuerzo filosófico) en sus relaciones con la localidad, puede representarse mediante el siguiente cuadro:
Localidad | No-localidad | |
Comprender | Sí | No |
Actuar | No | Sí |
En el fondo, la inteligencia humana no comprende la no-localidad más que en la forma del predicado (lingüísticamente, del adjetivo): un color, por ejemplo, no hace referencia a ningún lugar específico del espacio; todo el esfuerzo de inteligibilidad ha consistido en reducir las cualidades (secundarias) a las cualidades primarias constituidas por las coordenadas espacio-temporales (en una palabra, a sustituir el adjetivo por el verbo). No hay duda de que, en la actualidad, este proceso no está acabado, y, como veremos, los modelos de la TC van en esta dirección.
Ahora bien, esta bipolaridad del campo científico tiene su reflejo en el instrumental matemático empleado en ciencia. Hemos visto que el polo «acción» necesita una ampliación de los datos, pues toda acción se propone ampliar nuestro dominio de influencia; es decir, que lo que se necesita ante todo son métodos de propagación que permitan hacer extensivo un conocimiento local obtenido en un dominio D del espacio substrato a un dominio D* mayor. En matemáticas existe un procedimiento que permite una extensión así, y es prácticamente el único que puede hacerlo de manera canónica: me refiero a la prolongación analítica, que, como es sabido, permite extender el germen de una función analítica (definido por su serie de Taylor en un punto) a todo el dominio de existencia (dominio de holomorfía) de esta función. Es decir, que los modelos matemáticos pragmáticamente eficaces, que permiten la previsión, implican la analiticidad de las funciones que figuran en ellos y la de sus soluciones de la evolución temporal. Ello impone en consecuencia que el espacio «substrato» sobre el que se trabaja esté provisto de una estructura analítica natural. La prolongación analítica es la única que permite el paso de lo local a lo no-local característico de la acción.
Hemos visto que, por el contrario, la inteligibilidad requiere la concentración de lo no local en una estructura local. Ahora bien, existe un ente matemático que responde bastante bien a esta definición: se trata de la noción de singularidad. Demos un ejemplo típico de dicha noción: el punto cónico, vértice del cono de revolución de ecuación z2 = x2 + y2 en el espacio euclidiano tridimensional referido al triedro trirrectángulo 0xyz. En efecto, este punto singular puede considerarse que proviene de una superficie regular, el cilindro de ecuación x2 + y2 = 1, por la aplicación continua φ que concentra el círculo meridiano de ecuaciones x2 + y2 = 1, z = 0 en el origen 0 (fig. 1). Se trata de un hecho general: siempre es posible considerar que una singularidad proviene de un espacio regular E por concentración en un punto de una figura global inmersa en este espacio E. No es extraño, así pues, que la TC, en su forma «elemental» de campos de dinámicas de gradiente, recurra sistemáticamente a la noción de singularidad (de función).
Figura 1
La célebre fórmula de Rutherford: «Qualitative is nothing but poor Quantitative» es, desde luego, muy fiel reflejo de la ideología cientificista imperante a finales del siglo XIX. Sin embargo, no por ello deja de contener una parte de verdad: si se quiere que un modelo sea pragmáticamente eficaz, entonces ha de contener, necesariamente, una componente cuantitativa que permita la localización espacio-temporal de los fenómenos que describe. Una predicción puramente cualitativa, que no esté provista de ninguna gama de fechas o de lugares, no posee prácticamente ningún interés. Puedo predecir, con completa certeza, que todo régimen político, en toda sociedad cualquiera que sea, acabará por venirse abajo. Si soy incapaz de decir cuándo (aunque sea con alguna imprecisión), mi predicción será sólo una trivialidad. Cuando los sismólogos nos digan: «La ciudad de Basilea va a ser destruida por un seísmo», su afirmación no tiene que ser motivo de inquietud para los basilienses mientras no se precise ningún período de tiempo para el cumplimiento de la predicción. O sea que, desde el punto de vista pragmático, los únicos modelos dignos de consideración son los que permiten la localización espacio-temporal de los fenómenos. En consecuencia, son modelos necesariamente cuantitativos, al menos por lo que se refiere a dicha localización.
Nos vemos, pues, llevados a las siguientes conclusiones: para que un modelo comporte unas buenas posibilidades de previsión y, en consecuencia, de actuación, es necesario que sea cuantitativo, que esté definido mediante entes matemáticos analíticos sobre un espacio substrato que, a su vez, sea también analítico. Evidentemente, éste es el caso de los modelos producidos por la física fundamental. E interesa comprender la razón por la que es así.
Los espacios substrato introducidos en los modelos de las ciencias son de dos tipos: en primer lugar, está el espacio-tiempo de nuestra realidad cotidiana, hecho a nuestra escala; como que —en última instancia— es objeto de percepción a través de nuestros sentidos, justo es decir que el espacio-tiempo es el substrato último al que todos los demás deberían poderse reducir mediante construcciones explícitas matemáticamente.
A continuación, están los espacios substrato abstractos, cuya definición no puede referirse inmediatamente al espacio-tiempo. Es el caso de los espacios de frecuencias estadísticas, que miden la frecuencia con que se presenta un fenómeno de un tipo determinado. En una teoría científica, la noción de fenómeno puede, evidentemente, cobrar un carácter mediato: así, puede ser que una protuberancia en una curva empírica se considere como un «fenómeno», aunque en semejante caso el substrato tenga una interpretación que puede distar mucho del espacio-tiempo.
Por lo que hace al propio espacio-tiempo, cabe preguntarse si está dotado de una estructura analítica natural. La respuesta es afirmativa, si se adopta el punto de vista tradicional en física, consistente en considerar al espacio-tiempo como el espacio homogéneo de un grupo de Lie continuo de equivalencias (grupo euclidiano, galileano, lorentziano). A escala astronómica, nadie puede creer, desde luego, en esta identificación. Pero no por ello deja de conservar una validez local, expresada por la famosa exactitud de las leyes físicas a que nos hemos referido antes. De hecho, el carácter analítico de las leyes fundamentales se fundamenta en un mecanismo más sutil: puede considerarse que las entidades físicas fundamentales (materia, radiación, partículas elementales) rompen la simetría global del espacio-tiempo, puesto que se manifiestan por la presencia local de accidentes que quiebran la homogeneidad del espacio vacío. Entonces se introduce un nuevo substrato, una variable «interna», que es un eje de frecuencia estadística para la aparición de tal o tal tipo de accidente (en mecánica cuántica, como consecuencia de la presencia de la fase, esos ejes son complejos). Se define así un fibrado (complejo) sobre el espacio tiempo, y un estado del universo viene representado por una sección de ese fibrado. Las visiones de dos observadores (asociadas a sistemas de referencia distintos) difieren entonces por una representación (lineal) del grupo de los cambios de sistema de referencia en el espacio de las secciones (que, en el presente caso, es un espacio de Hilbert). Todo problema de comunicación entre observadores y de evolución temporal se reduce a determinar esta representación. ¿Por qué es analítica dicha representación? Porque, si despreciamos lo que sucede en el infinito, podemos reducirnos a una representación de grupo compacto, que es analítica (teorema de Peter-Weyl). En cierto modo, esta exigencia de un estado asintótico estacionario expresa el hecho de que los accidentes que rompen la simetría no pueden amplificarse desmesuradamente, sino que su proliferación permanece controlada y no puede poner en peligro la existencia del propio espacio-tiempo. De este modo, las leyes fundamentales expresan la «regulación» del espacio-tiempo con respecto a los accidentes que lo afectan. Piénsese por ejemplo en la ley de Lavoisier, que expresa la constancia de la masa en el transcurso de una reacción química. Por lo demás, a escala cuántica puede decirse que el espacio-tiempo sólo se salva in extremis (solamente en forma estadística), cosa que expresa la ausencia casi completa de morfología espacial de los fenómenos cuánticos. A escala astronómica, la noción de singularidad reaparece con toda su fuerza; de la descripción (verdad es que muy especulativa) de los agujeros negros, se extrae la conclusión de que allí de donde desaparece el espacio-tiempo tal y como lo conocemos, desaparece también la física que conocemos.
Así pues, en física fundamental, los espacios internos que conviene introducir para describir las entidades físicas pueden relacionarse directamente con el espacio-tiempo o con su grupo de equivalencias mediante construcciones matemáticamente definidas. Ello es suficiente para explicar las grandes leyes fundamentales y su carácter analítico.
Examinemos ahora los otros medios por los que un dato empírico podría dotarse de una estructura analítica natural.
En lugar de la regulación global del espacio-tiempo, consideremos esas regulaciones cualitativas locales que dan origen a las grandes formas típicas (de la naturaleza animada o inanimada) inventariadas en forma de individuos reconocibles (e identificables). Aquí ya no hay grupo continuo de invariancia, puesto que dos especímenes de una forma no son necesariamente iguales métricamente (por ejemplo, dos perros). Así pues, existe fundamento para considerar el espacio de las frecuencias estadísticas de aparición (o de presencia) de la forma. Este formalismo aparece ya en química, donde las leyes de equilibrio químico se basan en la regularidad morfológica de los procesos combinatorios entre moléculas constituidos por las reacciones químicas. Los modelos extraídos sólo satisfacen la condición de analiticidad si se puede demostrar que las constantes cinéticas k que figuran en la ley de acción de masa dependen analíticamente de las concentraciones: una dependencia que nada permite que se afirme a priori.
El mismo formalismo (conocido con el nombre de modelo de los compartimentos) se aplica en biología a la teoría de poblaciones y a la genética formal. Pero las constantes que afectan a la frecuencia de las interacciones (como la predación, por ejemplo) rehuyen toda evaluación, en particular analítica. De lo que resulta que esta teoría sólo ha podido estudiar modelos simplistas, muy poco adecuados para representar la evolución de un sistema ecológico real.
En esta clase de estudios, es muy probable que no puedan extraerse más que conclusiones cualitativas acerca de la naturaleza de los estados asintóticos (puntos de equilibrio, ciclo límite, atractor extraño, etc.).
Toda la estadística tradicional está basada en el uso de distribuciones estándar (Gauss, Poisson…) que son analíticas sobre el eje de frecuencias estadísticas. De ello resulta una confianza a priori en la naturalidad de la estructura analítica definida por la frecuencia (n) de esos ejes. Ahora bien, hay que darse cuenta de que las condiciones de aplicación del teorema central del límite que lleva a la distribución de Gauss son extremadamente restrictivas: aditividad e independencia de las probabilidades individuales son condiciones que, a menudo, resulta difícil que se verifiquen. En muchos fenómenos de fluctuación (como la titilación de las estrellas), los físicos redescubren cuán frágiles son las hipótesis gaussianas. Doy aquí otra razón para poner en duda esas hipótesis de analiticidad a priori:
Supongamos que un suceso (s) pueda producirse con una multiplicidad (mi), a través de un mecanismo determinista definido así: las condiciones iniciales del proceso vienen parametrizadas por los puntos de un espacio euclidiano E = Rn; y el suceso (s) se produce con una multiplicidad (mi) cuando el punto que representa los datos iniciales se encuentra en un abierto Bi cuyo borde regular ∂Bi = Hi, es una hipersuperficie regular en E (y, si se quiere, incluso analítica). Todos los dominios de Bi son disjuntos. Supongamos entonces que la preparación del suceso (s) depende de variables de control (u) ∈ U, tales que, a todo valor de (u), le corresponda un abierto P con borde regular de condiciones iniciales de (e). El abierto Pu depende analíticamente de (u) (por ejemplo, por traslación en E). Entonces, a todo u ∈ U se le puede asociar la sucesión de números reales positivos
mi(u) = μi(u) = med (Pu ⋂ Bi).
Los números μi(u) expresan (salvo normalización) las probabilidades de obtener el suceso (s) con la multiplicidad mi. Las hipótesis de analiticidad que, de ordinario, se hacen en semejante caso llevarían a creer que existe una función analítica f(x; u) que depende analíticamente de u, tal que μi(u) = f(mi; u).
Ahora bien, en el espacio de control U existe un subconjunto K tal que, para u ∈ K, los bordes de Pu y de Bi son tangentes. Si este contacto tiene lugar genéricamente, se ve inmediatamente que, sobre una normal común al borde, μi(u) varía de un lado y de otro del valor de contacto u0 como una potencia racional
μi(u) = C(u − u0)α,
que es la válida a un lado de la singularidad, lo que acarrea una discontinuidad de una derivada de μi(u). Ello excluye la posibilidad de una dependencia analítica global de f en u.
A este ejemplo se le puede objetar, evidentemente, su carácter determinista; regularizando por convolución los bordes de los abiertos Pu y Bi, se podría restablecer, evidentemente, la analiticidad de las (u). Pero entonces la función f cambiaría totalmente de carácter (en particular, desde el punto de vista de sus momentos. Por lo demás, en el estado actual de la dinámica cualitativa, ¿quién puede creer que exista una diferencia de naturaleza entre sistemas dinámicos deterministas y sistemas estocásticos? Un sistema estocástico es un sistema del que se prefiere no dilucidar el determinismo sustituyendo esa hipótesis por hipótesis estadísticas acerca del ruido, cuya legitimación es, por lo general, muy difícil…
En definitiva, la conclusión que cabe extraer de este estudio es la siguiente: el dominio científico en el que es posible construir modelos cuantitativos ciertos, que permitan la previsión y, en consecuencia, la acción, es mucho más estrecho de lo que se cree generalmente. Es como un pequeño halo en torno a la física fundamental, de fronteras tanto más imprecisas cuanto mayor es la intervención de consideraciones estadísticas.
3. El aspecto cuantitativo de la TC
Abordemos ahora la pregunta b): los modelos de la TC ¿pueden reforzarse hasta el punto de hacerse cuantitativos y, en consecuencia, permitir la predicción? Son conocidas las grandes esperanzas que despertó la teoría de las catástrofes en el momento en que se divulgó. ¡Iba a ser posible modelizar los fenómenos discontinuos mediante ecuaciones explícitas! Muy pronto se impuso el desencanto. Los modelos de la teoría elemental (TCE) son esencialmente locales, porque están basados en la noción local de singularidad. Es sabido que, en esos modelos, la morfología observable en un espacio substrato S se obtiene haciendo que S vaya a parar, por una aplicación g, al desplegamiento universal U de la singularidad. La teoría clásica se limita a formular hipótesis de genericidad acerca del morfismo g (rango maximal en 0, transversalidad sobre el conjunto de catástrofe universal K en U). Para obtener posibilidades predictivas del modelo, todo está en controlar, si es posible, el morfismo g.
No existe, a priori, ninguna razón para que este morfismo sea analítico con respecto a las estructuras analíticas, que se suponen naturales, de S y de U. ¿Se dirá que siempre es posible aproximar g mediante un morfismo analítico g en 0? En primer lugar, observemos que puede no ser legítimo aproximar g cuando el proceso está sometido a constricciones (simetrías, condiciones iniciales degeneradas que no han sido tenidas en cuenta en el modelo. Pero incluso si dicha aproximación es posible, subsiste el problema de saber en qué topología hay que hacerla. Porque, si nos contentamos con una topología Ck, con k finito, no existe prácticamente ningún control sobre el dominio de holomorfía del morfismo aproximante g. En consecuencia, puede afirmarse que, sin una hipótesis suplementaria que provenga de un conocimiento más fino del sistema modelizado, es imposible extraer posibilidades de predicción cuantitativa de un modelo de la TCE. En esto, apruebo las críticas de Saumjan y Zahler con respecto a esos modelos.
Dicho esto, no creo que haya que negarles a priori a los modelos catastróficos lo que se concede sin pensar en las técnicas usuales de aproximación; por ejemplo, la posibilidad de interpolar una función continua mediante un polinomio. El fit realizado por Zeeman sobre algunos de esos modelos ha de juzgarse con este ánimo; no tiene como resultado la certeza, pero puede poseer un valor indicativo real. El modelo de la desnaturalización de una proteína construido por Kossak es muy exacto cuantitativamente (según me ha asegurado el autor). Algunas situaciones de regularidad intrínseca del fenómeno pueden hacer posible una concordancia numérica satisfactoria, pero no cabe estar seguro de ello a priori.
Otro método para controlar el morfismo g consistiría en admitir que existen dinámicas (D) canónicamente asociadas a la catástrofe en el espacio de desplegamiento U. Ello permitiría definir la evolución temporal de las catástrofes; además, semejante construcción convertiría a la TC en una teoría generativa, en la que las catástrofes se engendrarían unas a otras, al modo de los términos de un sistema formal. Por consiguiente, esta extensión de la teoría poseería un gran interés, a la vez teórico y práctico. Permitiría contestar a una objeción de principio que Sussmann ha hecho al modelo: la de que introduce una continuidad ficticia allí donde, en realidad, existe una discontinuidad efectiva (en el modelo de la agresividad del perro: un perro ataca o no ataca, pero no existe transición posible entre esas dos conductas). No hay duda de que esa objeción refleja una situación real. Pero es posible dar cuenta de ella en un modelo con dinámica (D) en el desplegamiento. Esta dinámica convertiría a determinadas regiones del espacio U (muy a menudo, un entorno del centro organizador, como en el modelo de la gallina y el huevo) en tabúes, las haría inaccesibles; o bien dicha dinámica podría llevar a atravesar determinadas curvas de bifurcación en determinados puntos bien definidos (un creodo de captura, por ejemplo). La construcción de esas dinámicas «naturales» sobre el desplegamiento U es un problema todavía abierto; en efecto, no se está muy seguro de que haya que partir de los ejemplos concretos proporcionados por las aplicaciones o si, por el contrario, hay que sacar el máximo partido de las posibilidades intrínsecas de la matemática. Yo, por ejemplo, he definido determinadas dinámicas «naturales» sobre U mediante una métrica hiperbólica sobre el producto del espacio de estados por U. Nótese, en el mismo sentido, que las dinámicas hamiltonianas asociadas a los potenciales polinómicos de la TCE desembocan, con una dinámica lineal adecuada en U, en algunas de las trascendentes de Painlevé.
En cualquier caso, parece cierto que el regreso del desplegamiento U (provisto de su dinámica s) al substrato S es el único medio para convertir a la TC en eficaz pragmáticamente hablando. De este modo, la catástrofe definiría una propagación espacial en el soporte S. Tal sería el caso si se pudiera generalizar una situación que se da en el desplegamiento de las singularidades de proyecciones de variedades lagrangianas (frentes de onda) en teoría de Hamilton-Jacobi: en ese caso, existe en U una forma diferencial α con valores en el espacio tangente al substrato (aquí, el espacio de configuración de coordenadas qi), a saber da, tal que la integral ∫nα a lo largo de una trayectoria γ de s vuelve a dar el correspondiente desplazamiento espacial en S. Esta propagación espacial, relativamente bien controlada desde el punto de vista métrico, podría desempeñar el papel de la prolongación analítica inexistente. Además, si existieran trayectorias de (s) que unieran un estrato del desplegamiento asociado a la singularidad si con otro asociado a la singularidad sj, podría explicarse cómo puede la catástrofe (si) engendrar a la catástrofe (sj) en un momento posterior. Podría así abordarse el problema de la articulación de las catástrofes entre sí, problema cuyo interés biológico (particularmente, en embriología) es por completo evidente. Conviene aquí tener presente que la TC está todavía en la infancia. El progreso en ese dominio oscuro, pero esencial, de la «síntesis dinámica» de las catástrofes sólo será posible recurriendo sistemáticamente al material experimental, a la vez que utilizando abiertamente los instrumentos analíticos conocidos o por crear. A falta de ello, bien podría ser que la TC estuviera destinada a un fracaso como el de la cibernética.
4. Los modelos puramente cualitativos: analogía y lenguaje natural
Aunque los modelos de la teoría elemental (TCE) no desemboquen en ninguna previsión cuantitativa, no por ello dejan de poseer un interés real. En efecto, a veces permiten una predicción cualitativa: si es posible seguir tal o tal camino en el desplegamiento U, se obtendrá tal o tal transformación morfológica. Además, el simple hecho de disponer de una teoría que permite una clasificación de situaciones analógicas constituye, desde el punto de vista filosófico, un logro nada despreciable. Porque la noción de analogía, aunque la epistemología neopositivista la rechace por sospechosa, no por ello es menos cierto que desempeña un papel heurístico fundamental en la ciencia. Así pues, es importante rehabilitarla de este ostracismo; y, para conseguirlo, ¿qué mejor medio podríamos soñar que una formalización matemática?
Sin embargo, el uso puramente analógico de la TC suscita una objeción evidente: si es posible geometrizar la analogía mediante esos modelos «catastróficos», ¿qué ventaja ofrece esta modelización con respecto a la intuición inmediata vinculada al lenguaje natural, a la palabra significante?, ¿o se corre el peligro de hacer arte por el arte, llevando a cabo una matematización gratuita y, en definitiva, ociosa? Tal peligro es, ciertamente, real y su inminencia viene confirmada por la lectura de determinadas «aplicaciones» de las catástrofes.
Creo que, en este dominio, no existe una respuesta general y que siempre se trata de casos especiales. Con mucha frecuencia, la geometrización proporciona una visión global que a menudo resulta difícil de captar a través de la conceptualización verbal, a causa de la fragmentación inherente a esta última. Además, las analogías pueden ser más o menos triviales, más o menos sorprendentes; el efecto propiamente fulminante que se observa en algunas metáforas poéticas, ¿se justificaría si todas las analogías fueran evidentes? Es por ello por lo que esos modelos cualitativos sólo pueden apreciarse y juzgarse subjetivamente. En definitiva, el criterio último de validez del modelo lo constituye la satisfacción intelectual que proporciona. Esta vuelta a una evaluación de carácter estilístico, cuasi literario o estético, merecerá sin duda un juicio severo por parte de los científicos «ortodoxos». No perderán la ocasión de decir que esos modelos «no son ciencia». Qué duda cabe de que, desde su punto de vista, tienen razón… Pero se necesita mucha suficiencia para creer que existe una frontera estricta y claramente definida entre ciencia y no-ciencia.
La tentativa global de geometrizar el pensamiento no deja de presentar un enorme interés teórico. Veamos por qué:
En numerosas disciplinas científicas se utilizan conceptos cuyo significado no está claro ni puede formalizarse. En biología, por ejemplo, se encuentran conceptos tales como los de complejidad, orden, desorden, organización, información (genética), mensaje, código, etc., que especifican, todos ellos, una determinada propiedad no local del medio estudiado. Cabe preguntarse si esos conceptos, a ejemplo de numerosos conceptos de la filosofía, pueden traducirse unívocamente en todas las lenguas del mundo y ostentan legítimamente la marca de fábrica de la cientificidad. Pronto llegará el momento en que se hará necesaria una crítica sistemática de esos útiles conceptuales dudosos. Si se pretende aplicar a esos conceptos una forma, siquiera reducida, del programa hilbertiano para la eliminación del sentido, entonces la etapa de geometrización a través de la TC puede resultar un intermediario de gran valor: por medio de ella, se hace posible sustituir la intuición semántica, con su carácter subjetivo inmediato, por la intuición geométrica, que espacializa su objeto y lo distancia del sujeto pensante.
En tanto que teoría fundamentalmente local, la TC elimina el carácter no local, transespacial y cuasi mágico, de esas nociones. Nada impide suponer que sea igualmente posible, como se vio en el apartado anterior, dotar a la TC de generatividad, de propiedades propagativas; entonces podrá proporcionarse un modelo de la deducción, como en la axiomática de un sistema formal. Pero en tal caso, esas propiedades propagativas, no locales, están estrictamente controladas. Volviendo a la metáfora anterior, se observará que los axiomas de un sistema formal permiten, por lo general, sustituir una expresión larga por otra corta, más sencilla. En consecuencia, desempeñan el papel de una acción no local en la topología del monoide libre engendrado por los símbolos.
Este programa, que recuerda la característica universal de Leibniz, apenas está en sus comienzos, evidentemente. Con la TCE y las extensiones lingüísticas (esquemas actanciales) que se le pueden asociar, se dispone a lo sumo de una formalización (relativa) de las situaciones sintácticas de las frases elementales. Pero el dominio del léxico, la organización semántica de un diccionario, continúa siendo, en la actualidad, una terra ignota. En este punto interviene el problema de lo que he llamado los logoi, es decir, esas estructuras algebraico-geométricas que estabilizan todo concepto en el espacio de las actividades mentales. Volvemos aquí a encontrarnos —en una forma particularmente aguda— con el problema de la síntesis dinámica que hemos tratado antes. ¿Cómo geometrizar las grandes categorías gramaticales? El cometido que desempeña la doble articulación, presente a la vez en biología (genotipo-organismo) y en lingüística (fonemas-frase), ¿es indispensable para la estabilización de los logoi?
Ante la inmensidad de este programa, uno puede sentirse embargado por una inquietud legítima: ¿vale la pena internarse por ese camino? A ello contestamos que los modelos «catastróficos» ya han proporcionado intuiciones que el lenguaje usual hubiera suministrado difícilmente. En efecto, el pensamiento verbalizado tiene tendencia a esclerotizar los conceptos, vinculados como están a una palabra fija del léxico: ésta disimula su variabilidad intrínseca tras el efecto de los auxiliares y de las funciones de la gramática. La TC hace posible una lógica del continuo, en la que se consideran conceptos «variables» Fu, donde el parámetro u varía en un espacio de control U; cuando u describe un camino (uv) en U, es posible que el concepto Fu se transforme continuamente en un concepto Gv, cuyo parentesco con Fu no aparezca inmediatamente con Fu, porque, en el pensamiento normal, existe un umbral, un «tabú», que separa a u de v en el espacio de control U. La TC ofrece, en consecuencia, la posibilidad (amplia) de transgredir el principio de identidad (sin perjuicio, evidentemente, que esas transgresiones se realicen en situaciones bien controladas). Es sabido —sin duda— el ejemplo tipo de dichas transgresiones. Se trata del principio (que yo considero fundamental en embriología animal) que dice: «El predador hambriento es su presa». Recordemos que este principio resulta de aplicar el modelo de la cúspide a la predación (fig. 2): el predador P, después de la captura espacial de la presa (p) (en el punto K de la curva de bifurcación), se hunde en el sueño simbolizado por el semicírculo M (estado de indistinción entre el sujeto y el objeto); al despertarse, el predador reaparece en tanto que su presa (p), no recobrará su condición de predador más que después de la catástrofe de percepción (en J), cuando percibe una presa exterior (p) y se pone a perseguirla.
Figura 2
Quisiera señalar aquí una implicación curiosa (y bastante vertiginosa) de este modelo. Cuando el predador (P) ha reconocido una presa exterior (p), existe entre (P) y (p) una especie de identificación simbólica que puede interpretarse como la creación, en el espacio-tiempo, de un asa (en el sentido topológico) que identifica (P) y (p) (fig. 3). A consecuencia de ello, la topología del espacio adquiere una forma «excitada», y tiende por sí misma a regresar a la normalidad por regularización físico-química. Este regreso a lo normal puede llevarse a cabo de dos maneras: normalmente, por la captura espacial de la presa por el predador (lo que corresponde a la creación en el espacio-tiempo de un punto crítico de índice uno, que destruye el asa (fig. 4); o, de manera menos normal —pero no imposible— por huida de la presa (p) (fig. 5); entonces el asa se destruye por un punto crítico de índice tres, interior al asa, y se regresa a la situación anterior a la catástrofe de percepción. De este modo, este modelo, de un idealismo delirante, justifica la tesis conductista según la cual la captura de la presa por el predador (o la huida de la presa) es un mecanismo de regulación físico-química, ¡impuesto por la regulación topológica del espacio-tiempo! La subjetividad aparece entonces como una localización actancial de un estado excitado del universo, como la elección de un regreso a lo normal. Resultaría estar ligada a la situación dicotómica de conflicto entre lo real y lo imaginario, entre el reposo y la tensión. Por lo demás, en el calificativo de «excitado» queda algo así como una connotación subjetiva; lo imaginario sería la estabilización de los umbrales. Y con esta idea un poco bergsoniana, quisiera poner punto final al presente estudio.
Figura 3: Asa simbólica entre predador (P) y presa (p)
Figura 4: Destrucción del asa por captura de la presa (p) por el predador (P)
Figura 5: Destrucción del asa por buida de la presa (p)
Bibliografía
1. Sobre la teoría de las catástrofes y la teoría de singularidades
M. Golubitsky y V. Guillemin, Stable Mappings and their Singularities, Heidelberg, Springer, col. «Graduate Texts in Mathematics», vol. 14, 1973.
Y. C. Lu, Singularity Theory and Introduction to Catastrophe Theory, Heidelberg, Springer, col. «Universitext», 1976, 2.ª ed. corregida.
Mathématiques et Sciences humaines, n.º 59, número especial: Théorie des catastrophes (I), Paris, Gauthier-Villars, 1977.
Mathématiques et Sciences humaines, n.º 64, número especial: Théorie des catastrophes (II), Paris, Gauthier-Villars, 1978.
P. P. Saunders, An Introduction to Catastrophe Theory, Cambridge University Press, 1980. Traducción castellana: Siglo XXI, Madrid, 1983.
I. N. Stewart, «The seven Elementary Catastrophes», «New Scientist», vol. 68, n.º 976, 1975, págs. 447-454.
H. J. Sussmann, «Catastrophe Theory», «Synthese», vol. 31, n.º 2, agosto 1975, Dordrecht, págs. 229-276.
H. J. Sussmann y R. S. Zahler, «Catastrophe Theory as applied to the social and biological Sciences: a Critique», «Synthese», vol. 37, n.º 2, febrero 1978, Dordrecht, págs. 117-216.
R. Thom, Stabilité structurelle et morphogenése, Paris, Interéditions, 1972; 2.ª ed. revisada, corregida y aumentada, 1977.
— L’évolution temporelle des catastrophes, Publicaciones del Instituto matemático de la universidad de Utrecht, 1973.
— Modèles mathématiques de la morphogenèse (colección de textos sobre la teoría de las catástrofes y sus aplicaciones), Paris, Union générale d’éditions, col. «10/18», n.º 887, 1974. Nueva edición revisada y aumentada, París, Christian Burgois, 1981.
— «D’un modèle de la science à une science des modèles», «Synthese», vol. 31, n.º 2, agosto 1975, págs. 359-374.
R. Thom, C. Lejeune y J.-P. Duport, Morphogenèse et imaginaire, Paris, Éd. Lettres modernes, col. «Circé», n.º 8-9, 1978.
G. Wasserman, Stability of Unfoldings, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 393, 1974.
A. E. R. Woodcock y T. Poston, A geometrical Study of the elementary Catastrophes, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 373, 1974.
E. C. Zeeman, Catastrophe Theory (Selected Papers, 1972-1977), Reading (Mass.), Addison-Wesley, 1977.
2. Sobre la geometría diferencial y los sistemas dinámicos
R. Abraham, Foundations of Mechanics, Nueva York, Benjamin, 1967.
R. Abraham y J. Robbin, Transversal Mappings and Flows, Nueva York, Benjamin, 1967.
V. Arnold y J. Avez, Problèmes ergodiques en mécanique classique, París, Gauthier-Villars, 1967.
V. Arnold, Équations différentielles ordinaires, Moscú, Mir, 1974.
— Chapîtres supplémentaires de la théorie des équations différentielles ordinaires, Moscú, Mir, 1980.
W. M. Booth, An Introduction to differentiable Manifolds and Riemanian Geometry, Nueva York, Academic Press.
P. Delattre, L’évolution des systèmes moléculaires, París, Maloine, 1971.
M. W. Hirsch y S. Smale, Differential Equations, Dynamical Systems and Linear Algebra, Nueva York, Academic Press, 1974.
A. Lichnerowicz, F. Perroux y G. Gadoffre (eds.), Structure et dynamique des systèmes, Paris, Maloine, 1976.
A. Manning (éd.), Dynamical Systems-Warwick 1974, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 468, 1975.
M. M. Peixoto (ed.), Dynamical systems. Proceeding of a Symposium held at Salvador (Brazil), Nueva York, Academic Press, 1973.
Proceeding of Liverpool Singularities. Symposium I, ed. por C. T. C. Wall, Heidelberg, Springer, col. «Lecture Notes in Mathematics», vol. 192, 1971.
Proceeding of Liverpool singularities. Symposium II, ed. por C. T. C. Wall, Heidelber, Springer, col. «Lecture Notes in Mathematics», vol. 209, 1971.
M. Spivak, A comprehensive Introduction to differential Geometry, 5 vols., Boston, Publish or Perish, 1979, 2.ª ed.
R. Thom, Local Topological Properties of Differentiable Mappings, Differential Analysis, Oxford University Press, 1964.