12. EL PUNTO DE VISTA BAYESIANO
INTRODUCCIÓN
Muchos de nosotros tuvimos la suficiente confianza en la predicción del regreso más reciente del cometa Halley como para reservar con mucha antelación fines de semana en el campo, lejos de las luces de la ciudad, para poder observarlo. Nuestra esperanza no se vio defraudada. Los científicos tienen bastante confianza en la seguridad de sus predicciones como para enviar al espacio naves tripuladas. Cuando algo se torció en una de ellas, nos impresionó, aunque quizás no nos sorprendió, que los científicos, con la ayuda de los ordenadores, pudieran calcular rápidamente cómo utilizar el combustible restante para hacer funcionar el motor del cohete de tal manera que la nave entrara en una órbita que lo devolvería a la Tierra. Estas historias sugieren quizá que la medida en que la falibilidad de las teorías, enfatizada hasta ahora en nuestro relato por los filósofos, desde Popper a Feyerabend, ha sido equivocada o exagerada. ¿Puede conciliarse con ellas la afirmación popperiana de que la probabilidad de todas las teorías científicas es igual a cero? Conviene subrayar en conexión con esto que la teoría utilizada por los científicos en mis dos historias era la teoría newtoniana, una teoría que ha sido falsada de diversas maneras a principios de este siglo, según la concepción de Popper (y de muchos otros). Seguramente ha habido algún error serio.
Un grupo de filósofos que piensan que ha existido un error radical, y cuyos intentos de corregirlo se han hecho populares en las últimas dos décadas, son los bayesianos, así llamados debido a que fundamentan sus puntos de vista en la teoría de probabilidades probada por el matemático del siglo XVIII Thomas Bayes. Los bayesianos consideran que es inapropiado adscribir probabilidad cero a una teoría bien confirmada, y buscan algún tipo de inferencia inductiva que proporcione probabilidades distintas de cero para evitar las dificultades del tipo descrito en el capítulo 4. Por ejemplo, querrían mostrar cómo y por qué se puede atribuir una probabilidad alta a la teoría newtoniana cuando se la utiliza para calcular la órbita del corneta Halley o de una nave espacial. En este capítulo se presentan un bosquejo y una valoración crítica de su punto de vista.
EL TEOREMA DE BAYES
El teorema de Bayes concierne a las probabilidades condicionales, es decir, probabilidades de proposiciones que dependen de (y de aquí que estén condicionadas por) las pruebas que soportan dichas proposiciones. Por ejemplo, las probabilidades asignadas por un jugador a cada caballo de una carrera estará condicionada por el conocimiento que tenga el jugador sobre la forma de cada caballo en el pasado. Aún más, dichas probabilidades estarán sujetas a cambio a la luz de nuevas pruebas, si, por ejemplo, encuentra a su llegada al hipódromo que uno de los caballos está sudando profusamente y parece claramente enfermo. El teorema de Bayes prescribe cómo se han de modificar las probabilidades a la luz de pruebas nuevas.
En el contexto de la ciencia, el tema es cómo asignar probabilidades a teorías o hipótesis en vista de las pruebas. Sea P(h/e) la probabilidad de una hipótesis h en función de la evidencia e, P(e/h) denota la probabilidad que se ha de asignar a la prueba e en el supuesto de que la hipótesis h sea correcta. P(h) es la probabilidad asignada a h en ausencia de todo conocimiento de e, y P(e) la probabilidad asignada a e en ausencia de cualquier suposición respecto de la verdad de h. El teorema de Bayes se puede escribir:
P(h/e)= P(h).P(e/h):P(e)
Se denomina a P(h) probabilidad previa, puesto que es la probabilidad asignada a la hipótesis antes de toda consideración de la prueba e, y se denomina a P(h/e) probabilidad posterior, la probabilidad después de tomar en cuenta la prueba e. La fórmula nos dice cómo modificar la probabilidad de una hipótesis para llegar a una nueva y revisada probabilidad en vista de alguna prueba especificada.
La fórmula indica que la probabilidad previa P(h) se modifica por un factor de escala P(e/h):P(e) en función de la prueba e. Se puede ver fácilmente que esto está de acuerdo con intuiciones comunes. El factor P(e/h) es una medida de la probabilidad de e dado h. Tomará un valor máximo de 1 si e se sigue de h y valor mínimo, 0, si la negación de e se sigue de h. (Las probabilidades toman siempre valores entre 1 que representa la certeza, y 0, que representa la imposibilidad.). La medida en que una prueba soporta una hipótesis es proporcional al grado con que la hipótesis predice la prueba, lo que parece bastante razonable. El divisor del factor de escala, P(e) es una medida de lo probable que se considera que será la prueba si no se supone la verdad de la hipótesis h. Así, si se considera que una prueba es extremadamente probable, tanto si suponemos una hipótesis como si no, la hipótesis no recibe un apoyo importante cuando se confirma la prueba, mientras que si la prueba es muy improbable a menos que se suponga la hipótesis, entonces la hipótesis recibirá una alta confirmación si se confirma la prueba. Por ejemplo, si alguna nueva teoría de la gravitación predijera que los objetos pesados caen a la Tierra, no recibiría una confirmación significativa por la observación de la caída de una piedra, dado que se esperaría que la piedra cayera de todas maneras. Por otra parte, si la nueva teoría predijera una pequen a variación de la gravedad con la temperatura, la teoría recibiría una elevada confirmación por el descubrimiento de ese efecto, pues se consideraría muy poco probable sin la nueva teoría.
Un aspecto importante de la teoría bayesiana de la ciencia es que los cálculos de las probabilidades previa y posterior siempre tienen lugar contra un trasfondo de suposiciones que se dan por válidas, esto es, se da por supuesto lo que Popper llama conocimiento de fondo. Así por ejemplo, cuando se mencionó en el párrafo anterior que P(e/h) toma el valor 1 cuando e sigue de h, se dio por supuesto que h se tomaba en unión de todo el conocimiento de fondo. Hemos visto en capítulos anteriores que las teorías necesitan ir acompañadas del conocimiento de fondo disponible antes de facilitar predicciones comprobables. Los bayesianos incorporan estas consideraciones. Se supone a lo largo de todo este análisis que las probabilidades se calculan contra un trasfondo de conocimiento supuesto.
Es importante aclarar en qué sentido el teorema de Bayes es en efecto un teorema. Si bien no entraremos aquí en detalles, observamos que existen algunos supuestos mínimos acerca de la naturaleza de la probabilidad que, tomados en conjunto, constituyen el llamado «cálculo de probabilidades». Tanto bayesianos como no bayesianos aceptan estos supuestos. Se puede demostrar que negarlos tiene una serie de consecuencias indeseables. Se puede demostrar, por ejemplo, que un sistema de juego que viole el cálculo de probabilidades es «irracional», en el sentido de que hace posible colocar apuestas en todos los resultados posibles de un juego, carrera o lo que sea, de tal modo que los participantes en uno u otro lado de la apuesta ganarían, cualquiera que fuera el resultado. (Los sistemas de apuestas que permiten esta posibilidad se denominan «apuestas holandesas». Violan el cálculo de probabilidades). El teorema de Bayes puede deducirse de las premisas que constituyen el cálculo de probabilidades. En este sentido, el teorema es en sí mismo incontestable.
Hemos introducido el teorema de Bayes y hemos tratado de señalar que la forma en que prescribe que se pueda modificar la probabilidad de una hipótesis en vista de las pruebas capta algunas intuiciones directas acerca del peso de las pruebas en las teorías. Vamos ahora a insistir con más fuerza en la cuestión de la interpretación de las probabilidades.
BAYESIANISMO SUBJETIVO
Los bayesianos están en desacuerdo entre ellos mismos sobre la cuestión fundamental referente a la naturaleza de las probabilidades involucradas. A un lado de la división tenemos los bayesianos «objetivos». Según éstos, las probabilidades son las que los agentes racionales deberían de subscribir en vista de la situación objetiva. Trataré de señalar el meollo de su postura con un ejemplo de las carreras de caballos. Supongamos que tenemos delante una lista de los caballos participantes en una carrera y que no se nos da ninguna información acerca de los caballos. Podría decirse entonces que, sobre la base de algún «principio de indiferencia», la única manera racional de asignar probabilidades a la verosimilitud de ganar que tendría cada caballo es la de distribuir igualmente las probabilidades entre los participantes. Ya con estas probabilidades previas «objetivas» listas, el teorema de Bayes manda cómo deben ser modificadas estas probabilidades en vista de cualquier prueba, de modo que las probabilidades posteriores que resulten serán las que un agente racional debería de aceptar. Un problema importante y notorio que encuentra este esquema, en el campo de la ciencia al menos, es el relativo a cómo asignar probabilidades previas objetivas a las hipótesis. Perece ser preciso que se haga una lista de todas las hipótesis posibles en un dominio y que distribuyamos probabilidades entre ellas, quizás asignando la misma probabilidad a cada una según el principio de indiferencia. Pero, ¿de dónde saldría tal lista? Podría pensarse que el número de hipótesis posibles en un dominio es infinita, lo que daría probabilidad cero a todas y el juego bayesiano no puede comenzar. Todas las teorías tienen probabilidad cero y Popper gana. ¿Cómo puede llegarse a una lista finita de hipótesis que permita una distribución objetiva de probabilidades previas distintas de cero? Mí opinión es que el problema es insuperable, y tengo también la impresión, por la literatura actual, de que la mayoría de los bayesianos están llegando a este punto de vista. Volvamos, por tanto, al bayesianismo subjetivo.
Para el bayesianísmo subjetivo, las probabilidades que ha de manejar el teorema de Bayes representan grados distintos de creencia. Argumentan que se puede desarrollar una interpretación consistente de la teoría de probabilidades sobre esta base, y que, además, es una interpretación que puede servir debidamente a la ciencia. Se puede aprehender parte de su racionalidad refíriéndonos a los ejemplos suscitados en el párrafo inicial de este capítulo. Cualquiera que sea la fuerza de los argumentos que atribuyen probabilidad cero a todas las hipótesis y teorías, no es sencillamente verdad, dicen los bayesianos subjetivos, que la gente en general y los científicos en particular asignen probabilidad cero a teorías bien confirmadas. En mi caso al menos, el hecho de que reservé mí viaje a la montaña para observar el cometa Halley sugiere que tienen razón. Los científicos dan por supuestas muchas leyes en su trabajo. El uso incondicional que hacen los astrónomos de la ley de la refracción de la luz, y de la ley de Newton los que intervienen en el programa espacial, demuestran que asignan una probabilidad cercana a 1 a dichas leyes, si no igual a la unidad. Los bayesianos subjetivos toman sencillamente los grados de creencia en las leyes que los científicos de hecho tienen como la base de las probabilidades previas en sus cálculos bayesianos. Escapan de este modo a las constricciones de Popper de que la probabilidad de todas las hipótesis universales debe ser cero.
El bayesianísmo tiene mucho sentido en el contexto del juego. Hemos visto que una condición suficiente para evitar las apuestas holandesas es la adhesión al cálculo de probabilidades, dentro del cual puede demostrarse el teorema de Bayes. Los esquemas bayesianos se aprovechan de esto trazando una estrecha analogía entre los sistemas de la ciencia y del juego. El grado de creencia que tiene un científico en una hipótesis es análogo a la probabilidad que se le concede a un caballo de que gane una carrera. Hay en esto un posible origen de ambigüedad que debe ser analizado. Sí nos aferramos a la analogía con las carreras de caballos, las probabilidades que el apostador considera justas pueden interpretarse tanto como relativas a sus grados privados y subjetivos de creencia como a sus creencias expresadas en la práctica por su conducta en las apuestas. No son necesariamente la misma cosa. Los apostadores pueden salirse del dictado de las probabilidades en las que creen sí se aturden en el hipódromo, o sí pierden los nervios porque su estrategia arriesga una suma grande. No todos los bayesianos hacen la misma elección entre estas alternativas al aplicar a la ciencia el cálculo bayesiano. Por ejemplo, Jon Dorlíng (1979) piensa que las probabilidades miden lo que se refleja en la práctica científica, y Howson y Urbach (1989) piensan que miden los grados subjetivos de creencia. Una dificultad de la primera posición radica en saber qué es lo que en la práctica científica se supone que corresponde al comportamiento en las apuestas. El identificar las probabilidades con grados subjetivos de creencia, como hacen Howson y Urbach, tiene al menos la ventaja de dejar claro a qué se refieren las probabilidades.
Parecería que comprender la ciencia y el razonamiento científico en términos de las creencias subjetivas de los científicos es un punto de partida decepcionante para quienes buscan una concepción objetiva de la ciencia. Howson y Urbach tienen una respuesta a esta acusación, e insisten en que la teoría bayesiana constituye una teoría objetiva de la inferencia científica. Es decir, dados un conjunto de probabilidades previas y alguna prueba nueva, el teorema de Bayes dicta de modo objetivo cuáles deben ser las probabilidades nuevas, las posteriores, vista dicha prueba. No hay ninguna diferencia a este respecto entre el bayesianismo y la lógica deductiva, puesto que la lógica tampoco tiene nada que decir acerca del origen de las proposiciones que constituyen las premisas de una deducción; dice simplemente qué sigue de dichas proposiciones una vez que han sido dadas. Se puede llevar un paso más adelante la defensa bayesiana. Se puede argüir que las creencias de los científicos particulares, por mucho que difieran en un comienzo, convergen si reciben la información adecuada de las pruebas. Es fácil ver de manera informal cómo puede suceder esto. Supongamos que dos científicos comienzan estando fuertemente en desacuerdo acerca de la probable verdad de la hipótesis h, que predice un resultado experimental, inesperado de otro modo. El que atribuye una probabilidad alta a h pensará que e es menos improbable que aquel que asigna una probabilidad baja a h. De este modo, P(e) será alta para el primero y baja para el segundo. Supongamos ahora que e se confirma experimentalmente. Los dos científicos tendrán que ajustar las probabilidades de h por un factor P(e/h):P(e). Sin embargo, puesto que suponemos que e se sigue de h, P(e/h) es 1 y el factor de escala es 1: P(e). Por consiguiente, el científico que comenzó con una probabilidad baja para h la escalará con un factor mayor que el científico que comenzó con una probabilidad alta para h. Según llegan más pruebas positivas, el que dudaba al comienzo se verá obligado a escalar la probabilidad de manera tal que se aproximará eventualmente a la del científico ya convencido. De este modo, razonan los bayesianos, opiniones subjetivas que difieren grandemente pueden acercarse de una manera objetiva en respuesta a la evidencia.
APLICACIONES DE LA FÓRMULA DE BAYES
El párrafo anterior ha sido un anticipo de las formas en que los bayesianos intentan captar y sancionar modos típicos de razonar en ciencia. En esta sección mostraremos otros ejemplos de los bayesianos en acción.
En los capítulos anteriores señalamos que existe una ley de rendimientos decrecientes al comprobar una teoría con la experimentación. Tan pronto como una teoría ha sido confirmada por un experimento una vez, los científicos no considerarán que la repetición del mismo experimento bajo las mismas circunstancias confirme la teoría en tan alto grado como el primer experimento. Esto es explicado fácilmente por los bayesianos. Si la teoría T predice el resultado experimental E, la probabilidad P(E/T) es igual a 1, de modo que el factor por el que hay que aumentar la probabilidad de T en vista de un resultado positivo E es 1: P(E). Cada vez que se lleva a cabo con éxito el experimento, más probable es que el científico espere que resulte de nuevo exitoso la vez siguiente. Esto es, P(E) aumentará. Por consiguiente, la probabilidad de que la teoría sea correcta aumentará una pequeña cantidad en cada repetición.
Se pueden destacar otros puntos en favor del esquema bayesiano a la vista de ejemplos históricos. De hecho, creo que una razón clave para el prestigio ascendente de los bayesianos ha sido su actividad en casos históricos de la ciencia, tendencia que inició Jon Dorling (1979). En nuestro análisis de la metodología de Lakatos observamos que, según dicha metodología, lo importante es la confirmación de un programa, y no las falsaciones aparentes, que pueden achacarse a los supuestos del cinturón protector más que al núcleo central. Los bayesianos aseveran que pueden captar la racionalidad de esta estrategia. Veamos cómo lo hacen estudiando el ejemplo histórico utilizado por Howson y Urbach (1989, pp. 97-102).
El ejemplo se refiere a una hipótesis presentada por William Prout en 1815. Prout, impresionado por el hecho de que los pesos de los elementos químicos relativos al peso atómico del hidrógeno son, en general, cercanos a números enteros, conjeturó que los átomos de los elementos constan de números enteros de átomos de hidrógeno. Es decir, Prout pensó que los átomos de hidrógeno eran como ladrillos elementales de edificación. La cuestión sobre la mesa es cuál fue la respuesta racional de Prout y sus seguidores ante el hecho de que el peso atómico del cloro relativo al hidrógeno (medido en 1815) era de 38,53, esto es, no un número entero. La estrategia bayesiana es la de asignar probabilidades que reflejan las probabilidades previas que Prout y sus seguidores pudieran haber atribuido a su teoría, junto con los aspectos relevantes del conocimiento de fondo, y entonces usar el teorema de Bayes para calcular cómo cambian dichas probabilidades en vista del descubrimiento de una prueba problemática, la del valor no entero para el peso atómico del cloro. Howson y Urbach intentan mostrar que, cuando se hace así, el resultado es que la probabilidad de la hipótesis de Prout cae sólo un poco, mientras que la probabilidad de que las mediciones fueran precisas cae dramáticamente. En vista de esto, parece bastante razonable que Prout retuviera la hipótesis (el núcleo central) y culpara a algunos aspectos del proceso de medición (el cinturón protector). Parecería que se ha proporcionado una racionalidad clara a lo que en la metodología de Lakatos aparecía como «decisiones metodológicas» que no estaban fundamentadas. Aún más, parecería que Howson y Urbach, que siguen en esto a Dorling, han dado una solución general al llamado «problema de Duhem-Quine». Frente al problema de qué parte de la red de supuestos tiene la culpa de una falsación aparente, la respuesta de los bayesianos es la de introducir las probabilidades previas apropiadas y calcular las probabilidades posteriores. Éstas mostrarán qué supuestos se hunden hasta una probabilidad baja y, por consiguiente, qué supuestos deberían ser abandonados para maximizar la posibilidad de un éxito futuro.
No entraré en los detalles de los cálculos del caso Prout, ni de ningún otro ejemplo de los que han dado los bayesianos, pero sí diré lo suficiente para dar una idea de cómo proceden. La hipótesis h de Prout, y el efecto de la evidencia e, el peso atómico no entero del cloro, sobre la probabilidad que se le ha de asignar, debe ser enjuiciado en el contexto del conocimiento de fondo a. El aspecto más importante de este conocimiento de fondo es la confianza que se pueda tener en las técnicas disponibles para medir pesos atómicos y el grado de pureza de los materiales químicos. Es preciso estimar las probabilidades previas de h, a y e. Howson y Urbach sugieren un valor de 0,9 para P(h), basándose en la evidencia histórica de que los proutianos estaban muy convencidos de la verdad de su hipótesis. Dan a P(a) un valor algo más bajo de 0,6, sobre la base de que los químicos eran muy conscientes del problema de las impurezas y de que había variaciones en los resultados de diferentes mediciones del peso atómico de elementos particulares. Se fija la probabilidad P(e) suponiendo que la alternativa a h es una distribución aleatoria de pesos atómicos; así, por ejemplo, a P(e/no h & a) se le asigna una probabilidad de 0,01, fundándose en que, si el peso atómico del cloro se distribuye aleatoriamente en un intervalo unidad, tendría una posibilidad de 1/100 de ser 35,83. Estas estimaciones de probabilidades, y algunas otras similares, se introducen en el teorema de Bayes para obtener las probabilidades posteriores P(h/e) y P(a/e), para h y a. El resultado es 0,878 para la primera y 0,073 para la última. Obsérvese que la probabilidad de h, la hipótesis de Prout, ha caído sólo una pequeña cantidad desde la original de 0,9, mientras que la probabilidad de a, la suposición de que las mediciones son confiables, ha caído dramáticamente desde 0,6 hasta 0,073. Una respuesta razonable de los proutianos, concluyen Howson y Urbach, era mantener su hipótesis y dudar de las mediciones. Señalan que no importa mucho qué valores absolutos de los números se introducen en los cálculos, siempre que sean del orden que refleje las actitudes de los proutianos conservadas en la literatura histórica.
El esquema bayesiano se presta a criticar algunas de las concepciones comunes sobre la inconveniencia de las hipótesis ad hoc y otros asuntos relacionados con éste. Antes en este libro, propuse la idea, siguiendo a Popper; de que las hipótesis ad hoc no son deseables debido a que no son comprobables independientemente de las pruebas que condujeron a su formulación. Una idea relacionada con esto es que las pruebas que se usan para construir una teoría no pueden ser usadas de nuevo como prueba de dicha teoría. Desde el punto de vista bayesiano, aunque estas nociones proporcionan a veces respuestas adecuadas sobre la correcta confirmación de las teorías por las pruebas, otras veces se extravían y, lo que es más importante, es errónea la racionalidad que subyace. El intento de los bayesianos por hacerlo mejor es de la manera siguiente.
Los bayesianos concuerdan con la ampliamente extendida opinión de que una teoría es confirmada mejor por diversas clases de pruebas que por una de una clase en particular. Existe una racionalidad bayesiana simple que explica por qué esto debería ser así. La clave es que los esfuerzos por confirmar una teoría con una sola clase de pruebas tienen rendimientos decrecientes. Esto es consecuencia de que cada vez que se confirma la teoría por la misma prueba, aumenta gradualmente la probabilidad que expresa el grado de creencia de que se comportará en el futuro de la misma manera. En contraste, puede ser muy baja la probabilidad previa de que una teoría sea confirmada por una nueva clase de pruebas. En tales casos, al introducir los resultados de la confirmación, una vez que ésta sucede, en la fórmula bayesiana se consigue un aumento importante en la probabilidad asignada a la teoría. Así, no se discute la importancia de pruebas independientes. Sin embargo, Howson y Urbach insisten en que, desde el punto de vista bayesiano, si se han de desechar ciertas hipótesis por que son ad hoc, la razón correcta para hacerlo no es la ausencia de pruebas independientes. Más aún, niegan que los datos utilizados en la construcción de una teoría no puedan ser usados para confirmarla.
Una dificultad importante que encuentra el intento de excluir las hipótesis ad hoc por la exigencia de pruebas independientes es que esto es demasiado débil, y admite hipótesis de una manera que choca al menos con nuestras intuiciones. Por ejemplo, consideremos el intento de un rival de Galileo de mantener su suposición de que la Luna es esférica frente a las observaciones de Galileo de sus montañas y cráteres, proponiendo la existencia de una substancia transparente, cristalina, que envuelve la Luna observable. Este ajuste no puede ser rechazado por el criterio de comprobación independiente, porque fue probado independientemente, como lo demuestra el hecho de que ha sido refutado por la ausencia de interferencia de tales esferas cristalinas durante varios alunizajes. Greg Bamford (1993) ha destacado esto, junto con una serie de otras dificultades que surgen en los intentos de definir la noción de ad hoc por filósofos de la tradición popperiana, y sugiere que están tratando de definir una noción técnica para lo que en realidad no es más que una idea del sentido común. Aunque Bamford no hace su crítica desde un punto de vista bayesiano, la respuesta de Howson y Urbach es similar, en cuanto que sostienen que las hipótesis ad hoc son desechadas simplemente porque se consideran implausibles, y se les asigna una probabilidad baja debido a esto. Supongamos que una teoría t se encuentra en dificultades debido a alguna prueba problemática y es modificada añadiendo la suposición a, de modo que la nueva teoría t es (t & a). Entonces, un resultado directo de la teoría de probabilidades es que P(t & a) no puede ser mayor que P(a). Por tanto, desde un punto de vista bayesiano, la teoría modificada tendrá una probabilidad baja simplemente sobre la base de que P(a) es poco probable. La teoría del rival de Galileo podría ser rechazada por cuanto su sugerencia es implausible. No hay nada más en esto, ni nada más es necesario.
Volvamos ahora al caso del uso de datos para construir una teoría, y la negación de que esos datos puedan ser tomados en cuenta para soportarla. Nowson y Urbach (1989, pp. 275-80) dan ejemplos en contra. Consideremos una urna que contiene bolas e imaginemos que comenzamos con la suposición de que todas las bolas son blancas y ninguna de color. Supongamos que sacamos bolas mil veces, reemplazando la bola y sacudiendo la urna tras cada saque, y que el resultado es que hay 495 bolas blancas. Ajustamos ahora nuestra hipótesis de modo que sea que la urna contenga bolas blancas y de color en números iguales. ¿Está esta hipótesis soportada por la prueba usada para llegar a los números iguales de la revisión? Howson y Urbach sugieren, razonablemente que sí lo está y muestran por qué sobre fundamentos bayesianos. El factor crucial que lleva a que aumente la probabilidad de la hipótesis de los números iguales, de resultas del experimento que sacó 495 bolas blancas, es la probabilidad de sacar ese número si la hipótesis de los números iguales es falsa. Una vez que se ha acordado que esa probabilidad es pequeña, el resultado de que el experimento confirme la hipótesis de los números iguales sigue directamente del cálculo bayesiano, a pesar de que la hipótesis fue usada en la construcción de los datos.
Algunas versiones de la crítica típica que se le hace a menudo al esquema bayesiano son sorprendentes, pero creo que la interpretación defendida por Howson y Urbach pueden contrarrestarlas. Para utilizar el teorema de Bayes es necesario poder evaluar P(e), la probabilidad previa de la prueba que se está considerando. En un contexto en el que se estudia h, es conveniente escribir P(e) como P(e/h).P(h) + P(e/no h).P(no h), una identidad inmediata en teoría de probabilidades. El bayesiano necesita poder estimar la probabilidad de la evidencia suponiendo que la hipótesis es verdadera, que bien pudiera ser la unidad si la evidencia se deduce de la hipótesis, pero también la probabilidad de la evidencia de ser falsa la hipótesis. Éste es el factor problemático. Parecería que es necesario estimar la posibilidad de la prueba a la luz de todas las hipótesis que no son h. Esto parece un obstáculo importante, puesto que ningún científico particular puede estar en posición de conocer todas las posibles alternativas a h, especialmente si, como ha sugerido alguien, deben incluirse todas las hipótesis no inventadas todavía. La respuesta que les queda a Howson y Urbach es insistir en que las probabilidades de su cálculo bayesiano representan probabilidades personales, esto es, probabilidades que los individuos atribuyen de hecho a varias proposiciones. El valor de la probabilidad de que cierta prueba sea verdadera respecto de las alternativas a h será decidido por el científico a luz de lo que en su caso sepa (lo que ciertamente excluirá las hipótesis aún no inventadas). Así, por ejemplo, al ocuparse del caso Prout, Howson y Urbach suponen que la única alternativa posible a la hipótesis de Prout es la de que los pesos atómicos estén distribuidos aleatoriamente, basándose en la evidencia histórica de que ésta era la alternativa en que pensaban los proutianos. Howson y Urbacb pueden evitar los problemas particulares mencionados aquí dada la naturaleza totalizadora de su paso a las probabilidades subjetivas.
En el cuadro que he dibujado de los elementos del análisis bayesiano de la ciencia, me he concentrado principalmente en la posición diseñada por Howson y Urbach porque me parece que es la que está más libre de inconsistencias. Debido a la forma como interpretan las probabilidades, en términos de los grados de creencia que tienen de hecho los científicos, su sistema permite que se atribuyan probabilidades distintas de cero a teorías e hipótesis, da cuenta precisa de cómo se deben modificar las probabilidades vistas las pruebas, y es capaz de ofrecer una racionalidad de lo que muchos piensan que son los rasgos clave del método científico. Howson y Urbach adornan su sistema con el estudio de casos históricos.
CRÍTICA DEL BAYESIANISMO SUBJETIVO
Como hemos visto, el bayesianismo subjetivo, el punto de vista que consistentemente comprende las probabilidades como el grado de creencia que los científicos tienen de hecho, tiene la ventaja de evitar muchos de los problemas que acosan a las alternativas bayesianas que buscan probabilidades objetivas de algún tipo. El paso a las probabilidades subjetivas es para muchos un precio demasiado alto a pagar por el lujo de poder asignar probabilidades a las teorías. Una serie de consecuencias desafortunadas siguen tan pronto como se aceptan las probabilidades subjetivas en la medida en que Howson y Urbach, por ejemplo, insisten en que las aceptemos.
El cálculo bayesiano es descrito como un modo objetivo de inferencia que sirve para transformar probabilidades previas en probabilidades posteriores en vista de las pruebas aportadas. Si vemos así las cosas, la consecuencia es que cualquier desacuerdo en la ciencia entre proponentes de programas de investigación rivales, paradigmas, o lo que sea, reflejado en las creencias (posteriores) de los científicos, debe tener su origen en las probabilidades previas sostenidas por los científicos, puesto que se supone que las pruebas son dadas y se considera que la inferencia es objetiva. Pero las probabilidades previas son totalmente subjetivas y no están sujetas a un análisis crítico. Reflejan simplemente el grado variable de creencia que tiene de hecho cada científico en particular. Por consiguiente, quienes de nosotros suscitan preguntas acerca de los méritos relativos de las teorías en competencia y acerca del sentido en que se puede decir que la ciencia progresa, no recibirán respuesta de los bayesianos subjetivos, a no ser que se conformen con la referencia a las creencias que los científicos individualmente sucede que tienen para comenzar su trabajo.
Si el bayesianismo subjetivo es la clave para comprender la ciencia y su historia, una de las fuentes más importantes de información a la que necesitamos tener acceso para dicha comprensión es el grado de creencia que los científicos tienen o tuvieron. (La otra fuente de información son las pruebas, lo cual se analizará más adelante). Así, por ejemplo, para entender la superioridad de la teoría ondulatoria de la luz sobre la teoría corpuscular, será preciso algún conocimiento de los grados de creencia que Fresnel y Poisson, por ejemplo, aportaron al debate a principios de los años treinta del siglo pasado. Hay dos problemas en esto. Uno es el de poder acceder al conocimiento de grados privados de creencia. (Recuérdese que Howson y Urbach distinguen entre creencias privadas y actos, e insisten que su teoría trata de las primeras, de modo que no podemos inferir creencias de los científicos a partir de lo que hacen, o incluso de lo que escriben). El segundo problema es la implausibilidad de la idea de que necesitemos tener acceso a las creencias privadas para captar el sentido en que, digamos, la teoría ondulatoria de la luz representaba un adelanto respecto de su predecesora. El problema se intensifica cuando observamos el grado de complejidad de la ciencia moderna y la medida en que implica trabajo en colaboración. (Recuérdese mi comparación, en el capítulo 8, con los obreros que construyen una catedral). Un ejemplo extremo, y revelador, es la descripción que hace Peter Galison (1997) de la naturaleza del trabajo en la física fundamental de partículas actual, en donde se hace intervenir abstrusas teorías matemáticas para explicar el mundo, a través de un trabajo experimental que involucra elaboradas técnicas informáticas y una instrumentación de la ingeniería más avanzada. En situaciones como ésta no existe una persona que capte todos los aspectos del complejo trabajo. El físico teórico, el programador de ordenadores, el ingeniero mecánico y el físico experimentador, todos tienen habilidades distintas que se reúnen para ayudar en una empresa en colaboración. Si hay que entender la progresividad de esta empresa centrándose en los grados de creencia, ¿de quién será el grado de creencia que elijamos, y por qué?
El hecho de que los grados de creencia dependen de las probabilidades previas en el análisis de Howson y Urbach es el origen de otro problema. Parecería que, con tal que un científico crea con bastante fuerza en su teoría (y no hay nada en el bayesianismo subjetivo que impida grados de creencia tan fuertes como se quiera), ninguna prueba en contrario, por muy sólida o amplia que sea, le debilitará su creencia. Este aspecto queda ilustrado por el caso de Prout, precisamente el estudio que aportan Howson y Urbach en apoyo de su postura. Recordemos que en dicho estudio los proutianos comenzaban con una probabilidad previa de 0,9 para su teoría de que los pesos atómicos son múltiplos del peso atómico del hidrógeno, y una probabilidad previa de 0,6 para la suposición de que las mediciones del peso atómico reflejaban con una precisión razonable el peso atómico real. Las probabilidades posteriores, calculadas en vista del valor de 35,83 obtenido para el cloro, eran de 0,878 para la teoría de Prout y 0,073 para la suposición de que los experimentos eran confiables. Así, los proutianos estaban en lo correcto al aferrarse a su teoría y desechar las pruebas. He de señalar aquí que el incentivo original detrás de la hipótesis de Prout eran los valores enteros de una serie de pesos atómicos de elementos distintos del cloro, medidos por las mismas técnicas que los proutíanos consideraban ahora tan poco dignas de confianza que le asignaban una probabilidad tan baja como 0,073. ¿No revela esto en primer lugar que si los científicos son lo bastante dogmáticos pueden acomodar cualquier prueba adversa? Si es así, el bayesiano subjetivo no tiene ninguna manera de tildar tal actividad de mala practica científica. No se pueden enjuiciar las probabilidades previas. Deben ser aceptadas tal y como son dadas. Como los propios Howson y Urbach (1989, p. 273) subrayan, ellos «no están obligados a legislar nada en relación con los métodos que adopte la gente a la hora de asignar probabilidades previas».
Los bayesianos parecen oponerse a la afirmación popperiana de que la probabilidad de todas las teorías debe ser cero, por cuanto identifican las probabilidades con los grados de creencia que puedan tener de hecho los científicos. Sin embargo, la posición bayesiana no es tan sencilla, pues les es necesario asignar probabilidades contrastadas con los hechos, que no pueden ser identificadas simplemente con los grados de creencia que en realidad se tengan. Veamos como ejemplo el problema de cómo ha de contar en la teoría la evidencia anterior. ¿Cómo pueden las observaciones de la órbita de Mercurio ser una confirmación de la teoría general de la relatividad, si las observaciones precedieron a la teoría en vanas décadas? Para calcular la probabilidad de la teoría de Einstein a la luz de esta evidencia, el bayesiano subjetivo tiene que, entre otras cosas, proporcionar una medida a la probabilidad que un seguidor de Einstein habría dado a la posibilidad de que la órbita de Mercurio tuviera la precesión que tiene sin conocimiento de la teoría de Einstein. Esta probabilidad no es una medida del grado de creencia que un científico tiene en realidad, sino una medida del grado de creencia que habría tenido de no haber sabido lo que de hecho sabe. Por decirlo de una manera suave, la condición de estos grados de creencia, y la dificultad de cómo valorarlos, plantean serios problemas.
Volvamos ahora a la naturaleza de las «pruebas», tal como figuran en el bayesianismo subjetivo. Hemos tratado las pruebas como algo dado y que se introduce en el teorema de Bayes para convertir probabilidades previas en probabilidades posteriores. Sin embargo, como debería de haber quedado claro del análisis de los primeros capítulos de este libro, las pruebas están lejos de ser dadas directamente en la ciencia. La postura que adoptan Howson y Urbach (1989, p. 272) es explícita y está totalmente de acuerdo con su esquema general.
La teoria bayesiana que proponemos es una teoría de inferencia a partir de datos. No decimos nada sobre si es correcto aceptar los datos, ni siquiera cuando la convicción es absoluta. Pudiera no ser así, y sería una locura concederle esa confianza. La teoría de apoyo bayesiana es una teoría sobre cómo el dar por verdaderos unos enunciados de prueba afecta a la creencia en algunas hipótesis. Cómo se llega a aceptar la verdad de las pruebas y si se está en lo correcto al aceptarlas como verdaderas, son asuntos irrelevantes desde el punto de vista de la teoría.
Ésta es, con seguridad, una posición inaceptable por parte de quienes intenten escribir un libro sobre el razonamiento cientifico, pues ¿no es cierto que buscamos una descripción de lo que cuenta como prueba apropiada en ciencia? Ciertamente, un científico no responderá, ante una afirmación de alguna prueba, preguntándole al científico que la hace con qué fuerza la cree, sino buscando información sobre la naturaleza del experimento que proporcionó la prueba, qué precauciones se tomaron, cómo se estimaron los errores, etc. Se le exigirá a una buena teoría del método científico que dé una descripción de las circunstancias bajo las cuales se puede considerar que las pruebas son adecuadas e indique con precisión las normas que debería respetar el trabajo empírico en ciencia. Los científicos experimentales, ciertamente, cuentan con muy numerosos medios para desechar un trabajo mal hecho, y no apelando a grados subjetivos de creencia.
En particular si están respondiendo a las críticas, Howson y Urbach acentúan la medida en que tanto la probabilidad previa como las pruebas que se han de introducir en el teorema de Bayes son grados subjetivos de creencia sobre los que el bayesianismo subjetivo no tiene nada que decir. Pero ¿cómo se puede llamar a lo que queda de su posición una teoría del método científico? Todo lo que queda es un teorema del cálculo de probabilidades. Supongamos que concedemos a Howson y Urbach que este teorema, tal y como ellos lo interpretan, es en verdad un teorema de rango igual a la lógica deductiva. Esta concesión sirve para resaltar lo limitado de su postura. Todo lo que su teoría del método científico dice acerca de la ciencia equivale a la observación de que la ciencia se adhiere a los dictados de la lógica deductiva. La gran mayoría, al menos, de los filósofos de la ciencia no tendrían ningún problema en aceptar que la ciencia da por válida la lógica deductiva, pero desearían que se les dijera mucho más.
LECTURAS COMPLEMENTARIAS
Dorling (1979) fue un artículo influyente que asentó el bayesianismo subjetivo en su tendencia moderna, y Howson y Urbach (1989) es una defensa sostenida y descarada. Horwich (1982) es otro intento de entender la ciencia en término de probabilidad subjetiva. Rosenkrantz (1977) es un intento de desarrollar una descripción bayesiana de la ciencia incluyendo probabilidades objetivas. Earman (1992) es una defensa crítica, aunque técnica, del programa bayesiano. Mayo (1996) contiene una crítica sostenida al bayesianismo.