LA APROXIMACIÓN DE LA IA AL «PLACER» Y AL «DOLOR»
Una de las pretensiones de la IA es proporcionar una vía hacia el entendimiento de las cualidades mentales, tales como la felicidad, el dolor o el hambre. Tomemos por ejemplo la tortuga de Grey Walter. Cuando sus baterías estén bajas su pauta de comportamiento cambiará y actuará de la forma planeada para reabastecer su reserva de energía. Existen claras analogías entre ésta y la manera en que actuaría un ser humano —o cualquier otro animal— cuando sienta hambre. No sería un grave abuso de lenguaje decir que la tortuga de Grey Walter está «hambrienta» cuando actúa de esta forma. Algún mecanismo interno es sensible al estado de carga de su batería, y cuando éste caía por debajo de cierto nivel, orientaba a la tortuga hacia una pauta de comportamiento diferente. Sin duda existe una operación similar en los animales cuando empiezan a tener hambre, sólo que los cambios de comportamiento son más complicados y sutiles. Más que pasar de una pauta de comportamiento a otra, hay un cambio en las tendencias a actuar de cierta forma, estos cambios son tanto más fuertes (hasta cierto punto) en la medida en que aumenta la necesidad de reabastecerse de energía.
De modo análogo, los defensores de la IA imaginan que conceptos tales como el dolor o la felicidad pueden modelarse adecuadamente de esta forma. Simplifiquemos las cosas y consideremos sólo una escala de sentimientos que va desde el «dolor» extremo (puntuación −100) al «placer» extremo (puntuación +100). Imaginemos que tenemos un dispositivo —una máquina de algún tipo, presumiblemente electrónica— que tiene algún medio de registrar su propia (supuesta) puntuación «placer-dolor», que llamaré «puntuación-pd». El dispositivo tiene ciertas formas de comportamiento y ciertos datos de entrada, ya sean internos (como el estado de sus baterías) o externos. La idea es que sus acciones estén ajustadas para conseguir la máxima puntuación-pd. Habría muchos factores que influirían en la puntuación-pd. Podríamos ciertamente disponer que la carga de sus baterías fuera uno de ellos, de modo que una carga baja contara negativamente y una carga alta positivamente, pero habría otros factores. Quizá nuestro dispositivo tuviera algunos paneles solares que le proporcionaran medios alternativos de obtener energía, de modo que no fuera necesario hacer uso de sus baterías cuando los paneles estuvieran en operación. Podríamos disponer que al moverse hacia la luz incrementara algo su puntuación-pd, de modo que, en ausencia de otros factores, eso sería lo que tendería a hacer. (¡En realidad, la tortuga de Grey Walter acostumbraba a evitar la luz!). Sería necesario tener algún medio de realizar cálculos para que pudiese evaluar los probables efectos que sus diferentes acciones tendrían en su puntuación-pd. Podrían introducirse pesos relativos, de modo que un cálculo tuviera un efecto mayor o menor en la puntuación dependiendo de la confiabilidad de los datos en los que se basaba.
También sería necesario proporcionar a nuestro dispositivo objetivos diferentes a los del simple mantenimiento del suministro de energía, ya que de lo contrario no tendríamos modo de distinguir el «dolor» del «hambre». Sin duda es demasiado pedir que nuestro dispositivo tenga medios de procreación así que, de momento, ¡nada de sexo! Pero quizá podamos implantar en él el «deseo» de compañía de otro dispositivo semejante, si damos a sus encuentros una puntuación-pd positiva. O podríamos hacer que estuviera «ansioso» de aprender simplemente por gusto, de modo que el almacenamiento de datos sobre el mundo externo tuviera también puntuación positiva en su escala-pd. (Más egoístamente, podríamos disponer que al realizar para nosotros diferentes servicios tuviera una puntuación positiva, como tendríamos que hacer si construyéramos un criado robot). Podría alegarse que hay algo artificioso en imponer a nuestro capricho tales objetivos al dispositivo; no obstante, esto no es muy diferente al modo en que la selección natural nos ha impuesto, como individuos, ciertos «objetivos» que están gobernados en gran medida por la necesidad de propagar nuestros genes.
Supongamos ahora que nuestro dispositivo ha sido construido con éxito de acuerdo con todo lo anterior. ¿Qué tan objetivos seríamos al asegurar que realmente siente placer cuando su puntuación-pd es positiva y dolor cuando la puntuación es negativa? El punto de vista conductista de la IA diría que juzguemos esto simplemente a partir del modo en que se comporta. Puesto que actúa de una forma que incrementa su puntuación tanto como sea posible (y durante tanto tiempo como sea posible), y como también actúa para evitar puntuaciones negativas, entonces podemos definir razonablemente su sentimiento de placer como el «grado de positividad» de su puntuación, y definir su sentimiento de dolor como el «grado de negatividad» de esa puntuación. La coherencia de tal definición, se alegaría, deriva del hecho de que ésta es precisamente la forma en que reacciona un ser humano en relación con los sentimientos de placer o dolor. Por supuesto que con los seres humanos las cosas en realidad no son tan sencillas, como ya sabemos, a veces parecemos buscar el dolor deliberadamente o apartarnos de nuestro camino para evitar ciertos placeres. Es evidente que nuestras acciones están realmente guiadas por criterios mucho más complejos que éstos (cfr. Dennett, 1979, pp. 190-229). Pero, en primera instancia, nuestra forma de actuar consiste en evitar el dolor y buscar el placer. Para un conductista esto sería suficiente para considerar la identificación de la puntuación-pd de nuestro dispositivo con su valoración placer-dolor. Tales identificaciones parecen estar también entre los propósitos de la teoría de la IA.
Debemos preguntar: ¿es realmente cierto que nuestro dispositivo siente dolor cuando su puntuación-pd es negativa y placer cuando es positiva? De hecho, ¿podría nuestro dispositivo sentir, a secas? Sin duda, los operacionalistas dirán que obviamente sí, o tacharán tales preguntas de absurdas. A mí, en cambio, me parece evidente que existe una cuestión seria y difícil que debe ser considerada. Las influencias que nos impulsan a nosotros mismos son de varios tipos. Algunas son conscientes, como el dolor y el placer, pero hay otras de las que no tenemos consciencia directa. Esto queda claramente ilustrado en el ejemplo de una persona que toca una estufa caliente. Tiene lugar una acción involuntaria y retira la mano aun antes de que experimente cualquier sensación de dolor. Parecería que tales acciones involuntarias están mucho más cerca de las respuestas de nuestro dispositivo a su puntuación-pd que de los efectos reales del dolor y el placer.
Con frecuencia utilizamos términos antropomorfos, en forma descriptiva, a menudo jocosa, para referirnos al comportamiento de las máquinas: «Mi coche no quería arrancar esta mañana», o «mi reloj aún piensa que va con la hora de California», o «mi computadora afirma que no entiende la última instrucción y que no sabe cómo continuar». Por supuesto, no queremos decir que el coche realmente quiere algo, que el reloj piensa, que la computadora afirma algo o comprende o incluso que sabe lo que está haciendo.[1.9] De todas formas, tales proposiciones pueden ser meramente descriptivas y útiles para nuestra comprensión del tema, con tal de que las tomemos simplemente en el sentido con el que fueron pronunciadas y no las consideremos como aserciones literales. Adoptaré una actitud similar respecto a las diversas afirmaciones de la IA acerca de las cualidades mentales que podrían estar presentes en los dispositivos que hemos estado construyendo, independientemente del ánimo con que se planearon. Si acepto que se diga que la tortuga de Grey Walter está hambrienta, es precisamente en este sentido medio gracioso. Si estoy dispuesto a utilizar términos como «dolor» o «placer» para la puntuación-pd de un dispositivo como se concibió más arriba, es porque encuentro estos términos útiles para la comprensión de su comportamiento, debido a ciertas analogías con mi propia conducta y estados mentales. No quiero decir que estas analogías sean particularmente estrechas o que no haya otras cosas inconscientes que influyan en mi comportamiento de forma mucho más parecida.
Confío en que para el lector quede claro que, en mi opinión, hay mucho más que entender de las cualidades mentales de lo que puede obtenerse directamente de la IA. De todas formas, creo que la IA plantea un abordaje serio que debe ser respetado y sometido a consideración. Con esto no quiero decir que se haya conseguido mucho —si es que se ha conseguido algo— en la simulación de la inteligencia real. Pero hay que tener en cuenta que la disciplina es muy joven. Próximamente las computadoras serán más rápidas, tendrán mayores memorias de acceso rápido, más unidades lógicas y podrán realizar un mayor número de operaciones en paralelo. Habrá progresos en el diseño lógico y en la técnica de programación. Estas máquinas, portadoras de la filosofía de la IA, serán enormemente perfeccionadas en sus atributos técnicos. Además, la filosofía misma no es intrínsecamente absurda. Quizá la inteligencia humana pueda ser aproximadamente simulada por las computadoras electrónicas, esencialmente las actuales, basadas en principios que ya son comprendidos, pero que en los próximos años tendrán capacidad, velocidad, etc., mucho mayores. Quizá, incluso, estos dispositivos serán realmente inteligentes; quizá pensarán, sentirán y tendrán una mente. O quizá no, y se necesite algún principio nuevo del que por el momento no hay indicios. Esto es lo que está en discusión, y es algo que no puede despacharse a la ligera. Así que trataré de presentar evidencias, de la mejor manera posible, de mis propias ideas.