9
Inteligencia artificial fuerte
1. La conciencia de las máquinas
¿Podría una máquina ser consciente? ¿Podría un ordenador programado de un modo apropiado verdaderamente poseer una mente? Estas preguntas han sido el tema de una enorme cantidad de debates en las últimas décadas. El campo de la inteligencia artificial (o IA) se dedica en gran parte a la meta de reproducir la mentalidad en máquinas computacionales. Hasta ahora el progreso ha sido limitado, pero sus defensores argumentan que tenemos todas las razones para creer que eventualmente los ordenadores tendrán una mente. Al mismo tiempo, los oponentes argumentan que los ordenadores están limitados de un modo que los seres humanos no lo están, de modo que está fuera de cuestión que una mente consciente surja meramente en virtud de cómputos.
Las objeciones a la inteligencia artificial típicamente adoptan una de dos formas. Primero, tenemos las objeciones externas, que intentan establecer que los sistemas computacionales nunca podrían comportarse como sistemas cognitivos. Según estas objeciones, existen ciertas capacidades funcionales que los seres humanos tienen pero que ningún ordenador podrá nunca poseer. Por ejemplo, a veces se sostiene que como estos sistemas siguen reglas, no podrían exhibir la conducta creativa o flexible característica de los seres humanos (por ejemplo, Dreyfus, 1972). Otros argumentaron que los ordenadores nunca podrían duplicar la comprensión matemática humana, ya que los sistemas computacionales están limitados por el teorema de Gödel, de un modo que los seres humanos no lo están (Lucas, 1961; Penrose, 1989).
Las objeciones externas resultaron difíciles de sostener, dado el éxito de la simulación computacional de procesos físicos en general. En particular, parecería que tenemos buenas razones para creer que las leyes de la física son computables, de modo que al menos deberíamos poder simular computacionalmente la conducta humana. A veces, esto se pone en duda, argumentando en favor de un elemento no computable en las leyes físicas (como lo hace Penrose) o argumentando en favor de una causalidad no física (como lo hace Lucas), pero es claro que los que formulan estas objeciones pelean una batalla cuesta arriba.
De mayor importancia han sido las que yo denomino objeciones internas. Estas objeciones conceden, al menos a los fines de la discusión, que los ordenadores podrían simular la conducta humana, pero argumentan que de cualquier forma no tendrían una vida interior: ninguna experiencia consciente, ninguna verdadera comprensión. Como máximo, un ordenador podría proporcionar una simulación de la mente, no una reproducción. La objeción más conocida de esta clase es el argumento del «cuarto chino» de John Searle (1980). Según estas objeciones, los sistemas computacionales tendrían cuanto más la cáscara hueca de una mente: serían versiones en silicio de un zombi.
Aquellos que adoptan un enfoque no reduccionista de la experiencia consciente suelen sentirse atraídos por las objeciones internas a la inteligencia artificial; muchos de ellos argumentan que ningún mero ordenador podría ser consciente. Algunos a quienes el problema de la conciencia impresionó caracterizaron el problema señalando a la conciencia como ¡la característica que nosotros tenemos pero que los ordenadores no poseen! Muchos encontraron difícil de creer que un sistema artificial no biológico pueda ser el tipo de cosa capaz de dar origen a la experiencia consciente.
Sin embargo, un enfoque no reduccionista de la conciencia no lleva automáticamente a un enfoque pesimista de la IA. Las dos cuestiones son bastante distintas. La primera concierne a la fuerza de la conexión entre los sistemas físicos y la conciencia: ¿La conciencia está constituida por procesos físicos o meramente surge a partir de procesos físicos? La segunda concierne a la forma de la conexión: ¿Exactamente cuáles sistemas físicos dan origen a la conciencia? No es obvio que la ejecución del tipo correcto de cómputo deba dar origen a la conciencia; pero tampoco es obvio que los procesos neuronales en un cerebro deban hacerlo. A primera vista, no hay ninguna razón clara de por qué los ordenadores deberían estar en peores condiciones que los cerebros en este aspecto. Dado que hemos aceptado el hecho sorprendente de que los cerebros dan origen a la conciencia, no sería una nueva clase de sorpresa encontrar que el cómputo podría también darle origen. De modo que la mera aceptación de un enfoque no reduccionista de la conciencia debería dejar abierta la cuestión.
Figura 9.1. Bloom County sobre la IA fuerte. (01985, Washington Post Writers Group. Reproducido con autorización).
En este capítulo, llevaré las cosas aún más lejos y argumentaré que la ambiciones de la inteligencia artificial son razonables (fig. 9.1). En particular, argumentaré en favor de lo que Searle llama inteligencia artificial fuerte: que existe una clase no vacía de cómputos tal que la implementación de cualquier computación en esa clase es suficiente para la existencia de una mente y, en particular, es suficiente para la existencia de la experiencia consciente. Por supuesto, esta suficiencia sólo es válida con necesidad natural: es lógicamente posible que cualquier computación pueda ocurrir con ausencia de conciencia. Pero, como hemos visto, lo mismo ocurre para el cerebro. Al evaluar la perspectiva de la conciencia de las máquinas en el mundo real, es la posibilidad y necesidad natural lo que nos interesa.
(A riesgo de que esta conclusión sea considerada una trivialidad, dadas las sugerencias panpsíquicas del último capítulo, hago notar que nada en este capítulo se basa en esas consideraciones. No sólo argumentaré que es suficiente implementar la computación correcta para obtener conciencia, sino que la implementación de una computación correcta es suficiente para obtener una experiencia consciente rica como la nuestra).
Ya realicé la mayor parte del trabajo necesario para esta defensa de la IA fuerte cuando argumenté, en el capítulo 7, en favor del principio de invariancia organizacional. Si ese argumento es correcto, establece que cualquier sistema con el tipo correcto de organización funcional es consciente, independientemente de la sustancia de la que esté hecho. De esta forma, ya sabemos que estar hecho de silicio, por ejemplo, no es ningún impedimento para poseer conciencia. Lo que nos queda por hacer es aclarar el vínculo entre la computación y la organización funcional para establecer que la implementación de una computación apropiada es suficiente para asegurar la presencia de la organización funcional pertinente. Hecho esto, la IA fuerte surge como consecuencia. También responderé algunas objeciones que se han planteado en contra de la empresa de la IA fuerte.
2. La implementación de una computación
En su forma estándar, la teoría de la computación se ocupa totalmente de objetos abstractos: máquinas de Turing, programas en Pascal, autómatas de estados finitos, etc. Estas son entidades matemáticas que habitan el espacio matemático. Los sistemas cognitivos en el mundo real, por otro lado, son objetos concretos, corporizados físicamente y que interactúan causalmente con otros objetos en el mundo físico. Pero frecuentemente queremos utilizar la teoría de la computación para extraer conclusiones acerca de objetos concretos en el mundo real. Para hacer esto, necesitamos un puente entre los dominios abstracto y concreto[1].
Este puente es la noción de implementación: la relación entre objetos computacionales abstractos —«computaciones» para abreviar— y sistemas físicos que ocurre cuando un sistema físico «realiza» una computación, o cuando una computación «describe» un sistema físico. Las computaciones suelen implementarse en ordenadores sintéticos basados en silicio, pero también pueden implementarse de otros modos. Por ejemplo, se dice frecuentemente que los sistemas naturales como el cerebro humano implementan computaciones. Las descripciones computacionales se utilizan para comprender los sistemas físicos en todo tipo de dominios. Cada vez que esto ocurre, es una noción de implementación la que, en forma implícita o explícita, hace el trabajo.
Sin embargo, rara vez se analiza en detalle la noción de implementación; en general simplemente se la presupone. Pero, para defender una IA fuerte, necesitamos una concepción detallada de ella. La tesis de la IA fuerte se formula en términos de computación, y nos dice que la implementación de la computación apropiada es suficiente para la conciencia. Para evaluar esta aseveración, debemos saber exactamente qué significa que un sistema físico implemente una computación. Una vez que sabemos esto, podemos combinarlo con nuestros análisis anteriores de las leyes psicofísicas para determinar si podría deducirse la conclusión.
Algunos argumentaron que no es posible formular ninguna concepción útil de implementación. En particular, Searle (1990b) sostuvo que la implementación no es una cuestión objetiva sino, más bien, «relativa al observador»: puede considerarse que cualquier sistema implementa cualquier computación si se lo interpreta del modo apropiado. Searle afirma, por ejemplo, que es posible considerar que una pared implementa el programa de procesamiento de texto Wordstar. Si Searle tuviera razón, sería difícil ver cómo las nociones computacionales podrían tener algún papel fundamental en una teoría que, en última instancia, trata de sistemas concretos. En lo que respecta a la IA, estaría vacía de contenido o implicaría una forma fuerte de panpsiquismo. Pero creo que este tipo de pesimismo está equivocado: puede formularse fácilmente una concepción objetiva de implementación. En este apartado esbozaré una concepción de este tipo. (La exposición es un poco técnica, pero el resto del capítulo debería tener sentido aún si se omiten los detalles).
Cualquier concepción de qué significa que una computación sea implementada dependerá de la clase de computaciones en cuestión. Existen muchos formalismos computacionales diferentes, con distintas clases de computaciones en correspondencia: máquinas de Turing, autómatas de estados finitos, programas en Pascal, redes conexionistas, autómatas celulares, etc. En principio, necesitamos una concepción de implementación para cada uno de estos formalismos. Aquí expondré una concepción de implementación para un solo formalismo, el de los autómatas de estados combinatorios. Esta clase de computaciones es suficientemente general, de modo que la concepción asociada de implementación puede extenderse fácilmente para aplicarse a otras clases.
Un autómata de estados combinatorios es un primo más sofisticado de un autómata de estados finitos. Un autómata de estados finitos (FSA: finite state automaton) se define mediante un conjunto finito de entradas, un conjunto finito de estados internos, un conjunto finito de salidas y un conjunto asociado de relaciones de transición de estados. Un estado interno de un FSA es un elemento simple Si que no posee ninguna estructura interna; lo mismo ocurre para las entradas y las salidas. Las relaciones de transición de estados especifican, para todo par posible de entrada y estado interno, un nuevo estado interno y una salida. Si el estado inicial de un FSA está definido, estas relaciones de transición de estados especifican cómo evolucionará en el tiempo y qué salidas producirá, dependiendo de qué entradas reciba. La estructura computacional de un FSA consiste de este conjunto relativamente simple de relaciones de transición de estados entre un conjunto de estados no estructurados.
Los autómatas de estados finitos son inadecuados para representar la estructura de la mayoría de las computaciones que son relevantes en la práctica, ya que los estados y las relaciones de transición de estados en estas computaciones tienen, por lo general, una estructura interna compleja. Ninguna descripción FSA puede capturar toda la estructura presente en un programa en Pascal, por ejemplo, o en una máquina de Turing, o en un autómata celular. Es, por lo tanto, más útil concentrarse en una clase de autómatas que tengan estados internos estructurados.
Los autómatas de estados combinatorios (CSA: combinatorial-state automata) son como los FSA, excepto que sus estados internos están estructurados. Un estado de un CSA es un vector [S1, S2,…,Sn]. Este vector puede ser finito o infinito, pero me concentraré en el caso finito. Los elementos de este vector pueden pensarse como los componentes del estado interno; corresponden a las células en un autómata celular o a las celdas de cinta y estado de la cabeza lectora en una máquina de Turing. Cada elemento Si, puede adoptar un número finito de valores Sij, donde Sij es el valor posible j-ésimo del elemento i-ésimo. Pueden pensarse estos valores como «subestados» del estado general. Las entradas y salidas tienen un tipo similar de estructura compleja: una entrada es un vector [I1,…,Ik] y una salida un vector [O1,…,Om].
Un CSA se define especificando el conjunto de vectores de estados internos, los vectores de entrada y salida, y un conjunto de reglas de transición de estados que determinan cómo el estado del CSA evoluciona en el tiempo. Para cada elemento del vector del estado interno, una regla de transición de estados determina cómo su nuevo valor depende de valores anteriores de los vectores de entrada y estado interno. Para cada elemento del vector de salida, una regla de transición de estados determina cómo su nuevo valor depende de los anteriores valores del vector de estado interno. Todo CSA finito puede representarse como un FSA con igual potencia computacional, pero la descripción del FSA sacrificará la mayor parte de la estructura que es crucial para un CSA. Esa estructura es fundamental para utilizar los CSA para capturar la organización que subyace a una mente.
Estamos ahora en posición de ofrecer una concepción de la noción de implementación. Las computaciones como los CSA son objetos abstractos, con una estructura formal determinada por sus estados y relaciones de transición de estados. Los sistemas físicos son objetos concretos, con una estructura causal determinada por sus estados internos y las relaciones causales entre los estados. Informalmente, decimos que un sistema físico implementa una computación cuando la estructura causal del sistema refleja la estructura formal de la computación. Es decir, el sistema implementa una computación si existe un modo de poner en correspondencia los estados del sistema con los estados de la computación, de manera que los estados físicos que están causalmente relacionados se apliquen en estados formales que están formalmente relacionados del modo correspondiente.
Esta idea intuitiva puede aplicarse directamente para producir una concepción de la implementación de los CSA. Un sistema físico implementa un CSA si existe una descomposición de los estados internos del sistema en subestados, una descomposición de las entradas y salidas del sistema en subestados de entrada y de salida, y una aplicación de los subestados del sistema en subestados del CSA, tal que las relaciones causales de transición de estados entre estados físicos, entradas y salidas reflejan las relaciones formales de transición de estados entre los estados formales, las entradas y las salidas correspondientes.
El criterio formal para implementar un CSA es como sigue:
Un sistema físico P implementa un CSA M si existe una descomposición de estados internos de P en componentes [s1,…,sn] y una aplicación f desde los subestados sj en los subestados correspondientes Sj de M, junto con descomposiciones y aplicaciones similares para las entradas y salidas, tal que para cada regla de transición de estados ([J1,…,Ik], [S1,…,5n]) →([S’1,…,S’n], [O1,…,O1]) de M: si P es un estado interno [s1,…,sn] y recibe la entrada [I1,…,In], que aplica en el estado formal y de entrada [S1,…,Sn] y [I1,…,Ik] respectivamente, esto causa fiablemente que pase a un estado interno y produzca una salida que se aplique en [S’1,…,S’n] y [O1,…,O1] respectivamente.
Podemos estipular que en una descomposición del estado de un sistema físico en un vector de subestados, el valor de cada elemento del vector debe supervenir en una región separada del sistema físico, para asegurar que la organización causal relacione componentes distintos del sistema. De otra manera, no es claro que la estructura causal detallada esté realmente presente dentro del sistema físico. Hay espacio para jugar con esto y con otros detalles en la definición de más arriba. La noción de implementación no está escrita en la piedra; podría restringirse o relajarse para diversos propósitos. Pero esto produce la forma básica que será compartida por cualquier concepción de implementación.
Podría parecer que los CSA no son un gran avance respecto de los FSA. Después de todo, para cualquier CSA finito, podemos encontrar un FSA correspondiente con la misma conducta de entrada-salida. Pero existen algunas diferencias cruciales. Primero y principal, las condiciones de implementación sobre un CSA son mucho más restringidas que las del FSA correspondiente. Una implementación de un CSA debe consistir de una interacción causal compleja entre un número de partes separadas; una descripción mediante un CSA puede entonces capturar la organización causal de un sistema en un grano mucho más fino. Segundo, los CSA proporcionan una concepción unificada de las condiciones de implementación para máquinas finitas e infinitas. Tercero, un CSA puede directamente reflejar la organización formal compleja de objetos computacionales como máquinas de Turing y autómatas celulares. En el FSA correspondiente, gran parte de esta estructura se perdería.
Podemos utilizar esta definición de implementación para directamente proporcionar criterios de implementación para otros tipos de computaciones. Para especificar lo que se necesita para implementar una máquina de Turing, por ejemplo, sólo necesitamos redescribir esta última como un CSA y aplicar la definición de más arriba. Para hacerlo, describimos el estado de la máquina de Turing como un vector gigante. Un elemento del vector representa el estado de la cabeza lectora de la máquina, y hay un elemento para cada celda de la cinta, que representa el símbolo en la celda y también indica si la cabeza lectora está en esa posición. Las reglas de transición de estados entre los vectores son las que se derivan naturalmente de los mecanismos que especifican la conducta de la cabeza lectora y la cinta. Por supuesto, los vectores aquí son infinitos, pero las condiciones de implementación en el caso infinito son una extensión directa de las del caso finito. Dada esta traducción del formalismo de la máquina de Turing al formalismo del CSA, podemos decir que se implementa una máquina de Turing cada vez que se implementa el CSA correspondiente. Podemos formular traducciones similares para las computaciones en otros formalismos, como los autómatas celulares o los programas en Pascal, lo que produce condiciones de implementación para las computaciones en cada una de esas clases.
Esto genera un criterio perfectamente objetivo para implementar una computación. La implementación de una computación no colapsa en el vacío como Searle sugiere. Es verdad que algunas computaciones serán implementadas por cualquier sistema. Por ejemplo, un CSA de un único estado y un único elemento puede ser implementado por cualquier sistema, y un CSA de dos estados podrá ser implementado casi tan ampliamente. También es verdad que la mayoría de los sistemas implementarán más de una computación, según cómo dividamos los estados del sistema. No hay nada sorprendente en esto: es de esperar que mi estación de trabajo implemente un número de computaciones como lo hace mi cerebro.
Lo crucial es que no hay razones para creer que todo CSA pueda ser implementado por todo sistema. Para cualquier CSA complejo dado, muy pocos sistemas físicos tendrán la organización causal necesaria para implementarlo. Si tomamos un CSA cuyos vectores de estado tienen mil elementos, con diez posibilidades para cada uno, entonces argumentos similares a los presentados en el capítulo 7 sugieren que la probabilidad de que un conjunto arbitrario de estados físicos tenga las relaciones causales requeridas es algo menos de uno en (l01000)10 1000 (en realidad mucho menos que esto, debido al requerimiento de que las relaciones de transición sean fiables[2]).
¿Qué hay de la afirmación de Searle de que las descripciones computacionales son «relativas al observador», entonces? Es verdad que existe un grado limitado de relatividad del observador: cualquier sistema físico particular implementará un número de computaciones, y en cuál de ellas decida concentrarse un observador dependerá de sus propósitos. Pero esto no es una amenaza para la IA o la ciencia cognitiva computacional. Sigue siendo el caso que para cualquier computación dada, es una cuestión fáctica si un sistema particular la implementa o no, y sólo habrá una clase limitada de sistemas que califiquen como implementaciones. Para que las concepciones computacionales puedan tener injerencia metafísica y explicativa, eso es todo lo que esas disciplinas necesitan.
Decir que un sistema físico implementa una computación compleja determinada P es decir algo muy sustancial acerca de su estructura causal, algo que podría ser bastante útil para proporcionar explicaciones cognitivas y, tal vez, para comprender la base de la conciencia. Sólo sistemas con un tipo muy específico de organización causal podrán tener la esperanza de satisfacer las fuertes restricciones de la implementación. De modo que no hay ningún peligro de vacuidad y, en cambio, podemos esperar que la noción de computación proporcione una base sustancial para el análisis de los sistemas cognitivos.
3. En defensa de una IA fuerte
Lo que se requiere para implementar un CSA es notablemente similar a lo que se requiere para realizar una organización funcional. Recuérdese que una organización funcional se determina especificando un número de componentes abstractos, un número de estados para cada componente y un sistema de relaciones de dependencia que indican cómo los estados de cada componente dependen de los estados previos y de las entradas, y cómo las salidas dependen de los estados previos. La noción de un CSA es efectivamente una formalización directa de esta noción.
Dada cualquier organización funcional del tipo descripto en el capítulo 7, podemos fácilmente abstraería en un CSA. Sólo necesitamos estipular que los vectores de estados del CSA tengan un elemento para cada componente de la organización y que las transiciones formales de estados entre los estados del CSA correspondan a las relaciones causales de dependencia entre los componentes. Realizar la organización funcional se reduce casi exactamente a lo mismo que implementar el CSA correspondiente. Existen algunas pequeñas diferencias, tales como diferentes tratamientos de las entradas y salidas, pero estas no son significativas.
La concepción de la implementación que formulé aclara entonces el vínculo entre la organización causal y la computacional. De este modo, podemos ver que cuando las descripciones computacionales se aplican a sistemas físicos, proporcionan efectivamente una descripción formal de la organización causal del sistema. El lenguaje de la computación nos proporciona un lenguaje perfecto en el cual puede especificarse este tipo de organización causal abstracta. Es posible argumentar que esta es precisamente la razón por la cual las nociones computacionales tienen una aplicación tan amplia en toda la ciencia cognitiva. Lo más importante para la explicación de la conducta de un sistema cognitivo complejo es la organización causal abstracta del sistema, y los formalismos computacionales proporcionan un marco ideal dentro del cual puede describirse y analizarse este tipo de organización[3].
Este vínculo hace que la defensa de una inteligencia artificial fuerte sea simple. Y a argumenté en favor del principio de la invariancia organizacional, que nos dice que para cualquier sistema con experiencias conscientes, un sistema con la misma organización funcional detallada tendrá experiencias conscientes cualitativamente idénticas. Pero sabemos que cualquier organización funcional determinada puede abstraerse en un CSA que se implementa cada vez que se realiza la organización. Se deduce que para un sistema consciente particular M, su organización funcional de grano fino puede abstraerse en un CSA M, tal que cualquier sistema que implemente M realizará la misma organización funcional y, por lo tanto, tendrá experiencias cualitativamente indistinguibles de las del sistema original. Esto establece la tesis de una inteligencia artificial fuerte.
Por ejemplo, podríamos abstraer una descripción neuronal del cerebro en un CSA, con un elemento del vector de estados por cada neurona y con subestados para cada elemento que reflejan el conjunto pertinente de estados de cada neurona. Las reglas de transición de estados del CSA reflejan el modo como el estado de cada neurona depende del estado de otras neuronas y el modo como los estados neuronales están relacionados con entradas y salidas. Si los componentes no neuronales del cerebro son relevantes, podemos también incluir elementos para ellos. Cualquier sistema físico que implemente este CSA tendrá una organización funcional de grano fino que duplica la organización funcional de nivel neuronal del cerebro. Por el principio de invariancia, este sistema tendrá experiencias indistinguibles de las asociadas con el cerebro.
Es fácil pensar en un ordenador como simplemente un dispositivo de entrada-salida con nada en medio excepto algunas manipulaciones matemáticas formales. Este enfoque, sin embargo, deja afuera el hecho clave de que existe una dinámica causal rica dentro de un ordenador, así como existe en el cerebro. En un ordenador ordinario que implemente una simulación de mi cerebro neurona por neurona, habrá una causalidad real entre voltajes en diversos circuitos que reflejará precisamente los patrones de causalidad entre las neuronas. Por cada neurona, habrá una localización de memoria que representa a esa neurona y cada una de estas localizaciones se realizará físicamente en un voltaje en alguna localización física. Son los patrones causales entre estos circuitos, así como los son los patrones causales entre las neuronas en el cerebro, los responsables de cualquier experiencia consciente que surja.
También podemos defender la tesis de la IA fuerte directamente, utilizando los argumentos de los qualia gradualmente desvanecientes y danzantes. Dadas dos implementaciones de un CSA existirá un espectro de casos entre ellos, en los cuales los componentes físicos de las implementaciones se reemplazan uno por vez mientras que el patrón de su interacción causal con el resto del sistema se preserva. Si uno de los sistemas es consciente, y si el CSA abstrae su organización funcional de grano fino, entonces los argumentos en cuestión implican que el otro sistema debe ser consciente y que debe tener experiencias conscientes indistinguibles. Si el otro sistema no fuese consciente, habría un estado intermedio con qualia desvanecientes. Si el otro sistema no fuese consciente o tuviese experiencias conscientes diferentes, entonces podríamos construir un sistema intermedio con qualia danzantes. Estas consecuencias no son plausibles, por las razones expuestas en el capítulo 7. Dado que los qualia no pueden desvanecerse o danzar de ese modo, se deduce que el segundo de los sistemas originales tiene experiencias indistinguibles del primero, y que la tesis de la IA fuerte se mantiene.
Existe una pequeña salvedad. El argumento supone que la organización del cerebro puede abstraerse en la descripción de un CSA. Esto requiere solamente que pueda describirse la organización relevante en términos de un número finito de partes, cada una con un número finito de estados pertinentes. Sin embargo, algunos podrían no estar de acuerdo con esto. Por ejemplo, tal vez sea necesario un número infinito de estados para cada neurona, para capturar el papel vital del procesamiento continuo. Algunos podrían afirmar que las transiciones entre estos estados infinitos podrían ser no computables. Analizaré este tipo de objeción más adelante; por ahora, me contentaré con aceptar la conclusión de que si la dinámica cognitiva es computable, entonces el tipo correcto de organización computacional dará origen a la conciencia. Esto es, estoy más interesado por las objeciones internas que por las externas. Aun así, analizaré algunas objeciones externas más adelante en el capítulo.
4. El cuarto chino y otras objeciones
Por supuesto, los opositores de la IA fuerte a veces formularon argumentos concretos en contra de esta posición. El mejor conocido de estos se debe a John Searle, en su artículo de 1980, «Minds, Brains, and Programs», y en otros lados. Aquí utilizaré el marco conceptual que desarrollé antes para hacer frente a estos argumentos.
El cuarto chino
En un celebrado argumento en contra de la IA fuerte, Searle (1980) sostiene que cualquier programa puede implementarse sin que ello dé origen a una mente. Hace esto exhibiendo lo que interpreta que es un contraejemplo de la aseveración de la IA fuerte: el cuarto chino, dentro del cual una persona que manipula símbolos simula a alguien que comprende el chino. El sentido del cuarto chino es proporcionar un ejemplo, para cualquier programa particular, de un sistema que implementa ese programa pero que carece de la experiencia consciente pertinente.
En la versión original, Searle dirige el argumento en contra de la intencionalidad de las máquinas, en lugar de en contra de la conciencia de las mismas, argumentando que es «comprensión» lo que el cuarto chino no posee. A pesar de todo, es bastante claro que lo que está en la raíz del problema es la conciencia. De ser exitoso, lo que el núcleo de su argumento establecería directamente es que el sistema del cuarto chino carece de estados conscientes, como la experiencia consciente de comprender el chino. Según el enfoque de Searle, la intencionalidad requiere la conciencia, de modo que esta es suficiente para ver que el cuarto carece también de intencionalidad. Otros lo niegan, sin embargo. De cualquier forma, podemos hacer abstracción del tema de la conexión entre la conciencia y la intencionalidad, y formular la cuestión sólo en términos de la primera. De esta manera, los problemas podrían ser más claros.
(Es decir, podemos separar las conclusiones de Searle en dos partes: 1) ningún programa es suficiente para la conciencia; y 2) ningún programa es suficiente para la intencionalidad. Searle cree que 1) implica 2), pero otros lo niegan. Las cuestiones resultan más claras si se interpreta que el argumento acerca de la IA fuerte se concentra en 1): todas las partes aceptarán que si 1) es verdad, entonces la forma más interesante de la IA fuerte está condenada, e incluso Searle aceptaría que la refutación de 1) mostraría que el argumento del cuarto chino es fallido. El vínculo entre la conciencia y la intencionalidad puede entonces dejarse de lado como una cuestión separada, no crucial para el argumento en contra de la IA.
De esta manera, evitamos la situación en la que los opositores argumentan en contra de 2) sin preocuparse por argumentar en contra de 1). Por ejemplo, las respuestas que se concentran en la conexión entre el cuarto chino y su entorno [Fodor, 1980; Rey, 1986] y las respuestas que ofrecen concepciones procesales o funcionales de la intencionalidad [Boden, 1988; Thagard, 1986] pueden o no arrojar luz sobre la cuestión de la intencionalidad, pero no contribuyen en nada a la plausibilidad de la conciencia del cuarto chino. Por consiguiente, nos dejan con la sensación de que no se ocuparon del problema que este escenario plantea para la IA. En el mejor de los casos, lo que estuvo en discusión fue la premisa auxiliar de que la intencionalidad requiere la conciencia)[4].
El argumento del cuarto chino se desarrolla de la siguiente manera. Tómese cualquier programa que se supone captura algún aspecto de la conciencia, como la comprensión del chino o tener una sensación de rojo. Este programa puede ser implementado por un hablante monolingüe del inglés —aquí lo llamaremos el demonio— en una habitación en blanco y negro. El demonio sigue manualmente todas las reglas especificadas por el programa, mantiene un registro de todos los estados internos y las variables pertinentes en tiras de papel, y las borra y actualiza según las necesidades. Podemos imaginar que el demonio está conectado también con un cuerpo robot que recibe las entradas digitales de los transductores perceptuales, los manipula de acuerdo con las especificaciones del programa y envía salidas digitales a efectores motores. De este modo, el programa se implementa perfectamente. Sin embargo, es evidente que el demonio no comprende conscientemente el chino y que tampoco experimenta una sensación de rojo. Por lo tanto, implementar un programa no es suficiente para la existencia de estas experiencias conscientes. La conciencia debe requerir algo más que la implementación de un programa apropiado.
Típicamente, los defensores de la IA fuerte respondieron aceptando que el demonio no comprende el chino y argumentando que la comprensión y la conciencia deberían atribuirse en cambio al sistema consistente del demonio y los trozos de papel. Searle declaró que esta réplica es manifiestamente poco razonable. Es cierto que hay algo poco intuitivo en la afirmación de que un sistema compuesto por un agente y trozos de papel asociados tiene una conciencia colectiva. En este punto, el argumento alcanza un callejón sin salida. Los defensores de la IA sostienen que el sistema es consciente, los opositores encuentran que la conclusión es ridícula, y parece difícil ir más allá. Creo que los argumentos ya enunciados nos dan una base para romper el impasse en favor de una IA fuerte, sin embargo.
Supongamos que el programa pertinente es, de hecho, un autómata de estados combinatorios que refleja la organización de nivel neuronal de un hablante chino que mira una jugosa manzana roja. El demonio en el cuarto implementa el CSA: mantiene una tira de papel para cada elemento del vector de estados y actualiza las tiras de papel en cada paso de acuerdo con las reglas de transición de estados. Podemos utilizar los argumentos de los qualia desvanecientes y danzantes y construir un espectro de casos entre el hablante chino original y el cuarto chino[5]. Esto no es difícil de hacer. Primero, podemos imaginar que las neuronas en la cabeza del hablante chino son reemplazadas una por vez por diminutos demonios, cada uno de los cuales reproduce la función de entrada-salida de una neurona[6]. Al recibir estimulación de las neuronas vecinas, un demonio hace los cálculos apropiados y estimula, a su vez, a las neuronas vecinas. A medida que se reemplazan cada vez más neuronas, los demonios asumen el control, hasta que el cráneo está lleno de miles de millones de demonios que reaccionan a las señales de los otros y a las entradas sensoriales, hacen cálculos y, a su vez, hacen señales a otros demonios y estimulan salidas motoras. (Si alguien objeta que todos esos demonios nunca podrían entrar en un cráneo, podemos imaginar un escenario con un equipo de transmisión de radio fuera del cráneo).
Luego, gradualmente reducimos el número de demonios permitiéndoles duplicar su trabajo. Al principio reemplazamos dos demonios vecinos por un solo demonio que hace la tarea de los dos. El nuevo demonio mantendrá un registro del estado interno de las dos neuronas que simula; podemos imaginar que ese registro se conserva en un trozo de papel en cada localización. Cada trozo de papel será actualizado dependiendo de las señales desde los demonios vecinos y también del estado del otro trozo de papel. Los demonios se consolidan aún más hasta que, eventualmente, sólo queda un demonio y miles de millones de pequeñas tiras de papel. Podemos imaginar que cada una de esas tiras está en la localización original de su neurona correspondiente y que el demonio corre alrededor del cerebro actualizando cada tira de papel en función de los estados de las tiras vecinas y de las entradas sensoriales, cuando es necesario.
A pesar de todos estos cambios, el sistema resultante comparte la organización funcional del cerebro original. Las relaciones causales entre neuronas en el caso original se reflejan en las relaciones causales entre los demonios en el caso intermedio, y en las relaciones causales entre las tiras de papel en el caso final. En este último, las relaciones causales son mediadas por las acciones de un demonio —un trozo de papel afecta el estado del demonio, quien a su vez afecta los trozos vecinos de papel— pero, de todas formas, son relaciones causales. Si observamos al sistema funcionar a una velocidad acelerada, veremos un ajetreo de interacción causal que corresponde precisamente al ajetreo entre las neuronas.
Podemos ahora aplicar los argumentos de los qualia desvanecientes y danzantes. Si el sistema final no posee experiencias conscientes, entonces debe haber un sistema intermedio con experiencias conscientes desvanecientes. Esto es inverosímil por las mismas razones que antes. Podemos también imaginar que conmutamos entre un circuito neuronal y un circuito de respaldo correspondiente implementado con demonios, o con un solo demonio y trozos de papel. Como antes, esto llevaría a qualia danzantes con una organización funcional constante, de modo que el sistema nunca podría notar la diferencia. Una vez más, es mucho más plausible suponer que los qualia permanecen constantes en todo momento.
Por lo tanto, es razonable concluir que el sistema final tiene precisamente las experiencias conscientes del sistema original. Si el sistema neuronal dio origen a experiencias de rojo brillante, también lo hará el sistema de demonios, y también la red de trozos de papel mediados por un demonio. Pero, por supuesto, este caso final es sólo una copia del sistema del cuarto chino. Por lo tanto hemos dado una razón positiva para creer que el sistema tiene experiencias conscientes, tal como las de comprender el chino o experimentar el rojo.
Este punto de vista deja en claro dos cosas que podrían resultar oscurecidas por la descripción de Searle del cuarto chino. Primero, las «tiras de papel» en la habitación no son una mera pila de símbolos formales. Constituyen un sistema dinámico concreto con una organización causal que corresponde directamente a la organización del cerebro original. El ritmo lento que asociamos con la manipulación de símbolos oscurece esta cuestión, como también lo hace la presencia del demonio que manipula los símbolos pero, no obstante, es la dinámica concreta entre los trozos de papel lo que da origen a la experiencia consciente. Segundo, el papel del demonio es totalmente secundario. La dinámica causal interesante es la que ocurre entre los trozos de papel, que corresponden a las neuronas en el caso original. El demonio simplemente actúa como una especie de facilitador causal. La imagen de un demonio que corre a toda prisa alrededor del cráneo deja en claro que la atribución de las experiencias del sistema al demonio sería una seria confusión de niveles. El hecho de que el demonio es un agente consciente podría llevarnos a suponer que si las experiencias del sistema están en algún lado, están en el demonio; pero, de hecho, la conciencia del demonio es totalmente irrelevante para el funcionamiento del sistema. El trabajo del demonio podría ser realizado por una simple tabla de doble entrada. El aspecto crucial del sistema es la dinámica entre los símbolos.
El argumento de Searle se basa en nuestras intuiciones cuando implementamos el programa de un modo extravagante que oscurece la realización de la dinámica causal pertinente. Una vez que miramos más allá de las imágenes que nos produce la presencia del demonio irrelevante y la lenta velocidad de manipulación de símbolos, sin embargo, podemos ver que la dinámica causal en el cuarto refleja precisamente la dinámica causal en el cráneo. De este modo, ya no parece tan inverosímil suponer que el sistema pueda dar origen a la experiencia.
Searle también ofrece una versión del argumento en el cual el demonio memoriza las reglas de la computación e implementa el programa internamente. Por supuesto, en la práctica, las personas no pueden memorizar ni siquiera cien reglas y símbolos, y mucho menos muchos miles de millones, pero podemos imaginar que un demonio con un módulo de supermemoria podría ser capaz de memorizar todas las reglas y los estados de todos los símbolos. En este caso, podemos nuevamente esperar que el sistema de origen a experiencias conscientes que no son las experiencias del demonio. Searle sostiene que si alguien tiene las experiencias ese debe ser el demonio, ya que todo el procesamiento es interno al mismo; sin embargo, esto debería considerarse un ejemplo de dos sistemas mentales realizados dentro del mismo espacio físico. La organización que da origen a las experiencias del chino es bastante distinta de la organización que da origen a las experiencias del demonio. La organización de comprensión del chino radica en las relaciones causales entre miles de millones de localizaciones en el módulo de supermemoria; una vez más, el demonio sólo actúa como una especie de facilitador causal. Esto se hace evidente si consideramos un espectro de casos en los cuales el demonio corre a toda velocidad a través del cráneo y gradualmente memoriza las reglas y símbolos hasta que todo está internalizado. La estructura pertinente se mueve gradualmente desde el cráneo a la supermemoria del demonio, pero la experiencia se mantiene constante en todo momento y separada completamente de sus experiencias.
Algunos podrían suponer que debido a que mi argumento se basa en duplicar la organización de nivel neuronal del cerebro, sólo establece entonces una forma débil de IA fuerte, una que está estrechamente ligada a la biología. (Al analizar lo que él llama la respuesta del «Simulador cerebral», Searle expresa sorpresa de que un defensor de la IA pudiera dar una respuesta que depende de la simulación detallada de la biología humana). Sin embargo, esto significa no haber advertido cuál es la fuerza del argumento. El programa de simulación cerebral es meramente el extremo aguzado de la cuña. Una vez que sabemos que un programa puede dar origen a una mente aún cuando está implementado al estilo del cuarto chino, la fuerza del argumento principista de Searle resulta totalmente eliminada: sabemos que el demonio y los papeles en un cuarto chino pueden sustentar una mente independiente. Las esclusas se abren, entonces, a toda una variedad de programas que podrían ser candidatos para generar experiencias conscientes. La amplitud de esta variedad es una cuestión abierta, pero el cuarto chino ya no es un obstáculo.
Sintaxis y semántica
Un segundo argumento formulado por Searle (1984) es el siguiente:
- Un programa de ordenador es sintáctico.
- La sintaxis no es suficiente para la semántica.
- Las mentes tienen semántica.
- Por lo tanto, implementar un programa es insuficiente para una mente.
Una vez más, el filósofo formula esto como un argumento acerca de la intencionalidad, pero también puede interpretarse como un argumento acerca de la conciencia. Para Searle, el tipo fundamental de intencionalidad es la intencionalidad fenomenológica, el tipo que es inherente a la conciencia.
Existen varios modos en los que puede interpretarse y criticarse este argumento, pero el problema principal es que no respeta el papel crucial de la implementación. Los programas son objetos computacionales abstractos y son puramente sintácticos. Ciertamente, ningún mero programa es un candidato para la posesión de una mente. Las implementaciones de programas, por otro lado, son sistemas concretos con una dinámica causal y no son puramente sintácticos. Una implementación tiene peso causal en el mundo real y es en virtud de ese peso causal que surgen la conciencia y la intencionalidad. Es el programa el que es sintáctico; es la implementación la que tiene contenido semántico.
Searle podría argumentar que existe un sentido en el cual aún las implementaciones son sintácticas, tal vez porque la dinámica de las implementaciones está determinada por propiedades formales. Sin embargo, cualquier sentido de «sintaxis» en el cual las implementaciones son sintácticas, pierde contacto con el sentido en el cual es plausible que la sintaxis no sea suficiente para la semántica. Aunque puede ser plausible que conjuntos estáticos de símbolos abstractos no tengan propiedades semánticas intrínsecas, es mucho menos claro que los procesos causales formalmente especificados no puedan soportar una mente.
Podemos parodiar el argumento del siguiente modo:
- Las recetas son sintácticas.
- La sintaxis no es suficiente para la esponjosidad.
- Las tortas son esponjosas.
- Por lo tanto, implementar una receta es insuficiente para una torta.
En esta forma el defecto es inmediatamente evidente. El argumento no distingue entre recetas, que son objetos sintácticos, e implementaciones de recetas, que son sistemas físicos completos en el mundo real. Nuevamente, todo el trabajo lo hace la relación de implementación, que relaciona los dominios abstracto y concreto. Una receta especifica implícitamente una clase de sistemas físicos que califican como implementaciones de la receta; son estos sistemas los que tienen características como la de esponjosidad. De modo similar, un programa especifica implícitamente una clase de sistemas físicos que califican como implementaciones del programa y son estos sistemas los que dan origen a características como las mentes.
Una simulación es sólo una simulación
Una objeción popular a la inteligencia artificial (por ejemplo, Searle, 1980; Harnad, 1989) es que una simulación de un fenómeno no es lo mismo que una reproducción de él. Por ejemplo, cuando simulamos computacionalmente la digestión, no se digiere concretamente ninguna comida. Un huracán simulado no es un verdadero huracán; cuando se simula un huracán en un ordenador, nadie se moja. Cuando se simula el calor, no se produce ningún verdadero calor. De modo que cuando se simula una mente, ¿por qué deberíamos esperar que resulte una verdadera mente? ¿Por qué deberíamos esperar en este caso, pero no en los otros, que un proceso computacional no sea sólo una simulación sino la cosa real?
Es verdad que para muchas propiedades, una simulación no es una reproducción. El calor simulado no es verdadero calor. Por otro lado, para algunas propiedades, una simulación es una reproducción. Por ejemplo, una simulación de un sistema con un bucle causal es un sistema con un bucle causal. De modo que la verdadera pregunta es, ¿cómo distinguimos esos tipos X en los que una simulación de un X es realmente un X de aquellos en los que esto no ocurre?
Sugiero que la respuesta es la siguiente. Una simulación de X es un X precisamente cuando la propiedad de ser un X es un invariante organizacional. La definición de esta propiedad es como antes: una propiedad es un invariante organizacional cuando sólo depende de la organización funcional del sistema subyacente, y no de algún otro detalle. Una simulación computacional de un sistema físico puede capturar su organización causal abstracta y asegurarse de que esta organización se reproduzca en cualquier implementación, independientemente de en qué medio se la realice. Una implementación de esta clase reproducirá entonces cualquier invariante organizacional del sistema original, pero otras propiedades se perderán.
La propiedad de ser un huracán no es un invariante organizacional, ya que depende parcialmente de propiedades no organizacionales tales como la velocidad, la forma y la composición física del sistema subyacente (un sistema con las mismas interacciones causales implementadas muy lentamente entre un gran conjunto de bolas de billar no sería un huracán). De modo similar, la digestión y el calor dependen de aspectos de la organización física subyacente que no son del todo organizacionales. Podríamos sustituir gradualmente los componentes biológicos en un sistema digestivo de modo que las reacciones ácido-base se reemplacen por interacciones causalmente isomórficas entre trozos de metal, pero esto ya no sería una instancia de digestión. De modo que no deberíamos esperar que una simulación de sistemas con estas propiedades tenga ella misma esas propiedades.
Pero las propiedades fenoménicas son diferentes. Como argumenté en el capítulo 7, son invariantes organizacionales. Si esto es así, se deduce que el tipo correcto de simulación de un sistema con propiedades fenoménicas tendrá él mismo propiedades fenoménicas, en virtud de reproducir la organización funcional de grano fino del sistema original. La invariancia organizacional hace que la conciencia sea diferente en principio de las otras propiedades mencionadas y abre el camino a la IA fuerte.
5. Objeciones externas
Hasta ahora me ocupé fundamentalmente de las objeciones internas a la inteligencia artificial fuerte, ya que ellas son las más relevantes al tema de este libro pero, al menos, mencionaré algunas objeciones externas. Como dije antes, el caso prima facie en contra de las objeciones externas a la inteligencia artificial es fuerte: tenemos todas las razones para creer que las leyes de la física, al menos tal como se las entiende actualmente, son computables, y que la conducta humana es una consecuencia de leyes físicas. Si esto es así, entonces se deduce que un sistema computacional puede simular la conducta humana. No obstante, de todos modos, ocasionalmente se plantean estas objeciones, de manera que las analizaré aquí en forma sintética.
Objeciones a partir del seguimiento de reglas
Tal vez la objeción externa más antigua a la IA sea que los sistemas computacionales siempre siguen reglas, de modo que nunca poseerán ciertas capacidades humanas como la creatividad o la flexibilidad. Esta es, en muchos sentidos, la más débil de las objeciones externas, en parte debido a su vaguedad y subespecificación. Se puede responder fácilmente que, en el nivel neuronal, el cerebro humano puede ser muy mecánico y reflexivo, pero que esto no es ningún impedimento para la creatividad y la flexibilidad en el nivel macroscópico. Por supuesto, un opositor podría negar la tesis acerca del mecanismo en el nivel neuronal pero, de cualquier forma, no parece haber ningún buen argumento en favor de la opinión de que la dinámica computacional en un nivel causal básico es incompatible con la creatividad y la flexibilidad en el nivel macroscópico.
Este tipo de objeción puede ganar algún apoyo de la identificación implícita de los sistemas computacionales con los sistemas computacionales simbólicos: sistemas que realizan manipulaciones simbólicas de representaciones conceptuales de alto nivel; en el caso extremo, sistemas que inflexiblemente extraen conclusiones a partir de premisas en lógica de primer orden. Tal vez, la objeción tenga alguna fuerza en estos casos, aunque aún esto podría ser discutible. Pero, de cualquier manera, la clase de sistemas computacionales es mucho más amplia. Una simulación de bajo nivel del cerebro es una computación, por ejemplo, pero no una computación simbólica de esta clase. En un nivel intermedio, los modelos conexionistas de la ciencia cognitiva recurrieron a un tipo de computación que no consiste de manipulación simbólica. En estos casos, puede haber un nivel en el cual el sistema siga reglas, pero ello no se refleja directamente en el nivel de la conducta; precisamente, los conexionistas suelen afirmar que el suyo es un método para producir flexibilidad de alto nivel a partir de mecanicidad de bajo nivel. Como Hofstadter (1979) lo formuló, el nivel en el que pienso no es necesariamente en nivel en el que sumo[7].
Objeciones a partir del teorema de Gödel
A veces se sostiene que el teorema de Gödel demuestra que los sistemas computacionales están limitados de un modo que los seres humanos no lo están. El teorema de Gödel nos dice que para cualquier sistema formal consistente lo suficientemente potente como para hacer un cierto tipo de aritmética, existirá un enunciado verdadero —el enunciado de Gödel del sistema— que este no puede probar. Sin embargo, nosotros podemos ver que el enunciado de Gödel es verdadero, se argumenta, de modo que tenemos una capacidad de la que el sistema formal carece. Se deduce que ningún sistema formal puede capturar precisamente las capacidades humanas. (Argumentos de este tipo fueron formulados por Lucas [1961] y Penrose [1989,1994], entre otros).
La respuesta breve a estos argumentos es que no hay ninguna razón para creer que los seres humanos puedan ver la verdad de los enunciados de Gödel pertinentes. En el mejor de los casos, podemos ver que si un sistema es consistente, entonces su enunciado de Gödel es verdadero, pero no hay ninguna razón para creer que podamos determinar la consistencia de sistemas formales arbitrarios[8]. Esto es válido en particular para el caso de sistemas formales complejos, tal como un sistema que simula la salida de un cerebro humano: la tarea de determinar si un sistema de este tipo es consistente bien podría estar más allá de nuestras posibilidades. De modo que podría ocurrir que cada uno de nosotros pueda ser simulado por un sistema formal complejo F, tal que no podemos determinar si F es consistente. Si esto es así, no podremos ver la verdad de nuestros propios enunciados de Gödel.
Existen muchas variantes del argumento gödeliano, con respuestas que un opositor podría hacer a esta sugerencia y nuevos caminos secundarios que surgen a su vez. No los analizaré aquí (aunque lo hago detalladamente en Chalmers 1995c). Estas cuestiones conducen a muchos estimulantes puntos de interés, pero creo que es justo decir que la tesis de que las limitaciones gödelianas no se aplican a los seres humanos nunca se defendió de forma convincente.
Objeciones a partir de la no computabilidad y la continuidad
Las objeciones de más arriba son argumentos de «alto nivel» de que el funcionamiento cognitivo es no computable. También se podría intentar atacar la posición de la IA en el bajo nivel, argumentando que el funcionamiento físico no es computable. Penrose (1994), por ejemplo, argumenta que podría haber un elemento no computable en una teoría correcta de la gravedad cuántica. Su única evidencia de esta conclusión, sin embargo, se encuentra en el argumento gödeliano de más arriba. No hay nada en la teoría física misma que apoye esa conclusión; de modo que si se voltea el argumento gödeliano, cualquier razón para creer en leyes físicas no computables desaparece. Se podría sostener que dado que todo elemento del cerebro, por ejemplo una neurona, sólo tiene un número finito de estados relevantes, y dado que sólo hay un número finito de elementos relevantes, entonces la estructura causal del cerebro debe ser capturable en una descripción computacional.
Esto lleva a la objeción final: que los procesos cerebrales pueden ser esencialmente continuos mientras que los procesos computacionales son discretos, y que esta continuidad podría ser esencial para nuestra competencia cognitiva, de modo que ninguna simulación discreta podría duplicarla. Tal vez, al aproximar una neurona por un elemento con sólo un número finito de estados, perdemos algo vital de su funcionamiento. Un oponente podría apelar, por ejemplo, a la presencia de una «dependencia crítica a las condiciones iniciales» en ciertos sistemas no lineales, lo que implica que aún un pequeño error de redondeo en una etapa de procesamiento puede llevar a diferencias macroscópicas importantes en una etapa posterior. Si el procesamiento cerebral es de esta clase, entonces cualquier simulación discreta del cerebro producirá resultados que difieren de la realidad continua.
Hay buenas razones para creer que la continuidad absoluta no puede ser esencial para nuestra competencia cognitiva, sin embargo. La presencia de ruido de fondo en los sistemas biológicos implica que ningún proceso puede depender de requerir más de un cierto nivel de precisión. Más allá de un cierto punto (digamos, el nivel de 10-10 en una escala apropiada), las fluctuaciones incontrolables en el ruido de fondo eliminarán cualquier precisión ulterior. Esto significa que si aproximamos el estado del sistema con este nivel de precisión (quizás un poco más allá para estar del lado seguro, por ejemplo, al nivel 10-20), podríamos tener un desempeño tan fiable como el del propio sistema. Es verdad que debido a los efectos no lineales esta aproximación podría llevar a una conducta diferente de la conducta producida por el sistema en una ocasión dada, pero llevará a conductas que el sistema podría haber producido, si el ruido biológico hubiese sido un poco diferente. Podemos incluso aproximar el propio proceso de ruido, si así lo queremos[9]. El resultado será que el sistema de simulación tendrá las mismas capacidades conductuales que el sistema original, aunque produzca una conducta específica diferente en ocasiones específicas. La moraleja es que cuando se trata de duplicar nuestras capacidades cognitivas, una aproximación cercana es tan buena como la cosa real.
Es verdad que un sistema con precisión ilimitada podría poseer capacidades cognitivas que ningún sistema discreto podría nunca tener. Por ejemplo, podríamos codificar una cantidad analógica correspondiente al número real cuyo n-ésimo dígito binario es 1 si y sólo si la n-ésima máquina de Turing se detiene con todas las entradas. Utilizando esta cantidad, un sistema continuo perfecto podría resolver el problema de la detención, algo que ningún sistema discreto puede hacer. Pero la presencia de ruido implica que ningún proceso biológico puede implementar fiablemente este sistema. Los sistemas biológicos pueden apoyarse sólo en una cantidad finita de precisión, de modo que el cerebro de los seres humanos y los animales debe estar limitado a capacidades que los sistemas discretos pueden compartir.
6. Conclusión
La conclusión general es que no parece haber ninguna barrera de principio para las ambiciones de la inteligencia artificial. Las objeciones externas no parecen tener mucha fuerza. Las objeciones internas podrían ser más preocupantes, pero ninguno de los argumentos en favor de esas objeciones parece convincente cuando se lo analiza. Si los argumentos que enuncié en los capítulos anteriores son correctos, entonces tenemos buenas razones positivas para creer que la implementación de una computación apropiada estará acompañada de la experiencia consciente. De modo que la perspectiva de la conciencia de las máquinas es buena en principio, aunque pueda no serlo todavía en la práctica.
No he dicho gran cosa acerca de exactamente qué tipo de computación podría ser suficiente para la experiencia consciente. En la mayoría de los argumentos utilicé como ejemplo una simulación de neurona por neurona del cerebro; pero es probable que muchos otros tipos de computaciones puedan también ser suficientes. Podría ocurrir, por ejemplo, que una computación que refleje la organización causal del cerebro en un nivel mucho menos detallado pueda todavía capturar lo que es significativo para el surgimiento de la experiencia consciente. Es probable que computaciones de una forma enteramente diferente, que correspondan a tipos totalmente distintos de organización causal, pudiesen también dar origen a ricas experiencias conscientes cuando se las implementa.
Este cuadro es igualmente compatible con los enfoques simbólico y conexionista de la cognición, y también con otros enfoques computacionales. Es posible argumentar que la centralidad de la computación en el estudio de la cognición se deba a que las concepciones computacionales pueden capturar casi cualquier tipo de organización causal. Podemos pensar que los formalismos computacionales proporcionan un formalismo ideal para la expresión de patrones de organización causal y ciertamente (en combinación con métodos de implementación) constituyen una herramienta ideal para su reproducción. Cualquiera sea la organización causal que resulte fundamental para la cognición y la conciencia, podemos esperar que una concepción computacional sea capaz de capturarla. Podríamos incluso argumentar que es esta flexibilidad la que subyace a la tan mencionada universalidad de los sistemas computacionales. Los defensores de la inteligencia artificial no se encuentran comprometidos con ningún tipo particular de computación como la clase que podría ser suficiente para la mentalidad; la gran plausibilidad de la tesis de la IA se debe precisamente a que la clase de sistemas computacionales es tan amplia[10].
Es así que la cuestión de exactamente qué clase de computaciones es suficiente para reproducir la mentalidad humana sigue siendo una pregunta abierta; pero tenemos buenas razones para creer que la clase no es vacía.