CAPÍTULO 9

La arquitectura de la mente humana

1. ¿Dónde estamos?

La parte más difícil ya ha pasado, pero todavía nos queda mucho trabajo por hacer. Hemos completado los más arduos ejercicios para ensanchar la imaginación, y estamos listos para poner a prueba nuestra recién estrenada perspectiva. Por el camino tuvimos que dejar muchos asuntos por tratar y nos permitimos una cierta desidia al tratar otros. Hay promesas que mantener, reconocimientos pospuestos y comparaciones que hacer. La teoría que he venido desarrollando incluye elementos tomados de muchos otros pensadores. En ocasiones, he ignorado deliberadamente aquello que estos pensadores consideran como la mejor parte de sus teorías, y he mezclado ideas procedentes de campos «hostiles», pero me he permitido omitir todos estos detalles en aras de una mayor claridad y llaneza. Es posible que hayamos dejado algunos serios modeladores de la mente retorciéndose de frustración, pero no se me ocurrió una manera mejor de hacer que diversos tipos de lectores lleguen al mismo punto de vista juntos. Ahora, sin embargo, estamos en una buena posición para hacer inventario y afianzar algunos detalles esenciales. Después de todo, la razón por la cual vale la pena tomarse la molestia de construir una nueva perspectiva es la de ver los fenómenos y las controversias de una manera diferente. Echemos, pues, una mirada.

En un pequeño esbozo, esta es mi teoría hasta el momento:

No hay un único y definitivo «flujo de la conciencia», porque no hay un cuartel general central ni un Teatro Cartesiano donde «todo se junta» para ser examinado por un Significador Central. En vez de este único flujo (por amplio que sea), hay múltiples canales en los que circuitos especializados intentan, en pandemóniums paralelos, llevar a cabo sus propias tareas, creando Versiones Múltiples a medida que avanzan. La mayor parte de estas versiones fragmentarias de «relato» juegan papeles efímeros en la modulación de la actividad del momento, aunque algunos se ven promocionados a nuevos papeles funcionales, en rápida sucesión, por la actividad de la máquina virtual en el cerebro. La serialidad de esta máquina (su carácter «von Neumanniano») no es un rasgo de diseño preconfigurado, sino el resultado de una sucesión de coaliciones entre estos especialistas.

Los especialistas básicos forman parte de nuestra herencia animal. No se desarrollaron para llevara cabo acciones propias de los humanos, tales como leer y escribir, sino para esquivar, evitar depredadores, reconocer caras, agarrar, lanzar, recoger bayas y otras tareas esenciales. A menudo se ven oportunamente alistados para nuevos papeles, para los cuales sus talentos originales son más o menos adecuados. El resultado no es un caos total simplemente porque las tendencias que se imponen sobre toda esta actividad son por sí mismas el producto de ese diseño. Parte de este diseño es innato y compartido con otros animales. Pero se ve ampliado, y aveces superado en importancia, por microhábitos de pensamiento que se han desarrollado en el individuo, en parte como resultado de la autoexploración individual y en parte como dones prediseñados de la cultura. Miles de memas, la mayor parte producida por el lenguaje, pero también «imágenes» sin palabras y otras estructuras de datos, fijan su residencia en un cerebro individual, conformando sus tendencias y convirtiéndolo, así, en una mente.

Esta teoría es lo bastante novedosa como para ser difícil de comprender, aunque se basa en modelos desarrollados en el seno de la psicología, la neurobiología, la inteligencia artificial, la antropología… y la filosofía. Este descarado eclecticismo a menudo provoca cierto recelo en los investigadores dentro de los campos de los que toma prestadas sus ideas. Gracias a mis frecuentes intrusiones en estas áreas, he llegado a acostumbrarme al poco respeto que sienten algunos individuos por sus colegas. «Pero Dan», me dicen los vinculados a la inteligencia artificial, «¿por qué pierdes el tiempo hablando con estos tipos de las neurociencias? Aluden al “procesamiento de la información” y sólo se preocupan por dónde se produce y sobre qué neurotransmisores intervienen, y todas estas cosas tan aburridas, pero no tienen ni la más remota idea de cuáles son los requisitos computacionales que imponen las funciones cognitivas superiores». «¿Por qué —me preguntan los investigadores del cerebro— pierdes el tiempo con esas fantasías de la inteligencia artificial? Se dedican a inventar los mecanismos que les da la gana y demuestran una ignorancia imperdonable sobre todo lo que tiene que ver con el cerebro». Sobre los psicólogos cognitivistas, por otra parte, recaen constantes acusaciones de construir modelos sin ninguna plausibilidad biológica ni poder computacional probado; los antropólogos no reconocerían un modelo si lo vieran, y los filósofos, como todos sabemos, se dedican a sacar los trapos sucios de unos y otros, advirtiendo sobre confusiones que ellos mismos han creado, en un área que carece por completo de datos y de teorías verificables empíricamente. Con tantos idiotas ocupándose del problema, no es de extrañar que la conciencia siga siendo un misterio.

Todas estas acusaciones son ciertas, y podríamos lanzar muchas otras todavía, aunque yo aún no me he cruzado con ningún idiota. Al contrario, la mayor parte de los teóricos cuyas ideas he tomado prestadas me parecen personas muy inteligentes —incluso brillantes, con la arrogancia y la impaciencia que a menudo acompaña a la brillantez—, pero con perspectivas y agendas limitadas. Son personas que intentan hacer progresos en el estudio de problemas muy complejos, tomando cualquier atajo que sean capaces de ver, al tiempo que deploran los que utilizan los demás. Nadie puede ser claro en el momento de tratar todos los problemas y todos los detalles, yo incluido, y todos nos vemos obligados a hablar entre dientes, a imaginar y a ser superficiales con grandes partes del problema.

Por ejemplo, una de las osadías endémicas en las ciencias del cerebro es la tendencia a pensar en la conciencia como si fuera la parada terminal de la línea. (Ello equivale a olvidar que el producto final de un manzano no son las manzanas, sino más manzanos). Evidentemente, es sólo desde hace poco tiempo que estos investigadores se han permitido pensar en la conciencia, y sólo algunos excelentes teóricos han empezado a hablar, oficialmente, sobre lo que han pensado. Como ha comentado recientemente con cierta sorna el investigador de la visión Bela Julesz, uno sólo puede salir bien parado de todo este asunto si tiene el pelo cano… ¡y un Premio Nobel por ejemplo!, he aquí una hipótesis aventurada por Francis Crick y Christof Koch:

Hemos propuesto que una de las funciones de la conciencia sea La de presentar el resultado de diversas computaciones subyacentes y que ello comporta un mecanismo de atención que temporalmente enlaza las neuronas relevantes sincronizando sus picos en oscilaciones de 40 hz. (Crick y Koch, 1990, pág. 272).

Así que una de las funciones de la conciencia es presentar los resultados de computaciones subyacentes, pero ¿a quién? ¿A la reina? Crick y Koch no se plantean la pregunta difícil: ¿Y ahora qué? («Y entonces, ¿se produce un milagro?»). Una vez que su teoría ha conducido algo hacia lo que consideran como el círculo encantado de la conciencia, esta se detiene. No afronta los problemas que tratamos en los capítulos del 5 al 8, por ejemplo, incluidos en particular los testimonios introspectivos.

Los modelos de la mente desarrollados en el seno de la psicología cognitiva y la IA, por el contrario, casi nunca tienen este defecto (véanse, por ejemplo, Shallice, 1972, 1978; Johnson-Laird, 1983, 1988; Newell, 1990). Generalmente postulan un «espacio de trabajo» o una «memoria de trabajo» que sustituye al Teatro Cartesiano, y muestran de qué manera los resultados de computaciones llevadas a cabo alimentan nuevas computaciones que rigen la conducta, informan los testimonios verbales, se doblan hacia atrás recursivamente a fin de proporcionar nueva información de entrada para la memoria de trabajo, etc. Sin embargo, estos modelos no suelen decir dónde o cómo podría localizarse una memoria de trabajo en el cerebro, y están tan ocupados con el trabajo que se lleva a cabo en ese espacio que no tienen tiempo para el «juego»; ningún signo de esa especie de deleite por la fenomenología que parece ser un rasgo tan importante de la conciencia humana.

Curiosamente, pues, los investigadores del cerebro a menudo se nos presentan como dualistas, ya que una vez han «presentado» las cosas a la conciencia, parecen cargarle el muerto a la mente, mientras que los psicólogos a menudo se nos presentan como zombistas (¿automatistas?), ya que describen estructuras que son desconocidas para los neuroanatomistas, y sus teorías pretenden demostrar cómo se puede hacer todo el trabajo sin tener que recurrir a ningún observador interno.

Las apariencias engañan. Crick y Koch no son dualistas (aunque, aparentemente, son materialistas cartesianos), y los psicólogos cognitivistas nunca han negado la existencia de la conciencia (aunque la mayor parte del tiempo hacen todo lo posible por ignorarla). Además, ninguno de estos enfoques estrechos de miras descalifica a una u otra empresa. Los investigadores del cerebro tienen razón al insistir en que no se tiene un buen modelo de la conciencia hasta que no se ha resuelto el problema de cómo encaja este modelo en el cerebro, pero los investigadores en ciencia cognitiva (en inteligencia artificial y psicología cognitiva, por ejemplo) también tienen razón al insistir en que no se tiene un buen modelo de la conciencia hasta que se ha resuelto el problema de qué funciones ejecuta y de cómo las ejecuta, mecánicamente y no en beneficio de una mente. En palabras de Philip Johnson-Laird, «toda teoría científica de la mente debe tratar a esta como si fuera un autómata» (Johnson-Laird, 1983, pág. 477). Las limitadas perspectivas de cada una de estas empresas no hacen más que demostrarnos la necesidad de una nueva empresa —aquella en que acabamos de embarcarnos— que intente aunar tantos puntos fuertes de las demás empresas como sea posible.

2. Orientándonos con el pequeño esbozo

Mi objetivo principal en este libro es de cariz filosófico: demostrar cómo se podría construir un modelo genuinamente explicativo de la conciencia con todos estos elementos diversos, y no desarrollar —y confirmar— dicha teoría en todos sus detalles. No obstante, mi teoría habría sido inconcebible (para mí, al menos), si no hubiera tomado prestados datos empíricos procedentes de diversos dominios, que abrieron el camino (para mí, al menos) a nuevas maneras de pensar. (Una compilación particularmente rica de nuevos descubrimientos e ideas sobre la conciencia es la de Marcel y Bisiach, 1988). Vivimos unos tiempos apasionantes para la investigación de los problemas de la mente. El campo bulle con nuevos descubrimientos, nuevos modelos, sorprendentes resultados experimentales, y casi igual número de excesivamente aclamadas «pruebas» y refutaciones prematuras. En este momento, las fronteras de la investigación sobre la mente son tan amplias que apenas si podemos decir que haya un acuerdo sobre cuáles son las preguntas y los métodos apropiados. Con tantos fragmentos de teorías tan débilmente defendidos y tanta especulación, no es mala idea posponer nuestras exigencias de pruebas y demostraciones, y buscar por el contrario nuevos fundamentos, más o menos independientes, que tiendan a converger en apoyo de una única hipótesis, aunque sea de forma aún inconcluyente. Debemos intentar mantener a raya nuestro entusiasmo, sin embargo. A veces lo que parece bastante humo como para augurar un buen fuego, no es más que una nube de polvo provocada por el paso de una caravana.

En su libro A Cognitive Theory of Consciousness (1988), el psicólogo Bernard Baars establece lo que él considera como «el amplio consenso» de que la conciencia es el producto de una «sociedad distribuida de especialistas, equipada con una memoria de trabajo, denominada espacio de trabajo global, cuyo contenido es transmitido a todo el sistema» (pág. 42). Según observa Baars, una gran variedad de teóricos, a pesar de las grandes diferencias de perspectivas, formación y aspiraciones, gira en torno a esta visión compartida de cómo debe residir la conciencia en el cerebro. Lo que con cierta cautela he ido introduciendo aquí, no es más que una versión de esa visión compartida, ignorando algunas características y haciendo hincapié en otras, características que, a mi modo de ver, no han sido suficientemente tenidas en cuenta o han sido subestimadas, y que pienso que son cruciales para abrirnos paso hacia los misterios conceptuales que aún permanecen.

A fin de situar mi teoría en relación a algunos de los muchos trabajos de los cuales he tomado prestadas ideas, quisiera volver a mi pequeño esbozo, examinándolo tema por tema y estableciendo los paralelismos y los puntos de desacuerdo.

No hay un único y definitivo «flujo de La conciencia», porque no hay un cuartel general central ni un Teatro Cartesiano donde «todo se junta» para ser examinado por un Significador Central…

Mientras casi todo el mundo coincide en rechazar la idea de que no hay un punto en el cerebro que se corresponda con la glándula pineal de Descartes, las implicaciones de dicha afirmación nunca han sido reconocidas y, ocasionalmente, se han pasado por alto de forma descarada. Por ejemplo, ciertas imprudentes formulaciones del «problema del ligamiento» en la investigación del cerebro actual a menudo presuponen que debe de haber un único espacio de representación en el cerebro (de menor tamaño que el propio cerebro), donde se aúnan las diferentes discriminaciones, casando la banda sonora con la película, coloreando las formas, rellenando las partes en blanco. Existen algunas formulaciones más cuidadosas del problema del ligamiento que evitan este error, pero a veces se pasan por alto los detalles.

…En vez de este único flujo (por amplio que sea), hay múltiples canales en los que circuitos especializados intentan, en pandemóniums paralelos, llevar a cabo sus propias tareas, creando Versiones Múltiples a medida que avanzan. La mayor parte de estas versiones fragmentarias de «relato» juegan papeles efímeros en la modulación de la actividad del momento-Desde la IA, hace ya tiempo que Roger Schank viene señalando la importancia de las secuencias de tipo narrativo, primero en su trabajo sobre los scripts o guiones (1977, con Abelson), y más recientemente (1991) en su trabajo sobre el papel del relatar historias en la comprensión. Desde perspectivas muy distintas, también dentro de la IA, Patrick Hayes (1979), Marvin Minsky (1975), John Anderson (1983) y Erik Sandeval (1991) —y otros—, han defendido la importancia de las estructuras de datos que no son meras secuencias de «instantáneas» (con el problema concomitante de reidentificar elementos particulares en los fotogramas sucesivos), sino que, de un modo u otro, están específicamente diseñadas para representar directamente secuencias temporales y tipos de secuencias. En la filosofía, Gareth Evans (1982), antes de su temprana muerte, había empezado a desarrollar ideas paralelas. En la neurobiología, estos fragmentos narrativos han sido estudiados, en tanto que guiones y otros tipos de secuencias, por William Calvin (1987) en su enfoque de la máquina darwinista. Hace tiempo que los antropólogos sostienen que los mitos que transmite cada cultura a sus nuevos miembros juegan un papel fundamental en la formación de sus mentes (véanse, por ejemplo, Goody, 1977, y, para algunas posibles aplicaciones a la IA, Dennett, 1991b), aunque nunca han intentado construir modelos computacionales o neuroanatómicos.

…aunque algunos se ven promocionados a nuevos papeles funcionales, en rápida sucesión, por la actividad de la máquina virtual en el cerebro. La serialidad de esta máquina (su carácter «von neumanniano») no es un rasgo de diseño preconfigurado, sino el resultado de una sucesión de coaliciones entre estos especialistas.

Muchos han señalado el proceder lento y trabajoso de la actividad mental consciente (por ejemplo, Baars, 1988, pág. 120), y desde hace tiempo ha ido tomando cuerpo la idea de que ello se debe al hecho de que el cerebro nunca fue diseñado —preconfigurado— para tal actividad. Hace bastantes años, pues, que circula la idea de que la conciencia podría ser la actividad de una especie de máquina virtual serial implementada en el hardware paralelo del cerebro. El psicólogo Stephen Kosslyn presentó una versión de la idea de la máquina virtual en un congreso de la Society for Philosophy and Psychology a principios de los años ochenta, y yo mismo vengo intentando desarrollar diferentes versiones de esta idea desde hace aproximadamente el mismo tiempo (por ejemplo, Dennett, 1982b); sin embargo, una presentación aún más temprana de esta misma idea —aunque sin utilizar el término «máquina virtual»—, la encontramos en el artículo pionero del psicólogo Paul Rozin, «The evolution of intelligence and access to the cognitive unconscious» (1976). Otro psicólogo, Julian Jaynes, en sus audaces y originales especulaciones en The Origins of Consciousness in the Breakdown of the Bicameral Mind (1976), puso mucho énfasis en la idea de que la conciencia humana es una imposición muy reciente y producida por la cultura sobre una arquitectura funcional previa. El mismo tema, con algunas variaciones, también lo ha desarrollado el investigador del cerebro Harry Jerison (1973). De acuerdo con esta concepción, la arquitectura neuronal subyacente dista mucho de ser una tabula rasa o una pizarra en blanco en el momento del nacimiento, aunque es también un medio en el que se construyen estructuras, en función de las interacciones del cerebro con el mundo. Y son estas estructuras que se construyen, más que las estructuras innatas, las que es preciso tomar en consideración para explicar el funcionamiento cognitivo.

Los especialistas básicos forman, parte de nuestra herencia animal. No se desarrollaron para llevar a cabo acciones propias de los humanos, tales como leer y escribir, sino para esquivar, evitar depredadores, reconocer caras, agarrar, lanzar, recoger bayas y otras tareas esenciales…

Muchas teorías diferentes coinciden en refrendar la presencia de estas hordas de especialistas, pero su tamaño, papel y organización son objeto de apasionados debates. (Para una útil y rápida reseña, véase Allport, 1989, págs. 643-647). Los neuroanatónomos que estudian los cerebros de animales, desde las jibias y los calamares a los gatos y los monos, han identificado una gran variedad de circuitos preconfigurados, exquisitamente diseñados para llevar a cabo tareas específicas. Los biólogos hablan de Mecanismos Innatos de Desencadenamiento (Innate Releasing Mechanisms; IRM) y de Patrones de Acción Fijos (Fixed Action Patterns; FAP), que se pueden acoplar, y en una carta reciente, la neuropsicóloga Lynn Waterhouse describía muy acertadamente las mentes de los animales como «colchones de IRM-FAP». Son precisamente estas mentes animales problemáticamente acolchadas lo que Rozin (y otros) consideran como la base para la evolución de mentes con funciones más generales, que explotan estos mecanismos preexistentes para nuevos propósitos. El psicólogo de la percepción V. S. Ramachandran (1991), señala que «hay una ventaja real que aparece en los sistemas múltiples: proporciona tolerancia para las imágenes llenas de ruido como las que encontramos en el mundo real. Mi analogía favorita para ilustrar algunas de estas ideas es la de los dos borrachos: ninguno de los dos puede caminar por sí solo, pero apoyándose el uno en el otro consiguen alcanzar su objetivo a trancas y barrancas».

El neuropsicólogo Michael Gazzaniga ha aportado abundantes datos provenientes de ciertos déficits neurológicos (incluido el famoso, y a menudo mal descrito, caso de los pacientes con el cerebro dividido) que apoyan una concepción de la mente como una coalición o haz de acciones semiindependientes (Gazzaniga y Ledoux, 1978; Gazzaniga, 1985); y desde un campo diferente, el filósofo de la psicología Jerry Fodor (1983) ha argumentado que grandes partes de la mente humana se componen de módulos: sistemas preconfigurados, con una función específica y «encapsulados» para el análisis de la información de entrada (y la generación de información de salida, aunque Fodor apenas ha prestado atención a este punto).

Fodor concentra su atención sobre módulos que serían específicos de la mente humana —en particular, módulos para la adquisición del lenguaje y para analizar oraciones—, y, dado que en gran medida ignora el problema de cuáles podrían ser sus antepasados en las mentes de animales inferiores, crea, por así decir, la improbable impresión de que la evolución diseñó nuevos mecanismos propios para la especie. Esta imagen de dichos módulos como un milagroso don de la Madre Naturaleza al Homo sapiens se ve fomentada por la visión ultraintelectualista de Fodor sobre cómo los módulos están conectados al resto de la mente. Según Fodor, estos no llevan a cabo tareas completas dentro de la economía de la mente (como por ejemplo controlar la coordinación de ojos y manos para recoger algo), sino que se detienen bruscamente en una frontera interna, una línea en la mente que no pueden cruzar. Fodor sostiene que existe un ruedo central para la «fijación racional de creencias», en la cual los módulos depositan servilmente sus bienes, convirtiéndolos así en procesos no modulares («globales, isotrópicos»).

Los módulos de Fodor son el sueño de un burócrata: la descripción de las tareas que deben llevar a cabo está grabada en piedra; no se puede acudir a ellos para que ejecuten tareas nuevas o jueguen más de un papel; y son «cognitivamente impenetrables», lo cual significa que sus actividades no pueden ser moduladas, ni interrumpidas, por cambios en los estados «informacionales» globales del resto del sistema. Para Fodor, todas las actividades que están realmente implicadas en el pensamiento no son modulares. Imaginar qué hacer después, razonar sobre situaciones hipotéticas, reestructurar los propios materiales de forma creativa, revisar la propia visión del mundo son, todas ellas, actividades ejecutadas por un misterioso dispositivo central. Además, Fodor afirma (mostrando un curioso sentimiento de satisfacción) que ninguna rama de la ciencia cognitiva, la filosofía incluida, tiene ni la más remota idea de cómo funciona este dispositivo central.

Se sabe mucho sobre Las transformaciones que se operan sobre Las representaciones y que sirven para convertir La información a un formato que sea apropiado para el procesamiento central; apenas nada se sabe sobre qué le ocurre a la información una vez ha Llegado hasta ahí. Hemos perseguido al espíritu hasta acorralarlo en lo más profundo de la máquina, pero todavía no Lo hemos exorcizado. (Fodor, 1983, pág. 127).

Al dotar a este dispositivo central con tantas cosas que hacer, y con tanto poder no modular con que hacerlo, Fodor convierte a sus módulos en unos agentes faltos de toda plausibilidad, agentes cuya existencia sólo tiene sentido en compañía de un agente jefe de una autoridad ominosa (Dennett, 1984b). Puesto que uno de los aspectos principales sobre los que Fodor hace hincapié al describir sus módulos es su mecanicidad finita comprensible y estúpida frente a los poderes inexplicables del centro no modular, aquellos teóricos que, en caso contrario, habrían sido receptivos a la mayor parte de su caracterización de los módulos han mostrado la tendencia a rechazarlos como las fantasías de un criptocartesiano.

Muchos de esos mismos teóricos han mostrado una actitud entre la indiferencia y la hostilidad para con los agentes de Marvin Minsky, quienes conforman la Sociedad de la Mente (1985). Los agentes de Minsky son homúnculos de muy diversos tamaños, desde gigantescos especialistas con talentos tan sublimes como los de los módulos fodorianos, hasta agentes del tamaño de un mema (polinemas, micronemas*, agentes censores, agentes supresores, y muchos otros). Todo parece demasiado fácil, piensan los escépticos. Siempre que hay un trabajo por hacer, se postula un grupo de agentes ajustado a la tarea para llevarla a cabo; parafraseando a Bertrand Russell, es una estratagema teórica con todas las virtudes del latrocinio frente al trabajo honrado.

Los homúnculos —los demonios, los agentes— son moneda común en el reino de la inteligencia artificial y, en general, de las ciencias de la computación. Todo aquel que arruga la frente con aire escéptico ante la mención de los homúnculos simplemente no comprende hasta qué punto puede ser neutral este concepto, y cuan amplias sus aplicaciones. Postular un grupo de homúnculos sería efectivamente la estrategia fútil que el escéptico imagina, si no fuera por el hecho de que en las teorías homunculares, el verdadero contenido se halla en todo cuanto se dice sobre cómo los homúnculos interactúan, se desarrollan, forman coaliciones o jerarquías, etc. En cuanto a este punto, las teorías pueden ser muy distintas. Las teorías burocráticas, como vimos en el capítulo 8, organizan los homúnculos en jerarquías prediseñadas. No hay homúnculos subvencionados ni subversivos, y la competición entre homúnculos está tan regulada como una liga de béisbol. Las teorías del pandemónium, por el contrario, postulan la existencia de mucha duplicación de esfuerzos, derroche de movimientos, interferencias, períodos de caos y muchos gandules sin un trabajo definido. En estas teorías, llamar homúnculos (o demonios, o agentes) a estas unidades es casi tan poco significativo como llamarlas simplemente… unidades. Son sólo unidades con competencias bien definidas, y cada teoría, desde la que se cierne con más fidelidad a los datos neuroanatómicos hasta la más abstracta y artificial, postula algunas de estas unidades y después teoriza sobre el modo en que se pueden llevar a cabo funciones complejas a través de la organización de unidades que llevan a cabo funciones más simples. De hecho, todas las variantes del funcionalismo pueden verse como funcionalismos «homunculares» a un nivel de descripción de grano más o menos fino.

Me ha divertido observar una especie de eufemismo que últimamente ha ido calando entre los investigadores del cerebro. Los neuroanatónomos han hecho grandes progresos en la tarea de trazar un mapa del córtex, el cual resulta estar exquisitamente organizado en forma de columnas especializadas de neuronas que interactúan (que el investigador del cerebro Vernon Mountcastle, 1978, denomina «módulos unidad»), organizadas a su vez en organizaciones mayores tales como los «mapas retinotópicos» (en los que se conserva el patrón espacial de excitación sobre las retinas de los ojos), que a su vez juegan un papel —apenas conocido aún— en organizaciones aún mayores de neuronas. Los investigadores del cerebro solían hablar de lo que estos distintos trazados o grupos de neuronas señalaban; pensaban en estos grupos como si fueran homúnculos cuyo «trabajo» era siempre «enviar un mensaje con un contenido determinado». Nuevas y recientes reflexiones sobre el asunto apuntan hacia la idea de que en dichas regiones se llevan a cabo funciones mucho más complejas y variadas, de modo que hoy en día se considera un gran error el hablar de ellas (únicamente) como meras señaladoras de esto o aquello. ¿Cómo podríamos expresar, entonces, esos descubrimientos, que tanto trabajo han costado, sobre las condiciones específicas bajo las cuales se activan dichas regiones? Decimos que esta región «se interesa» por el color, mientras que aquella «se interesa» por la localización o el movimiento. Pero este uso no es el ridículo antropomorfismo o «la falacia del homúnculo» que nos encontramos por todas partes en la IA, por supuesto; no es más que una manera inteligente e imaginativa de hablar sobre las funciones de las regiones nerviosas, ideada por unos científicos serios. Lo que es bueno para lo uno es bueno para lo otro.

Los agentes de Minsky son distintos principalmente porque, a diferencia de otras variedades, de homúnculos, tienen una historia y una genealogía. Su existencia no sólo se postula, sino que se pueden haber desarrollado a partir de algo previo cuya existencia no constituía un misterio; Minsky tiene muchas sugerencias sobre los posibles desarrollos que pueden haberse producido. Si sigue manteniendo una actitud desconcertantemente evasiva sobre qué tipos de neuronas podrían ser los constituyentes de sus agentes y sobre cuál sería su localización en el cerebro, es porque ha querido estudiar los requisitos más generales sobre el desarrollo de las funciones, sin caer en el exceso de detalle. Como él mismo señala, al describir su anterior teoría de los frames (cuyo descendiente es la sociedad de la mente), «Si la teoría hubiera sido algo más vaga, habría sido ignorada, pero si hubiera sido descrita con mayor detalle, tal vez otros científicos la habrían puesto (a prueba], en lugar de aportar su propias ideas» (1985, pág. 259*). Algunos científicos no se sienten particularmente afectados por este tipo de apologías. Sólo se interesan por aquellas teorías capaces de hacer predicciones verificables de inmediato. Esta sería una buena política, si no fuera por el hecho de que todas las teorías verificables desarrolladas hasta ahora son manifiestamente falsas, y sería absurdo pensar que los avances necesarios para construir nuevas teorías verificables surgirán de la nada, sin una buena dosis de reflexión imaginativa como la que se permite Minsky. (Evidentemente, yo estoy jugando al mismo juego).

Volvamos a nuestro pequeño esbozo:

A menudo [los demonios especialistas] se ven oportunamente alistados para nuevos papeles, para los cuales sus talentos originales son más o menos adecuados. El resultado no es un caos total simplemente porque las tendencias que se imponen sobre toda esta actividad son por sí mismas el producto de ese diseño. Parte de este diseño es innato y compartido con otros animales. Pero se ve ampliado, y a veces superado en importancia, por microhábitos de pensamiento que se han desarrollado en el individuo, en parte como resultado de la autoexploración individual y en parte como dones prediseñados de la cultura. Miles de memas, la mayor parte producida por el lenguaje, pero también «imágenes» sin palabras y otras estructuras de datos, fijan su residencia en un cerebro individual, conformando sus tendencias y convirtiéndolo, así, en una mente.

Es en esta parte de mi teoría donde me he mostrado deliberadamente evasivo sobre muchas cuestiones importantes: ¿de qué manera interactúan estos homúnculos a fin de llevar algo a cabo? ¿Cuáles son las transacciones de procesamiento de la información subyacentes, y qué motivos tenemos para pensar que podrían «funcionar»? De acuerdo con mi esbozo, la secuencia de acontecimientos se ve determinada (de maneras a las que sólo he hecho alguna alusión indirecta) por «hábitos», y, aparte de mis aseveraciones negativas en el capítulo 5 sobre lo que no ocurre, apenas he hecho afirmaciones específicas sobre la estructura de los procesos a través de los cuales se perpetúan elementos fruto de las Versiones Múltiples, algunos de los cuales acabarán por generar heterofenomenologia como resultado de un sondeo u otro. A fin de poder comprobar adonde nos lleva todo esto, y cuáles podrían ser las diferentes respuestas alternativas, deberíamos echar una rápida mirada a algunos modelos más del pensamiento secuencial.

3. ¿Y ahora qué?

En el capítulo 7 pudimos comprobar que la arquitectura de von Neumann es el producto de un proceso serial de cálculo deliberado. Turing y von Neumann aislaron un tipo particular de corriente que puede fluir a través del flujo de la conciencia y, después, lo idealizaron de forma radical en interés de la mecanización. Tenemos el célebre cuello de botella de von Neumann, que consiste en un único registro para los resultados y otro para las instrucciones. Los programas no son más que listas de instrucciones ordenadas, construidos a partir de un pequeño conjunto de primitivos que la máquina está preconfigurada para ejecutar. Un proceso fijo, el ciclo de buscar y ejecutar, extrae las instrucciones de una lista en la memoria, una por vez, tomando siempre la primera de la lista, a menos que la instrucción precedente no provoque un desvío hacia otra parte de la lista.

Cuando los investigadores en IA comenzaron a construir modelos más realistas de las operaciones cognitivas sobre esta base, llevaron a cabo una importante revisión de la misma. Expandieron el escandalosamente estrecho cuello de botella de von Neumann y lo convirtieron en un «espacio de trabajo» o una «memoria de trabajo» más compendioso. También diseñaron operaciones más sofisticadas que funcionaran como primitivas psicológicas, y sustituyeron el rígido ciclo de buscar y ejecutar de la máquina de von Neumann por maneras más flexibles de llamar a las instrucciones para ser ejecutadas. El espacio de trabajo se convirtió, en algunos casos, en una «pizarra» (Reddy y otros, 1973; Hayes-Roth, 1985), sobre la que los diversos demonios pudieran dejar mensajes para ser leídos por los demás demonios, lo cual a su vez provocaba un nuevo turno de escritura y lectura de mensajes. La arquitectura de von Neumann, con su rígido ciclo de instrucciones, seguía ahí, en un último término, llevando a cabo la implementación, pero no jugaba ningún papel en el modelo. En el modelo, lo que ocurría después estaba regido por los resultados de oleadas competitivas de escritura y lectura de mensajes sobre la pizarra. Otra especie vecina de descendientes de la arquitectura de von Neumann es la formada por los diversos sistemas de producciones (Newell, 1973) que subyacen a modelos tales como el ACT* (léase «act-star») de John Anderson (1983) y el Soar de Rosenbloom, Laird y Newell (1987); véase también Newell, 1990.

Pueden ustedes hacerse una idea bastante clara de cuál es la arquitectura subyacente a un sistema de producciones a partir de este esquema simple de ACT* (figura 9.1).

La memoria de trabajo es el lugar donde se llevan a cabo todas las acciones. Todas las acciones básicas se denominan producciones. Las producciones son, en esencia, mecanismos de reconocimiento de patrones ajustados para dispararse cada vez que detectan su patrón. Es decir, existe una serie de operadores (SI-ENTONCES) que circulan examinando el contenido de la memoria de trabajo, a la espera de que sus condiciones se vean satisfechas (SI), a fin de poder (ENTONCES) llevar a cabo sus actos, sean cuales sean (en un sistema de producciones clásico, suele tratarse de depositar un nuevo elemento en la memoria de trabajo, para el examen ulterior de otras producciones).

img2-1

Figura 9.1

Todos los ordenadores poseen primitivas (SI-ENTONCES), los «órganos sensoriales» que les permiten reaccionar de forma diferenciada a datos procedentes o recuperados de la memoria. Esta capacidad para la ramificación condicional es un ingrediente esencial del poder de un ordenador, independientemente de cuál sea su arquitectura. En su origen, los condicionales eran las claras y simples instrucciones de transición de estado de una máquina de Turing: SI lees un cero, ENTONCES sustitúyelo por un uno, desplázate un espacio hacia la izquierda, y pasa al estado n. Compárense estas instrucciones tan simples con las que se le podrían dar a un centinela humano bien entrenado y experimentado: SI ves algo que no te resulta familiar, y un examen más detallado no resuelve la cuestión O te queda alguna duda, ENTONCES haz sonar la alarma. ¿Podemos construir un sistema de control tan elaborado como este a partir de simples y mecánicos condicionales? Las producciones son sensores de nivel intermedio a partir de los cuales se podrían construir órganos sensoriales más complejos y, a partir de ahí, arquitecturas completas de la cognición. Las producciones pueden tener prótasis complejas y difusas; los patrones que «reconozcan» no tienen que ser tan simples como los códigos de barras que leen las cajas registradoras, sino más bien como los patrones que podría discriminar un centinela (véanse los comentarios al respecto en Anderson, 1983, págs. 35-44). Y a diferencia de los SI-ENTONCES de una máquina de Turing, que siempre se encuentra en un estado diferente cada vez (y siempre comprobando uno de los condicionales del conjunto, antes de pasara examinar el siguiente dato), los SI-ENTONCES de un sistema de producción esperan en masse, en paralelo (simulado), de modo que, en cada «instante», más de una producción puede ver satisfecha su condición y estar lista para actuar.

Aquí es donde las cosas se ponen interesantes: ¿cómo tratan este tipo de sistemas la resolución de conflictos? Cuando más de una producción se ve satisfecha, siempre existe la posibilidad de que dos (o más) empujen en direcciones contrarias. Los sistemas paralelos pueden tolerar una gran cantidad de objetivos cruzados, pero en un sistema que debe tener éxito en el mundo, no todo puede ocurrir al mismo tiempo; a veces, algo tiene que ceder. La manera de tratar la resolución de conflictos es un aspecto clave en el que los modelos difieren. De hecho, ya que la mayoría, si no todos, de los detalles psicológica y biológicamente interesantes tienen que ver con diferencias a este nivel, resulta conveniente considerar la arquitectura de los sistemas de producciones como el medio a partir del cual construir modelos. Todos los sistemas de producciones poseen, no obstante, un rasgo en común que nos permite establecer un puente con nuestro esbozo de teoría: todos poseen un espacio de trabajo donde se llevan a cabo las acciones, donde muchas producciones (= demonios) pueden intentar hacer su trabajo a la vez, y poseen, además, una memoria más o menos inerte donde se almacena la información innata y la información que se ha ido acumulando. Dado que no todo lo que «sabe» el sistema está disponible en el espacio de trabajo a la vez, el problema de Platón de hacer que acuda el pájaro adecuado en el momento apropiado se convierte en el principal problema logístico al que hay que enfrentarse. Y lo que es aún más importante, los teóricos han desarrollado efectivamente mecanismos con el objetivo de responder a la pregunta difícil: ¿ahora qué?

Por ejemplo, en ACT* existen cinco principios básicos de resolución de conflictos:

  1. Grado de acuerdo: si la prótasis de una producción encaja mejor sobre el patrón que las de otras, entonces este tiene prioridad sobre ellas.
  2. Fuerza de producción: las producciones que han tenido éxito recientemente tienen una mayor «fuerza» asociada, lo cual les concede prioridad sobre producciones con fuerza menor.
  3. Refrangibilidad a los datos: una misma producción no puede encajar con los mismos datos más de una vez (esto es para prevenir bucles infinitos y, en casos menos drásticos, rutinas similares).
  4. Especificidad: cuando dos producciones encajan con los mismos datos, la producción con una prótasis más específica tiene prioridad.
  5. Dominio de los objetivos: entre los elementos que las producciones depositan en la memoria de trabajo hay objetivos. Sólo puede haber un objetivo activo por vez en la memoria de trabajo de ACT*, y toda producción cuya salida encaje con el objetivo tiene prioridad.

Todos estos principios resultan plausibles para la resolución de conflictos, pues tienen sentido tanto desde el punto de vista psicológico como desde el punto de vista teleológico (para un discusión detallada de este punto, véase Anderson, 1983, cap. 4). Pero quizá tengan demasiado sentido. Es decir, el mismo Anderson diseñó inteligentemente el sistema para la resolución de conflictos de ACT*, explotando sus conocimientos sobre los tipos específicos de problemas que surgen en estas circunstancias, y sobre métodos efectivos para tratarlos. En esencia, ha preconfigurado este complejo sistema de conocimiento, un don innato de la evolución. Como contraste, es interesante considerar la arquitectura del sistema Soar de Rosenbloom, Laird y Newell (1987). Este, como cualquier sistema de arquitectura paralela, se topa con impasses, ocasiones en las que se necesita resolver conflictos sea porque «se disparan» producciones contradictorias o no «se dispara» ninguna, pero los trata como ventajas, no como problemas. Estos callejones sin salida son esenciales para construir oportunidades para el sistema. Los conflictos no se abordan automáticamente mediante un conjunto fijo y clarividente de principios de resolución de conflictos (un autoritario homúnculo con funciones de guardia urbano que está ahí desde el principio), sino que se tratan de manera no automática. Un callejón sin salida crea un nuevo «espacio de problemas» (como un espacio de trabajo para los casos de mayor actualidad) en el que el problema que hay que resolver es precisamente el impasse con que se ha topado el sistema. Esto puede, a su vez, generar otro metametaespacio de problemas de tráfico y así sucesivamente, potencialmente para siempre. Pero, en la práctica (cuando menos en los dominios modelados hasta el momento); después de haber apilado bastantes espacios de problemas el uno sobre el otro el problema que está más arriba se ve resuelto, lo cual sirve rápidamente para resolver el siguiente problema en la pila, y así sucesivamente, eliminando esa terrible proliferación de espacios después de haber llevado a cabo un examen nada trivial del espacio lógico de posibilidades. Asimismo, los efectos sobre el sistema consisten en «trocear» los descubrimientos hechos a duras penas resultantes en nuevas producciones, de modo que cuando en el futuro surjan problemas similares, ya se ha acuñado una nueva producción que servirá para resolver rápidamente un problema que ya se había resuelto con anterioridad.

Al mencionar brevemente estos detalles, no es mi intención argumentar en favor de Soar y en contra de ACT*, sino dar una idea del tipo de cuestiones que se pueden explorar, de modo responsable, mediante modelos construidos con este tipo de partes. Intuyo, por razones que no nos interesan ahora, que el medio subyacente a los sistemas de producciones todavía está demasiado idealizado y es excesivamente simple en cuanto a sus restricciones se refiere. Sin embargo, el camino desde la máquina de von Neumann hasta los sistemas de producciones apunta hacia nuevos tipos de arquitecturas, aún más parecidas a la del cerebro, y la mejor manera de estudiar sus posibilidades y sus limitaciones es construirlas y hacerlas funcionar. Esta es la manera de convertir lo que, en teorías como la mía, todavía es impresionista y vago en modelos honestos que se puedan verificar empíricamente.

Cuando se toman las diferentes afirmaciones sobre los mecanismos de la conciencia que he venido defendiendo en los últimos cuatro capítulos y se empieza a intentar yuxtaponerlas sobre modelos de sistemas cognitivos como estos, surgen numerosas preguntas que no voy a intentar responder aquí. Dado que dejo todas las preguntas por resolver, mi esbozo se queda en eso, en un esbozo que casaría con toda una familia de teorías diferentes. En esta ocasión, me basta con esto para seguir adelante, ya que los problemas filosóficos de la conciencia consisten en saber si alguna teoría podría explicar la conciencia, de modo que sería prematuro poner nuestras esperanzas sobre una versión demasiado particular que podría resultar imperfecta. (En el Apéndice B, me pondré en una situación difícil, sin embargo, en honor de todos los que quieren implicaciones verificables desde el principio).

No son sólo las teorías de los filósofos las que precisan una puesta al día con un ejercicio de modelización a este nivel; las teorías de los investigadores del cerebro están en el mismo barco. Por ejemplo, la elaborada teoría de Gerald Edelman (1989) sobre los circuitos «de reentrada» del cerebro hace numerosas afirmaciones sobre el modo en que dichos circuitos pueden llevar a cabo tareas de discriminación, construir estructuras de memoria, coordinar la secuencia de la resolución de problemas y, en general, ejecutar las actividades de la mente humana, pero a pesar de la abundancia de detalles neuroanatómicos y de las entusiastas y a menudo plausibles aseveraciones de Edelman, no sabremos si los circuitos de reentrada son la manera correcta de concebir la neuroanatomía funcional hasta que no los hayamos forjado sobre una arquitectura cognitiva completa al nivel de descripción de ACT* o Soar, y hayan echado a andar[1].

En un nivel de modelización más preciso, nos queda un asunto por resolver: el demostrar de qué manera se implementan las producciones (o comoquiera que llamemos a los demonios para el reconocimiento de patrones) en el cerebro. Baars (1988) denomina a sus especialistas «ladrillos» para la construcción, pero opta por dejar los detalles de la fabricación de ladrillos para otro día o para otra disciplina, aunque, como muchos han observado, resulta tentador suponer que los propios especialistas, a diferentes niveles de agregación, deberían modelarse como construcciones de tejidos conexionistas de uno u otro tipo.

El conexionismo (o PDP de Parallel-Distributed Processing; «Procesamiento Paralelo Distribuido») es un reciente desarrollo dentro de la IA que promete aproximar la modelización cognitiva a la modelización neuronal, ya que los elementos que son sus ladrillos son nodos en redes paralelas que están conectados de manera que recuerda bastante a las redes neuronales del cerebro. El comparar la IA conexionista con la «Buena y Vieja IA» (Good Old Fashioned AI [GOFAI], Haugeland, 1985) y con muchos otros proyectos de modelización en el seno de las neurociencias se ha convertido en una de las mayores industrias en el mundo académico (véanse, por ejemplo, Graubard, 1988; Bechtel and Abrahamson, 1991; Ramsey, Stich y Rumelhart, 1991). Ello no debe sorprendernos, ya que el conexionismo enciende las primeras estelas remotamente plausibles conducentes a la unificación en la enorme terra incógnita que se extiende entre las ciencias de la mente y las ciencias del cerebro. Sin embargo, casi ninguna de las polémicas en torno al «tratamiento adecuado del conexionismo» (Smolensky, 1988) afecta a nuestros proyectos aquí. Es evidente que deberá haber un nivel (o niveles) teórico(s) con la misma precisión descriptiva que los modelos conexionistas, y que este nivel mediará entre los niveles teóricos claramente neuroanatómicos y los niveles teóricos claramente psicológicos o cognitivos. La pregunta es qué ideas conexionistas serán parte de la solución y qué ideas se quedarán por el camino. En tanto que esta cuestión permanece sin resolver, los pensadores tienden a utilizar el ágora conexionista como un amplificador para lanzar sus eslóganes favoritos, y, aunque tengo tantos deseos como el que más de participar en este debate (Dennett, 1987b, 1988b, 1989, 1990c, 1991b,c, d), me voy a morder la lengua en esta ocasión y voy a continuar con mi tarea, que consiste en ver cómo podría surgir una teoría de la conciencia a partir de todo esto, cuando las aguas se hayan calmado, comoquiera que eso se produzca.

Nótese lo que ha ocurrido en la progresión desde la arquitectura de von Neumann hasta arquitecturas virtuales como los sistemas de producciones y (a un nivel más preciso) los sistemas conexionistas. Se ha producido lo que podríamos caracterizar como una alteración en el equilibrio del poder. Programas fijos y prediseñados, circulando por carriles con algunos ramales en función de los datos se han visto sustituidos por sistemas flexibles —y también volátiles—, cuya conducta ulterior está más en función de interacciones complejas entre lo que el sistema encuentra en este momento y lo que se ha encontrado en el pasado. En palabras de Newell, Rosenbloom y Laird (1989), «así, el problema con un ordenador tradicional es cómo interrumpirlo, mientras que el problema con Soar y ACT* (y, presumiblemente, también con la cognición humana) es cómo permanecer centrado» (pág. 119).

Con toda la tinta que se ha derramado por esta cuestión teórica, es importante hacer hincapié en el hecho de que se trata de una alteración en el equilibrio del poder, y no un cambio hacia un modo de operación «cualitativamente distinto». En lo más profundo del más volátil de los sistemas de reconocimiento de patrones («conexionistas» o no) subyace un motor de von Neumann, resoplando, computando una función computable. Desde el nacimiento de los ordenadores, los críticos de la inteligencia artificial no han cejado en sus ataques a la rigidez, la mecanicidad, el carácter programado de los ordenadores, y sus defensores han insistido repetidamente en afirmar que no se trata más que de un problema de grado de complejidad, que en un ordenador se pueden crear sistemas infinitamente dúctiles, difusos, holísticos, orgánicos. A medida que la IA se ha ido desarrollando, han ido apareciendo sistemas como estos, de modo que los críticos ahora tienen que decidir si siguen pescando o si recogen el anzuelo: si declararan que los sistemas conexionistas, por ejemplo, son el tipo de cosa de la que siempre habían pensado que estaba hecha la mente, o si decidieran subir las apuestas e insistir en que para su gusto ni siquiera los sistemas conexionistas son lo bastante «holísticos», o lo bastante «intuitivos», o… (incluya aquí su eslogan favorito). Dos de los críticos de la IA más conocidos, los filósofos de Berkeley Hubert Dreyfus y John Searle, no se ponen de acuerdo sobre este punto: Dreyfus ha firmado una alianza con el conexionismo (Dreyfus y Dreyfus, 1988), mientras que Searle ha subido las apuestas al insistir que ningún ordenador conexionista podrá exhibir nunca una mentalidad real (1990a, 1990b).

Es posible que los escépticos «por principio» se estén batiendo en retirada, aunque los unificadores tienen todavía muchos problemas a los que enfrentarse. El principal, en mi opinión, tiene una relación muy directa con nuestra teoría de la conciencia. El principal consenso en ciencia cognitiva, que podría ilustrarse con muchos diagramas como el de la figura 9.1, es que por aquí tenemos la memoria a largo plazo (el aviario de Platón) y que por allá tenemos el espacio o la memoria de trabajo, donde se produce el pensamiento[2]. Y sin embargo, no hay dos sitios en el cerebro que alberguen recursos separados. El único lugar en el cerebro capaz de albergar cualquiera de estas funciones separadas es todo el córtex; no dos lugares el uno al lado del otro, sino un único y gran espacio. Como señala Baars, resumiendo el amplio consenso, hay un espacio de trabajo global. Es global no sólo en el sentido funcional (dicho llanamente, es un «lugar» donde casi todo puede estar en contacto con casi todo lo demás), sino también en el sentido anatómico (está distribuido por todo el córtex, y no cabe duda de que también por otras regiones del cerebro). Ello significa, por tanto, que el espacio de trabajo debe valerse de las mismas regiones y redes neuronales que aparentemente juegan un papel fundamental en la memoria a largo plazo: el «almacenaje» de los cambios en el diseño fruto de la exploración individual.

Suponga que usted aprende a hacer pan de maíz, o que aprende el significado de «fenotípico». De un modo u otro, el córtex debe ser el medio en el que una serie de patrones de conexión estables fijan permanentemente esas alteraciones del diseño al cerebro con el que usted nació. Suponga que usted, de repente, se acuerda de su cita con el dentista, y que eso le quita todo el placer que le producía la música que estaba escuchando en ese momento. De un modo u otro, el córtex debe ser el medio en el que una serie de patrones de conexión inestables pueden alterar rápidamente esos contenidos transitorios de todo el «espacio», sin borrar, en el proceso, la memoria a largo plazo. ¿Cómo es posible que esos dos tipos tan diferentes de «representaciones» coexistan dentro del mismo medio y en el mismo tiempo? En los modelos exclusivamente cognitivos, las diversas tareas pueden representarse mediante cuadros separados en un diagrama, pero cuando tenemos que superponerlos a un único lienzo de tejidos neuronales, el simple problema del empaquetamiento es la menor de nuestras preocupaciones.

Se puede suponer que dos sistemas en red funcionalmente distintos estén dispuestos de tal modo que se interpenetren el uno con el otro (como el sistema de cableado telefónico y el sistema de autopistas que cubren todo el continente), pero este no es el problema. El verdadero problema se halla justamente bajo la superficie de un presupuesto que hemos venido aceptando. Hemos supuesto, que cada demonio especialista se dedica a reclutar a otros cuando se presenta una tarea a gran escala. Si se tratara simplemente de llamar a filas a esos nuevos efectivos a fin de que pongan en práctica sus talentos especializados para una causa común, ya dispondríamos de modelos para estos procesos —como ACT* Soar y el Espacio de Trabajo Global de Baars— con descripciones más o menos detalladas y más o menos plausibles. Pero ¿y si a los especialistas se les reclutara en tanto que generalistas, a fin de contribuir a funciones en las que sus talentos especializados no juegan ningún papel en particular? Esta es una idea que, por diversas razones (véase, por ejemplo, Kinsbourne y Hicks, 1978), resulta bastante atractiva, pero, por lo que yo sé, no existen todavía modelos computacionales sobre cómo podrían operar estos elementos con una doble función.

Este es el problema: se suele suponer que los especialistas del cerebro deben adquirir su identidad funcional en virtud de su posición en una red de conexiones más o menos fijas. Por ejemplo, parece que los únicos hechos capaces de explicar «el interés por» el color de una determinada área neuronal sean aquellos que tienen que ver con sus conexiones idiosincrásicas, por indirectas que sean, con las células cónicas de la retina que son las más sensibles a las diferencias de frecuencia de la luz. Una vez que se ha establecido una identidad funcional de este tipo, se podrían cortar estas conexiones (como ocurre con las personas que quedan ciegas durante la edad adulta), sin que por ello desapareciera (por completo) la capacidad de los especialistas para representar (o, de un modo u otro «interesarse por») el color, aunque sin estas conexiones causales, resulta difícil ver qué podría asignar a los especialistas un papel con contenido específico[3]. Parece, por tanto, que el córtex se compone (en gran medida) de elementos cuyos poderes de representación más o menos fijos son el resultado de su localización funcional dentro del conjunto de la red. Representan algo de la misma manera que los miembros del Parlamento representan a una provincia: transportando y portando información desde las fuentes a las que están específicamente ligados (por ejemplo, la mayoría de sus conversaciones telefónicas desde su escaño se producen con un punto u otro de su provincia). Imagine ahora a los miembros del Parlamento sentados todos juntos en un estadio y representando el importante mensaje «¡La velocidad mata!», sosteniendo unos cartones de color sobre sus cabezas que forman las letras gigantes del mensaje, visible desde el otro lado del estadio. En pocas palabras, píxels vivientes, cuya relación con sus circunscripciones no juega ningún papel en su contribución a la representación del grupo. Algunos modelos de reclutamiento cortical incorporan la idea de que algo parecido a este papel representacional secundario debe de ser posible. Por ejemplo, resulta tentador suponer que el contenido informativo sobre un determinado asunto pueda surgir en un área especializada determinada y que después, de un modo u otro, sea propagado a través de las regiones corticales, explotando la variabilidad de estas regiones sin comprometer la semántica especializada de las unidades que residen en esa área. Supóngase, por ejemplo, que se produce un cambio repentino en el cuadrante superior izquierdo del mundo visual de una persona. Como es de esperar, el surgimiento de la excitación cerebral se percibe en primer lugar en aquellas partes del córtex visual que representan (a la manera parlamentaria) las diversas propiedades de los acontecimientos en el cuadrante superior izquierdo de la visión, pero esos puntos calientes se convierten inmediatamente en las fuentes de la puesta en marcha de un proceso de propagación que va involucrando a nuevos agentes corticales con circunscripciones distintas. Si esta propagación del despertar por las áreas del córtex no es una mera fuga o un simple ruido, si juega algún papel crucial al elaborar o al facilitar la corrección del borrador de un fragmento narrativo, los agentes reclutados deben jugar un papel totalmente distinto del que desempeñan cuando son la fuente original[4].

No debe sorprendernos que no dispongamos, todavía, de buenos modelos de dicha funcionalidad múltiple (las únicas especulaciones plausibles que conozco son las de Minsky en The Society of Mind). Como señalamos en el capítulo 7, los ingenieros humanos, con su imperfecta capacidad de previsión, se afanan en diseñar sistemas en los que cada elemento juega un único papel, cuidadosamente aislado para evitar interferencias del exterior, a fin de minimizar las devastadoras consecuencias de los efectos secundarios no previstos. La Madre Naturaleza, por otra parte, no se preocupa por los efectos secundarios no previstos y así, puede capitalizar aquellos efectos secundarios felices que ocasionalmente (de uvas a peras) se producen. Es probable que la inescrulabilidad de la descomposición funcional del córtex, que hasta ahora ha mantenido en jaque a los investigadores del cerebro, resulte del hecho de que estos se sientan constitucionalmente incapacitados para defender hipótesis en las que se atribuyen papeles múltiples a los elementos disponibles. Algunos románticos —el filósofo Owen Flanagan (1991) los denomina nuevos misteriales (New Mysterians)— han avanzado la idea de que el cerebro se encuentra con una barrera insuperable en el momento de comprender su propia organización (Nagel, 1986, y McGinn, 1990). Yo no estoy defendiendo esta idea, me limito a señalar que llegar a comprender cómo funciona el cerebro se está mostrando como una empresa endiabladamente difícil —aunque no imposible—, en parte porque este fue diseñado por un proceso capaz de prosperar en un medio de funcionalidad múltiple y superpuesta, algo muy complicado de discernir desde la perspectiva de la ingeniería inversa.

Estos problemas, en el caso de que hayan sido percibidos, no provocan más que vagas e ilusionadas alusiones. Algunos sienten la tentación de rechazar sin más la idea de esta dualidad especialista/generalista, y no porque puedan probar que es errónea, sino porque no pueden imaginar cómo modelarla y, por tanto, albergan la razonable esperanza de que nunca tendrán que hacerlo. Pero una vez se ha abierto la perspectiva, esta ofrece, cuando menos, nuevas pistas sobre dónde buscar. Los neurofisiólogos han identificado (provisionalmente) mecanismos en las neuronas como los receptores NMDA y las sinapsis de von der Malsburg (1985), que son posibles candidatos a cumplir la función de moduladores de la conectividad entre células. Dichas puertas podrían permitir la rápida formación de «ensamblajes» transitorios, que podrían a su vez superponerse a las redes sin el requisito de que se produzcan alteraciones de las fuerzas sinápticas a largo plazo que suelen ser consideradas como la cola que mantiene unidos los ensamblajes permanentes de la memoria a largo plazo. (Para algunas especulaciones recientes en esta misma línea, véase Flohr, 1990).

A mayor escala, los neuroanatomistas han seguido completando el mapa de las conexiones del cerebro, mostrando no sólo qué áreas permanecen activas en qué circunstancias, sino mostrando también aunque en menor medida, cuáles son las contribuciones de cada área. Existen numerosas hipótesis sobre el papel que jugarían diversas áreas en la conciencia. La formación reticular en el diencéfalo y el tálamo por encima de ella, hace tiempo que son conocidos por el papel que juegan en la tarea de despertar el cerebro —del sueño, por ejemplo, o en respuesta a una novedad o una emergencia—, y ahora que las vías de conexión están más claramente dibujadas, es posible formular y verificar nuevas y más detalladas hipótesis (Crick, 1984), por ejemplo, propone que los ramales que nacen en el tálamo y se dirigen hacia todas las partes del córtex encajan perfectamente en el papel de un «reflector», despertando o ensalzando diferencialmente ciertas áreas especializadas y reclutándolas para los objetivos del momento[5]. Baars (1988) ha elaborado una idea similar: el ERTAS o Extended Reticular Thalamic Activating System (Sistema de Activación Talámico-Reticular Extendido). Sería bastante fácil incorporar dicha hipótesis en nuestro enfoque no comprometido con la anatomía de la competición entre coaliciones de especialistas, siempre que no caigamos en la tentación de imaginar un jefe talámico que comprende los acontecimientos regidos por las diversas partes del cerebro con las cuales está «en comunicación».

Similarmente, los lóbulos frontales del córtex, la parte del cerebro que más ha crecido en el Homo sapiens, son conocidos por su participación en el control a largo plazo, y en la organización y en la secuenciación de la conducta. Las lesiones en diversas regiones de los lóbulos frontales producen generalmente síntomas contrapuestos tales como la facilidad para distraerse frente a la total incapacidad, por exceso de atención, de abandonar una tarea, y la impulsividad frente a la incapacidad de seguir esquemas de acción que requieren una gratificación retardada. Resulta, pues, tentador instalar al jefe en los lóbulos frontales, y muchos modelos se han movido en esta dirección. Un modelo particularmente elaborado es el Sistema de Supervisión de la Atención, de Norman y Shallice (1985), que ellos localizan en el córtex prefrontal y al que conceden la particular responsabilidad de la resolución de conflictos cuando las burocracias subsidiarias no pueden cooperar. De nuevo, hallar una localización anatómica para los procesos que son básicos en el control de lo que ocurrirá después es una cosa, mientras que localizar al jefe es otra cosa muy distinta; cualquiera que vaya a la caza de la pantalla frontal donde el jefe lleva la cuenta de los procesos que está controlando se encontrará persiguiendo sombras (Fuster, 1981; Calvin, 1989a).

Sin embargo, una vez hemos abjurado de todas estas imágenes tan tentadoras, tenemos que encontrar nuevas maneras de pensaren las contribuciones que están haciendo estas áreas, y aquí estamos todavía muy faltos de ideas, a pesar de los muchos progresos que hemos realizado. El problema no se debe tanto al hecho de que desconozcamos por completo la maquinaria, sino al hecho de que carecemos de un modelo computacional de lo que hace esa maquinaria, y de cómo lo hace. Aquí todavía estamos en la etapa de las metáforas y de las vagas alusiones, pero no es una etapa que debamos evitar; es una etapa por la que hay que pasar en nuestro camino hacia el desarrollo de modelos más explícitos.

4. Los poderes de la máquina joyceana

De acuerdo con nuestro esbozo, en el cerebro se produce una competición entre diversos acontecimientos llenos de contenido, de los cuales solamente un selecto conjunto es el que se proclama «vencedor». Es decir, consiguen engendrar diferentes tipos de efectos continuados. Algunos, al aunar diversos demonios del lenguaje, contribuyen a ulteriores actos de enunciación, tanto enunciados en voz alta dirigidos a otros como enunciados silenciosos dirigidos a uno mismo. Otros prestan su contenido a otras formas subsiguientes de autoestimulación tales como dibujar para uno mismo. Los demás mueren casi de inmediato, dejando sólo leves huellas —evidencias circunstanciales— de su existencia pasada. Es posible que usted se pregunte qué tiene de bueno que algunos contenidos consigan, de este modo, el acceso a ese círculo encantado, y qué es lo que convierte en encantado a este círculo. Supuestamente, la conciencia es algo muy especial. ¿Qué tiene de especial el ganar el acceso a la siguiente ronda del ciclo de autoestimulación? ¿De qué manera presta ayuda? ¿Acaso los poderes mágicos se corresponden con los acontecimientos que se producen en estos mecanismos?

He procurado evitar cualquier afirmación que indique que una victoria en este remolino competitivo equivalga a una elevación hacia la conciencia. Sí que he procurado insistir, en cambio, en el hecho de que no existe ningún motivo para trazar una línea que separe los acontecimientos que están claramente «en» la conciencia de los acontencimientos que siempre quedarán «fuera» o «por debajo» de la conciencia. (Véase Allport, 1988, donde se presentan nuevos argumentos en favor de esta posición). No obstante, si mi teoría de la máquina joyceana está llamada a aportar nueva luz sobre el problema de la conciencia, sería bueno que algunas de las actividades de esta máquina, si no todas, poseyera algún rasgo extraordinario, ya que es innegable que la conciencia es, intuitivamente, algo muy especial.

Es difícil enfrentarse a estas cuestiones sin caer en la trampa de pensar que en primer lugar debemos entender para qué sirve la conciencia, a fin de poder preguntarnos después si los mecanismos propuestos tendrían éxito en llevar a cabo esa función, cualquiera que esta sea.

En su influyente libro Vision (1982), el investigador del cerebro y de la IA David Marr propuso tres niveles de análisis que deberían ser tomados en consideración por todo intento de explicar cualquier fenómeno mental. El nivel más abstracto o «superior», el nivel computacional, comporta un análisis de «el problema (la cursiva es mía) en tanto que tarea de procesamiento de la información», mientras que el nivel intermedio, el algorítmico, comporta un análisis de los procesos reales a través de los cuales dicha tarea de procesamiento de la información se lleva a cabo. El nivel más bajo, el nivel físico, comporta un análisis de la maquinaria neuronal y muestra de qué manera esta ejecuta los algoritmos descritos en el nivel intermedio, realizando así su tarea tal como se describe de forma abstracta en el nivel computacional[6].

Los tres niveles de Marr también podrían utilizarse para describir cosas que son mucho más simples que las mentes. Precisamente, podemos hacernos una idea de cuáles son las diferencias ente ellos viendo cómo se aplican a algo tan simple como un ábaco. Su tarea computacional es llevar a cabo cálculos aritméticos: producir una solución correcta a un problema aritmético, dados unos datos iniciales. A este nivel, pues, un ábaco y una calculadora de bolsillo son iguales; han sido diseñados para efectuar la misma tarea de «procesamiento de la información». La descripción algorítmica del ábaco es lo que usted aprende cuando aprende cómo manipularlo, es decir, las reglas para mover las cuentas durante el acto de sumar, restar, multiplicar o dividir. Su descripción física depende de lo que esté hecho: podría ser de cuentas de madera enhebradas en varillas sostenidas por un marco, o podría estar hecho con fichas de poker alineadas a lo largo de las juntas de las baldosas del suelo, o podría hacerse con un lápiz y una goma sobre una hoja de papel cuadriculado.

Marr hizo la recomendación de modelar los fenómenos psicológicos a los tres niveles de análisis, aplicando un particular hincapié en la importancia de ser muy claro en todo lo referente al nivel superior, el computacional, antes de apresurarse a modelar los niveles inferiores[7]. En su propio trabajo sobre la visión, Marr demostró el poder de esta estrategia, y, desde entonces, otros investigadores la han puesto en práctica con otros fenómenos. Resulta tentador aplicar los tres mismos niveles de análisis a la conciencia en bloque, y algunos han caído en esa tentación. Sin embargo, como vimos en el capítulo 7, esta es una simplificación muy arriesgada: al preguntarnos «¿cuál es la función de la conciencia?» estamos asumiendo que hay una única «tarea de procesamiento de la información» (por muy compleja que sea) para la cual la maquinaria neuronal de la conciencia está diseñada —presumiblemente, por la evolución—. Ello nos puede llevar a pasar por alto otras posibilidades importantes: que algunos rasgos de la conciencia posean funciones múltiples; que algunas funciones de la conciencia estén mal servidas por los rasgos existentes, debido a limitaciones históricas sobre su desarrollo; que algunos rasgos no tengan ninguna función o, cuando menos, ninguna función que nos reporte algún beneficio. Cuidando de evitar estas equivocaciones, pues, pasemos a examinar los poderes (y no necesariamente las funciones) de los mecanismos descritos en mi esbozo diminuto.

En primer lugar, y como pudimos comprobar en el capítulo 7, existen problemas significativos de autocontrol creados por la proliferación de especialistas activos simultáneamente, y una de las tareas fundamentales llevada a cabo por las actividades de la máquina joyceana es resolver disputas, suavizar la transición de un régimen a otro e impedir inoportunos golpes de Estado organizando las fuerzas «apropiadas». Las tareas simples o convertidas en rutinarias gracias a un aprendizaje repetido y sin competición pueden ejecutarse sin necesidad de alistar nuevos efectivos y, por tanto, son inconscientes, pero cuando una tarea es difícil o desagradable requiere «concentración», que «nosotros» podemos obtener con la ayuda de actos de autoamonestación y muchos otros trucos mnemotécnicos, ensayos (Margolis, 1989), y otros actos de automanipulación (Norman y Shallice, 1985). A veces descubrimos que ayuda hablar en voz alta, una vuelta atrás hacia esas burdas pero efectivas estrategias cuyos dignos descendientes son nuestros pensamientos privados.

Dichas estrategias de autocontrol nos permiten gobernar nuestros propios procesos perceptivos de maneras que abren nuevas oportunidades. Como ha señalado el psicólogo Jeremy Wolfe (1990), nuestros sistemas visuales poseen un diseño innato que les permite detectar ciertos tipos de cosas —aquellas cosas que «aparecen» cuando «miramos»—, pero existen otros tipos de cosas que sólo podemos identificar si podemos buscarlos, deliberadamente, en el marco de un protocolo establecido por un acto de autorrepresentación. Un punto rojo entre un montón de puntos verdes resaltará tanto como una mosca en la leche (de hecho, resaltará como una cereza madura entre las hojas de un árbol), pero si su proyecto consiste en hallar un punto rojo entre una multitud de puntos multicolores, usted tendrá que fijarse a sí mismo una tarea de búsqueda serial. Y si su proyecto consiste en hallar un confeti rojo cuadrado en un montón de confetis de muchas otras formas y colores (o responder a la pregunta «¿dónde está Wally?» [Hanford, 1987] de los populares dibujos-enigma), la tarea de búsqueda serial puede convertirse en un proyecto particularmente absorbente, necesitado de un cierto método y un alto grado de autocontrol.

Estas técnicas para representarnos cosas a nosotros mismos nos permiten erigirnos en rectores o ejecutivos de una manera a la que ninguna otra criatura puede aproximarse. Podemos elaborar protocolos con antelación, gracias a nuestra capacidad para el pensamiento hipotético y el cambio de escenarios; podemos reforzar nuestro propósito de participar en proyectos desagradables o a largo plazo mediante hábitos de rememoración, y ensayando los beneficios y los costes esperados de las políticas que hayamos adoptado. Aún más importante, esta práctica del ensayo crea un recuerdo de la ruta por la que hemos llegado adonde estamos (lo que los psicólogos denominan la memoria episódica), de modo que podemos explicarnos, cuando nos encontramos acorralados, qué errores hemos cometido (Perlis, 1991). En el capítulo 7 vimos de qué modo el desarrollo de estas estrategias permitió a nuestros antepasados mirar hacia el futuro, y parte de lo que les dotó de esta mejorada capacidad de anticipación fue una mejorada capacidad para el recuerdo: el ser capaces de mirar hacia atrás, hacia sus acciones recientes, para ver dónde cometieron errores. «¡Vaya, no debería volver a hacer esto!» son las palabras de cualquier criatura que aprende de la experiencia, pero nosotros podemos aprender a proyectar nuestros estos mucho más hacia atrás y con mucha más lucidez que cualquier otra criatura, gracias a nuestro hábito de tomar nota de lo ocurrido o, más exactamente, gracias a nuestros hábitos de autoestimulación que tienen, entre muchos otros efectos, el de perfeccionar el recuerdo.

Sin embargo, este recargar de la memoria es sólo uno de los muchos efectos beneficiosos de estos hábitos. Igual de importante es el efecto de transmisión (Baars, 1988), que crea una especie de foro, que permite a cualquier cosa que uno ha aprendido contribuir a cualquier problema en curso. Baars desarrolla la idea de que esta mutua accesibilidad de los contenidos proporciona el contexto sin el cual los acontecimientos que se producen «en la conciencia» no tendrían —o no podrían tener— sentido para el sujeto. Los contenidos que componen el contexto circundante no son siempre conscientes —de hecho, no son accesibles, a pesar de haber sido activados—, pero las conexiones entre ellos y los contenidos que pueden surgir en los testimonios verbales es lo que fija aquello que podríamos denominar su significado «conscientemente aprehendido».

En una línea similar, Ray Jackendoff (1987) argumenta que los niveles superiores de análisis llevados a cabo por el cerebro, palabras con las que Jackendoff se refiere a los niveles más abstractos, no son accesibles a la experiencia, pese a ser los que hacen posible esa experiencia, confiriéndole significado. Su análisis nos proporciona, pues, un útil antídoto contra otra de las encarnaciones del Teatro Cartesiano en tanto que «cumbre» o «punta del iceberg». (He aquí un buen ejemplo, debido al neuropsicólogo Roger Sperry: «En una posición de alto mando en los niveles superiores de la jerarquía de organización cerebral, las propiedades subjetivas (…) ejercen un control sobre las actividades biofísicas y químicas de los niveles subordinados» [1977, pág. 117]).

Bastantes filósofos, principalmente los influidos por la escuela husserliana de la fenomenología (Dreyfus, 1979; Searle, 1983), han hecho hincapié en la importancia de ese «trasfondo» de la experiencia consciente, pero han mostrado una tendencia a describirlo como un rasgo misterioso e intratable, que desafía toda explicación mecanicista, en vez de describirlo, según han propuesto Baars y Jackendoff, como la clave que permitirá desarrollar una teoría computacional de lo que ocurre. Estos filósofos han asumido que la conciencia es el origen de un tipo especial de «intencionalidad intrínseca», aunque, como ha señalado el filósofo Robert van Gulick, ello no tiene otro efecto que el de hacernos retroceder.

La experiencia de la comprensión a nivel personal… no es una ilusión. Yo, el sujeto personal de la experiencia, comprendo. Yo puedo llevar a cabo todas las conexiones necesarias dentro de la experiencia, apelando a las representaciones para conectarlas inmediatamente las unas con las otras. El hecho de que mi capacidad sea el resultado de que yo esté compuesto por un sistema organizado de componentes subpersonales que producen mi flujo ordenado de pensamientos no impugna mi capacidad. Lo que es ilusorio o erróneo es únicamente la visión de que yo soy un yo sustancial distinto que produce estas conexiones en virtud de una forma de comprensión totalmente ajena a la conducta (van Gulick, 1988, pág. 96).

Cualquiera de las cosas que usted ha aprendido puede contribuir a cualquiera de las cosas a las que se está enfrentando. Al menos esta es la imagen ideal. Esta propiedad fue bautizada con el nombre de isotropia por Fodor (1983), el poder, como diría Platón, de hacer que acudan, o por lo menos que canten, los pájaros pertinentes cuando se les necesita. Parece mágico, pero como sabe todo mago de teatro, la apariencia mágica se ve potenciada por el hecho de que se suele poder contar con la audiencia para exagerar un fenómeno que necesita de una explicación. En un principio podemos parecer idealmente isotrópicos, pero no lo somos. Una reflexión más pausada nos traerá a la mente todas aquellas ocasiones en que no hemos atinado a reconocer la significación de los datos a tiempo. Piénsese en la exageración de las comedias clásicas: la «toma doble» (Neisser, 1988). A veces, incluso nosotros serramos la rama sobre la que estamos sentados o encendemos una cerilla para comprobar el nivel del depósito de gasolina[8]

Los magos saben que, a veces, un conjunto de trucos fáciles basta para hacer «magia», y también lo sabe la Madre Naturaleza, el último creador de artilugios. Los investigadores en inteligencia artificial han estado explorando el espacio de los trucos posibles, en busca de «un manojo de… heurísticas adecuadamente coordinadas y rápidamente desplegadas» (Fodor, 1983, pág. 116) que pudieran proporcionar el punto justo de isotropia que poseen los pensadores humanos. Modelos como ACT* y Soar —y muchas otras visiones desarrolladas en el seno de la IA— resultan prometedores pero poco concluyentes. Algunos filósofos, principalmente Dreyfus, Searle, Fodor y Putnam (1988), están convencidos de que esta idea de la mente como un aparato es equivocada, y han intentado construir argumentos que prueben la imposibilidad de esta empresa (Dennett, 1988b, 1991c). Fodor, por ejemplo, observa que mientras los sistemas con un objeto específico pueden estar preconfigurados en un sistema con funciones más generales, capaz de responder con versatilidad a cualquier elemento que se presente, «lo que cuenta puede ser la conectividad inestable e instantánea» (pág. 118). Duda de que alguien llegue a desarrollar algún día una teoría sobre esta conectividad, pero la suya no es una mera visión pesimista, Fodor duda por principio (un buen truco). Está en lo cierto al afirmar que debemos esperar que nuestra aproximación a la isotropia se deba a nuestro software, y no a nuestra configuración inicial, pero su argumento en contra de la hipótesis del «maletín de trucos» presupone que somos mejores «tomándolo todo en consideración» de lo que realmente somos. Somos buenos, pero no fantásticos. Los hábitos de autoestimulación que desarrollamos nos convierten en astutos explotadores de esos recursos que tanto nos ha costado conseguir; no siempre conseguimos que cante el pájaro que queríamos que cantara en ese momento, pero lo conseguimos las veces suficientes como para sentir su agradable compañía.

5. Pero ¿es esto una teoría de la conciencia?

Hasta ahora he venido manteniendo una actitud bastante reservada en relación a la conciencia. Con mucho cuidado he evitado contarles lo que dice mi teoría sobre qué es la conciencia. No he afirmado que cualquier cosa que «instancie» una máquina joyceana sea consciente, ni he afirmado que ningún estado en particular de dicha máquina virtual sea un estado consciente. Las motivaciones de mi reticencia eran tácticas: quería evitar disputas sobre qué es la conciencia hasta que hubiera tenido una oportunidad de demostrar que al menos un buen número de los presuntos poderes de la conciencia podían explicarse mediante los poderes de la máquina joyceana tanto si una máquina joyceana dota de conciencia al hardware que la alberga como si no.

¿Podría acaso existir un ser no consciente con un espacio de trabajo global interno en el que unos demonios transmiten mensajes para otros demonios, formando coaliciones y todo lo demás? Si así fuera, entonces la sorprendente capacidad humana para ajustar con versatilidad y rapidez los estados mentales como respuesta a casi cualquier contingencia, por novedosa que sea, nada debería a la conciencia, sino simplemente la arquitectura computacional que hace posible esta intercomunicación. Si la conciencia es algo además de la máquina joyceana, entonces todavía no he presentado una teoría de la conciencia, aunque haya despejado algunas misteriosas incógnitas.

Hasta que el esbozo de la teoría no estuvo completamente ensamblado, he tenido que diferir la aclaración de todas estas dudas pero, finalmente, ha llegado el momento de coger el toro por los cuernos y de enfrentarme a la conciencia, ese maravilloso misterio. Y ahora declaro que Si, que mi teoría es una teoría de la conciencia. Cualquiera o cualquier cosa que posea dicha máquina virtual como su sistema de control es consciente en todos los sentidos, y es consciente porque posee esa máquina virtual[9].

Ahora estoy preparado para dar cuenta de todas las objeciones que la teoría pudiera suscitar. ¿Podría una entidad no consciente —un zombie, por ejemplo— poseer una máquina joyceana? Esta pregunta plantea una objeción que es tan común en momentos como este, que el filósofo Peter Bieri (1990) la ha bautizado con el nombre de La Rueda de Oraciones Tibetana. Siempre vuelve, una y otra vez, independientemente de cuál sea la teoría propuesta:

Todo esto está muy bien; todos esos detalles funcionales sobre cómo el cerebro hace esto y lo otro, pero puedo imaginarme todo esto ocurriendo en una entidad, ¡sin que haya ninguna conciencia real!

Una buena respuesta para estas observaciones, que rara vez se da, es: ¿Ah sí? ¿Y cómo lo sabe usted? ¿Cómo sabe usted que ha imaginado «todo esto» con el suficiente detalle y con la suficiente atención hacia todas sus implicaciones? ¿Qué le hace pensar que su afirmación es una premisa conducente a alguna conclusión interesante? Pensemos en lo fríos que nos dejaría un vitalista moderno si dijera:

Todo esto está muy bien; todos esos detalles sobre el ADN, Las proteínas y todo Lo demás, pero puedo imaginar la posibilidad de descubrir una entidad que fuera y actuara como un gato, de la sangre que circulase por sus venas al ADN de sus «células», pero que no estuviera vivo. (¿Puedo realmente? Por supuesto: ahí está, maullando, y después Dios me murmura al oído, «¡no está vivo! ¡ No es más que un no-sé-qué mecánico hecho de ADN!». Y yo, en mi imaginación, Le creo).

Confío en que nadie piense que este es un buen argumento en favor del vitalismo. Ese esfuerzo de imaginación no cuenta. ¿Por qué no? Porque es un retruécano demasiado débil para ser comparado con la explicación de la vida que nos presenta la biología contemporánea. Lo único que nos demuestra este «argumento» es que podemos ignorar «todo eso» y aferramos a la convicción de que estamos decididos a hacerlo. ¿Es la Rueda de Oraciones Tibetana mejor argumento que la teoría que he esbozado?

Gracias a los ejercicios de imaginación llevados a cabo en los capítulos precedentes, nos hallamos en posición de traspasar el peso de la prueba. La Rueda de Oraciones Tibetana (que, como veremos, tiene muchas e importantes variantes distintas) es un descendiente del famoso argumento de Descartes (véase el capítulo 2) en el que afirma hallarse en disposición de concebir clara y distintamente que su mente es diferente de su cerebro. La fuerza de dicho argumento depende por completo de lo alto que ponga uno el listón del acto de concebir. Puede que algunos afirmen que pueden concebir clara y distintamente cuál es el mayor número primo o cómo sería un triángulo que no fuese una figura rígida. Están equivocados o, en cualquier caso, lo que sea que estén haciendo cuando dicen concebir estas cosas no debería interpretarse como un signo de lo que es posible. Ahora estamos en situación de imaginarnos «todo eso» con cierto detalle. ¿Puede usted realmente imaginarse un zombie? El único sentido en que es «obvio» que usted puede no es un sentido que constituya una amenaza para mi teoría, y la adopción de un sentido más fuerte, quizá menos obvio, requiere la demostración de que es efectivamente posible.

Por lo general, los filósofos no lo han exigido. Los experimentos mentales más influyentes en la filosofía de la mente contemporánea comportan, todos, una invitación a la audiencia a imaginar alguna situación especialmente tramada o estipulada para la ocasión, seguida —sin controlar si dicha proeza imaginativa efectivamente se llevó a cabo correctamente— por una invitación a «observar» las diferentes consecuencias de tal fantasía. Estas «bombas de intuición», como yo las llamo, son, aveces, recursos endiabladamente inteligentes. Se merecen la fama que tienen aunque sea solamente por su capacidad de seducción.

En la tercera parte, daremos buena cuenta de todos ellos, y desarrollaremos una teoría de la conciencia a medida que avanzamos. Desde nuestra nueva perspectiva, seremos capaces de percibir el juego de manos que engaña a la audiencia —y a los ilusionistas—, y, en el proceso, iremos perfilando nuestros propios poderes de imaginación. Entre los más famosos argumentos con los que nos encontraremos no está solamente la presunta posibilidad de que haya zombies, sino también el espectro invertido, lo que Mary, la investigadora del color, no sabe sobre los colores, la habitación china, y lo que se siente al ser un murciélago.