4
ANTICIPACIÓN
QUÉ ESPERAMOS DE LISZT (Y DE LUDACRIS)
Cuando estoy en una boda, no es la visión de la esperanza y el amor de la novia y el novio delante de sus amigos y su familia, toda su vida ante ellos, lo que hace que asomen lágrimas a mis ojos. Es la música lo que me hace llorar. En una película, cuando dos personas acaban reencontrándose después de superar grandes pruebas, es la música la que nos precipita de nuevo, a mí y a mis emociones, por el despeñadero sentimental.
Dije antes que la música es sonido organizado, pero la organización tiene que incluir algún elemento de lo inesperado, pues si no resulta emotivamente plana y robótica. El aprecio que la música nos inspira está estrechamente relacionado con nuestra capacidad de aprender la estructura subyacente de la que nos gusta (el equivalente a la gramática en los idiomas hablado y de señas) y de hacer predicciones sobre lo que vendrá a continuación. Los compositores impregnan la música de emoción sabiendo cuáles son nuestras expectativas y controlando luego con toda intención cuándo satisfarán eso que esperamos y cuándo no. Los estremecimientos, escalofríos y lágrimas que la música nos hace experimentar son el resultado de una hábil manipulación de nuestras perspectivas por parte de un compositor hábil y de los intérpretes de su creación.
La ilusión más documentada (o el truco de salón) de la música clásica occidental es la cadencia engañosa. Una cadencia es una secuencia de acordes que crea una expectativa clara y luego se cierra, en general con una resolución satisfactoria. En la cadencia engañosa, el compositor repite la secuencia de acordes una y otra vez hasta que ha convencido por fin a los oyentes de que recibirán lo que esperan, y luego, en el último minuto, nos da un acorde inesperado…, no fuera de tono, sino un acorde que nos dice que no se ha terminado todo, un acorde que no resuelve del todo. Haydn utiliza con tanta frecuencia la cadencia engañosa que en su caso bordea la obsesión. Perry Cook ha comparado esto con un truco de magia: los magos crean expectativas y luego las incumplen, todo sin que tú sepas exactamente cómo o cuándo van a hacerlo. Los compositores hacen lo mismo. «For No One» de los Beatles termina en el acorde V (el grado quinto de la escala en la que estamos) y esperamos una resolución que nunca llega…, o al menos no llega en esa canción. Aunque la canción siguiente del álbum Revolver empieza precisamente con el acorde que estábamos esperando oír.
La creación y luego la manipulación de expectativas es el corazón de la música, y se consigue de innumerables modos. Steely Dan lo hace interpretando canciones que son en esencia blues (con progresiones de acordes y estructura de blues) pero añadiendo armonías insólitas a los acordes que hacen que no parezcan en absoluto blues…, por ejemplo en su canción «Chain Lightning». Miles Davis y John Coltrane hicieron carrera rearmonizando progresiones de blues para darles nuevos sonidos que estaban anclados parcialmente en lo familiar y parcialmente en lo exótico. Donald Fagen (de Steely Dan) tiene canciones con ritmos blues/funk que nos llevan a esperar la progresión de acordes del blues estándar, pero toda la canción está interpretada sobre un solo acorde, sin apartarse en ningún momento de esa posición armónica.
En «Yesterday» la principal frase melódica tiene una longitud de siete compases; los Beatles nos sorprenden violando uno de los supuestos más básicos de la música popular, la unidad de frase de cuatro u ocho compases (casi todas las canciones de rock y pop tienen ideas musicales que están organizadas en frases de esas longitudes). En «I Want You (She’s So Heavy)» los Beatles violan expectativas construyendo primero una terminación hipnótica y repetitiva que parece que va a continuar eternamente; basándonos en nuestra experiencia con la música rock y las terminaciones de esa música, esperamos que la canción vaya lentamente reduciendo el volumen, el clásico fundido. En vez de eso, termina con brusquedad, y ni siquiera al final de una frase: ¡la terminan justo en medio de una nota!
Los Carpenters utilizan el timbre para violar expectativas de género; fueron probablemente el último grupo que la gente esperaba que utilizase una guitarra eléctrica distorsionada, pero lo hicieron en «Please Mr. Postman» y en algunas canciones más. Los Rolling Stones (una de las bandas de rock más duras del mundo en la época) habían hecho lo contrario unos cuantos años antes utilizando violines (como por ejemplo, en «Lady Jane»). Cuando Van Halen eran el grupo más nuevo y más hip que había, sorprendieron a los fans lanzándose a una versión heavy metal y una canción vieja no del todo hip de los Kinks, «You Really Got Me».
También se violan a menudo expectativas de ritmo. Un truco clásico del blues eléctrico es que la banda acumule impulso y luego deje por completo de tocar mientras el cantante o el guitarrista principal siguen haciéndolo, como en «Pride and Joy» de Ray Vaughan, «Hound Dog» de Elvis Presley o «One Way Out» de Allman Brothers. La terminación clásica para una canción de blues eléctrico es otro ejemplo. La canción se lanza a un tiempo sostenido durante dos o tres minutos y… ¡paf! Justo cuando los acordes sugieren que es inminente una terminación, en vez de continuar atacando a plena velocidad, la banda de pronto empieza a tocar a mitad del tempo en que lo estaba haciendo antes.
En un golpe doble, Creedence Clearwater Revival sale de este final de bajada lenta en «Lookin’ Out My Back Door» (por entonces ese final era ya un tópico sabido) y viola las expectativas de «eso» pasando de nuevo a la terminación real de la canción a tempo pleno.
The Police hizo carrera violando expectativas rítmicas. La convención rítmica oficial del rock es tener un contratiempo fuerte (backbeat) en los tiempos dos y cuatro. El reggae da la vuelta a esto poniendo la caja clara en los tiempos uno y dos y (característicamente) una guitarra en dos y cuatro.
The Police combinó reggae con rock para crear un nuevo sonido que cumplía con algunas expectativas rítmicas y violaba de manera simultánea otras. Sting tocaba a menudo partes de bajo que eran completamente novedosas, evitando los tópicos del rock de tocar con el primer tiempo o de tocar en sintonía con el bombo. Como me dijo (cuando compartimos un despacho en un estudio de grabación en los años ochenta) Randy Jackson, famoso por American Idol, y uno de los contrabajistas de sesión más sobresalientes, las líneas de bajo de Sting son distintas de todas las demás, y ni siquiera encajarían en las canciones de ningún otro. «Spirits in the Material World», de su álbum Ghost in the Machine, lleva este juego rítmico a un extremo tal que resulta difícil decir incluso dónde está el primer tiempo.
Compositores modernos como Schönberg se desprenden de toda la idea de expectación. Las escalas que utilizan nos privan de la noción de una resolución, una raíz para la escala, o un «hogar» musical, creando así la ilusión de ningún hogar, de una música a la deriva, tal vez como una metáfora de la vivencia existencialista del siglo XX (o sólo porque intentaban ir en contra). Aún oímos esas escalas utilizadas en películas para acompañar secuencias de sueño o para transmitir una falta de base o en escenas debajo del agua o del espacio exterior para transmitir ingravidez.
Estos aspectos de la música no están representados directamente en el cerebro, al menos no durante las etapas iniciales de procesamiento. El cerebro construye su propia versión de la realidad, basada sólo en parte en ella, y en parte en cómo interpreta las notas que oímos en función del papel que juegan en un sistema musical aprendido. Interpretamos el lenguaje hablado de modo análogo. No hay nada intrínsecamente gatuno en la palabra «gato», ni siquiera en sus sílabas. Hemos aprendido que esa colección de sonidos representa al animal doméstico. Del mismo modo, hemos aprendido que ciertas secuencias de tonos van juntas, y esperamos que continúen haciéndolo. Esperamos que se den a la vez ciertos tonos, ritmos, timbres, etc., basados en un análisis estadístico que ha efectuado nuestro cerebro de la frecuencia con que han ido juntos en el pasado. Tenemos que rechazar la idea intuitivamente atractiva de que el cerebro está almacenando una representación exacta y rigurosamente isomórfica del mundo. Está almacenando, en cierta medida, distorsiones perceptivas, ilusiones, y extrayendo relaciones entre elementos. Está computando una realidad para nosotros, una realidad rica en belleza y en complejidad. Una prueba básica de ese punto de vista es el hecho simple de que las ondas luminosas varían en el mundo a lo largo de una dimensión (longitud de onda) y sin embargo nuestro sistema perceptivo trata el color como bidimensional (el círculo de color descrito en la página 38). Lo mismo sucede con el tono: a partir de un continuo unidimensional de moléculas que vibran a velocidades diferentes, nuestro cerebro construye un espacio tonal rico y multidimensional con tres, cuatro o incluso cinco dimensiones (según algunos modelos). Si nuestro cerebro está añadiendo todas esas dimensiones a lo que hay en el exterior, esto puede ayudar a explicar las reacciones profundas que nos producen los sonidos que están adecuadamente construidos y combinados con habilidad.
Cuando los científicos cognitivos hablamos de expectativas y de violarlas, nos referimos a un fenómeno cuya aparición choca con lo que podría haberse predicho razonablemente. Está claro que sabemos mucho sobre una serie de diferentes situaciones estándar. La vida nos ofrece situaciones similares que difieren sólo en detalles, y esos detalles son a menudo insignificantes. Aprender a leer es un ejemplo. Los extractores de rasgos distintivos de nuestro cerebro han aprendido a detectar el aspecto esencial e invariable de las letras del alfabeto, y a menos que prestemos atención de forma explícita, no advertimos detalles como el tipo de letra con que está escrita una palabra. Aun a pesar de que detalles superficiales sean diferentes, todas estas palabras son igualmente identificables, así como las letras individuales. (Puede resultar discordante leer frases en las que cada palabra está en un tipo de letra distinto, y por supuesto ese cambio rápido nos hace darnos cuenta de ello, pero lo cierto es que nuestros detectores de rasgos distintivos están ocupados extrayendo cosas como «la letra a» más que procesando la fuente en la que está escrita.)
Una forma importante que tiene nuestro cerebro de tratar con situaciones estándar es extraer aquellos elementos que son comunes a múltiples situaciones y crear una estructura dentro de la cual emplazarlas; esa estructura se llama un esquema. El esquema para la letra a sería una descripción de su forma, y quizá una serie de rasgos mnemotécnicos que incluya todas las as que hemos visto a lo largo de la vida, que muestre la variabilidad que acompaña al esquema. Los esquemas nos informan sobre una gran cantidad de interacciones cotidianas que tenemos con el mundo. Por ejemplo, hemos estado en fiestas de cumpleaños y tenemos una idea general (un esquema) de lo que es común a esas fiestas. El esquema de la fiesta de cumpleaños será diferente para culturas diferentes (como la música), y para gente de edades diferentes. El esquema conduce a expectativas claras y aportan además un sentido de cuáles de esas expectativas son flexibles y cuáles no lo son. Podemos hacer una lista de cosas que esperaríamos encontrar en una fiesta de cumpleaños típica. No nos sorprendería el que no estuviesen presentes en todas ellas, pero cuantas más falten, menos típica sería la fiesta:
— Una persona que está celebrando el aniversario de su nacimiento
— Otra gente que ayuda a esa persona a celebrarlo
— Una tarta con velas
— Regalos
— Comida de fiesta
— Sombreros de fiesta, trompetitas y otros adornos
Si la fiesta fuese para un niño de ocho años podríamos tener la expectativa adicional de que habría juegos infantiles, pero no whisky de malta. Esto más o menos constituye nuestro esquema de fiesta de cumpleaños.
También tenemos esquemas musicales, y estos empiezan a formarse en el vientre materno y se elaboran, se enmiendan y reciben nueva información cada vez que escuchamos música. Nuestro esquema musical para la música occidental incluye un conocimiento implícito de las escalas que se utilizan normalmente. Ésa es la razón de que la música india o paquistaní, por ejemplo, nos parezca «extraña» la primera vez que la oímos. No les parece extraña a indios y paquistaníes y tampoco a los niños pequeños (o al menos no más extraña que cualquier otra música). Esto puede resultar obvio, pero parece extraña porque no se atiene a lo que hemos aprendido a llamar música. Los niños pequeños, a los cinco años de edad, han aprendido a identificar progresiones de acordes en la música de su cultura: están formando esquemas.
Desarrollamos esquemas para estilos y géneros musicales determinados; «estilo» no es más que una forma de decir «repetición». Nuestro esquema para un concierto de Lawrence Welk incluye acordeones, pero no guitarras eléctricas distorsionadas, y nuestro esquema para un concierto de Metallica es lo contrario. Un esquema para Dixieland incluye música con ritmo rápido y zapateo, y a menos que la banda estuviese intentando ironizar, no esperaríamos que hubiese superposición entre su repertorio y el de un cortejo fúnebre. Los esquemas son una extensión de la memoria. Como oyentes, nos damos cuenta de cuándo estamos oyendo algo que hemos oído antes, y podemos determinar si lo oímos anteriormente en la misma pieza o en una distinta. Escuchar música exige, de acuerdo con el teórico Eugene Narmour, que seamos capaces de retener en la memoria un conocimiento de aquellas notas que acaban de pasar, junto con un conocimiento de todas las otras músicas con las que estamos familiarizados que se aproximan al estilo de lo que estamos oyendo. Este último recuerdo puede no tener el mismo nivel de resolución o el mismo grado de intensidad que las notas que acabamos de oír, pero es necesario para poder establecer un contexto para las que estamos oyendo.
Los esquemas principales que elaboramos incluyen un vocabulario de géneros y estilos, así como de períodos (la música de los años setenta suena distinta que la de los años treinta), ritmos, progresiones de acordes, estructura de frase (cuántos compases por frase), cómo es de larga una canción y qué notas suelen seguir a qué. Cuando dije antes que la canción popular estándar tiene frases de cuatro u ocho compases de longitud, esto es una parte del esquema que hemos elaborado para las canciones populares de finales del siglo XX. Hemos oído miles de canciones miles de veces y, aunque no seamos capaces de describirlo explícitamente, hemos incorporado esa tendencia de frase como una «regla» respecto a la música que desconocemos. Cuando se toca «Yesterday» con su frase de siete compases, es una sorpresa. Aunque la hayamos oído un millar o incluso diez millares de veces, aún sigue interesándonos porque viola expectativas esquemáticas que están aún más firmemente arraigadas que nuestro recuerdo de esa canción concreta. Canciones a las que seguimos volviendo durante años juegan con expectativas justo lo suficiente para que resulten al menos un poquito sorprendentes. Steely Dan, los Beatles, Rachmaninoff y Miles Davis son sólo unos cuantos de los artistas de los que algunas personas dicen que nunca se cansan, y la razón es en gran parte esa.
La melodía es uno de los medios primordiales que tienen los compositores de controlar nuestras expectativas. Los teóricos de la música han identificado un principio denominado llenar un hueco; en una secuencia de tonos, si una melodía da un salto grande, bien hacia arriba o bien hacia abajo, la nota siguiente debería cambiar de dirección. Una melodía típica incluye mucho movimiento gradual, es decir, notas adyacentes de la escala. Si la melodía da un gran salto, los teóricos dicen que «quiere» volver al punto desde el que saltó; esto es otra forma de decir que el cerebro espera que el salto sea sólo temporal, y las notas que siguen deben ir acercándonos más y más a nuestro punto de partida, u «hogar» armónico.
En «Somewhere Over the Rainbow» la melodía empieza con uno de los saltos más grandes que podamos haber experimentado en toda una vida escuchando música: una octava. Se trata de una violación fuerte del esquema, y por ello el compositor nos recompensa y aplaca volviendo a llevar de nuevo la melodía a casa, pero no demasiado (baja, pero sólo un grado de la escala) porque quiere seguir creando tensión. La tercera nota de esta melodía llena el hueco. Sting hace lo mismo en «Roxanne»: salta un intervalo de aproximadamente media octava (una cuarta perfecta) para atacar la primera sílaba de la palabra Roxanne, y luego baja de nuevo para llenar el hueco.
También oímos cómo se llena el hueco en el andante cantabile de la Sonata «Patética» de Beethoven. Cuando el tema principal escala hacia arriba, pasa de un do (en la tonalidad de la bemol es el tercer grado de la escala) a un la bemol que está una octava por encima de lo que consideramos la nota «hogar», y sigue subiendo hasta si bemol. Una vez que estamos una octava y un tono por encima de ese hogar, sólo hay un camino a seguir, volver de nuevo a casa. Beethoven salta realmente hacia casa, baja un intervalo de una quinta, aterrizando en la nota (si bemol) que está un quinto por encima de la tónica. Para dilatar la resolución (Beethoven era un maestro del suspense) en vez de continuar el descenso hacia la tónica, se aparta de ella. Al saltar hacia abajo desde si bemol alto hasta mi bemol, estaba enfrentando dos esquemas entre sí: el de resolver hacia la tónica y el de llenar el hueco. Desviándose de la tónica en ese punto, está llenando también el hueco que hizo saltando tan abajo para llegar a este punto medio. Cuando finalmente nos lleva a casa dos compases más tarde lo hace con una resolución que es la más dulce que hayamos podido oír jamás.
Consideremos ahora lo que hace Beethoven con las expectativas de la melodía en el tema principal del último movimiento de su Novena Sinfonía («Oda a la Alegría»). Éstas son las notas de la melodía:
mi - mi - fa - sol - sol - fa - mi - re - do - do - re - mi - mi - re - re
¡El tema melódico principal consiste simplemente en las notas de la escala! La secuencia de notas más conocida, escuchada y utilizada que tenemos en la música occidental. Pero Beethoven lo hace interesante violando nuestras expectativas. Empieza con una nota extraña y termina con una nota extraña. Empieza en el tercer grado de la escala (como hizo en la Sonata «Patética»), en vez de hacerlo en la raíz, y luego sube de forma escalonada, para dar después la vuelta y empezar a bajar otra vez. Cuando llega a la raíz (la nota más estable) en vez de quedarse allí sube de nuevo, hasta la nota con la que empezamos, luego baja otra vez para que pensemos y esperemos que llegue de nuevo a la raíz, pero no lo hace; se queda justo allí en re, el segundo grado de la escala. La pieza necesita resolver llegando a la raíz, pero Beethoven nos mantiene allí pendientes, donde menos esperábamos estar. Luego vuelve a recorrer todo el motivo, y sólo en la segunda vez que lo hace satisface nuestras expectativas. Pero ahora, esa expectativa es aún más interesante debido a la ambigüedad: nos preguntamos, como Lucy cuando espera por Charlie Brown, si nos quitará el balón de la resolución en el último minuto.
¿Qué sabemos de la base neuronal de las expectativas musicales y de la emoción musical? Si aceptamos que el cerebro está construyendo una versión de la realidad, debemos rechazar que tenga una representación exacta y estrictamente isomórfica del mundo. ¿Qué guarda pues el cerebro en sus neuronas que representa el mundo que nos rodea? El cerebro representa toda la música y todos los otros aspectos del mundo en términos de códigos mentales o neuronales. Los neurocientíficos intentan descifrar esos códigos, entender su estructura, y cómo se traducen en experiencia. Los psicólogos cognitivos intentan comprender esos códigos a un nivel un poco más elevado: no al de las activaciones neuronales, sino al de los principios generales.
El modo de operar de tu ordenador al archivar una imagen es similar, en principio, al modo de operar del código neuronal. Cuando archivas una imagen en el ordenador, no se guarda en el disco duro del mismo modo que se guarda una fotografía en el álbum de fotos de la abuela. Cuando abres el álbum de tu abuela, puedes coger una foto, darle la vuelta, pasársela a un amigo; es un objeto físico. Es la fotografía, no una representación de una fotografía. Sin embargo, en el ordenador una foto está guardada en un archivo hecho de 0 y 1, el código binario que los ordenadores utilizan para representarlo todo.
Si has abierto alguna vez un archivo estropeado, o si tu programa de correo electrónico no bajó bien un archivo adjunto, verás probablemente un galimatías en vez de lo que tú creías que era un archivo informático: una hilera de símbolos extraños, garabatos y caracteres alfanuméricos que parece el equivalente de los tacos en un tebeo. (Son una especie de código hexadecimal intermedio que se compone también de 0 y 1, pero esta etapa intermedia no es determinante para comprender la analogía.) En el caso más sencillo de una foto en blanco y negro, un 1 podría representar que hay un punto negro en un lugar determinado de la foto, y un 0 podría indicar la ausencia de un punto negro, o un punto blanco. Puedes aceptar que se podría representar con facilidad una forma geométrica simple utilizando estos ceros y unos, pero los 0 y 1 no tendrían la forma de un triángulo, serían sólo parte de una larga línea de 0 y 1, y el ordenador tendría una serie de instrucciones que le indicarían cómo interpretarlos (y a qué localización espacial correspondía cada número). Si fueses realmente bueno leyendo un archivo de este tipo, podrías ser capaz de descifrarlo y de saber qué imagen representa. La situación es inmensamente más complicada con una imagen en color, pero el principio es el mismo. La gente que trabaja con archivos de imágenes continuamente es capaz de mirar el río de 0 y 1 y decir algo sobre la naturaleza de la foto…, tal vez no en lo que se refiere si es un ser humano o un caballo, sino cosas como cuánto rojo o gris hay en la imagen, los líquidos que son los contornos, etc. Han aprendido a leer el código que representa la imagen.
Los archivos de audio se archivan también en formato binario, como secuencias de 0 y 1. Los 0 y 1 representan si hay o no algún sonido en puntos concretos del espectro de frecuencias. Una secuencia determinada de 0 y 1 indicará, según cuál sea su posición en el archivo, si está tocando un timbal o un flautín.
En los casos que acabo de describir, el ordenador utiliza un código para representar objetos auditivos visuales comunes. Los objetos en sí se descomponen en pequeños componentes (píxeles en el caso de una imagen, ondas sinusoidales de una frecuencia y una amplitud determinadas en el caso del sonido) y estos componentes se traducen en el código. Por supuesto, el ordenador (el cerebro) maneja un montón de fantásticos programas (la mente) que traducen sin esfuerzo el código. La mayoría de nosotros no tenemos que preocuparnos en absoluto por el código en sí. Escaneamos una foto o grabamos una canción en nuestro disco duro y cuando queremos verla u oírla, hacemos un doble clic sobre ella y aparece ante nosotros en toda su gloria original. Se trata de una ilusión que hacen posible las muchas capas de traducción y amalgamado que se desarrollan en unos procesos absolutamente invisibles para nosotros. Así es como opera también el código neuronal. Millones de nervios que se activan a velocidades e intensidades diferentes, todo ello invisible para nosotros. No podemos percibir cómo se activan nuestros nervios; no sabemos cómo acelerarlos, cómo aminorarlos, cómo conectarlos cuando nos cuesta ponerlos en marcha al levantarnos con ojos soñolientos o cómo desconectarlos para poder dormir de noche.
Hace años, mi amigo Perry Cook y yo nos quedamos asombrados cuando leímos su artículo sobre un hombre que podía mirar discos fonográficos e identificar la pieza de música que había en ellos, mirando los surcos, con la etiqueta tapada. ¿Memorizaba las pautas de miles de álbumes? Perry y yo sacamos unos cuantos álbumes viejos de discos y apreciamos algunas regularidades. Los surcos de un disco de vinilo contiene un código que la aguja «lee». Las notas bajas crean surcos anchos, las agudas surcos estrechos y la aguja introducida en los surcos se mueve miles de veces por segundo para captar el paisaje de las paredes interiores. Si una persona supiese bien muchas piezas de música, podría sin duda caracterizarlas por el número de notas graves que contuviesen (la música rap tiene muchísimas, los conciertos barrocos no), la proporción entre el número de notas bajas regulares y percursivas (piensa en una melodía de jazz swing con «bajo caminando» frente a una melodía funk con «bajo palmeando») y saber cómo esas formas están cifradas en vinilo. Las habilidades de ese individuo son extraordinarias, pero no inexplicables.
Nos encontramos todos los días con magníficos lectores de códigos auditivos: el mecánico que es capaz de saber escuchando el ruido del motor de tu coche si tus problemas se deben a inyectores de gasolina bloqueados o a una cadena de distribución desplazada; el médico que es capaz de saber escuchando los latidos de tu corazón si tienes arritmia; el policía que es capaz de saber si un sospechoso está mintiendo por la tensión de su voz; el músico que es capaz de distinguir una viola de un violín o un clarinete en si bemol de un clarinete en mi bemol sólo por el sonido. En todos esos casos el timbre desempeña un papel importante ayudándonos a descifrar el código.
¿Cómo podemos estudiar códigos neuronales y aprender a interpretarlos? Algunos neurocientíficos empiezan estudiando neuronas y sus características, qué es lo que hace que se activen, la rapidez con que lo hacen, cuál es su período refractario (cuánto necesitan para recuperarse entre una activación y otra); estudiamos cómo se comunican entre sí las neuronas y el papel de los neurotransmisores en la transferencia de información en el cerebro. Gran parte del trabajo a este nivel de análisis está relacionado con principios generales; aún no sabemos gran cosa sobre la neuroquímica de la música, por ejemplo, aunque revelaré algunos nuevos resultados emocionantes en ese campo de mi laboratorio en el capítulo 5.
Pero he de dar marcha atrás un momento. Las neuronas son las células primarias del cerebro; se encuentran también en la espina dorsal y en el sistema nervioso periférico. La actividad de fuera del cerebro puede hacer que una neurona se active: por ejemplo, cuando una nota de una frecuencia determinada excita la membrana basilar y ésta a su vez transmite una señal a unas neuronas del córtex auditivo que seleccionan frecuencias. En contra de lo que pensábamos hace cien años, las neuronas del cerebro no se tocan en realidad; hay un espacio entre ellas llamado sinapsis. Cuando decimos que una neurona se está activando es que esta enviando una señal eléctrica que provoca la emisión de un neurotransmisor. Los neurotransmisores son sustancias químicas que viajan por el cerebro y unen receptores vinculados a otras neuronas. Receptores y neurotransmisores pueden compararse respectivamente a cerraduras y llaves. Cuando una neurona se activa, un neurotransmisor cruza nadando la sinapsis hasta una neurona próxima y cuando encuentra la cerradura y se une a ella, esa nueva neurona se activa. No todas las llaves encajan en todas las cerraduras; hay ciertas cerraduras (receptores) que están diseñadas para aceptar sólo determinados neurotransmisores.
Los neurotransmisores provocan generalmente que la neurona receptora se active o impiden que lo haga. Se absorben a través de un proceso denominado recaptación; sin recaptación los neurotransmisores seguirían estimulando o inhibiendo la activación de la neurona.
Algunos neurotransmisores se utilizan en todo el sistema nervioso, y otros sólo en determinadas regiones cerebrales y por ciertos tipos de neuronas. La serotonina se produce en el tallo cerebral y está relacionada con la regulación del estado de ánimo y del sueño. A los antidepresivos de nuevo tipo, entre los que se incluyen Prozac y Zoloft, se les conoce como inhibidores selectivos de la recaptación de serotonina (SSRIs según las siglas en inglés) porque inhiben la recaptación de serotonina en el cerebro, permitiendo que la que ya esté allí actué durante un período de tiempo más prolongado. No conocemos el mecanismo preciso por el que esto alivia la depresión, el trastorno obsesivo-compulsivo y los trastornos del sueño y del estado de ánimo. La dopamina, que segrega el núcleo accumbens, participa en la regulación del estado de ánimo y en la coordinación del movimiento. Es famosa sobre todo por formar parte del sistema de placer y recompensa del cerebro. Cuando los adictos consiguen su droga favorita, o cuando los jugadores compulsivos ganan una apuesta (incluso cuando los chocolateadictos consiguen chocolate) es éste el neurotransmisor que actúa. Su papel (y el papel importante que tiene el núcleo accumbens) en la música no se conoció hasta 2005.
La neurociencia cognitiva ha conseguido hacer grandes progresos a lo largo de la última década. Sabemos ya mucho más sobre cómo operan las neuronas, cómo se comunican, cómo forman redes y cómo se desarrollan a partir de sus recetas genéticas. Un hallazgo en el nivel macro sobre la función del cerebro es la idea popular sobre especialización hemisférica: la idea de que la mitad izquierda del cerebro y la mitad derecha realizan funciones cognitivas diferentes. Esto es cierto, sin duda, pero como sucede con gran parte de la ciencia que se ha filtrado a la cultura popular, la verdad de la historia es un poco más matizada.
Para empezar, la investigación en que eso está basado se efectuó con individuos diestros. Por razones que no están del todo claras, los zurdos (del 5 al 10 por ciento de la población aproximadamente) o los ambidextros tienen a veces la misma organización cerebral que los diestros, pero lo más frecuente es que tengan una organización cerebral distinta. Cuando la organización cerebral es diferente puede adoptar la forma de una simple imagen especular, de manera que las funciones estén simplemente trasladadas al lado opuesto. Pero en muchos casos los zurdos tienen una organización neuronal que es diferente de formas que aún no están bien documentadas. Así que las generalizaciones que hacemos sobre asimetrías hemisféricas sólo son aplicables a la mayoría de la población diestra.
Escritores, hombres de negocios e ingenieros se autocalifican de individuos de cerebro izquierdo dominante, y artistas, bailarines y músicos como individuos de cerebro derecho dominante. La idea popular de que el cerebro izquierdo es analítico y el derecho artístico tiene cierta veracidad, pero es claramente simplista. Ambos lados del cerebro participan en el análisis y en el pensamiento abstracto. Todas esas actividades exigen coordinación de los dos hemisferios, aunque algunas de las funciones particulares participantes estén lateralizadas.
El procesamiento del lenguaje está localizado primordialmente en el hemisferio izquierdo, aunque ciertos aspectos globales del lenguaje hablado, como la entonación, el énfasis y la pauta del tono, sea más frecuente que queden afectados por una lesión cerebral en el hemisferio derecho. La capacidad para distinguir entre una pregunta y una afirmación, o entre el sarcasmo y la sinceridad, reside a menudo en esas claves no lingüísticas lateralizadas del hemisferio derecho conocidas colectivamente como prosodia. Es natural preguntarse si los músicos muestran la asimetría opuesta, con el procesamiento ubicado primordialmente en el derecho. Hay muchos casos de individuos con lesión cerebral en el hemisferio izquierdo que pierden la capacidad de hablar, pero retienen su función musical, y viceversa. Esos casos sugieren que, aunque música y habla puedan compartir algunos circuitos neuronales, no pueden utilizar estructuras neuronales completamente superpuestas.
Rasgos locales de la lengua hablada, como distinguir un sonido del habla de otro, parecen estar lateralizados en el hemisferio izquierdo. También hemos encontrado lateralización en la base cerebral de la música. El contorno global de una melodía (sólo la forma melódica, ignorando los intervalos) se procesa en el hemisferio derecho, que efectúa delicadas diferenciaciones de notas que están próximas en el tono. En correspondencia con sus funciones lingüísticas, el hemisferio izquierdo participa en los aspectos denominativos de la música, como nombrar una canción, un intérprete, un instrumento o un intervalo musical. Los músicos que utilizan la mano derecha o leen música con el ojo derecho utilizan también el cerebro izquierdo, porque la mitad izquierda del cerebro controla la mitad derecha del cuerpo. Hay también nuevas pruebas de que el seguimiento del desarrollo de un tema musical (pensar en notas y escalas y en si una pieza musical tiene sentido o no) está lateralizado en los lóbulos frontales izquierdos.
La formación musical parece tener como consecuencia que parte del procesamiento de la música cambie del hemisferio (imagístico) derecho al hemisferio izquierdo (lógico) cuando los músicos aprenden a hablar de música, y tal vez a pensar en ella, utilizando términos lingüísticos. Y el curso normal del desarrollo parece causar una mayor especialización hemisférica: los niños muestran menos lateralización de las operaciones musicales de la que muestran los adultos, independientemente de que sean músicos o no.
Lo mejor para empezar a examinar la expectación en el cerebro musical es analizar cómo seguimos las secuencias de acordes en la música a lo largo del tiempo. La diferencia más importante entre el arte visual y la música es que ésta se manifiesta a lo largo del tiempo. Las notas, como se despliegan secuencialmente, nos inducen (a nuestros cerebros y a nuestras mentes) a hacer predicciones sobre lo que vendrá a continuación. Esas predicciones son la parte esencial de las expectativas musicales. Pero ¿cómo podemos estudiar su base cerebral?
Las activaciones neuronales producen una pequeña corriente eléctrica, y esa corriente se puede medir con el equipo adecuado, lo que nos permite saber cuándo y con qué frecuencia se activan las neuronas; a esto es a lo que se llama electroencefalograma, o EEG. Se colocan electrodos (es indoloro) sobre la superficie del cuero cabelludo, de una forma muy parecida a como podría fijarse con esparadrapo un monitor cardíaco en un dedo, en la muñeca o en el pecho. El EEG es extremadamente sensible cronometrando activaciones neuronales, y puede detectar actividad con una resolución de una milésima de segundo (un milisegundo). Pero tiene algunas limitaciones. No es capaz de precisar si la actividad neuronal está liberando neurotransmisores excitatorios, inhibitorios o modulatorios, las substancias químicas, como la serotonina y la dopamina, que influyen en el comportamiento de otras neuronas. Debido a que la firma eléctrica generada por una sola neurona activándose es relativamente débil, el electroencefalograma sólo capta la activación sincrónica de grandes grupos de neuronas y no la de neuronas individuales.
El electroencefalograma tiene también una resolución espacial limitada: es decir, una capacidad limitada para decirnos el emplazamiento de las activaciones neuronales, debido a lo que se llama el problema de Poisson inverso. Imagina que estás en un estadio de fútbol cubierto por una gran cúpula semitransparente. Tienes una linterna y apuntas con ella hacia arriba, a la superficie interior de la cúpula. Mientras tanto, yo estoy fuera, mirando hacia abajo a la cúpula desde lo alto, y tengo que predecir dónde estás tú. Podrías estar en cualquier punto del campo de fútbol y dirigir la luz al mismo punto concreto del centro de la cúpula, y desde donde yo estoy, me parecería siempre el mismo. Podría haber ligeras diferencias en el ángulo o en la intensidad de la luz, pero cualquier predicción que yo hiciese sobre tu posición no pasaría de ser una conjetura. Y si tú hicieses reflejarse la luz de la linterna en espejos y en otras superficies reflectoras antes de que llegase a la cúpula, yo estaría aún más perdido. Eso es lo que pasa con las señales eléctricas que pueden ser generadas por fuentes múltiples en el cerebro, desde la superficie de éste o muy en el interior, en los surcos (sulci), y que pueden rebotar de los surcos antes de llegar al electrodo situado en la superficie exterior del cuero cabelludo. Aun así, el electroencefalograma ha ayudado a comprender la conducta musical porque la música está basada en el tiempo, y el electroencefalograma es, de todas las herramientas que utilizamos habitualmente para estudiar el cerebro humano, la de mejor resolución temporal.
Varios experimentos realizados por Stefan Koelsch, Angela Friederici y sus colegas nos han aclarado aspectos sobre los circuitos neuronales implicados en la estructura musical. Los científicos utilizan secuencias de acordes que o bien resuelven de la forma esquemática estándar o bien terminan en acordes inesperados. Tras iniciarse el acorde, la actividad eléctrica del cerebro asociada con la estructura musical se capta en 150-400 milisegundos (ms) y la actividad asociada con el contenido musical unos 100-150 ms más tarde. El procesamiento estructural (sintaxis musical) ha sido localizado en los lóbulos frontales de ambos hemisferios en áreas adyacentes y sobrepuestas a las regiones que procesan la sintaxis del habla, como el área de Broca, y se manifiesta de forma independiente de si los oyentes tienen o no formación musical. Las regiones implicadas en la semántica musical (que asocian la secuencia tonal con el contenido) parecen estar en las porciones posteriores del lóbulo temporal, a ambos lados, cerca del área de Wernicke.
El sistema cerebral de la música parece operar con independencia funcional del sistema del lenguaje: lo demuestran muchos historiales de pacientes que, después de una lesión, pierden una u otra facultad, pero no ambas. El caso más famoso tal vez sea el de Clive Wearing, un músico y director de orquesta con una lesión cerebral debida a encefalitis por herpes. Clive, según informa Oliver Sacks, perdió toda la memoria salvo los recuerdos musicales y el recuerdo de su esposa. Se ha informado de otros casos en los que el paciente perdió su memoria respecto a la música pero conservó el lenguaje y otros recuerdos. Cuando el compositor Ravel sufrió un deterioro de algunas partes del córtex izquierdo, perdió de forma selectiva el sentido del tono, reteniendo sin embargo el del timbre, déficit que inspiró su Bolero, una composición que se centra en variaciones del timbre. La explicación más sencilla es que aunque música y lenguaje comparten algunos recursos neuronales, tienen también vías independientes. La estrecha proximidad del procesamiento de música y habla en los lóbulos frontal y temporal, y su solapamiento parcial, parecen indicar que los circuitos neuronales que se reclutan para la música y para el lenguaje pueden iniciar su vida indiferenciados. Luego, la experiencia y el desarrollo normal diferencian las funciones de las que empezaron siendo poblaciones neuronales muy semejantes. Se cree que a una edad muy temprana los bebés son sinestésicos, es decir, no pueden diferenciar los mensajes de los diferentes sentidos y experimentan la vida y el mundo como una especie de unión psicodélica de todo lo sensorial. Los bebés pueden ver el número cinco como rojo, gustar quesos de Cheddar en re bemol y oler rosas en triángulos.
El proceso de maduración crea distinciones en las vías neuronales cuando se cortan o podan conexiones. Lo que puede haber empezado como un grupo neuronal que reaccionaba por igual a la visión, el sonido, el gusto, el tacto y el olfato se convierte en una red especializada. Así, también, puede que la música y el habla tuviesen los mismos orígenes neurobiológicos, compartiesen las mismas regiones y utilizasen las mismas redes neuronales específicas. Al aumentar la experiencia y la exposición al mundo exterior, el niño pequeño en desarrollo acaba creando vías dedicadas a la música y vías dedicadas al lenguaje. Esas vías pueden compartir algunos recursos, tal como ha propuesto sobre todo Ani Patel en su hipótesis de servicio de integración sintáctica compartido (SSIRH según sus siglas en inglés).
Mi colaborador y amigo Vinod Menon, un neurocientífico de sistemas de la facultad de medicina de Stanford, compartió conmigo el interés por definir los hallazgos de los laboratorios de Koelsch y Friederici y por aportar pruebas sólidas del servicio de integración sintáctica compartido de Patel. Para eso, teníamos que utilizar un método de estudio del cerebro diferente, ya que la resolución espacial del electroencefalograma no era lo bastante precisa para señalar realmente el locus neuronal de la sintaxis musical.
Como la hemoglobina de la sangre es ligeramente magnética, pueden rastrearse cambios en la corriente sanguínea con una máquina capaz de detectar variaciones de las propiedades magnéticas. Eso es lo que hace una máquina de imagen de resonancia magnética (MRI según las siglas en inglés), un electroimán gigante que proporciona un informe sobre variaciones en las propiedades magnéticas, lo que a su vez puede decirnos en qué parte del cuerpo fluye la sangre en un momento dado del tiempo. La empresa británica EMI realizó la investigación para desarrollar los dos primeros escáneres de imagen de resonancia magnética, con financiación procedente en gran parte de los beneficios que obtuvo con los discos de los Beatles. «I Want to Hold Your Hand» [Quiero estrecharte la mano] podría muy bien haberse titulado «I Want to Scan Your Brain» [Quiero escanearte el cerebro]. Como las neuronas necesitan oxígeno para sobrevivir y la sangre transporta hemoglobina oxigenada, podemos rastrear el aflujo de sangre también en el cerebro. Suponemos que las neuronas que están activadas necesitarán más oxígeno que las que están en reposo, así que aquellas regiones del cerebro que participan en una tarea cognitiva determinada serán aquellas que tengan un mayor aflujo sanguíneo en un momento dado. Cuando utilizamos la máquina de MRI para estudiar la función de las regiones cerebrales de ese modo, la tecnología se denomina MRI funcional o MRIf.
Las imágenes de MRIf nos permiten ver un cerebro humano vivo en funcionamiento mientras está pensando. Si practicas mentalmente tu saque de tenis, podemos ver cómo te sube la sangre al córtex motriz, y la resolución espacial del MRIf es lo bastante buena para que podamos ver que la parte del córtex motriz que se activa es la que controla el brazo. Si empiezas luego a resolver un problema matemático, la sangre se mueve hacia delante, hacia los lóbulos frontales, y en concreto hacia regiones que se ha comprobado que estaban relacionadas con la resolución de problemas aritméticos, y vemos ese movimiento y finalmente una acumulación de sangre en los lóbulos frontales en el escáner de la MRIf.
¿Nos permitirá alguna vez esta ciencia frankensteiniana, la ciencia de la obtención de imágenes del cerebro, leer la mente de las personas? Me siento feliz al poder decir que la respuesta probablemente sea no, y de manera rotunda no en un futuro previsible. El motivo es que los pensamientos son en realidad demasiado complicados y exigen la participación de demasiadas regiones diferentes. Con la MRIf yo puedo decir que estás escuchando música y que no estás viendo una película muda, pero aún no si estás escuchando hip-hop o canto gregoriano, no digamos ya qué canción concreta estás escuchando o qué es lo que estás pensando.
Con la elevada resolución espacial de la MRIf, podemos decir con un margen de sólo un par de milímetros en qué punto del cerebro está ocurriendo algo. El problema es que la resolución temporal de la MRIf no es demasiado buena debido a la cantidad de tiempo que tarda la sangre en redistribuirse en el cerebro, el llamado lapso hemodinámico. Pero otros habían estudiado ya el «cuándo» del procesamiento de la estructura musical y la sintaxis musical; nosotros queríamos saber el «dónde» y en particular si el «dónde» afectaba a áreas que ya se sabía que estaban dedicadas al habla. Descubrimos exactamente lo que predecíamos. Al escuchar música y atender a sus rasgos sintácticos (su estructura) se activaba una región determinada del córtex frontal en el lado izquierdo llamada pars orbitalis (una subsección de la región conocida como área 47 de Brodmann). La región que localizamos en nuestro estudio se solapaba en parte con la señalada en estudios anteriores sobre la estructura del lenguaje, pero tenía también algunas activaciones exclusivas. Además de en esa zona del hemisferio izquierdo, descubrimos también activación en la zona análoga del hemisferio derecho. Eso nos indicó que atender a la estructura de la música es tarea de los dos hemisferios del cerebro, mientras que atender a la del lenguaje sólo compete al izquierdo.
Lo más asombroso fue que las regiones del hemisferio izquierdo que descubrimos que se activaban en la tarea de rastrear la estructura musical eran exactamente las mismas que se activan en los sordos cuando se comunican por lenguaje de señas. Eso significaba que lo que habíamos identificado en el cerebro no era una región que se limitase a determinar si una secuencia de acordes era razonable, o si una frase hablada era razonable. Estábamos ante una región que reaccionaba a la visión: a la organización visual de palabras transmitidas a través del lenguaje de señas. Encontramos pruebas de la existencia de una región del cerebro que procesa la estructura en general, cuando esa estructura se transmite a lo largo del tiempo. Aunque los mensajes recibidos en esa región deben haber procedido de poblaciones neuronales diferentes, y los emitidos por ella tuviesen que pasar por redes diferenciadas, allí estaba: una región que se activaba en cualquier tarea que entrañase organizar información a lo largo del tiempo.
La idea de la organización neuronal de la música iba haciéndose más clara. Todos los sonidos empiezan en el tímpano. Inmediatamente, se segregan por la altura del tono. Poco después, es probable que lenguaje y música diverjan en circuitos de procesamiento separados. Los del lenguaje descomponen la señal con el fin de identificar fonemas individuales: las consonantes y vocales que componen nuestro alfabeto y nuestro sistema fonético. Los circuitos de la música empiezan a descomponer la señal y a analizar por separado tono, timbre, contorno y ritmo. Los mensajes de las neuronas que realizan estas tareas conectan con regiones del lóbulo frontal que lo agrupan todo e intentan determinar si hay alguna estructura o algún orden en la pauta temporal del conjunto. Los lóbulos frontales acceden al hipocampo y a regiones del interior del lóbulo temporal y preguntan si hay algo en nuestros bancos de memoria que pueda ayudar a entender esa señal. ¿He oído yo antes esa pauta concreta? Y si es así, ¿cuándo? ¿Qué significa? ¿Forma parte de una secuencia mayor cuyo significado se está desplegando en este momento delante de mí?
Después de haber concretado algo sobre la neurobiología de la estructura musical y de la expectación musical, estamos ya en condiciones de preguntarnos por los mecanismos cerebrales subyacentes de la emoción y el recuerdo.