3.
¡ESTÁIS COMPLETAMENTE LOCOS!
EN OCASIONES, HASTA UN NOBEL PUEDE EQUIVOCARSE
Cafetería del CERN, una tarde de primavera de 1995
Acabo de salir de una reunión con la junta directiva del LHC. La junta se constituyó hace un par de años con el objetivo de evaluar las propuestas de experimentos para el nuevo acelerador, el Large Hadron Collider. De la junta forma parte, entre otros, un físico alemán que trabaja en el experimento OPAL del LEP (Large Electron-Positron Collider), la nueva máquina del CERN. Es muy amable y hace preguntas concretas; al contrario que los demás, no se muestra agresivo y se nota que nos apoya a nosotros, a los jóvenes físicos que nos hemos aventurado en la empresa que todos consideran imposible. Se llama Rolf Heuer y será el director del CERN cuando descubramos el bosón de Higgs.
Mientras cruzo la cafetería me encuentro con Carlo Rubbia. La cafetería es uno de los lugares más importantes del CERN. Allí se encuentra el restaurante central, uno de los tres que hay en el laboratorio y también el que siempre está más lleno; allí uno también puede tomarse un café durante las pausas o una cerveza después de la cena; en sus mesas se discute, se confrontan ideas, se buscan soluciones. Gente de todas las razas debate animadamente en una babel de lenguas. Siempre he dicho que el instrumento científico más importante de la época moderna seguramente es la servilleta; para escribir una ecuación, esbozar un detector o discutir un gráfico de Feynman se han utilizado miles de servilletas; estas son el primer arreglo donde se apuntan todas las nuevas sinfonías. Al terminar el debate se tiran a la papelera, pero si las conserváramos seguramente encontraríamos algunas de las ideas científicas más importantes de las últimas décadas.
Hace un año que Rubbia ha terminado su mandato como director general del CERN y ha retomado su frenética actividad de investigación, actividad que lo lleva de aquí para allá; como de costumbre, es un volcán de ideas e iniciativas, pero sobre todo es un hombre muy curioso. El experimento en el que estamos trabajando, el CMS, nació de una idea de Michel Della Negra y Jim Virdee, dos de sus discípulos, jóvenes que trabajaban con él en el UA1 cuando se descubrieron W y Z. Estoy seguro de que Rubbia conoce al detalle mi trabajo y sabe que nuestro proyecto se fundamenta en ideas muy innovadoras, algunas de ellas incluso revolucionarias.
Cuando, con su habitual agresividad, me dice: «¿Qué estáis tramando los jovenzuelos del CMS? ¿Por qué no pasas por mi estudio y charlamos un rato?», sé que la hora siguiente será un suplicio. Al cabo de un rato me encuentro en el estudio de un nobel ante la pizarra dibujando, explicando y respondiendo a preguntas cada vez más insistentes. Rubbia parece muy interesado, pero es evidente que hace lo posible por ponerme en jaque. Yo sudo y trato de mantener la calma; razono, me defiendo. En un momento dado se queda en silencio; durante media hora deja que prosiga sin interrumpirme, poniendo especial atención a lo que dibujo en la pizarra. «Es así —explico— como espero llegar a construir un detector de trazas que sobreviva a la radiación del LHC. Sé que muchas de estas tecnologías no están del todo maduras, pero creo que podremos lograrlo. —Y añado—: Sí, sé que el coste total es imposible de afrontar, pero tenemos algunas ideas que podrían reducirlo drásticamente… —Y luego—: Entiendo que el detector puede parecer irrealizable, pero si nos salimos con la nuestra nos permitirá reconstruir señales de electrones y muones con una precisión tal que podremos distinguir el bosón de Higgs con claridad; con este detector estoy seguro de que lo cazaremos». Dejo el yeso en la pizarra y me giro hacia él; su expresión es de total escepticismo; es evidente que no tiene un ápice de fe en lo que acabo de contarle. Su última afirmación no deja lugar a dudas, es totalmente tajante: «No funcionará. Fracasaréis estrepitosamente».
Cuando salgo de la habitación, tengo bien claro en qué voy a concentrar mis esfuerzos durante los próximos años: demostraré que es posible construir los detectores de trazas para el LHC, es decir, instrumentos que midan las trayectorias de las partículas; y que, en ocasiones, hasta un nobel puede equivocarse.
EMPIEZA LA GRAN CACERÍA
La cacería al bosón de Higgs no empezó inmediatamente después de que se planteara su existencia. Al principio no estaba del todo claro qué papel podía jugar la partícula en la nueva teoría, pero a mediados de los setenta, cuando el Modelo Estándar fue definitivamente aceptado por toda la comunidad científica, dio comienzo una búsqueda sistemática, un intento de verificación de todas sus previsiones, incluida la presencia de este bosón tan especial.
El artículo que atrajo la atención de los físicos experimentales fue publicado en 1975; es curioso volver a leer hoy en día, después de años de cacería, las conclusiones de aquel primer estudio de los teóricos John Ellis y Dimitri Nanopoulos. Tras describir las características de la nueva partícula y sus posibles formas de desintegración ambos concluyen: «Pedimos disculpas a los físicos experimentales por no saber nada acerca de la masa del bosón de Higgs, ni de sus acoplamientos con otras partículas, excepto que probablemente sean muy pequeños. Por estos motivos no queremos alentar a realizar grandes investigaciones, pero sentimos la obligación de informar a quienes realizarán experimentos potencialmente sensibles a la presencia del bosón de Higgs sobre la forma en que es posible que esta partícula aparezca en sus datos».
Así pues, nadie podía imaginar que después de aquellas palabras tan prudentes se desataría la más larga y costosa cacería a una partícula de la historia de la física.
El Modelo Estándar le asigna un papel determinado al bosón de Higgs y especifica todas sus características; excepto una, la más importante para quien se apresta a buscarla: la masa. En la teoría es un parámetro libre, lo cual equivale a decir que uno podría estar cazando algo tan liviano como una mariposa o pesado como un elefante. De la masa dependen otras muchas propiedades de la fantasmal partícula, sobre todo los mecanismos que permiten producirla y la probabilidad de lograrlo; también la fracción de tiempo de existencia del bosón y, finalmente, cómo se desintegra, descomponiéndose en otras partículas.
Llegados a este punto cabe recordar que, en la naturaleza, las partículas libres estables —como el fotón, el electrón y el protón— son minoría. Hay otro pequeño grupo de partículas, como los neutrones y los muones, que a pesar de no ser estables viven lo suficiente como para dejar huellas en el detector, pero la gran mayoría está formada por partículas inestables, es decir, que se desintegran rápidamente en otras partículas; y el bosón de Higgs es una de ellas. Así pues, es inútil intentar detectarlo directamente, observarlo a través de las «huellas» que deje en los instrumentos de medición. Su presencia se deduce gracias al registro y el estudio de los productos de su desintegración, y la masa es el parámetro decisivo para establecer qué otras partículas generará. El espectro de posibilidades es enorme, una verdadera pesadilla para quien pretenda darle caza; sería como explorar el océano Pacífico buscando nuevas especies animales, sin saber si se trata de minúsculos insectos que viven escondidos en la vegetación de las islas o grandes habitantes del abismo marino.
Esta situación es completamente diferente con las partículas W y Z. Cuando Rubbia decidió modificar el acelerador más potente de su época para alcanzar su objetivo, este era mucho más claro: explorar con sumo cuidado la región de masa donde podían hallarse W y Z. La teoría electrodébil afirmaba con convicción que la masa era de unos 80-90 GeV[1] —casi cien veces mayor que la de un átomo de hidrógeno—, y todas las formas de desintegración de esta partícula estaban bien definidas. Así pues, solo hacía falta construir un acelerador lo bastante potente y concentrar toda la atención en los valores adecuados de energía.
En cambio, la búsqueda del Higgs es mucho más complicada e incierta. Ante todo, no es seguro que exista. El Modelo Estándar necesita que algún mecanismo rompa la simetría que existe entre la interacción débil y la electromagnética, pero dicho mecanismo no tiene por qué ser el que describieron Brout, Englert y Higgs. Otros físicos han propuesto modelos alternativos y no menos elegantes, pero no sería la primera vez que la naturaleza sigue caminos distintos a los que nosotros imaginamos. Además, aunque fuera realmente él quien domina este mecanismo tan importante, en teoría nada impide que el Higgs sea tan ligero como un electrón o diez veces más pesado que los compactos W y Z. El espectro de posibilidades por explorar es enorme.
Si el Higgs fuera ligero, sus efectos indirectos deberían encontrarse en miles de procesos ya estudiados y para producirlo no sería necesario un gran acelerador; si, por el contrario, fuera muy pesado, no habría otra forma de encontrarlo que mediante un acelerador bastante potente.
El principio de la cacería se desarrolla un poco con sordina, pero rápidamente los acontecimientos adquieren un ritmo frenético, a partir de una falsa alarma.
Es el verano de 1984, pocos meses después del descubrimiento de W y Z, y en el DESY, un laboratorio cerca de Hamburgo, en Alemania, se acaba de poner en marcha DORIS, un colisionador de electrones y positrones. Los detectores han ido registrando algo muy extraño desde los primeros meses: cerca de 8,33 GeV hay una aglomeración de eventos particulares, propios de «algo neutro y estable» que se desintegra con una frecuencia inexplicable. La excitación es enorme, parece una señal inequívoca: todo invita a pensar que acaba de hacer su aparición el bosón de Higgs.
El descubrimiento se anuncia en la sede más prestigiosa, la Conferencia Internacional de Física de Altas Energías que tiene lugar en Leipzig, Alemania. La noticia es una bomba e inmediatamente desencadena reacciones y debates acalorados. La cuestión se zanja en cuanto otros grupos se dedican a buscar las mismas señales: nadie los ve. Los mismos físicos de DORIS, después de recoger nuevos datos, acaban por admitir que la señal no ha vuelto a presentarse; nadie sabrá jamás si se trató de un error o de una maligna fluctuación estadística.
Otras muchas alarmas falsas jalonaron la cacería al bosón de Higgs durante las siguientes décadas, pero este primer episodio tan controvertido se lleva el mérito de haber puesto en el centro de atención la importancia del descubrimiento; a partir de ese momento, todos los nuevos experimentos dedicarán gran parte de su atención a la búsqueda del Higgs.
LOS SEÑORES DE LOS ANILLOS
Para descubrir nuevas partículas es necesario un acelerador de partículas capaz de producirlas; es decir, capaz de generar colisiones en las cuales se produzca una energía superior a la masa de partículas que se quiere crear. Es una aplicación de la famosa relación de equivalencia entre masa y energía, enunciada por Einstein. Cuando un haz de partículas colisiona con otro, la energía de la colisión puede transformarse en masa: cuanto mayor es la energía del choque, más compactas son las partículas que pueden producirse y más nos acercamos a comprender los primeros instantes de vida del universo que siguieron al Big Bang; de ahí que cada día se quieran construir máquinas más potentes.
Como partículas para colisionar se utilizan las más comunes entre todas las que tienen carga eléctrica: electrones, protones y, en ocasiones, sus antipartículas (positrones y antiprotones). La carga es indispensable porque se aprovechan las leyes del electromagnetismo para acelerarlas y tenerlas en órbita. Unos fortísimos campos eléctricos producen la aceleración necesaria para aumentar su energía, mientras elevados campos magnéticos doblan la trayectoria de las partículas aceleradas, haciendo que recorran órbitas circulares.
Una primera familia de aceleradores utiliza electrones y positrones, que son partículas puntiformes; cuando colisionan frontalmente se aniquilan, desaparecen por completo, y toda su energía se transforma en otras partículas. Desde el punto de vista experimental la situación es muy clara, los eventos son simples, las nuevas partículas se pueden producir y estudiar en situaciones prácticamente idénticas al caso ideal. La desventaja de las máquinas basadas en electrones y positrones es que no permiten alcanzar energías demasiado elevadas. De hecho, estas partículas son ligeras, y cuando se mueven en órbitas circulares pierden una parte significativa de su energía por irradiación, emitiendo una especie de luz que recibe el nombre de luz de sincrotrón.
Este inconveniente no existe en los aceleradores que usan protones (o antiprotones); al ser mucho más pesados que los electrones, los protones son mucho menos propensos a irradiar luz de sincrotrón, lo cual permite que se puedan acelerar a energías mucho mayores. Pero al contrario que el electrón el protón no es puntiforme, sino que lo componen una compleja estructura de quarks y gluones; ello implica que sus colisiones son mucho más complicadas.
El protón se compone sobre todo de vacío; si pudiésemos agrandar uno hasta llenar una habitación, la zona donde encontraríamos materia ocuparía una diminuta fracción del volumen total. Los quarks que lo constituyen y los gluones que se intercambian entre sí gracias a la interacción fuerte que los mantiene unidos tendrían las dimensiones de minúsculos objetos de pocos milímetros de diámetro. Así pues, no hay que sorprenderse de que en la mayoría de los casos cuando dos protones chocan no suceda nada especialmente interesante; la mayor parte de las veces la colisión es periférica: ambos protones interactúan entre sí a distancia y salen de la colisión intactos, únicamente un poco desviados de su trayectoria. Solo cuando la colisión es un choque frontal, el protón se hace añicos y una parte de la energía se transforma en una nueva partícula. En los extrañísimos casos en los que un choque frontal afecta a las partes donde se concentra la materia de los quarks y los gluones se tiene a disposición la máxima cantidad de energía, y es durante estos insólitos casos cuando se producen las partículas más compactas, incluyendo, si cabe, esas nunca antes observadas. Pero ya que solo una mínima parte del protón participa en la colisión frontal entre quarks o gluones, la energía máxima que puede utilizarse para producir una nueva partícula no es más que una parte de la energía total del protón acelerado.
La experiencia de las últimas décadas nos dice que las dos familias principales de aceleradores son, en algunos aspectos, complementarias. Las máquinas de electrones son los instrumentos ideales para estudios de precisión, mientras que las de protones son los aceleradores de los descubrimientos por antonomasia, el ariete que explora las fronteras de la energía a la caza de nuevas partículas.
En ambos casos la energía es el parámetro fundamental. En primer lugar porque por debajo de un determinado umbral es imposible producir las partículas que se están buscando; por otro lado, la probabilidad de producirlas aumenta cuando aumenta la energía: cuanto mayor es la energía más partículas de una determinada masa pueden producirse. Y si podemos generar un elevado número de partículas, podremos seleccionar las formas de desintegración más claras, las características que conducen a las señales más evidentes y quizá descubrir antes que otros algo fundamental para la comprensión del universo.
Alta energía significa que las partículas pueden mantenerse rodando en una trayectoria circular solo si se utilizan campos magnéticos muy fuertes, es decir, muy caros. El límite lo pone el desarrollo actual de la tecnología. El mayor campo magnético que se pueda obtener definirá el radio de curvatura mínimo con el que poder trabajar; y así es como se llega a los modernos y gigantescos aceleradores.
Por otro lado, el número de partículas que produce el acelerador varía en función del número de colisiones al segundo que es capaz de producir para ese proceso en particular; es lo que en léxico técnico se llama «luminosidad» del acelerador. La elección de estos dos parámetros fundamentales, energía y luminosidad de la máquina, es la más importante, ya que puede determinar el éxito o fracaso de una gran empresa científica.
Ser demasiado prudente al definir las características de un nuevo acelerador implica reducir los gastos, pero es posible que la aventura sea un absoluto fracaso; se corre el riesgo de quedarse por debajo del umbral de producción de las nuevas partículas que se buscan; o quizá se logra producirlas, pero no las suficientes como para dejar señales claras. Entretanto, alguien podría construir una máquina más potente o con mayor luminosidad y realizar antes el descubrimiento. Entonces, nadie se acordaría de los recursos que ahorraste, todos recordarían siempre que tu elección resultó ser una apuesta perdedora. Pero también es cierto lo contrario. Si se opta por una elección más agresiva, si las tecnologías propuestas son excesivamente arriesgadas, se corre el riesgo de fracasar, o porque no se consigue que la máquina funcione, o porque no podemos hacer frente a los gastos.
Sobre este finísimo filo, cortante como una cuchilla, tienen que desarrollar sus propuestas los físicos de partículas y, en ocasiones, se juegan su carrera. La física de altas energías es un ambiente ferozmente competitivo, donde el objetivo de los científicos de alcanzar la primacía del conocimiento se entrelaza con la ambición de los países que quieren conservar o conquistar el liderazgo en algún sector puntero de la tecnología. Sobre este terreno de juego tan resbaladizo la diferencia entre un gran éxito científico y un fracaso estrepitoso puede depender de un detalle.
DE WAXAHACHIE AL LHC: UNA COMPETICIÓN DESPIADADA
Estados Unidos ha liderado la física de altas energías durante gran parte del siglo XX. Como mínimo desde 1930, cuando a sus veintinueve años el profesor de Berkeley Ernest Lawrence halló el modo de hacer más compactos y eficientes los aceleradores de partículas al inventar el ciclotrón, el primero de forma circular. El resto se debió a las grandes inversiones y el éxito del Proyecto Manhattan. A partir de entonces los gobiernos estadounidenses se han ocupado de asegurar un soporte para proyectos cada vez más ambiciosos, con la esperanza de que al desvelar los secretos de la materia se consiguiera el acceso a nuevas y extraordinarias formas de energía. Durante décadas obtuvieron una larga serie de éxitos, lo cual determinó su liderazgo a nivel mundial; si querías participar en las investigaciones punteras de la física de altas energías tenías que comprar un billete y entrar en un laboratorio estadounidense.
En Estados Unidos nadie consideró que el nacimiento del CERN en 1954 supusiera ningún desafío. A fin de cuentas, también en Rusia habían inaugurado pocos años antes un acelerador en Dubná, cerca de Moscú, que no había conseguido nada relevante. El liderazgo de Estados Unidos estaba demasiado afianzado como para pensar que el nuevo laboratorio europeo podría de alguna forma arrebatárselo; y en efecto, durante sus primeros años de vida, el CERN construyó aceleradores óptimos y consiguió buenas mediciones, pero no obtuvo ningún resultado de trascendencia histórica.
El descubrimiento de W y Z por parte de Rubbia supuso una conmoción para Estados Unidos. Los científicos americanos lo habían planeado todo al detalle para que este descubrimiento no se les escapara, así como el Premio Nobel que seguramente lo acompañaría. En 1974 habían propuesto la construcción de un nuevo acelerador en Brookhaven, en las afueras de Nueva York; también habían escogido un bonito acrónimo: se llamaría ISABELLE, bella ISA (Intersecting Storage Accelerator).
La nueva máquina era un acelerador en círculo de protones de hasta 400 GeV de energía en el centro de masa de las colisiones, más que suficiente para producir e identificar los tan buscados portadores de la interacción débil. La construcción comenzó en 1978, pero rápidamente surgieron problemas por la elección de un proyecto que resultó ser demasiado arriesgado y de consecuencias desastrosas.
Al definir las especificaciones los físicos del ISABELLE propusieron la utilización de imanes superconductores. La superconductividad es una propiedad muy especial de algunos materiales no resistentes a la corriente. De este modo se evitan los inconvenientes de los conductores normales y se pueden producir corrientes muy elevadas con una dispersión mínima. Las corrientes elevadas son el principal ingrediente en la construcción de fuertes campos magnéticos, necesarios para mantener en órbita los protones de alta energía, pero la superconductividad no es fácil de gestionar. Ante todo porque en estos materiales la resistencia se anula únicamente a temperaturas próximas al cero absoluto: los filamentos superconductores tienen que estar inmersos en la sustancia más fría de que disponemos, es decir, el helio líquido, a temperaturas que rondan los −269 °C. En segundo lugar porque estos materiales tienden a perder la superconductividad en presencia de campos magnéticos intensos y corrientes elevadas, justo las condiciones requeridas para el acelerador. Estos inconvenientes solo pueden superarse gracias a tecnologías de producción y control de gran calidad.
Al principio, ISABELLE parecía un proyecto sólido y bien planteado. El primer imán superconductor con especificaciones aptas para el nuevo acelerador fue construido en 1975 y superó todas las pruebas sin problemas. El acelerador se aprobó y financió oficialmente en calidad de iniciativa de importancia estratégica para Estados Unidos. El 27 de octubre de 1978, un golpe de pico en el suelo señala el principio de la construcción y todo parece ir perfecto, pero en enero de 1979 llega a Westinghouse el primer imán realizado por la empresa que va a encargarse de la producción industrial; y falla en todas las pruebas. Llega el segundo y ocurre exactamente lo mismo. Los físicos del proyecto y los ingenieros de Westinghouse empiezan a echarse la culpa los unos a los otros. Mientras tanto, el nuevo acelerador acumula años de retraso, y al CERN se le brinda la oportunidad que Carlo Rubbia sabrá aprovechar muy bien. En un momento dado queda claro que el tiempo del ISABELLE ha pasado, y el proyecto se abandona definitivamente. En julio de 1983, unos meses después de que Rubbia haya anunciado el descubrimiento de W y Z, y tras haber invertido 200 millones de dólares, Estados Unidos anuncia la cancelación del ISABELLE.
La conmoción de 1983 explica muchos de los siguientes movimientos del gobierno y los físicos estadounidenses en lo que ya es una verdadera carrera por la supremacía en el campo de la física de altas energías a escala mundial. Por primera vez, el CERN, competidor directo de los «maestros» americanos, demuestra que puede hacerlo mejor. Urge reaccionar.
Inmediatamente se destinan los mejores recursos al Fermilab, cerca de Chicago, que ha demostrado su dominio en la tecnología de imanes superconductores y ha puesto en funcionamiento el Tevatrón, un acelerador de protones y antiprotones parecido al que condujo a Rubbia a su descubrimiento, pero capaz de alcanzar niveles de energía cuatro veces mayores. Rápidamente se piensa en un nuevo proyecto que pueda reafirmar de una vez por todas la supremacía americana y haga desvanecer las ambiciones europeas.
El mismo año que se cierra el ISABELLE y bajo la dirección de Leon Lederman, ahora director del Fermilab, nace la idea de construir un acelerador gigantesco. El Superconducting Super Collider (SSC) es un gigante de 87 kilómetros de circunferencia donde los protones son acelerados incluso a 40 TeV de energía, cien veces más que la prevista para el ISABELLE, y desviados gracias a 8700 imanes superconductores, parecidos a los mil que ya se habían desarrollado con éxito para el Tevatrón. Iba a ser la máquina más grande y potente del mundo; gracias a ella descubrirían el bosón de Higgs y revelarían los secretos más íntimos de la materia; y, sobre todo, restablecerían la supremacía de Estados Unidos en el campo de la física de altas energías.
El desarrollo de la tecnología necesaria habría llevado a los superconductores a entrar prepotentemente en el campo de los nuevos métodos de distribución de la potencia eléctrica; los nuevos medios necesarios para gestionar los datos generados reafirmarían la hegemonía de Estados Unidos en el campo de la computación de alto rendimiento.
Son los años de Reagan, el presidente que propuso un liderazgo estadounidense más musculoso y agresivo. La idea del superacelerador, capaz de destruir las aspiraciones de supremacía de los europeos y restituirle el liderazgo a Estados Unidos, es muy cautivadora. La sede se ubicará en una zona semidesértica de Texas, en los alrededores de Dallas, cerca de una localidad de nombre impronunciable, Waxahachie (que significa «rabo de vaca» en la lengua de los nativos que poblaron esa llanura un siglo antes). Los 4400 millones de dólares de presupuesto son una cifra elevada, pero aceptable para un país rico en recursos como Estados Unidos. Al fin y al cabo, durante aquellos años la NASA contribuye con una cifra similar a la Estación Espacial Internacional, un proyecto colaborativo espacial donde la bandera de barras y estrellas no es la única que ondea.
El proyecto del SSC es aprobado en 1987 e inmediatamente empieza a recibir financiación. Docenas de físicos expertos y cientos de jóvenes brillantes con su doctorado fresco se trasladan con sus familias a los campos de algodón al sur de Dallas, donde se están construyendo los primeros edificios, mientras a varios metros bajo tierra enormes topos mecánicos empiezan a excavar el túnel.
Entretanto el CERN, impulsado por el entusiasmo que ha traído el descubrimiento de W y Z, se lanza hacia un nuevo y ambicioso proyecto: el LEP, un gran acelerador de electrones dedicado a estudiar con precisión a los recientes Z y W. Para producir millones de Z al año es necesario acelerar electrones y positrones a una energía de 45 GeV por haz, y solo hay una forma de limitar las pérdidas debidas a la luz de sincrotrón: aumentar todo lo posible el radio de curvatura. El resultado es un enorme acelerador de 27 kilómetros de circunferencia que empieza excavarse a cien metros bajo tierra durante el mágico año de 1983, cuando Rubbia anuncia el descubrimiento y Estados Unidos cancela el ISABELLE y Lederman propone el SSC.
El objetivo principal de esta nueva máquina es medir todas las características de los bosones portadores de la interacción débil, en particular su masa y sus propiedades, para poder compararlas con las previsiones del Modelo Estándar. Se estima elevar la energía de los haces hasta 80 GeV para producir parejas de W, e incluso ir más allá, en busca de supersimetría o del bosón de Higgs, pero ya se tiene en mente cuál será el próximo paso: en un futuro, el mismo túnel podría acoger un enorme acelerador de protones. Si la tecnología llegara a permitir construir imanes superconductores dos veces más potentes que los del Tevatrón se podría llegar a colisiones de 14 TeV.
Las excavaciones del LEP no tardan en iniciarse. La dirección del proyecto se entrega a Emilio Picasso, un físico italiano. Todo marcha a la perfección mientras las excavaciones avanzan por la extensa llanura aluvial de Ginebra, estratos de sedimentos estables formados por guijarros de las morrenas o molasa compacta producida por los grandes glaciares del Jura, que llegaban hasta el mar cuando los Alpes no eran más que un insignificante relieve oceánico, pero cuando llega el momento de excavar bajo la montaña surgen los problemas. El Jura es un laberinto de manantiales de agua a presiones altísimas, auténticos ríos subterráneos que pueden alcanzar las 40 atmósferas. Se revisan los planos a fin de reducir al mínimo el tramo del túnel que pasa bajo la montaña; los ocho kilómetros inicialmente previstos se reducen a tres y se busca la manera de seguir un recorrido que se aparte de las faldas acuíferas conocidas, pero no hay forma de evitarlas por completo. Bajo la montaña, el túnel es excavado a base de explosivos, y en un momento dado nos encontramos de frente con la pesadilla que los ingenieros habían querido evitar a toda costa: un manantial de agua a presión elevada que no aparecía en los mapas geológicos invade toda la galería. Faltan unos pocos cientos de metros para completar el túnel, pero las obras se ralentizan mientras se busca una solución. Ese tramo del acelerador, el sector 3-4, es el mismo que dejará fuera de combate durante 2008 al LHC debido a una avería.
A pesar de las dificultades, el proyecto se termina dentro de los tiempos previstos y la enorme infraestructura es inaugurada el 14 de julio de 1989 por el presidente de la República François Miterrand. La elección de la fecha no es casual: el gran anillo, orgullo de la tecnología europea, casa bien con las celebraciones del bicentenario de la Revolución francesa, llenas de grandeur.
Mientras el LEP se pone en marcha y empieza a producir los primeros resultados, el mismísimo Carlo Rubbia, que acaba de ser elegido director general del CERN, vuelve a desafiar a Estados Unidos, que acaba de aprobar el SSC. Corre el año 1990 cuando anuncia al mundo que en el nuevo anillo del LEP, donde ahora circulan electrones y positrones, también circularán protones, para construir el Large Hadron Collider, el LHC, la alternativa europea al SSC.
La energía del nuevo acelerador del CERN es limitada debido a las dimensiones del anillo; es impensable que en una circunferencia de 27 kilómetros, aun utilizando los imanes superconductores más modernos concebibles y por desarrollar, se puedan alcanzar niveles de energía que compitan con los 40 TeV del SSC. Los 14 TeV del LHC implican que la producción de partículas compactas como el bosón de Higgs será menor, lo que equivale a menos posibilidades de ganar la carrera contra los americanos, pero lo que se pierde en energía se puede ganar en luminosidad. Rubbia decide que el LHC tendrá una luminosidad diez veces superior a la del SSC, pero una elevada luminosidad significa haces de altísima intensidad, un número de partículas casi imposible de gestionar y la posibilidad de que los detectores acaben «fritos» por la radiación. Se trata de tecnologías tan avanzadas que su realización parece imposible; cosas que solo concebirían un atajo de locos.
Físicos y expertos en la máquina se ponen manos a la obra para preparar el proyecto con detalle. Rubbia llama a otro italiano para que se encargue de la dirección: Giorgio Brianti, uno de los mayores expertos en aceleradores e imanes. La elección no podía ser más acertada. Brianti propone una solución absolutamente innovadora que permitirá un increíble ahorro. En lugar de construir dos líneas de haces independientes para los dos haces de protones que viajan en sentido contrario, propone recoger en el mismo imán los dos tubos de vacío separados por donde circulan los haces. Es una jugada brillante que reduce a la mitad el número de imanes necesarios para la máquina.
Así, el LHC, que ya aprovecha el túnel y las infraestructuras del LEP, contará con generosos ahorros también en lo que a imanes respecta. Se tendrán que construir 1250 imanes dipolares, en vez de los 2500 que se habrían necesitado si se hubiera seguido el diseño original. En poco tiempo el LHC sería capaz de producir los mismos resultados que el SSC aunque con un coste menor. Muchos piensan que no es más que un farol, pero el desafío ha sido lanzado.
El 6 de agosto de 1992, en Dallas, hace un calor asfixiante. La XXVI Conferencia de física de altas energías se ha convocado precisamente aquí para celebrar la nueva y ambiciosa iniciativa científica americana. Miles de físicos de todas partes del mundo se han reunido en el lugar donde Estados Unidos, simbólicamente, se dispone a reafirmar su hegemonía. Nos llevan a Waxahachie con objeto de que veamos las innovadoras cadenas de pruebas de los primeros imanes que cumplen con las especificaciones. Visitamos los grandes edificios recién construidos y atestados de gente. Nos ponemos el casco y bajamos a los enormes pozos que dan acceso al túnel; ya han excavado varios kilómetros y todo se ve limpio y perfecto. Todo está listo para que empiece la fiesta.
Cuando Rubbia toma la palabra la sala de conferencias se sume en un silencio sepulcral. Carlo se ensaña con el auditorio mediante ráfagas de diapositivas. La conclusión es tajante: el LHC estará listo en 1998, será capaz de hacer la misma física que el SSC, pero costará la mitad.
Los americanos, que han sido siempre los primeros de la clase, no están acostumbrados a sentir en la nuca el aliento de unos europeos tan agresivos, casi insolentes, y son incapaces de disimular su irritación. Por otro lado, todo el mundo sabe que Rubbia se está marcando un farol: los costes del LHC no serán tan reducidos y, sobre todo, será imposible construir los imanes en los tiempos indicados, pero el desafío ha sido lanzado y el auditorio sabe que, de ahora en adelante, la cosa va a ponerse difícil.
Mientras en Europa un grupo de jóvenes aventureros se pone a dibujar y desarrollar unos detectores imposibles para el LHC, en Estados Unidos el SSC, apremiado por la iniciativa del CERN, empieza a toparse con serias dificultades, sobre todo de presupuesto.
Ya en 1989 una primera revisión de los costes había incrementado las primeras estimaciones, alcanzando los 5900 millones de dólares. Más tarde, para asegurar una mayor facilidad en la gestión de las operaciones, un comité de expertos propuso una modificación de los imanes del proyecto, cuya apertura tendría que ser aumentada de 4 a 5 centímetros. Podría parecer un detalle insignificante, pero con una mayor apertura se reduce el campo magnético y el impacto sobre los costes totales es notable: o se construyen más imanes o se alarga el túnel. El resultado: en 1991 se estimaba que el coste del proyecto alcanzaba los 8600 millones de dólares. Cuando la enésima revisión aumentó el coste total a 11 500 millones de dólares todo el mundo advirtió que aquella era la gota que colmaba el vaso; sobrevino el desastre. El 27 de octubre de 1993, diez años después de la cancelación del ISABELLE, un año después del desafío lanzado por Carlo Rubbia en Dallas, el Congreso de Estados Unidos cancela definitivamente el SSC con una mayoría aplastante de 283 votos contra 143. Han sido excavados 23 kilómetros bajo tierra y se han invertido 2000 millones en un túnel que durante años constituirá el mudo testimonio de uno de los mayores fracasos científicos del siglo. En pocas semanas despiden a mil quinientos físicos, ingenieros y técnicos que trabajaban en el proyecto, en algunos casos desde hacía años.
La comunidad científica internacional está conmocionada. Es un golpe tremendo para los físicos de altas energías de Estados Unidos; es posible que no se recuperen jamás de la catástrofe.
Ironías del destino, el mismo año de la cancelación del SSC, Leon Lederman, uno de los padres del proyecto, publicará su libro más célebre, el mismo que convertirá la cacería al bosón de Higgs en un argumento de interés general: La partícula divina: si el universo es la respuesta, ¿cuál es la pregunta?
LOS DETECTORES IMPOSIBLES
Han pasado más de veinte años desde que, a principios de los noventa, nos reuníamos en el CERN en pequeños grupos para discutir sobre el LHC, el nuevo acelerador que se estaba proyectando. Recuerdo como si fuera ayer los acalorados debates alrededor de los dibujos conceptuales de los gigantescos detectores, esbozados a bolígrafo sobre las servilletas de papel de la cafetería del CERN.
Fueron años de apasionados debates, increíbles entusiasmos y terribles decepciones; hubo también conflictos, a menudo ásperos, con gran parte de nuestros colegas, que nos tenían por locos: la tecnología que proponíamos era demasiado arriesgada, y el ambiente de elevadísimas luminosidades del LHC era demasiado hostil. Nuestros colegas más expertos nos miraban con aires de suficiencia, como diciendo: «Que tengáis suerte, pero no lo lograréis nunca». Otros enarcaban las cejas ante esta nueva generación de físicos cuarentones que soñaba con triunfar allí donde todos los demás habían fracasado: descubrir el bosón de Higgs.
El sueño de aquel reducido grupo de pioneros hoy se ha hecho realidad y, como suele ocurrir, ahora parece una historia repleta de éxitos y gloria. En realidad, ha sido una aventura arriesgada y dificilísima, siempre a medio camino entre el éxito apabullante y el riesgo de fracasar.
Un detector moderno de partículas es una especie de cámara fotográfica digital enorme. Su funcionamiento es simple: en cada acelerador hay una o más zonas especiales, llamadas «zonas de interacción», donde los haces se entrecruzan, se concentran en dimensiones infinitésimas y dan lugar a las colisiones; para registrar y comprender qué ocurre durante los choques se usan sistemas de detectores, complejos aparatos basados en sensores muy sensibles y capaces de registrar hasta la más mínima liberación de energía por parte de las partículas que salen de la zona de interacción.
En el acelerador los protones viajan agrupados en paquetes sumamente densos. Cada paquete contiene alrededor de 100 millardos de protones que en cuanto alcanzan la zona de interacción se concentran en una región filiforme de unos 0,01 milímetros de diámetro y 10 centímetros de largo. El intervalo de tiempo que separa dos paquetes contiguos es de 25 nanosegundos (es decir, millardésimos de segundo) y el LHC puede contener hasta un máximo de 2800 paquetes. En otras palabras, las colisiones del LHC son pulsadas, ocurren en intervalos de tiempo muy concretos, regulados por un circuito de sincronización muy preciso. Los sensores que rodean la zona de interacción reciben una señal que anuncia la llegada del paquete de protones y preparan el circuito de lectura para que pueda registrar lo que ocurre alrededor de la zona de interacción durante la colisión.
Todo tiene que ocurrir muy rápidamente, porque enseguida llega otro paquete de protones y los detectores deben estar listos para registrar el evento siguiente. El mecanismo es parecido a lo que ocurre en las cámaras digitales actuales. Se reconstruye una imagen de la colisión utilizando los casi 100 millones de píxeles que constituyen los sensores individuales distribuidos por todo el detector y se registra todo en un disco para poder examinar luego las imágenes, con calma, offline.
Cada imagen ocupa un megabyte, más o menos lo mismo que una fotografía digital; lo asombroso es la velocidad a la que ocurre. Los detectores del LHC toman fotografías digitales al apabullante ritmo de 40 millones de imágenes por segundo. Si se tuvieran que conservar todas las imágenes, la cantidad de datos sería desmesurada; ningún sistema podría gestionar un flujo de información de unos 40 petabyte por segundo; y aunque pudiera hacerlo no sabríamos donde almacenarla: si la grabáramos en discos DVD de 10 gigabyte de memoria necesitaríamos 4000 discos por segundo y muy pronto no sabríamos dónde ponerlos. En un año de recolección de datos los discos serían más de 40 millardos y puestos uno encima del otro alcanzarían los 40 000 kilómetros de altura.
Para resolver este problema se han incorporado a los detectores miles de microprocesadores conectados entre sí; de este modo, mientras se registran localmente las señales emitidas por la colisión, los microprocesadores reconstruyen la información global y elaboran rápidamente una hipótesis acerca del tipo de colisión que se ha producido. Como hemos podido observar anteriormente, la gran mayoría de veces las colisiones entre protones producen partículas ligeras y fenómenos físicos bien conocidos, que son inmediatamente descartados. La atención se concentra en eventos potencialmente interesantes, que son mucho más raros. El circuito que efectúa esta selección se llama «circuito que aprieta el gatillo» o «circuito de trigger», y en millonésimas de segundo decide qué eventos registra y cuáles descarta; de los 40 millones de eventos al segundo se guardarán apenas mil. Así la cantidad de información se podrá gestionar con mayor facilidad, a pesar de requerir el desarrollo de una nueva estructura informática basada en la computación distribuida.
El tamaño de los aparatos experimentales también es impresionante. Las colisiones a niveles de energía elevados implican la producción de partículas que se desintegran generando chorros de otras partículas muy penetrantes. Algunas son absorbidas solo después de que hayan recorrido metros del material que compone los sensores; otras escapan incluso a los materiales más compactos y solo podemos medir sus características reconstruyendo en parte su trayectoria. Por ello, los aparatos que permiten la física del LHC son construcciones enormes, tan altas como un edificio de cinco plantas y tan pesadas como un crucero.
Por si esto fuera poco, los sensores tienen que ser ultrarrápidos. Dado que las colisiones se encadenan a un ritmo frenético, solo pueden emplearse los detectores más rápidos, esos que en una fracción de segundo son capaces de registrar hasta la más mínima señal y están inmediatamente preparados para el evento siguiente.
En suma, dado que la mayor apuesta del LHC es su alta luminosidad, el número de partículas que se producirá a cada segundo en la zona de interacción será muy elevado. Así pues, todo lo que haya alrededor de esta zona —sensores, electrónica, estructuras de soporte, cables y fibra para las señales— tendrá que ser resistente a unos niveles de radiación nunca vistos. De lo contrario, al cabo de pocos meses, quizá años, de actividad, los delicados instrumentos dejarían de funcionar para siempre, y todo el dinero invertido se perdería.
Estructuras gigantescas que pesan miles de toneladas y contienen millones de sensores ultrarrápidos, muy resistentes a la radiación y lo bastante inteligentes como para ser capaces de evaluar en milésimas de segundo si el evento que acaba de registrar se ha de conservar o descartar: ahora se comprende que todo el mundo, cuando proponíamos la construcción de los detectores del LHC, nos tomara por locos. Todos sabíamos que no iba a ser coser y cantar.