9

LOS ORDENADORES CUÁNTICOS

Para un neófito en la materia, el término cálculo cuántico puede sonar como el nombre de una nueva tecnología, quizás el último grito en la notable sucesión que comprende el cálculo mecánico, el cálculo electrónico transistorizado, el cálculo mediante chips de silicio, etcétera. Por otra parte, es cierto que la tecnología informática actual se basa en procesos microscópicos cuantomecánicos. (Por supuesto, todos los procesos físicos son cuantomecánicos, pero aquí me refiero a aquellos para los que la física clásica —es decir, la física no cuántica— proporciona predicciones muy poco exactas). Para que continúe la tendencia actual hacia un hardware cada vez más rápido y más compacto, la tecnología deberá ser cada vez más «cuantomecánica», en el sentido aludido, por la sencilla razón de que los fenómenos cuantomecánicos son los que predominan en todos los sistemas lo bastante pequeños. Si esto fuera todo, el cálculo cuántico mal podría figurar en ninguna explicación fundamental de la estructura de la realidad, ya que no habría nada sustancialmente nuevo en él. Los ordenadores actuales, cualquiera que sea la cantidad de procesos cuantomecánicos que utilicen, no son más que aplicaciones tecnológicas meramente distintas de la misma idea clásica, la de la máquina universal de Turing. Por esta razón el repertorio disponible de cálculos es, básicamente, el mismo para la totalidad de los ordenadores existentes, y difieren tan sólo en su velocidad, capacidad de memoria y periféricos de entrada y salida. Es decir, incluso el más modesto ordenador personal actual puede ser programado para resolver cualquier problema o reproducir cualquier entorno con tanta perfección como el más potente, a condición, simplemente, de que se le proporcione la suficiente memoria adicional, se le conceda el tiempo necesario y se le dote del hardware adecuado para mostrar los resultados.

El cálculo cuántico es algo más que una tecnología más rápida y miniaturizada para llevar a la práctica las máquinas de Turing. Un ordenador cuántico es una máquina que utiliza únicamente efectos cuantomecánicos, en especial la interferencia, para resolver clases de cálculos completamente nuevos y que serían imposibles, incluso en principio, para cualquier máquina de Turing y, por consiguiente, para cualquier ordenador clásico. El cálculo cuántico es, por lo tanto, ni más ni menos que una nueva manera de dominar la naturaleza.

Permítaseme argumentar esta afirmación. Los primeros inventos para dominar la naturaleza fueron herramientas movidas por músculos humanos. Revolucionaron la situación de nuestros antepasados, pero adolecían de la limitación de requerir atención y esfuerzo humanos constantes durante cada momento de su utilización. La tecnología subsiguiente superó esta limitación. Los seres humanos consiguieron domesticar algunos animales y cultivar ciertas plantas, y dirigieron las adaptaciones biológicas de estos organismos para sus fines. Las cosechas crecían y los perros guardianes vigilaban mientras sus dueños dormían. Se introdujo una nueva clase de tecnología cuando los seres humanos fueron más allá de la mera explotación de las adaptaciones de que disponían (y de los fenómenos no biológicos de que disponían, tales como el fuego) y crearon adaptaciones completamente nuevas en el mundo, tales como cerámica, ladrillos, ruedas, artefactos metálicos y máquinas. Para ello tenían que reflexionar sobre las leyes naturales que gobiernan el mundo y comprenderlas, lo que incluía, como he dicho, no tan sólo sus aspectos superficiales, sino la estructura de la realidad en que se basaban. Siguieron miles de años de progreso en esta clase de tecnología, en la utilización de algunos de los materiales, fuerzas y energías de la física. En el siglo XX la información vino a sumarse a la lista cuando la invención de los ordenadores hizo posible el procesado de información compleja fuera del cerebro humano. El cálculo cuántico, actualmente en su primera infancia, es un paso más en esta progresión. Será la primera tecnología que permita desarrollar tareas útiles mediante la colaboración de universos paralelos. Un ordenador cuántico será capaz de distribuir los componentes de una tarea compleja entre gran número de universos paralelos y compartir después los resultados.

Ya he mencionado la trascendencia de la universalidad del cálculo. El hecho de que un único ordenador físicamente posible puede, si se le da el tiempo suficiente y tiene la memoria adecuada, realizar cualquier cálculo que pueda desarrollar cualquier otro ordenador físicamente posible. Las leyes de la física, tal como las conocemos, admiten la universalidad del cálculo. Sin embargo, para que sea útil o trascendente de algún modo en el esquema general de las cosas, la universalidad, tal como la he definido hasta ahora, no resulta suficiente. Significa tan sólo que el ordenador universal puede hacer, con el tiempo, lo mismo que cualquier otro ordenador. En otras palabras, si se le da el tiempo suficiente, será universal. Pero ¿qué sucederá si no dispone del tiempo suficiente? Imaginemos un ordenador universal que tan sólo pudiese efectuar un paso de un programa de cálculo en toda la vida del universo. ¿Seguiría siendo su universalidad una profunda propiedad de la realidad? Seguramente, no. Para exponerlo de un modo más general, esta estrecha noción de la universalidad es criticable porque clasifica a una tarea como parte del repertorio de un ordenador sin tomar en consideración los recursos físicos que éste consumiría para realizarla. Así, por ejemplo, podría darse el caso de que un usuario de realidad virtual tuviera que permanecer en un estado de total suspensión de los sentidos durante miles de millones de años mientras el ordenador calculaba lo que debía representar a continuación. Ésta era la actitud adecuada al debatir los límites últimos de la realidad virtual, pero cuando lo que consideramos es la utilidad de la realidad virtual —o, lo que es más importante, el papel fundamental que tiene en la estructura de la realidad—, debemos ser más selectivos. La evolución jamás habría despegado si la tarea de representar determinadas propiedades de los primeros hábitats más simples no hubiese sido tratable (es decir, calculable en un tiempo aceptable) mediante la utilización como ordenadores de las moléculas disponibles. Del mismo modo, la ciencia y la tecnología nunca hubiesen echado a volar si el diseño de una herramienta de piedra hubiese necesitado de mil años de reflexión. Lo que era cierto al principio ha seguido siendo una condición absoluta en cada paso del progreso. La universalidad del cálculo no sería de mucha utilidad para los genes, por más conocimiento que contuviesen, si reproducir sus organismos fuera una tarea intratable en la que, por ejemplo, un ciclo reproductivo durase miles de millones de años.

Así pues, el hecho de que existan organismos complejos, y de que haya habido una sucesión de invenciones y de teorías científicas cada vez mejores (como la mecánica de Galileo, la mecánica de Newton, la mecánica de Einstein, la mecánica cuántica, etcétera), nos dice algo sobre la clase de universalidad de cálculo que existe en la realidad. Nos dice que las leyes de la física actuales son, por lo menos hasta ahora, susceptibles de ser superadas en todo momento por teorías que proporcionen mejores predicciones, y que la tarea de descubrir cada nueva teoría a partir de la anterior ha sido tratada por medio del cálculo dadas las leyes y la tecnología ya conocidas. La estructura de la realidad debe, pues, estar, por así decirlo, escalonada, en aras de una fácil autoaccesibilidad. Del mismo modo, si consideramos la propia evolución como un cálculo, ello nos indica que deben de haber existido los suficientes organismos viables, codificados por el ADN, para permitir a los mejor adaptados ser calculados (es decir, desarrollarse) empleando los recursos proporcionados por sus predecesores menos adaptados. Podemos, pues, inferir que las leyes de la física, además de prescribir taxativamente su propia comprensibilidad mediante el principio de Turing, aseguran que los correspondientes procesos evolutivos, como la vida y el pensamiento, no requieran, para ocurrir realmente, un exceso de tiempo o de cualesquiera otros recursos.

Así pues, las leyes de la física no sólo permiten (o, como he argumentado, exigen) la existencia de vida y pensamiento, sino que prescriben que éstos sean, de la manera más adecuada, eficientes. Para expresar esta crucial propiedad de la realidad, los análisis modernos de la universalidad postulan habitualmente ordenadores que son universales en un sentido aún más completo del que requeriría, en apariencia, el principio de Turing. No sólo son posibles los generadores universales de realidad virtual, sino que es también posible construirlos de manera que no requieran cantidades de recursos impracticablemente grandes para reproducir aspectos simples de la realidad. A partir de ahora, me referiré a la universalidad en este sentido, excepto cuando especifique algo distinto.

Pero ¿con cuánta eficiencia, exactamente, pueden ser reproducidos determinados aspectos de la realidad? ¿Qué cálculos, en otras palabras, son factibles dentro de un tiempo y un presupuesto dados? Ésta es la cuestión básica de la teoría de la complejidad del cálculo, que, como he dicho, consiste en el estudio de los recursos requeridos para realizar tareas calculatorias dadas. La teoría de la complejidad aún no está lo suficientemente integrada en la física para ofrecer muchas respuestas cuantitativas. No obstante, ha abierto un notable camino en la definición de una distinción útil y práctica entre tareas calculatorias tratables e intratables. El enfoque general queda mejor ilustrado con un ejemplo. Consideremos la tarea de multiplicar dos números bastante grandes, por ejemplo 4.220.851 por 2.594.209.

Muchos de nosotros recordamos el método que aprendimos siendo niños para realizar multiplicaciones así. Consiste en multiplicar cada dígito del multiplicando por todos los dígitos del multiplicador para obtener sumandos, que después se sumarán para conocer el resultado final, en nuestro caso 10.949.769.651.859. Algunos se resistirán a conceder que este fatigoso procedimiento haga la multiplicación «tratable» en cualquier sentido corriente de la palabra (de hecho, existen métodos más eficientes para multiplicar grandes números, pero éste nos proporciona un ejemplo bastante bueno); sin embargo, desde el punto de vista de la teoría de la complejidad, que considera operaciones complejísimas desarrolladas por ordenadores indiferentes al aburrimiento y que rara vez se equivocan, este método entra, sin duda, dentro de la categoría de «tratable».

Lo que cuenta para la «tratabilidad», según las definiciones al uso, no es el tiempo empleado en multiplicar dos números determinados, sino el hecho de que dicho tiempo no se incremente de modo desmesurado al aplicar el mismo método a números cada vez mayores. Por sorprendente que parezca, este modo más bien indirecto de definir la tratabilidad funciona muy bien en la práctica para muchas clases importantes de tareas calculatorias. Por lo que se refiere a la multiplicación, podemos comprobar fácilmente que el método estándar puede ser usado con números diez veces mayores, por ejemplo, con muy poco trabajo adicional. Supongamos, en aras de la argumentación, que cada multiplicación elemental de un dígito por otro dura en un determinado ordenador un milisegundo (incluyendo el tiempo necesario para sumar, llevar las decenas y demás operaciones complementarias que siguen a cada multiplicación elemental). Cuando multiplicamos los números de siete dígitos 4.220.851 y 2.594.209, cada uno de los siete dígitos de 4.220.851 debe ser multiplicado por cada uno de los siete dígitos de 2.594.209. El tiempo total requerido para la multiplicación (si las operaciones se desarrollan de modo secuencial) será de siete veces siete, o sea, 49 milisegundos. Para números aproximadamente diez veces mayores, que tendrían ocho dígitos cada uno, el tiempo requerido para su multiplicación sería de 64 milisegundos, lo cual representa un incremento, de tan sólo el 31 por ciento.

Queda claro, pues, que una amplia gama de números —que incluye sin duda todos aquellos susceptibles de ser obtenidos como medida de los valores de variables físicas— puede ser multiplicada en una pequeña fracción de segundo. Así pues, la multiplicación es ciertamente tratable a todos los efectos dentro de la física (o, al menos, de la física actual). Por supuesto, fuera de la física puede presentarse la necesidad de multiplicar números mucho mayores. Los productos de números primos de 125 dígitos o más, por ejemplo, son de gran interés para los criptógrafos. Nuestra máquina hipotética podría multiplicar dos de esos números, lo que arrojaría un resultado de 250 dígitos, en poco más de una centésima de segundo. En un segundo, podría multiplicar dos números de mil dígitos. Los ordenadores reales disponibles en la actualidad pueden llegar incluso a mejorar esos tiempos. Tan sólo algunos investigadores en ramas esotéricas de la matemática pura están interesados en multiplicaciones tan incomprensiblemente vastas, si bien, como vemos, ni siquiera ellos tienen motivos para considerar la multiplicación como intratable.

En cambio, la factorización —básicamente, lo inverso de la multiplicación— parece mucho más difícil. Se empieza con un solo número como dato inicial —por ejemplo, 10.949.769.651.859— y se trata de encontrar dos factores, es decir, dos números más pequeños que, multiplicados entre sí, arrojen dicho resultado. Como acabamos de multiplicarlos, sabemos que la respuesta, en este caso, es 4.220.851 y 2.594.209. Dado que ambos son números primos, ésta es la única respuesta correcta. Pero, si no hubiésemos conocido estos números de antemano, ¿cómo los habríamos encontrado? Por más que busquen en los recuerdos de su infancia, no encontrarán ningún método fácil, porque no lo hay.

El método más obvio consiste en dividir el número inicial por todos los factores posibles, empezando con 2 y continuando con todos los números impares, hasta encontrar uno que lo divida exactamente. Uno de los factores, al menos (si existen, es decir, en el caso hipotético de que el número inicial no sea primo), no podrá ser superior a la raíz cuadrada del número inicial, lo que da una idea del tiempo que puede necesitar este método. En el ejemplo que estamos considerando, nuestro ordenador encontraría el más pequeño de los factores (2.594.209) en aproximadamente un segundo. Sin embargo, un número inicial diez veces mayor tendría una raíz cuadrada unas tres veces mayor, de modo que su factorización por este método requeriría el triple de tiempo. En otras palabras, añadir un dígito al número inicial triplicarla el tiempo de ejecución. Un dígito más volvería a triplicarlo, y así sucesivamente. El tiempo de ejecución aumentaría, pues, en progresión geométrica, es decir, de modo exponencial, con cada aumento de un dígito en el número inicial. Factorizar un número con factores de veinticinco dígitos mediante este método mantendría ocupados a todos los ordenadores de la Tierra durante siglos.

El método se podría mejorar, pero todos los métodos de factorización actualmente en uso presentan la propiedad del incremento exponencial. El mayor número jamás factorizado —que, en realidad, lo fue «con trampa», pues se trata de un número cuyos factores fueron previamente seleccionados por unos matemáticos para desafiar a otros— tenía 129 dígitos. Se consiguió realizar la factorización gracias a un llamamiento vía Internet, que originó un esfuerzo de cooperación de miles de ordenadores. El científico informático Donald Knuth ha estimado que la factorización de un número de 250 dígitos, utilizando los métodos más eficientes hasta ahora conocidos, duraría más de un millón de años si dispusiera de una red compuesta por un millón de ordenadores. Tales cosas son difíciles de estimar, pero, aun en el caso de que Knuth fuera excesivamente pesimista, sólo hay que considerar números con algunos dígitos más para comprobar que la tarea resulta varias veces más ardua. Eso es lo que queremos decir al afirmar que la factorización de grandes números es intratable. Todo ello es bien distinto del caso de la multiplicación, en el que, como hemos visto, multiplicar dos números de 250 dígitos es coser y cantar para cualquier ordenador doméstico. Nadie es capaz de concebir siquiera cómo factorizar números de mil dígitos o de un millón.

O, al menos, nadie podía hasta hace poco.

En 1982 el físico Richard Feynman empezó a estudiar la simulación mediante ordenador de objetos cuantomecánicos. Su punto de partida fue algo ya conocido, pero cuya trascendencia no había sido apreciada: que la predicción del comportamiento de sistemas cuantomecánicos (o, en otras palabras, la representación de entornos cuantomecánicos en realidad virtual) es, en general, una tarea intratable. Una de las razones por las que la trascendencia de este hecho había pasado inadvertida era que nadie esperaba que la predicción por ordenador de fenómenos físicos interesantes resultase especialmente fácil. Consideremos, por ejemplo, la predicción meteorológica, o la de los terremotos. Si bien las correspondientes ecuaciones son bien conocidas, la dificultad de aplicarlas a situaciones reales es notoria. Este hecho ha llamado la atención del gran público gracias a algunos libros y artículos de divulgación sobre el caos y el efecto mariposa. Estos efectos no tienen nada que ver con la intratabilidad a la que se refería Feynman, por la sencilla razón de que ocurren tan sólo en física clásica; por tanto, no pueden darse en la realidad, que es cuantomecánica. No obstante, deseo aclarar algunos puntos sobre los movimientos clásicos «caóticos», aunque sólo sea para destacar las grandes diferencias entre la impredecibilidad clásica y la cuántica.

La teoría del caos trata de las limitaciones de la predecibilidad en la física clásica, y parte del hecho de que casi todos los sistemas clásicos son intrínsecamente inestables. La «inestabilidad» en cuestión no tiene nada que ver con ninguna tendencia al comportamiento violento o a la desintegración, sino que se refiere a una extrema sensibilidad a las condiciones iniciales. Supongamos que conocemos el estado actual de algún sistema físico, por ejemplo, el de un conjunto de bolas que ruedan sobre una mesa de billar. Si el sistema obedeciese a las leyes de la física clásica, cosa que hace en un grado bastante elevado, estaríamos en condiciones de determinar con exactitud su comportamiento futuro —podríamos predecir, por ejemplo, si una determinada bola entrará o no en un determinado agujero— a partir de las leyes del movimiento, del mismo modo que podemos predecir un eclipse o una conjunción de planetas a partir de ellas. Pero, en la práctica, nunca llegamos a poder medir con exactitud las posiciones y velocidades iniciales. La pregunta está servida: ¿conociendo estas condiciones iniciales con un grado aceptable de exactitud, podríamos predecir con igual aproximación el comportamiento futuro del sistema? La respuesta es que, por lo general, no. La diferencia entre la trayectoria predicha, que ha sido calculada a partir de datos ligeramente inexactos, y la real tiende a crecer de modo exponencial e irregular («caóticamente») con el tiempo, de forma que el estado inicial, imperfectamente conocido, acaba por no servir de guía para el comportamiento del sistema. Ello implica, por lo que se refiere a las predicciones realizadas mediante ordenador, que los movimientos de los planetas, epítome de la predecibilidad clásica, son sistemas clásicos atípicos. Para predecir lo que hará un sistema clásico típico, incluso tras un período de tiempo moderado, deberíamos poder establecer su estado inicial con un grado tal de exactitud, que resulta imposible. De ahí la afirmación de que, en principio, el aleteo de una mariposa en un hemisferio podría causar un huracán en el otro. La impracticabilidad de las predicciones meteorológicas, y de todas aquellas que se les asemejan, se atribuye, pues, a la imposibilidad de tomar en consideración el aleteo de todas las mariposas del planeta.

Sin embargo, en realidad, los huracanes y las mariposas obedecen a la teoría cuántica y no a la mecánica clásica. La inestabilidad, que aumentaría con rapidez cualquier falsa especificación de un estado clásico inicial, simplemente, no es una característica de los sistemas cuantomecánicos. En mecánica cuántica las pequeñas desviaciones de un estado inicial específico sólo tienden a causar pequeñas desviaciones del estado final predicho. Ahora bien, la predicción exacta también se ve dificultada, aunque por un efecto muy distinto.

Las leyes de la mecánica cuántica requieren que un objeto que se encuentre inicialmente en una posición dada (en todos los universos) se «difunda» en el sentido del multiverso. Por ejemplo, un fotón y sus contrapartidas en otros universos salen juntos del mismo punto del filamento de una lámpara, pero luego se mueven en billones de direcciones distintas. Cuando medimos después lo que ha sucedido, también nos «difundimos», ya que cada una de nuestras copias ve lo ocurrido en su particular universo. Si el objeto en cuestión es la atmósfera de la Tierra, el huracán tal vez haya sucedido en, digamos, un 30 por ciento de los universos y no en el restante 70 por ciento. Subjetivamente, percibimos esto como un resultado único, impredecible o «aleatorio», si bien desde la perspectiva del multiverso todos los resultados han ocurrido de modo real. Esta multiplicidad en universos paralelos es la verdadera razón de la impredecibilidad de la meteorología. Nuestra incapacidad para medir de manera adecuada las condiciones iniciales resulta por completo irrelevante. Aun en el caso de conocerlas a la perfección, se mantendría la multiplicidad y, por consiguiente, la impredecibilidad de la evolución. Por otro lado, y en contraste con el caso clásico, un multiverso imaginario, con condiciones iniciales tan sólo ligeramente distintas, no se comportaría de modo muy diferente del multiverso real: quizás sufriría huracanes en el 30,000001 por ciento, y no en el 69,999399 por ciento restante.

No es, pues, el aleteo de las mariposas lo que provoca, en realidad, los huracanes, puesto que el fenómeno clásico del caos depende de un determinismo perfecto, que no se da en ningún universo aislado. Consideremos un grupo de universos idénticos en un instante en el que, en todos ellos, ha aleteado una determinada mariposa. Consideremos un segundo grupo de universos que, en ese mismo instante, son idénticos a los del primero, excepto en que en ellos la mariposa no ha aleteado. Esperemos unas horas. La mecánica cuántica predice que, a menos que se den circunstancias excepcionales (como que alguien esté observando las alas de la mariposa y oprima el detonador de una bomba atómica si se pone a aletear), los dos grupos de universos, casi idénticos al principio, seguirán siéndolo al final. Sin embargo, interiormente, ambos grupos se habrán diferenciado sobremanera el uno del otro. Incluirán universos con huracanes y sin ellos, algunos en los que la mariposa habrá cambiado espontáneamente de especie y habrá reajustado todos sus átomos, y otros en los que el Sol habrá estallado a causa de que los átomos de su núcleo entraron por azar en reacción nuclear. Con todo, los dos grupos serán muy parecidos. En los universos en los que aleteó la mariposa y hubo huracanes, éstos eran, ciertamente, impredecibles, pero la mariposa no fue la causante de que se formaran, puesto que también hubo huracanes casi idénticos en universos donde todo era igual que en aquéllos, excepto que la mariposa no aleteó.

Quizás resulte conveniente hacer hincapié en la diferencia entre impredecibilidad e intratabilidad. La impredecibilidad no tiene relación alguna con los recursos calculatorios disponibles. Los sistemas clásicos son impredecibles (o lo serían, si existiesen), a causa de su sensibilidad a las condiciones iniciales. Los sistemas cuánticos carecen de sensibilidad, pero son impredecibles a causa de su distinto comportamiento en diferentes universos, por lo que parecen aleatorios en la mayoría de éstos. En ambos casos, ningún cálculo, por complejo que sea, podrá reducir la impredecibilidad. La intratabilidad, en cambio, es una consecuencia de los recursos calculatorios. Se refiere a una situación en la que podríamos formular la predicción si fuésemos capaces de realizar los cálculos adecuados, lo cual resulta imposible porque los recursos necesarios son impracticablemente grandes. Para distinguir con claridad los problemas de impredecibilidad de los de intratabilidad en mecánica cuántica debemos considerar sistemas cuánticos que sean, en principio, predecibles.

A menudo se presenta la teoría cuántica como si sólo pudiese hacer predicciones probabilísticas. Por ejemplo, en el experimento con la clase de interferencia formada por barrera perforada y pantalla, descrito en el capítulo 2, observamos que el fotón puede llegar a cualquier punto de la parte «luminosa» de la configuración de luces y sombras. Pero conviene tener presente que en muchos otros experimentos la teoría cuántica predice un único y definitivo desenlace. En otras palabras, predice que el experimento acabará teniendo el mismo resultado en todos los universos —aunque éstos difieran en los estadios intermedios de aquél— y, además, predice ese resultado. En tales casos, estamos observando fenómenos de interferencia no aleatoria. Tales fenómenos pueden ser demostrados con un interferómetro. Se trata de un instrumento óptico que consiste básicamente en un juego de espejos, algunos convencionales (figura 9.1) y otros semiazogados, como los utilizados en trucos de magia y comisarías de policía (figura 9.2). Cuando un fotón incide sobre la superficie de un espejo semiazogado, en la mitad de los universos rebota, igual que si fuera un espejo convencional, mientras que en la otra mitad lo atraviesa como si no existiera.

FIGURA 9.1. La acción de un espejo normal es la misma en todos los universos.

FIGURA 9.2. Un espejo semiazogado divide a los universos inicialmente idénticos en dos grupos iguales, que sólo difieren en la trayectoria seguida por el fotón único.

El fotón entra en el interferómetro por la parte superior izquierda, como muestra la figura 9.3. En todos los universos en que se realice el experimento, el fotón y sus contrapartidas viajan hacia el interferómetro por el mismo camino. Esos universos son, por lo tanto, idénticos.

FIGURA 9.3. Paso de un único fotón por un interferómetro. Las posiciones de los espejos (los normales aparecen en negro, y los semiazogados en gris) pueden ajustarse de modo que la interferencia entre dos versiones del fotón (en diferentes universos) haga que ambas sigan la misma trayectoria de salida a partir del espejo semiazogado inferior.

Pero tan pronto como el fotón incide sobre el espejo semiazogado los universos inicialmente idénticos empiezan a tener comportamientos diferentes. En la mitad de ellos el fotón cruza el espejo y sigue su camino por la parte superior del interferómetro. En cambio, en la mitad restante, el fotón rebota en el espejo y desciende hacia el extremo inferior izquierdo del aparato. En ambos grupos de universos las versiones del fotón rebotan después en los espejos normales situados, respectivamente, en los extremos superior derecho e inferior izquierdo del aparato, y llegan de forma simultánea al espejo semiazogado situado en el extremo inferior derecho, donde se interfieren mutuamente. Recordemos que hemos permitido la entrada de un único fotón en el aparato, por lo que sigue habiendo un solo fotón en cada universo. En todos los universos este fotón ha incidido ahora sobre el espejo del extremo inferior derecho. En la mitad de ellos lo ha hecho desde la izquierda, mientras que en el resto lo ha hecho desde arriba. Las versiones del fotón en estos dos grupos de universos se interfieren por completo. El resultado final dependerá de la geometría exacta de la situación; la figura 9.3 muestra el caso en que, en todos los universos, el fotón acaba encaminándose hacia la derecha a través del espejo; en ninguno de ellos es transmitido o reflejado hacia abajo. Todos los universos son, pues, idénticos al final del experimento, tal como lo eran al principio. Se diferenciaron y se interfirieron mutuamente sólo durante una pequeña fracción de segundo entre el principio y el final de la experiencia.

Este notable fenómeno de interferencia no aleatoria constituye una evidencia de la existencia del multiverso tan incuestionable como la extraña conformación de las sombras que hemos visto en el capítulo 2. Y es que el resultado que he descrito es incompatible con cualquiera de los dos caminos posibles que hubiese podido tomar una partícula de haber un solo universo. Si proyectamos un fotón hacia la derecha a lo largo del tramo inferior del interferómetro, por ejemplo, podría pasar a través del espejo semiazogado igual que hace el fotón en el experimento de interferencia, pero también podría ser que no: a veces sería desviado hacia abajo. Del mismo modo, un fotón proyectado hacia abajo a lo largo del tramo vertical derecho podría ser desviado hacia la derecha, como sucede en el experimento de interferencia, pero también podría seguir en línea recta. Así pues, cualquiera que sea el camino por el que introduzcamos un fotón dentro del aparato, su salida será aleatoria. Tan sólo cuando se produce la interferencia entre los dos caminos es predecible el resultado. En consecuencia, lo que se halla dentro del aparato justo antes del final del experimento de interferencia no puede ser un solo fotón que sigue un único camino (por ejemplo, un fotón que viaje por el tramo inferior). Tiene que haber algo más que le impide ser desviado hacia abajo. Por ende, tampoco puede haber un único fotón que descienda por el tramo de la derecha. Tiene que haber algo allí que le impide seguir en línea recta hacia abajo, como haría en ocasiones de hallarse solo. Al igual que con las sombras, podemos realizar experimentos adicionales que nos confirmarán que ese «algo más» tiene todas las propiedades de un fotón que viaja por el otro camino e interfiere con el fotón que vemos, pero con nada más de nuestro universo.

Puesto que únicamente hay dos clases de universos en ese experimento, el cálculo de lo que ocurrirá sólo requerirá, más o menos, el doble de tiempo que si la partícula obedeciese a las leyes clásicas; por ejemplo, si estuviésemos calculando el recorrido de una bola de billar. Un factor de dos difícilmente convertirá estos cálculos en intratables. Sin embargo, ya hemos visto que es fácil, hasta cierto punto, alcanzar una multiplicidad de grado muy superior. En los experimentos con sombras un único fotón atraviesa una barrera en la que hay algunos pequeños orificios y cae sobre una pantalla. Supongamos que la barrera tuviese mil orificios. Hay lugares de la pantalla donde el fotón puede caer (cae, en algunos universos) y otros en los que no puede caer. Para calcular si un punto dado de la pantalla puede llegar o no a recibir jamás un fotón, deberemos calcular los efectos de mutua interferencia de mil versiones del fotón en universas paralelos. De modo específico, deberemos calcular mil trayectorias desde la barrera hasta el punto dado de la pantalla y calcular después los efectos de cada fotón sobre los demás, para determinar si podrán o no alcanzar el punto dado de la pantalla. Deberemos, pues, realizar, aproximadamente, mil veces más cálculos que si estuviésemos investigando si una partícula clásica incidirá o no en el punto en cuestión.

La complejidad de esta clase de cálculos nos demuestra que en un entorno cuantomecánico sucede mucho más de lo que se ve. Y, utilizando el criterio de realidad del doctor Johnson en términos de complejidad calculatoria, hemos visto que esta propia complejidad es el motivo fundamental por el que carece de sentido negar la existencia del resto del multiverso. Pero pueden aparecer multiplicidades muy superiores cuando dos o más partículas que interactúan están involucradas en un fenómeno de interferencia. Supongamos que cada una de un par de partículas que interactúan tiene acceso a un millar de trayectorias disponibles. El par puede, pues, estar en un millón de estados distintos en cualquier estadio intermedio del experimento, de modo que es posible que haya un millón de universos que difieran en lo que el par de partículas esté haciendo en un momento determinado. Si las partículas en juego fuesen tres, el número de universos distintos sería de mil millones, de un billón para cuatro, y así sucesivamente. Por consiguiente, el número de historias que hay que calcular si queremos predecir lo que sucederá en tales casos aumenta de modo exponencial con el número de partículas que interactúan. Por esta razón, calcular el comportamiento de un sistema cuántico típico constituye una tarea realmente intratable.

Ésta es la intratabilidad con la que trabajó Feynman. Como podemos ver, no tiene nada que ver con la impredecibilidad; bien al contrario, se manifiesta con la máxima claridad en fenómenos cuánticos altamente predecibles. Ello se debe a que en estos fenómenos se da el mismo resultado final en todos los universos, pero dicho resultado es el producto de la interferencia entre multitud de universos, que son diferentes durante el transcurso del experimento. Todo ello es, en principio, predecible a partir de la teoría cuántica y no demasiado sensible a las condiciones iniciales. Lo que hace difícil predecir que el resultado de tales experimentos será siempre el mismo es la cantidad, extraordinariamente grande, de cálculos necesaria para ello.

La intratabilidad es, en principio, un impedimento mucho más grande para la universalidad de lo que podría llegar a ser nunca la impredecibilidad. Como ya he dicho, una representación perfectamente fiel de una ruleta no tiene por qué —mejor dicho, no debe— dar la misma secuencia de números que la real. Del mismo modo, no podemos preparar de antemano una representación en realidad virtual del tiempo que hará mañana. Pero sí podemos (o algún día podremos) realizar una representación del tiempo que, si bien no será idéntica a las condiciones climatológicas de un día concreto, será tan realista en su comportamiento que ningún usuario, por experto que sea, podrá distinguirla de la realidad. El mismo principio es de aplicación para todo entorno no sometido a los efectos de la interferencia cuántica (es decir, la mayoría de los entornos). Reproducir tales entornos en realidad virtual constituye una tarea calculatoria tratable. Sin embargo, todo indica que no es posible la representación práctica de entornos sometidos a los efectos de la interferencia cuántica. Sin realizar cálculos exponencialmente grandes, ¿cómo podremos estar seguros de que en tales casos nuestro entorno representado no hará cosas que el entorno real no haría absolutamente nunca a causa de algún fenómeno de interferencia?

Podría parecer lógico concluir que la realidad no presenta, después de todo, una genuina universalidad calculatoria, puesto que los fenómenos de interferencia no pueden ser representados de modo inútil. Feynman, sin embargo, sacó correctamente la conclusión contraria. En lugar de contemplar la intratabilidad de la tarea como un obstáculo, la tomó como una oportunidad. Si requiere tantos cálculos averiguar lo que sucederá en un experimento de interferencia, se dijo, el propio proceso de preparar el experimento y medir su resultado exigirá a su vez cálculos no menos complejos. Por consiguiente, razonó, después de todo, podría ser posible representar entornos cuánticos de manera eficiente, a condición de que el ordenador pudiera realizar experimentos en un objeto cuantomecánico real. El ordenador escogería qué mediciones tendría que hacer en un elemento auxiliar de hardware cuántico a medida que iba operando, e incorporaría los resultados de estas mediciones a sus cálculos.

El hardware cuántico auxiliar sería, de hecho, otro ordenador. Un interferómetro, por ejemplo, podría servir para ese fin y, al igual que cualquier otro objeto físico, ser concebido como un ordenador. Actualmente, lo denominaríamos ordenador cuántico de uso específico.

La «programaríamos» disponiendo los espejos según una determinada geometría, y luego proyectaríamos un solo fotón hacia el primer espejo. En un experimento de interferencia no aleatoria, el fotón siempre emergerá en una misma dirección, determinada por la disposición de los espejos, dirección que podríamos interpretar como indicadora del resultado del cálculo. En un experimento más complejo, con varias partículas en juego, el cálculo podría fácilmente volverse intratable, como ya hemos explicado. Pero, puesto que podemos obtener el resultado con facilidad, con sólo realizar el experimento, no resulta, después de todo, realmente intratable. Debemos, pues, ser más cuidadosos con la terminología. Es evidente que hay tareas calculatorias que resultan intratables si intentamos realizarlas con cualquier ordenador existente, pero que serían tratables si utilizáramos objetos cuantomecánicos, como ordenadores de uso específico. (Nótese que el hecho de que los fenómenos cuánticos puedan ser utilizados para realizar cálculos de este modo, depende de que no estén sujetos al caos. Si el resultado de los cálculos fuese una función inhabitualmente sensible al estado inicial, «programar» el dispositivo poniéndolo en el estado inicial adecuado podría ser imposible).

Utilizar un dispositivo auxiliar cuántico de este modo podría ser considerado hacer trampa, puesto que cualquier entorno resulta, obviamente, mucho más fácil de reproducir cuando se dispone de una copia extra sobre la que se pueden hacer mediciones durante la representación. No obstante, Feynman aventuró que quizás no sería necesario utilizar una copia literal del entorno que estuviera siendo reproducido, y que debía ser posible encontrar dispositivos auxiliares más fáciles de construir, pero cuyas propiedades de interferencia fueran análogas a las del entorno en cuestión. Un ordenador normal podría realizar entonces el resto de la representación trabajando a partir de la analogía entre el dispositivo auxiliar y el entorno final. Ello constituiría una tarea tratable, o, al menos, eso esperaba Feynman. Más aún, conjeturó —acertadamente— que todas las propiedades cuantomecánicas de cualquier entorno final podrían ser simuladas mediante dispositivos auxiliares de un tipo determinado, que especificó (en concreto, una disposición de átomos en movimiento que se interfieren mutuamente). Denominó simulador universal cuántico a cualquier dispositivo de esa clase.

Pero no se trataba de una única máquina, y, por lo tanto, no podía ser considerado un ordenador universal. Las interacciones a que se verían sometidos los átomos del simulador no podrían ser establecidas definitivamente, como en un ordenador universal, sino que deberían ser reajustadas para la simulación de cada entorno final. Y el principio de la universalidad reside en el hecho de que sea posible programar una misma máquina, especificada de una vez por todas, para realizar cualquier cálculo posible o reproducir cualquier entorno físicamente posible. En 1985 demostré que la física cuántica permite la existencia de un ordenador universal cuántico. La prueba fue bastante sencilla. Todo lo que tuve que hacer fue imitar las construcciones de Turing, pero utilizando la teoría cuántica en lugar de la mecánica clásica, que él asumía implícitamente, para definir la física en la que se basa. Un ordenador universal cuántico podría llevar a cabo cualquier cálculo que cualquier otro ordenador cuántico (o cualquier ordenador basado en el principio de Turing) pudiese realizar, y podría representar cualquier entorno finito físicamente posible en realidad virtual. Es más, se ha demostrado ya que el tiempo y los demás recursos que necesitaría para hacerlo no aumentarían de modo exponencial al hacerlo la dimensión o el detalle del entorno que se deseara reproducir, por lo que los cálculos relevantes serían tratables, según los estándares de la teoría de la complejidad.

La teoría clásica de la calculabilidad, que constituyó la base in-cuestionada de la informática durante medio siglo, ha quedado obsoleta, excepto como aproximación esquemática, al igual que el resto de la física clásica. La teoría de la calculabilidad es ahora la teoría cuántica de la calculabilidad. Dije que Turing había utilizado implícitamente la «mecánica clásica» en su construcción. Si miramos hacia atrás, podemos ver ahora que la teoría clásica de la calculabilidad ni siquiera se adaptaba por completo a la física clásica y presagiaba en muchos aspectos la teoría cuántica. No es casualidad que la palabra bit, que representa la mínima cantidad posible de información que un ordenador puede manipular, signifique esencialmente lo mismo que cuanto, es decir, cantidad discreta. Las variables discretas (variables que no pueden tener una sucesión continua de valores) son ajenas a la física clásica. Por ejemplo, si una variable tiene sólo dos valores posibles, digamos 0 o 1, ¿cómo va de uno a otro valor? (Ya formulé esta pregunta en el capítulo 2.) En la física clásica debería saltar de manera discontinua, lo que es incompatible con el modo en que las fuerzas y los movimientos se comportan en la mecánica clásica. En la física cuántica, en cambio, no es necesario ningún cambio discontinuo, incluso en el caso de que todas las cantidades mensurables sean discretas. Funciona del modo que expondré a continuación.

Para empezar, imaginemos un mazo de cartas colocado encima de una mesa: el mazo sería el multiverso, y las cartas dispuestas las unas sobre las otras, los universos paralelos. (Este modelo, en el que los universos forman una secuencia, subestima enormemente la complejidad del multiverso, pero resulta suficiente para ilustrar lo que deseo aclarar aquí). Alteremos ahora el modelo para tomar en consideración el hecho de que el multiverso no es un conjunto discreto de universos, sino un continuo, y que no todos los universos son distintos. De hecho, por cada universo presente también está presente un continuo de universos idénticos que comprende una proporción ciertamente minúscula, pero no nula, del multiverso. En nuestro modelo, esta proporción podría quedar expresada por el grueso de una carta, de modo que cada una de ellas representaría todos los grupos de universos de una determinada clase. No obstante, y a diferencia del grueso de una carta, la proporción de cada clase de universos cambia con el tiempo de acuerdo con las leyes cuantomecánicas del movimiento. En consecuencia, la proporción de universos con una determinada propiedad también cambia, y lo hace continuamente. En el caso de una variable discreta que cambie de 0 a 1, supongamos que la variable tiene el valor 0 en todos los universos antes de que se inicie el cambio y que, después de éste, tiene el valor 1 en todos ellos. Durante el cambio, la proporción de universos en los que el valor es 0 va descendiendo de manera uniforme del ciento por ciento hasta cero, mientras que la proporción en la que el valor es 1 aumenta de modo paralelo desde cero hasta el ciento por ciento. La figura 9.4 muestra un cambio así visto desde el multiverso.

FIGURA 9.4. Vista desde el multiverso de cómo cambia continuamente un bit de 0 a 1.

Parece desprenderse de la figura 9.4 que si bien la transición de 0 a 1 es objetivamente continua desde la perspectiva del multiverso, permanece subjetivamente discontinua desde el punto de vista de cualquier universo individual (que podríamos representar, por ejemplo, con una línea horizontal en la mitad de la parte superior de la figura 9.4). No obstante, se trata tan sólo de una limitación del diagrama, no es una característica real de lo que sucede. Si bien el diagrama parece sugerir que en cada instante hay un universo que «acaba de cambiar» de 0 a 1, puesto que ha «cruzado la frontera», la realidad es distinta. No podría ser de otro modo, puesto que el universo en cuestión es exactamente idéntico a todos aquellos en que el valor del bit es 1 en aquel momento, de modo que si los habitantes de uno de esos universos estuvieran experimentando un cambio discontinuo, también lo experimentarían los habitantes de todos los demás universos. Por consiguiente, ninguno de ellos puede tener esta experiencia. Nótese también que, como explicaré en el capítulo 11, la idea de que algo se mueva por el diagrama como en la figura 9.4, en la que ya está representado el tiempo, es, simplemente, una equivocación. En cada instante el bit tiene valor 1 en una determinada proporción de universos y 0 en otra. Todos esos universos, en todos esos tiempos, están ya representados en la figura 9.4 y no se mueven en absoluto.

Otra de las maneras en las que la física cuántica está implícita en la informática clásica consiste es que todas las aplicaciones prácticas de los ordenadores de la clase de Turing dependen de cosas como la materia sólida o los materiales magnetizados, que no podrían existir en ausencia de efectos cuantomecánicos. Por ejemplo, todo cuerpo sólido consiste en una disposición de átomos, compuestos a su vez por partículas con carga eléctrica (electrones y, en el núcleo, protones). Pero, según el caos clásico, ninguna disposición de partículas con carga eléctrica podría permanecer estable de acuerdo con las leyes clásicas del movimiento. Las partículas con carga positiva o negativa, simplemente, cambiarían de posición para colisionar entre sí, y la estructura se desintegraría. Tan sólo la intensa interferencia cuántica entre las diversas trayectorias seguidas por las partículas cargadas de universos paralelos impide semejantes catástrofes y hace posible la materia sólida.

La construcción de un ordenador universal cuántico está muy lejos de las posibilidades de la tecnología actual. Como he dicho, la detección de un fenómeno de interferencia requiere siempre que exista la adecuada interacción entre todas las variables que han sido distintas en los universos que contribuyen a la interferencia. Por consiguiente, cuantas más partículas interactuantes intervengan en el proceso, más difícil tenderá a ser el diseño de la interacción que ponga de manifiesto la interferencia, es decir, el resultado del cálculo. Entre las múltiples dificultades técnicas que implica trabajar al nivel de un solo átomo o un solo electrón, una de las principales es la de prevenir que el entorno se vea afectado porque los diferentes subcálculos se interfieran a su vez. Y es que si un grupo de átomos que experimenta un fenómeno de interferencia afecta de manera diferencial a otros átomos del entorno, la interferencia ya no podrá ser detectada únicamente mediante mediciones del grupo original y, en consecuencia, éste no realizará ya ningún cálculo cuántico de utilidad. Es lo que se conoce como discoherencia. Debo añadir que este problema se presenta a menudo erróneamente del modo inverso: se nos dice que «la interferencia cuántica es un proceso muy delicado, que debe ser protegido de toda influencia exterior». Es un error. Las influencias exteriores pueden provocar imperfecciones menores, pero es el efecto del cálculo cuántico sobre el mundo exterior lo que causa la discoherencia.

De ahí los esfuerzos por diseñar sistemas submicroscópicos en los que las variables portadoras de información puedan interactuar entre sí, pero afectando lo menos posible a su entorno. Otra simplificación novedosa, exclusiva de la teoría cuántica de la calculabilidad, disminuye parcialmente las dificultades provocadas por la discoherencia: resulta que, a diferencia de lo que ocurre en la calculabilidad clásica, cuando es necesario diseñar elementos específicos de la lógica clásica, tales como Y, O y NO, la forma precisa de las interacciones carece prácticamente de importancia en el caso cuántico. Virtualmente, cualquier sistema a escala atómica de bits interactuantes, a condición de que no fuera discoherente, serviría para realizar cálculos cuánticos útiles.

Se conocen fenómenos de interferencia que involucran vastos números de partículas, tales como la superconductividad o la superfluidez, pero no parece que ninguno de ellos pueda ser utilizado para realizar cálculos interesantes. En el momento de escribir este texto, en laboratorio sólo se pueden realizar con cierta facilidad cálculos cuánticos de un bit. Los investigadores, sin embargo, confían en que puedan conseguirse umbrales cuánticos (el equivalente cuántico de los elementos de la lógica clásica) de dos o más bits en los próximos años. Se trata de los componentes básicos de los ordenadores cuánticos. Algunos físicos, encabezados por Rolf Landauer, de IBM Research, se muestran pesimistas sobre las posibilidades de ulteriores avances. Creen que la discoherencia no podrá jamás ser reducida más allá de un nivel que tan sólo permitirá la ejecución de unos pocos pasos cuantocalculatorios consecutivos. La mayoría de los investigadores en este campo se muestran más optimistas, si bien ello quizás se deba a que tan sólo investigadores optimistas pueden escoger un campo como éste. Se han construido ya algunos ordenadores cuánticos de uso específico (véase más adelante) y, en mi opinión, los seguirán otros más complejos en cuestión de años, más que de décadas. Por lo que se refiere al ordenador cuántico universal, confío en que su construcción sea también únicamente cuestión de tiempo, si bien no me atrevo a vaticinar si éste serán décadas o siglos.

El hecho de que el repertorio del ordenador cuántico universal contenga entornos cuya reproducción es clásicamente intratable, implica que también deben de haberse convertido en tratables nuevas clases de cálculos puramente matemáticos, puesto que las leyes de la física están, como dijo Galileo, expresadas en lenguaje matemático, y reproducir un entorno equivale a evaluar determinadas funciones matemáticas. Y, ciertamente, se ha hallado que muchas tareas matemáticas que resultaban intratables por todos los métodos clásicos podrían ser realizadas con eficacia mediante el cálculo cuántico. La más espectacular es la de factorizar grandes números. El método, conocido como algoritmo de Shor, fue descubierto por Peter Shor, de los Laboratorios Bell. (Mientras este libro estaba en galeradas, han sido descubiertos otros algoritmos cuánticos, como el algoritmo de Grover, para la búsqueda rápida en grandes listados).

El algoritmo de Shor es extraordinariamente simple y requiere bastante menos hardware del que exigiría un ordenador universal cuántico. Parece probable, pues, que se pueda construir una máquina cuántica de factorización mucho antes de que toda la gama de cálculos cuánticos sea tecnológicamente factible. Ésta es una perspectiva de gran importancia para la criptografía (la ciencia que estudia los métodos para enviar y verificar la información de un modo seguro). Las redes de comunicación reales pueden ser globales y tener grandes y cambiantes números de participantes, por lo que las pautas de comunicación pueden resultar imprevisibles. Resulta impracticable que cada pareja de interlocutores intercambie, físicamente y por adelantado, claves criptográficas secretas que les permitan tener la seguridad de comunicarse sin temor a los intrusos. La criptografía de clave pública ha sido introducida con este objeto, y se basa en métodos de codificación y descodificación cuyos usuarios no necesitan una información secreta para comunicarse sin peligro. El método más seguro conocido de criptografía de clave pública se basa en la intratabilidad del problema de factorizar grandes números. Se conoce como criptosistema RSA, en honor de Ronald Rivest, Adi Shamir y Leonard Adelman, quienes lo idearon en 1978, y se basa en un procedimiento matemático por el que se codifica el mensaje utilizando un número grande (por ejemplo, de 250 dígitos) como clave. El destinatario podrá hacer pública tranquilamente esta clave, puesto que cualquier mensaje codificado con ella sólo podrá ser descodificado mediante el conocimiento de los factores del número. Podemos así escoger dos números primos de 125 dígitos y mantenerlos secretos, pero multiplicarlos y hacer público el resultado de 250 dígitos. Cualquiera podrá enviar un mensaje con esta clave, pero sólo quien conozca los factores secretos podrá descifrarlo.

Como he dicho, no existen perspectivas prácticas de factorizar números de 250 dígitos por medios clásicos, pero una máquina cuántica de factorización que utilizara el algoritmo de Shor sería capaz de hacerlo con tan sólo unos pocos miles de operaciones aritméticas, que podrían muy bien durar unos minutos. De este modo, cualquiera que tuviese acceso a una máquina así podría fácilmente leer cualquier mensaje interceptado que hubiese sido codificado utilizando el criptosistema RSA.

De poco les serviría a los criptógrafos seleccionar números grandes como claves, puesto que los recursos requeridos por el algoritmo de Shor sólo aumentan ligeramente con el tamaño del número que se ha de factorizar. En la teoría cuántica de la calculabilidad, la factorización es una tarea muy tratable. Se cree que, en presencia de un determinado nivel de discoherencia, habría de nuevo un límite práctico para el tamaño máximo del número que se podría factorizar, pero no se conoce un límite mínimo para el grado de discoherencia que pueda ser alcanzable tecnológicamente. Podemos, pues, concluir que, en el futuro, el criptosistema RSA, cualquiera que sea la longitud de su clave, resultará inseguro. En cierto sentido, ello hace que sea inseguro incluso en la actualidad, puesto que cualquier persona u organización que intercepte un mensaje en criptosistema RSA y espere hasta que le sea posible adquirir una máquina cuántica de factorización con una discoherencia lo suficientemente baja, podrá descifrarlo. Esto quizás tarde siglos en ocurrir, o quizás décadas, o quizás menos, ¿quién sabe? Pero la verosimilitud de que sea un tiempo más bien largo es lo único que queda de la seguridad antaño total del criptosistema RSA.

Cuando una máquina cuántica de factorización está trabajando con un número de 250 dígitos, la cantidad de universos que se interfieren será del orden de 10500. Este número abrumadoramente grande es la razón por la que el algoritmo de Shor hace tratable la factorización. Ya dije que el algoritmo requiere tan sólo unos cuantos miles de operaciones aritméticas. Con ello me refería, por supuesto, a unos cuantos miles de operaciones aritméticas para cada universo que contribuya a la respuesta. Todos estos cálculos tienen lugar en paralelo en los distintos universos y comparten sus resultados mediante la interferencia.

Quizás se estén preguntando cómo podemos persuadir a nuestras contrapartidas en unos 10500 universos para que se pongan a trabajar en nuestra tarea de factorización. ¿No tendrán ya sus propios planes para la utilización de sus ordenadores? Afortunadamente, no será necesaria ninguna persuasión. El algoritmo de Shor opera al principio tan sólo en un conjunto de universos idénticos entre sí, y sólo causa su diferenciación dentro de los confines de la máquina de factorización. Así pues, nosotros, que somos quienes especificamos el número que se ha de factorizar y quienes esperamos que se calcule la respuesta, somos idénticos en todos los universos. Hay, sin duda, muchos otros universos en los que hemos programado diferentes números o en los que jamás hemos construido la máquina de factorizar. Pero esos universos difieren del nuestro en demasiadas variables —o, más precisamente, en variables que no están hechas para interactuar del modo adecuado con la programación del algoritmo de Shor— y, en consecuencia, no interfieren con el nuestro.

El argumento del capítulo 2, aplicado a cualquier fenómeno de interferencia, rebate la idea clásica de que existe un único universo. Lógicamente, la posibilidad de cálculos cuánticos complejos no añade nada nuevo a un caso de por sí ya incuestionable, pero lo que sí le proporciona es impacto psicológico. Gracias al algoritmo de Shor, el argumento se ha visto considerablemente fortalecido. A aquellos que aún se aferran a la idea de un solo universo, les planteo la siguiente cuestión: explíquenme cómo funciona el algoritmo de Shor. No me refiero a predecir, simplemente, que funcionará, que no es más que una mera cuestión de resolver algunas ecuaciones incontrovertibles. Me refiero a proporcionar una explicación. Mientras el algoritmo de Shor factorizaba un número utilizando unas 10500 veces los recursos calculatorios cuya presencia es evidente, ¿dónde estaba el número factorizado? Hay tan sólo unos 1080 átomos en todo el universo visible, cantidad realmente minúscula en comparación con 10500, así que, si el universo visible constituyese toda la extensión de la realidad física, ésta no podría ni remotamente contener los recursos necesarios para factorizar un número tan grande. ¿Quién lo ha factorizado, entonces? ¿Cómo, y dónde, tuvo lugar el cálculo?

He considerado clases tradicionales de tareas matemáticas que los ordenadores cuánticos estarían en condiciones de desarrollar con mayor rapidez que las máquinas actuales. Pero existe una clase adicional de nuevas tareas, accesible a los ordenadores cuánticos, que ningún ordenador clásico podría realizar jamás. Por una extraña coincidencia, una de las primeras en descubrirse de esas tareas concierne también a la criptografía de clave pública. En esta ocasión no se trata de descifrar un sistema existente, sino de aplicar un sistema nuevo y absolutamente seguro de criptografía cuántica. En 1989, en la oficina del teórico Charles Bennett, de IBM Research, fue construido el primer ordenador cuántico operativo. Se trataba de un ordenador cuántico de uso específico, consistente en un par de dispositivos criptográficos cuánticos diseñados por el propio Bennett y por Gilíes Brassard, de la Universidad de Montreal. Era la primera máquina capaz de llevar a cabo cálculos no triviales que ninguna máquina de Turing podría realizar.

En el criptosistema cuántico de Bennett y Brassard los mensajes son codificados en los estados de fotones individuales emitidos por un láser. Si bien son necesarios muchos fotones para transmitir un mensaje (uno por cada bit, más muchos otros malogrados en múltiples interferencias), las máquinas pueden ser construidas con la tecnología existente, puesto que sólo necesitan realizar sus cálculos cuánticos con un fotón a la vez. La seguridad del sistema no se basa ya en la intratabilidad, bien clásica o cuántica, sino directamente en las propiedades de la interferencia cuántica, y esto es lo que le otorga una absoluta seguridad, inalcanzable con la física clásica. Por muchos cálculos que realizara, con cualquier clase de ordenador, incluso durante billones de años, un intruso que hubiese interceptado un mensaje cuantocodificado, no podría descifrarlo, puesto que cuando la comunicación se establece a través de un medio que presenta interferencia, toda intrusión será detectada. Según la física clásica, nada puede impedir a un intruso con acceso físico a un medio de comunicación, como una línea de teléfono, instalar un dispositivo pasivo de escucha. Pero, como he explicado, cuando se efectúa una medición mediante un sistema cuántico, se alteran automáticamente sus subsiguientes propiedades de interferencia. El plan de comunicación del sistema se basa en este efecto. Las partes que establecen la comunicación activan una serie de experimentos de interferencia y los coordinan en un canal de comunicación que por lo demás es público. Sólo si la interferencia supera la prueba de que no ha habido intrusión pasarán a la segunda etapa del plan, consistente en utilizar parte de la información transmitida como clave criptográfica. En el peor de los casos, un intruso persistente podría impedir que tuviese lugar la comunicación (cosa mucho más fácil de conseguir, por supuesto, cortando la línea telefónica), pero, por lo que concierne a leer el mensaje, tan sólo lo podrá hacer el destinatario, y ello lo garantizan las leyes de la física.

Como la criptografía cuántica se basa en la manipulación de fotones individuales, presenta una importante limitación. Los fotones que transportan el mensaje (uno por bit) deben llegar intactos del emisor al receptor. Pero todos los sistemas de transmisión conllevan pérdidas, y, si éstas son demasiado importantes, el mensaje no llegará a su destino. La instalación de repetidores (remedio para este problema en los sistemas de comunicación actuales) comprometería la seguridad, puesto que el intruso podría, sin ser detectado, interceptar los mensajes en algún repetidor. Los mejores sistemas cuantocriptográficos existentes utilizan fibra óptica y tienen un alcance de unos diez kilómetros. Eso bastaría para dotar al distrito financiero de una ciudad, por ejemplo, de un sistema absolutamente seguro de comunicación interna. Puede que no esté lejos la comercialización de sistemas así, pero, para resolver el problema de la criptografía de clave pública en general —por ejemplo, para comunicaciones globales—, serán necesarios nuevos avances en la criptografía cuántica.

La investigación experimental y teorética en el campo del cálculo cuántico se está acelerando en todo el mundo. Han sido propuestas nuevas tecnologías, aún más prometedoras, para la construcción de ordenadores cuánticos, y continuamente se descubren y analizan nuevos tipos de cálculo cuántico que presentan diversas ventajas sobre el cálculo clásico. Todos estos avances me parecen muy prometedores, y creo que algunos de ellos tendrán frutos tecnológicos. Pero, en lo que concierne a este libro, eso no es más que una cuestión accesoria. Desde una postura que considera los principios fundamentales, importa poco lo útil que el cálculo cuántico pueda llegar a ser, o si el primer ordenador cuántico universal se construirá la semana que viene, dentro de varios siglos o nunca. La teoría cuántica de la calculabilidad debe, en cualquier caso, ser parte integrante de la concepción del mundo de cualquiera que busque una comprensión básica de la realidad. Podemos descubrir (y, de hecho, lo estamos descubriendo), estudiándolos teoréticamente, lo que los ordenadores cuánticos tienen que decirnos sobre las conexiones entre las leyes de la física, la universalidad y diversas vías a primera vista no relacionadas de explicación de la estructura de la realidad.