La información es, en la actualidad, un bien de consumo, igual que el metal o el petróleo, y un servicio público similar al agua o la electricidad. Los políticos, los expertos en bolsa, los analistas, los sociólogos y, sin ir más lejos, cualquiera de nosotros hemos afirmado alguna vez que algo era un signo de la «era de la información» en la que vivimos. Aunque casi nadie sabe en realidad en qué consiste esa era de la información, hay signos de ella por todas partes: trituradores de basura llenos de faxes, correos electrónicos emitidos desde un avión y teléfonos móviles hasta en las playas nudistas.

Es opinable el hecho de si ahora tenemos muchas más cosas que decirnos los unos a los otros, ya que no es la información en sí lo que caracteriza esta era de la información. La marca de esta revolucionaria etapa es más bien la extraordinaria posibilidad de conectamos con otros o de acceder a ordenadores desde virtualmente cualquier parte. Hace cincuenta años sólo disponíamos del teléfono y de las estaciones inalámbricas. Hoy existen ordenadores conectados a una red global (Internet), teléfonos móviles digitales y cables de fibra óptica. Hasta los productos de entretenimiento han cambiado de manera radical. Hemos pasado de los vinilos de 78 rpm al videodisco digital y de la vieja Brownie a las cámaras digitales que hoy abarrotan los estantes de las tiendas.

Todo lo anterior apunta hacia los enormes progresos registrados en las tecnologías asociadas a la transmisión de información. Pero ¿qué es la información? ¿Qué es lo que dificulta su transmisión? ¿Por qué todos esos progresos han requerido masivas inversiones industriales? ¿Por qué el término digital (que significa que algo está representado mediante símbolos separados, tales como los números) aparece tan a menudo en los nombres de esas tecnologías?

Mi objetivo no es proporcionar una descripción detallada de cómo funcionan las tecnologías citadas, sino reivindicar a un héroe de la era de la información, un hombre sin cuya aguda intuición no hubieran sido posibles muchas de ellas. Claude Shannon fue a la vez matemático e ingeniero y conjugó ambas disciplinas de una forma que hizo cambiar el mundo para siempre.

El nombre de Shannon está unido a dos ecuaciones que constituyen la base de la teoría de la información. Su formulación intimida un poco:

I = −p log2p

y

C = W log2 (1 + S/N)

La primera de ellas nos dice que la cantidad de información contenida en un mensaje dado puede ser representada como una magnitud denominada /, cuya unidad de medida es el bit. Aunque los bits y el término digital aparezcan a menudo en esas descripciones, ambas ecuaciones son continuas —no digitales—, lo cual significa que son aplicables tanto a las tradicionales líneas telefónicas analógicas como a sus versiones modernas digitales. La primera ecuación establece que la cantidad de información I depende del nivel de sorpresa que encierra el mensaje. Matemáticamente, el modo de expresar esa sorpresa es la probabilidad p; cuanto menos probable sea un suceso, más inesperado será y, por lo tanto, más información aportará. Veremos más tarde de dónde viene ese log2. Baste decir por ahora que, sin esa ecuación, el mundo carecería de una unidad de medida fundamental, tan importante como el galón, el litro, el watio o el kilómetro.

La segunda de las ecuaciones de Shannon es un indicador de la calidad de un medio de transmisión, como una línea telefónica o el cable de antena de un televisor. Nos dice que C (en bits por segundo), la cantidad de información que puede ser transmitida a través de una línea u otro medio, depende básicamente de dos factores: W, el ancho de banda (la gama de frecuencias que puede pasar a través de él) y S/N, la relación señal/ruido. Tenemos cierta noción de esto último cuando, en medio de una fiesta, no nos queda más remedio que gritar (o sea, incrementar S, la señal, para superar el ruido, N). También debemos elevar la voz cuando hablamos con alguien con sordera parcial (alguien cuyo W es limitado). Usando una analogía con el consumo de combustible, C (en bits por segundo) es un factor de calidad de la misma manera que los kilómetros por litro lo es para el motor de un vehículo. Se trata de leyes muy generales: son válidas tanto para una simple conexión telefónica que transmite señales de voz convertidas en voltajes eléctricos como para la televisión de alta definición, en la que las imágenes se transforman en cadenas de números.

El pensamiento y la obra de Shannon trascienden las ecuaciones mismas: éstas son meramente los símbolos que resumen una percepción excepcional de la naturaleza y del empleo de la información.

El propio anonimato de Shannon es una evidencia de su éxito. Todo usuario habitual de Internet se limita a sentarse ante el ordenador, encenderlo y esperar a que el texto y las imágenes aparezcan en pantalla. Supongamos que mi amiga Jill ha prometido enviarme su último autorretrato digital. Pinchará sobre la foto en su ordenador, la adjuntará a un mensaje de correo electrónico y, finalmente, pulsará (de manera virtual) el botón de enviar. Ahora bien, ¿cómo están interconectados nuestros ordenadores? Si es a través de la línea telefónica convencional, tendría que esperar más de treinta minutos para que la imagen de Jill apareciera en la pantalla. Aunque las demoras de Internet se nos hagan interminables, el hecho de que una transmisión así dure tan sólo minuto y medio, como mucho, se debe a los descubrimientos de Shannon. Incluso el que hayamos estimado a priori esos treinta minutos a partir de nuestros datos sobre las líneas telefónicas, lo debemos a que Shannon nos enseñó a evaluar tanto la imagen como la línea con el fin de hacer pasar la una a través de la otra de la mejor manera posible. Han sido los desarrollos realizados a partir de esos cálculos los que permiten hoy que intercambiemos a través de la red las imágenes de nuestros seres queridos.

Internet es un sistema de interconexiones entre cientos de millones de ordenadores esparcidos por todo el mundo. Suministra información a nuestros ordenadores de una forma similar a como el grifo llena de agua la bañera. Al igual que compramos tuberías de media o un tercio de pulgada para nuestro cuarto de baño, adquirimos el enlace a Internet más adecuado para nuestro ordenador. Nuestros cálculos basados en las ideas de Shannon nos dicen que las líneas telefónicas convencionales no tienen suficiente capacidad para manejar la gran cantidad de información contenida, por ejemplo, en una fotografía. Dejando para más adelante la cuestión del bit y en qué consiste, esa capacidad se mide en bits por segundo; cuanto mayor sea el valor, más deprisa se llenará de información nuestro ordenador. La foto de Jill contiene, digamos, veinte millones de esos bits y una línea telefónica tiene una capacidad de diez mil bits por segundo.[93]

200.000/10.000 segundos = 2.000 segundos = 33,3 minutos

Y, a pesar de todo, lo que conecta nuestro ordenador a Internet no es sino una línea telefónica. Imaginemos un mundo en el que no pudiésemos medir los litros de agua que consumimos o los kilowatios de electricidad suministrados por la compañía local. Ése hubiera sido el mundo de la información sin la aportación de Shannon: un mundo sin bits. Shannon nos proporcionó la unidad de medida de la información, pero también puso los cimientos de la teoría de la información misma, algo que todo aquel que diseña una red de comunicaciones necesita conocer.

Shannon nació en Gay lord, Michigan, en 1916. Hijo de un hombre de negocios y una maestra de escuela, pronto demostró una notable aptitud para la ingeniería y las matemáticas. Como a muchos jóvenes de su tiempo, le encantaba cacharrear con la radio, la tecnología más novedosa en la época. Llegó incluso a ganar algún dinero reparando aparatos de radio para una tienda local.

Cuando tenía dieciséis años, ingresó en la Universidad de Michigan para estudiar matemáticas e ingeniería. Cuatro años más tarde era investigador ayudante en el Instituto Tecnológico de Massachusetts (MIT) en Cambridge, donde trabajó en los primeros proyectos de ordenadores con el carismático Vannevar Bush, un personaje que se convertiría en el asesor científico del presidente Roosevelt y, según muchos, en uno de los fundadores de Internet.

Cuando Shannon llegó al MIT, poco antes de estallar la segunda guerra mundial, los ordenadores apenas existían todavía. El término ordenador se empleaba raramente; las máquinas de cálculo eran dispositivos en su mayor parte mecánicos, llenos de engranajes, muelles y similares. Algunos laboratorios trataban de implementar máquinas electrónicas o dispositivos mixtos electromecánicos. Vannevar Bush era uno de los pocos que confiaban en materializar el sueño de Charles Babbage, enunciado un siglo antes, de una máquina que liberara al ser humano del penoso trabajo de hacer cálculos repetitivos, algo que en aquel entonces había sido considerado una fantasía. Sin embargo, tanto Bush como, después, John von Neumann —el abuelo del concepto actual de ordenador y una de las mentes más preclaras de Princeton, según Einstein— eran estrategas muy apreciados por las agencias gubernamentales de Estados Unidos, por lo que lograron convencer al gobierno de la importancia de la computación mecanizada y obtener fondos para los primeros desarrollos. Sin Bush y sin Von Neumann, los ordenadores electrónicos no hubieran alcanzado el grado de avance que presentan hoy.

En lamentable contraste, cuando el pionero británico de los ordenadores Maurice Wilkes trató, a finales de los años cuarenta, de obtener financiación en el Reino Unido para construir una máquina computadora, obtuvo una desabrida respuesta de lo que entonces era el Departamento de Investigación Industrial y Científica. Los burócratas llegaron a sugerir que, si Wilkes y sus colegas se sentaban con unas cuantas calculadoras mecánicas, podrían resolver todos los problemas computacionales del mundo sin necesidad de construir una fantástica máquina computadora.

Así pues, Shannon tuvo la suerte de estar al lado de un gran visionario, algo que contribuyó, sin duda, a su valentía a la hora de enfrentarse a ambiciosos retos de ingeniería. Pero el MIT era ya entonces, igual que ahora, un lugar caro incluso para quien dispusiera de una beca que cubriese la matrícula. Vannevar había inventado un dispositivo de cálculo denominado «analizador diferencial» (AD). La máquina almacenaba números en cilindros dentados giratorios, de un aspecto parecido al de los tambores de un cuentakilómetros mecánico. Para ayudar al joven Shannon a ganar algunos dólares, Bush le ofreció trabajar a tiempo parcial en el AD, cosa que el primero aceptó gustosamente. El AD era el sueño de un experimentalista: una enorme colección de cilindros giratorios, engranajes e interruptores eléctricos. Su principal cometido era encontrar soluciones de ecuaciones matemáticas, las cuales se introducían interconectando apropiadamente las partes del dispositivo. La respuesta aparecía en el mecanismo tipo cuentakilómetros. Podía llevar días enteros ajustar la máquina para trabajar en un único problema y había que desmantelarla y repetir el proceso para abordar el siguiente. De este modo, Shannon se convirtió en uno de los primeros programadores de la historia, encargado de preparar el AD para satisfacer las necesidades de diversos científicos.

Fueron años de formación para el joven Shannon, en los que se haría consciente de la necesidad de entender las dos principales facetas de la información. En primer lugar, los cálculos del AD generaban una cantidad de información y, en segundo lugar, en los indicadores de salida existía una velocidad límite a la hora de presentar la información calculada. Cantidad de información y velocidad de transmisión iban a ser los pilares de la teoría de la información de Shannon y las dos magnitudes en juego en sus famosas ecuaciones.

Otro importante factor que ejerció influencia en Shannon fue su fascinación por los conmutadores eléctricos y los complejos sistemas para encaminar la electricidad que podían ser construidos con sólo un puñado de dichos conmutadores (pensemos simplemente en las combinaciones en el encendido y apagado de una luz a que dan lugar dos conmutadores situados en una habitación). Había estudiado las leyes de la lógica establecidas un siglo antes por el británico George Boole, quien en el Queen’s College de Cork las había presentado como «las leyes del pensamiento». Por ejemplo, si afirmamos «Alvin y Bob no estaban juntos en la fiesta», es lo mismo que decir «O Alvin no estaba en la fiesta o Bob no estaba en la fiesta». Boole propuso una notación (conocida hoy como álgebra de Boole) en la que las afirmaciones de arriba pueden ser convertidas en una regla que siempre es cierta:

No (A y B) = (No A) o (No B)

donde A y B son proposiciones que pueden ser verdaderas o falsas. El álgebra booleana posee muchas reglas de este tipo.

Hemos mencionado lo anterior porque los conmutadores constituyen la base tanto del direccionamiento como del almacenamiento de la información, y porque para Shannon fue el punto de partida de un atrevido salto conceptual. Un conmutador cerrado es como una proposición verdadera en lógica y un conmutador abierto, como una proposición falsa. De este modo, si A y B fuesen conmutadores en vez de proposiciones, el álgebra booleana sería aplicable al modo en que se puede conmutar una red para interconectar comunicadores y los conmutadores podrían ser organizados de forma que almacenasen mensajes. De hecho, hoy día la conmutación masiva que tiene lugar en el interior de un ordenador se diseña o analiza mediante el álgebra de Boole. Antes de concluir su primer año en el MIT, Shannon había escrito su tesis magistral sobre la aplicación del álgebra booleana a los circuitos de conmutación, un artículo publicado en 1938 y titulado «Análisis simbólico de los circuitos de retransmisión y conmutación». El artículo se convertiría en un clásico de la literatura sobre ordenadores y el álgebra booleana, en materia regular de estudio del primer año de ingeniería como método estándar de diseño de circuitos, tanto en ordenadores como en sistemas de telecomunicación. Toda una hazaña para un estudiante de veintidós años, al que impulsaba su deseo de conjugar la naturaleza de la conmutación con la naturaleza de la información para comprender los límites en la velocidad de transmisión de esta última entre dos puntos geográficos.

Shannon dejó el MIT en 1940 con un título de ingeniero y otro de doctor en matemáticas bajo el brazo. En la actualidad, el MIT festeja el hecho mediante un Shannon Day anual, en el que se analizan los últimos avances en telecomunicaciones. Tras pasar un año en el prestigioso Instituto de Estudios Avanzados de Princeton, Shannon ingresó en la más importante entidad de investigación industrial de Estados Unidos: los Laboratorios de la Bell Telephone en Murray Hill, Nueva Jersey: los famosos Bell Labs. Allí, animado por sus colegas, publicó en 1948 sus informes internos sobre una teoría estadística de la comunicación. Se trataba de la celebrada «Teoría matemática de la comunicación». A modo de ejemplo de la lógica que condujo a Shannon a cuantificar la comunicación, en 1950 escribió el primer programa jugador de ajedrez de la historia, el cual incorporaba un astuto método para reducir el número de posiciones que la máquina debía analizar para encontrar la jugada óptima. Este algoritmo fue utilizado en la programación del Deep Blue de IBM que batió al gran maestro Gary Kasparov en 1997 (la primera vez que un campeón mundial era vencido por una máquina).

Hacia 1957, Shannon era considerado uno de los más importantes científicos estadounidenses. La revista Time lo incluía entre los nueve líderes de la ciencia estadounidense en un artículo especial, publicado seis semanas después de que la Unión Soviética lanzara con éxito el primer satélite artificial, el Sputnik, hecho que había llevado a temer que Estados Unidos quedara detrás de sus rivales en la guerra fría. Por ese artículo sabemos que Shannon era aficionado al jazz y amante de la ciencia ficción y que «como muchos científicos, prefería trabajar por la noche, con el café y los cigarrillos a mano».

En las películas sobre la segunda guerra mundial, como The Cruel Sea (El mar cruel), el radiotelegrafista acciona el manipulador Morse —di-di-di, da-da-da, di-di-di— para enviar al mundo a través del radiotransmisor un SOS, la señal de que el barco tiene problemas y puede que sean los últimos minutos que permanezca a flote. Pero ¿por qué el operador no toma un micrófono y, de viva voz y usando el mismo radiotransmisor, le explica a quien pueda oírle lo que está pasando? La respuesta es que ese simple patrón de dis y das tiene muchas más probabilidades de atravesar la crepitación y el siseo del radiotransmisor que la palabra hablada, cuyos variadísimos y sutiles tonos se perderían entre lo que los ingenieros denominan ruido electrónico. Es más fácil ver a lo lejos una débil luz que apreciar a la misma distancia los detalles de una fotografía. Una linterna que se enciende y se apaga siguiendo el código adecuado puede ser más expresiva que una fotografía con pobre visibilidad. Pero estas vagas nociones necesitan una teoría, y ésa fue la teoría en la que Shannon trabajó durante sus primeros años en los Bell Labs.

Todos los sistemas de comunicación son susceptibles al ruido: suena como una especie de chisporroteo en un teléfono y se ve como si fuera nieve en la pantalla del televisor. El ruido distorsiona de manera impredecible la información que el emisor trata de hacer llegar al receptor. Puede llegar a hacer incluso que la información recibida sea ininteligible y, por lo tanto, inútil. Existe otra limitación, algo que los especialistas denominan ancho de banda. La mayoría de los aficionados a la alta fidelidad conocen el término. Suelen preguntar en primer lugar cuál es la respuesta en graves —es decir, cuál es la frecuencia más baja (el profundo sonido de la tuba) que el equipo es capaz de reproducir— y, a continuación, cuál es la respuesta en agudos o altas frecuencias (las notas más agudas del violín). Restando el límite inferior (digamos, 25 ciclos por segundo, o sea, 25 hertzios) del superior (pongamos, 5.000 hertzios) obtenemos el ancho de banda del equipo (4.975 hertzios en nuestro ejemplo). En otras palabras, un mal equipo con poco ancho de banda no permitirá que el oyente disfrute en su totalidad de los matices de una orquesta sinfónica. En términos técnicos, al igual que el ruido, el ancho de banda hace que la información recibida sea, de alguna manera, menos que la información transmitida. Toda comunicación entre un transmisor y un receptor viene caracterizada por cierto valor de ancho de banda, y Shannon deseaba predecir con exactitud y mediante cálculo la magnitud de esa pérdida de información.

Shannon resumió la situación de un modo que se convirtió en la base de la propia teoría de la información. En su planteamiento, todo enlace entre la fuente de información y el destino de sus mensajes consta de cinco elementos fundamentales. En primer lugar, está la fuente en sí. En el caso de alguien que desea transmitir una imagen digital a través de Internet, la fuente es un ordenador en el que esta imagen se halla almacenada en forma de veinte millones de estados 0 o 1 (bits) de una memoria.

El segundo elemento es un codificador, entendiendo como tal el conjunto de dispositivos que preparan la imagen para que sea transmitida en un tiempo razonable a través, por ejemplo, de una línea telefónica de bajo ancho de banda. Como primer paso en la codificación, un moderno ordenador dispone de un programa que comprime la imagen. Esta reside en la memoria de la máquina como una secuencia de números, cada uno de los cuales representa el color y la luminosidad de un punto de esa imagen. La compresión elimina las redundancias de esa secuencia de números.[94] La siguiente fase de la codificación consiste en transformar los números que representan la imagen en tonos que puedan ser transmitidos por la línea telefónica. Este proceso recibe el nombre de modulación y es necesario debido a que el canal telefónico está diseñado para transportar señales audibles, es decir, la voz humana. La mayoría de los teléfonos disponen hoy del «marcado por tonos», en el que al pulsar cada tecla se emite un tono identificativo del número. Se trata de un ejemplo de modulación.

El tercer elemento de un sistema de comunicación es el propio cable telefónico, con su ruido y su ancho de banda restringido.

El cuarto es un decodificador, que devuelve la información recibida a un estado lo más próximo posible al de la transmitida. En el caso de una imagen, el decodificador convierte los tonos otra vez en números y reinterpreta éstos de forma que el quinto elemento del sistema, el receptor —la pantalla del ordenador en nuestro ejemplo—, pueda reconstruir la imagen. Todo aquel que haya comprado un módem para su ordenador, ha adquirido en realidad un dispositivo que contiene tanto un codificador (modulador) como un decodificador (demodulador).

Aunque lo anterior se trate de una tosca imagen de un sistema de comunicaciones, merece la pena intentar construir un boceto de teoría que lo explique y analizar los efectos de las ecuaciones resultantes.

En primer lugar, necesitamos una unidad de medida.[95] Ya sabemos que la información se mide en bits, cada uno de los cuales puede tener dos valores: 0 y 1. El bit (acrónimo del término inglés «binary unit», unidad binaria) fue una de las propuestas clave de Shannon. Volvamos atrás y veamos el porqué de su importancia.

Supongamos que Jill quiere transmitir su autorretrato y, además, una foto de su padre, otra de su madre y otra de cada uno de sus dos hermanos, más una foto del perro, otra del gato y otra de la casa familiar: ocho imágenes en total. El novio de Jill las ha almacenado una única vez en su ordenador. Tras numerarlas del 1 al 8, si ella desea hacerle ver una de esas imágenes, lo único que necesita es transmitirle el número apropiado. El ordenador se limita a presentar en pantalla la imagen sin que la foto en sí tenga que ser transmitida. Ahora bien, un bit puede representar dos números: 0 y 1. Con dos bits, obtenemos cuatro (00, 01, 10 y 11). Tres bits representan ocho (000, 001, 010, 011, 100, 101, 110 y 111). He aquí uno de los principales hallazgos de Shannon: la información es proporcional a lo que desconocemos. Cuando el novio de Jill no tenía información sobre esas fotos, necesitaba veinte millones de bits para describir cada una de ellas. Una vez almacenadas, basta con tres bits para referirse a cualquiera. Éste es el modo en el que la probabilidad se cuela en la primera de las ecuaciones de Shannon: a priori, y suponiendo que nunca antes hubiera visto a su novia, la probabilidad de imaginar su aspecto físico con exactitud sería bajísima. Cuanto más inesperado sea un suceso, más información aporta su ocurrencia. La primera ecuación de Shannon relaciona la información con el «logaritmo en base 2» (log2) de la probabilidad. Esta aparentemente extraña jerga no es, sin embargo, difícil de comprender. Tomando algunos ejemplos sencillos, el logaritmo en base 2 de 8 (2 × 2 × 2, o sea, 23) vale 3; el de 16 (2 × 2 × 2 × 2, o sea, 24) vale 4; el de 32 (2 × 2 × 2 × 2 × 2, o sea, 25) vale 5. Es decir, el logaritmo en base 2 de un número es, simplemente, el exponente al que hay que elevar 2 para obtener dicho número. Si acudimos de nuevo a la ecuación:

I = −p log2p (medida en bits, por las razones que veremos)

observamos que dice: «La cantidad de información involucrada en el conocimiento de un suceso depende de la probabilidad p de que este suceso ocurra». El concepto nos conduce inexorablemente a la definición del bit. Si lanzamos una moneda al aire, el resultado será uno de estos dos sucesos: cara o cruz. Cada suceso tiene una probabilidad de que ocurra; en este caso y si la moneda no está trucada, la probabilidad de cualquiera de ellos es de la mitad. Para obtener la información total asociada al suceso de arrojar la moneda al aire, sumamos el contenido en información de cada una de las posibilidades:

I = [−(1/2) log2 (1/2)] + [−(1/2) log2 (1/2)]

El resultado es exactamente 1. No es casualidad y para un matemático está claro por qué Shannon utilizó el log2 en la ecuación. La unidad de información, el bit, está asociada a un interruptor encendido o apagado, a un número 0 o 1, a una moneda que resulta cara o cruz; el log2 asegura (como veremos) que cualquier otra cantidad de información puede ser medida en bits. La fórmula cubre también el caso de certidumbre. Si la ocurrencia de un suceso o su no ocurrencia son ciertas, la ecuación nos dice que el suceso proporciona 0 bits de información. Dos bits son como dos monedas, que dan lugar a cuatro mensajes; por ello, el contenido en información de cuatro mensajes equiprobables es dos bits. La ecuación puede ser aplicada a cualquier número de mensajes. Por ejemplo, la transmisión de todas las letras mayúsculas del alfabeto inglés representa veintiséis mensajes, lo que requeriría cinco bits (ya que 25 = 32, es decir, algo más de 26). La primera ecuación de Shannon nos permite, pues, medir inequívocamente cuánta información está contenida en algo que tratamos de comunicar a alguien.

Las palabras crepitación y siseo han aparecido ya en el presente ensayo. Allí donde se utilice la electricidad o un medio inalámbrico para transmitir información, la naturaleza hace que el ruido sea un compañero inevitable. Si interconectamos dos ordenadores mediante un cable telefónico, al receptor le llegará un cierto nivel de energía eléctrica que no ha sido emitido por el transmisor. La información que nos interesa es enviada a través del cable codificada en forma de una secuencia de voltajes eléctricos, cada uno de los cuales representa, por ejemplo, un punto de imagen de la foto de Jill.[96] Pero los electrones del cable tienen la costumbre de andar danzando por ahí. Esa actividad aleatoria modifica el voltaje transmitido, de modo que al receptor puede llegarle un valor modificado aleatoriamente. El fenómeno no sólo se da en la transmisión por cable; el espacio libre utilizado para la transmisión vía radio está plagado de partículas cargadas en movimiento que inducen variaciones significativas en las señales transmitidas. Esas variaciones aparecerán en la imagen recibida como puntos anómalos, en forma de nieve, o como un siseo alrededor de los mensajes en código Morse que transmitía el operador de la nave siniestrada de la película antes mencionada.

Aquí es donde entra en escena la segunda ecuación. Las imperfecciones de un canal en cuanto a limitación de frecuencias (ancho de banda W) y ruido (N) afectan a la capacidad C de un medio de transmisión para transmitir una señal de intensidad S, de esta manera:

C = W log2 (1 + S/N) en bits por segundo

Para entender la fórmula usaremos de nuevo el ejemplo de la imagen transmitida a través de Internet. Haremos, en primer lugar, el supuesto aproximado de que el ancho de banda W es una frecuencia máxima de transmisión y de que el límite inferior del ancho de banda es cero. En segunda aproximación, supondremos que el concepto equivale al «máximo número de paquetes de bits que podemos transmitir por segundo». Un paquete de bits representa una gama de números (3 bits representan 8 números, 4 bits representan 16, y así sucesivamente). Ahora bien, esta gama de números depende de cuánto ruido haya en el sistema. El término (1 + S/N) nos dice cuán a menudo el ruido hará cambiar el número del paquete. Si no existe ruido, N es 0 y (1 + S/N) vale infinito (+∞), lo que significa que los paquetes pueden ser tan grandes como queramos. En este caso, la imagen entera podría constituir un único paquete que podríamos transmitir W veces por segundo. Con valores de W del orden de diez mil incluso para líneas de baja calidad, la comunicación sería prodigiosamente rápida en una línea sin ruido. Por desgracia, el ruido siempre está presente y si, por ejemplo, tuviera un nivel que fuera una séptima parte del de la señal, el término (1 + 7) nos dice que, de cada ocho números transmitidos, habría uno afectado por el ruido. En este caso, log2 (8) = 3, lo que significa que ahora sólo podremos transmitir tres bits por paquete, W veces por segundo. Con W = 10.000, incluso la versión comprimida de la imagen —digamos un millón de bits— llevaría transmitirla:

1.000.000/(3 × 10.000) segundos = 33,3 segundos

(La versión sin comprimir tardaría alrededor de 10 min.).

Si el nivel del ruido igualara al de la señal, (1 + S/N) valdría 2 y sólo se podría enviar un bit por paquete, con lo que la transmisión comprimida tardaría en torno a un minuto y cuarenta segundos. A medida que el ruido se hace mayor, (1 + S/N) tiende a valer 1, lo que significa que no se puede transmitir ningún bit por paquete, ya que log2(1) = 0.

Para el radiotelegrafista del barco que se hunde, es el alto nivel de ruido lo que no le permite transmitir la voz (que requiere unos ocho mil bits por segundo), pero sí los tres o cuatro bits por segundo de los dis y das que, mediante el código Morse, sintetizan lo esencial del mensaje.

El cable telefónico ordinario, con sus diez mil bits por segundo, no es el único medio utilizado para la transmisión de información. Hay todo tipo de cables y otros medios con anchos de banda muy superiores. El coaxial, por ejemplo, consta de un hilo central, rodeado de un aislante plástico y enfundado el conjunto en una malla metálica. El ancho de banda de este cable puede alcanzar los doscientos millones de hertzios (es decir, 200 megahertzios, lo cual equivale a cuatrocientos millones de bits por segundo). Obviamente, permite una comunicación mucho más rápida, aunque también es más caro. Para anchos de banda aún mayores se utiliza la fibra óptica, que en vez de transmitir impulsos eléctricos transmite impulsos de luz (generados habitualmente por láser). Las emisoras de radio de frecuencia modulada (FM) trabajan en el entorno de los 100 megahertzios, lo que significa que el espacio libre, a través del cual la información viaja en forma de ondas electromagnéticas, presenta un ancho de banda muy elevado.

Todo eso está muy bien, pero hasta la más exquisita transmisión de música clásica requiere solamente un ancho de banda de 30.000 hertzios. ¿Para qué sirven esos anchos de banda tan gigantescos? Regresemos al concepto de codificador o modulador de Shannon. Para entenderlo mejor, usaremos de nuevo el ejemplo de la imagen digital. Anteriormente señalamos (v. nota 2) que para representar el color de cada punto de imagen se requieren 256 valores, es decir, 8 bits (simplemente, porque log2(256) = 8). Supongamos que disponemos de una combinación ancho de banda/ruido muy favorable y que deseamos transmitir ocho veces ese número en el mismo tiempo (transmitir ocho imágenes simultáneamente). ¿Es posible hacer uso del ancho de banda como si fueran ocho canales separados en lugar de uno solo? La solución es sencilla. A todo lo que vaya hacia el canal 1 se le asigna el número 1 como prefijo. La información destinada al canal 2, recibe un 2, y así sucesivamente. De este modo, en cada periodo transmitimos un grupo de ocho números, precedido cada uno del identificador del canal. En el extremo receptor, el decodificador debe ser capaz de detectar esos prefijos y separar los puntos de imagen. Los prefijos son, pues, los portadores de la información relativa a un canal.

Sucede algo similar cuando sintonizamos una emisora de radio. Lo que captamos es la portadora de un canal concreto y el aparato decodifica el contenido de ese canal. De esta forma, el ancho de banda del espacio libre —pongamos, trescientos millones de hertzios— puede alojar diez mil emisoras de radio, o incluso más (ya que no todas requieren esos 30.000 hertzios de ancho de banda).

Esta clase de codificación adopta una curiosa forma en Internet. Los identificadores son del tipo de jack@toc.ac.uk, lo cual podría ser la dirección de correo electrónico de Jack a la que Jill envía sus fotos, de modo que sea Jack y sólo Jack quien las reciba. En el caso del correo electrónico, esta forma de codificar hace que el mensaje de Jill y su identificador de canal deambulen a través de las inmensidades de la red buscando el ordenador de Jack, cuya dirección es la destinataria del mensaje. El ordenador de destino decodifica entonces las imágenes de Jill y las presenta en pantalla. El proceso establece un canal único entre Jack y Jill a través de la jungla de cables, enlaces vía satélite y transmisiones de radio que componen Internet.

Hay que subrayar que la compresión constituye una parte importante del proceso de codificación y decodificación contemplado por Shannon en su esquema de cinco etapas: «fuente-codificador-canal-decodificador-destino». A quienes utilizan Internet y descargan fotografías o películas les resultan familiares los formatos jpeg (para imágenes fijas) y mpeg (para imágenes en movimiento). Se trata de protocolos de codificación y decodificación que evitan a los usuarios muchas horas de tiempo de descarga. Miremos hacia donde miremos en el amplio mundo actual de las telecomunicaciones, constataremos que el modelo de Shannon sobre la naturaleza de la información es de gran ayuda en el diseño de sistemas capaces de proporcionar una comunicación de alta velocidad.

Un consecuencia inesperada de la definición de bit hecha por Shannon es que ese bit no sólo es la unidad de información transmitida, sino que también se convierte en la unidad de almacenamiento de información o de memoria. Un único interruptor puede estar abierto o cerrado, según la definición por la que un bit es portador de sólo dos mensajes. Un interruptor almacena o memoriza, por lo tanto, un bit de información. Dos interruptores pueden adoptar cuatro combinaciones de aperturas y cierres, y así sucesivamente. El término log2 de la ecuación de Shannon sirve para calcular el número de interruptores que se requieren para almacenar, por ejemplo, un millón de mensajes: el log2 (1.000.000) resulta ser un número relativamente pequeño: alrededor de veinte interruptores. Esta relación es la que hace que los ordenadores tengan esas impresionantes capacidades de memoria. Quien disponga de un ordenador personal razonablemente reciente sabe que existen al menos dos tipos de memoria: el disco duro y la memoria de acceso aleatorio (Random Access Memory; RAM). En la actualidad, es normal que un disco duro almacene al menos cinco gigabytes. Por razones que no vienen al caso, un grupo de ocho bits se denomina byte, por lo que esos cinco gigabytes se convierten en cuarenta mil millones bits. El disco duro es un disco de metal giratorio en el que un bit es almacenado magnetizando un tramo de pista circular por medio de una cabeza (la cual se transforma en un imán al ser alimentada por una corriente eléctrica). El tramo de pista está magnetizado o no y, en este sentido, equivale a un interruptor: almacena un bit. El disco giratorio contiene muchas de esas pistas formadas por «interruptores abiertos o cerrados», que pueden ser leídas por la misma cabeza, ya que los tramos magnetizados inducen en ella una corriente. La razón por la que un ordenador incorpora también memoria RAM es que el disco duro es relativamente lento, debido a las inercias de sus partes móviles. Puede llevar hasta una centésima de segundo acceder a un punto concreto del disco de metal. La RAM es mucho más rápida: sus tiempos de acceso se hallan en el orden de las milmillonésimas de segundo. El estado de los diminutos interruptores de silicio que la forman puede ser examinado de manera similar a la que usamos para consultar un archivador. Necesitamos sólo la etiqueta, al igual que impuestos o hipotecas, que identifica la carpeta deseada. Mediante un simple vistazo, localizamos el documento. De manera parecida, cada interruptor de silicio ostenta una etiqueta denominada dirección que, al aplicarla al conjunto de los interruptores, extrae el contenido del que la posee. La RAM es, pues, más rápida, pero más pequeña que el disco duro.

Usando estas ideas podemos construir ahora un escenario más completo de lo que sucede cuando descargamos una imagen de un ordenador a otro. Si la imagen fue adquirida con una cámara digital, la captó en primer lugar un dispositivo electrónico sensible a la luz, siendo luego almacenada en la propia RAM de la cámara. Transmitida más tarde (mediante el software y los cables adecuados) al disco duro del ordenador de Jill, ocupa veinte millones de los cuarenta mil millones de interruptores magnéticos que contiene éste. Si Jill quiere ver el resultado en la pantalla, tendrá que mover la información a la memoria RAM del ordenador. Esta operación corre a cargo de ciertos programas que hacen que la energía eléctrica de los bits se convierta de nuevo en patrones luminosos. Cuando el destinatario, Jack, solicita la imagen para su descarga, se produce la transmisión a través de Internet y la imagen queda almacenada en la RAM de su ordenador, que puede visualizarla en su pantalla. Para guardarla de forma permanente, Jack la transfiere a su disco duro.

La capacidad de almacenamiento de los ordenadores ha crecido en los últimos años de manera prodigiosa. Tomando como referencia el área de almacenamiento que requiere la imagen de nuestro ejemplo y aplicando el log2 de Shannon es posible calcular cuántas imágenes diferentes cabría representar en esa área. La respuesta está en la expresión:

20.000 = log2(x)

El valor de x resulta ser más o menos un 10 seguido de 7 millones de ceros, una cifra verdaderamente astronómica.

El invento de Shannon, el bit, no sólo nos ha permitido cuantificar la información, sino que se ha convertido en la moneda de cambio de la computación. A pesar de los inmensos avances tecnológicos registrados en este campo, los conceptos y formulaciones de Shannon permanecen inalterados. La enorme versatilidad de los ordenadores y la inconcebible potencia de esos millones de ordenadores conectados a través de Internet han dado lugar a entes cuya complejidad empieza a estar más allá de lo imaginable. Es ese log2 lo que está detrás.

¿Por qué todo se está volviendo digital? Existen hoy teléfonos digitales donde antes sólo había teléfonos ordinarios (analógicos), han surgido la radio y la televisión digitales y preferimos la música grabada de manera digital en los discos compactos a los viejos registros sobre vinilo. Todos los bienes de consumo relacionados con las comunicaciones se están convirtiendo en digitales. Los propios gobiernos apoyan esta tendencia, aunque en muchos casos no sepan dar razones convincentes para ello. Shannon presagiaba esta ola de cambios al establecer la capacidad de un canal en la segunda de sus ecuaciones y cuando definía una estructura estándar codificador-canal-decodificador para cualquier sistema electrónico de comunicaciones.

Digital significa simplemente que los datos son transmitidos como símbolos discretos. Para aclarar la noción de digital tal vez ayude considerar algo que no lo sea. La voz humana, el método de comunicación por excelencia, no lo es. Cuando hablamos, generamos ondas de presión en el aire mediante el movimiento de nuestras cuerdas vocales, la forma de la cavidad que hay tras nuestra boca y la configuración de los labios y la lengua. Esas ondas llegan al tímpano de nuestro interlocutor y hacen que su cóclea (el pequeño órgano en forma de caracol del oído) convierta la presión en señales nerviosas que, transmitidas al cerebro, se traducen en la sensación subjetiva de audición. Pero desde el momento en que la comunicación está asistida por la electrónica, aparece la opción de transformar esas ondas en secuencias de números. El sistema pasa a ser digital: ya no se transmiten ondas, sino la información que contienen, codificada en forma de bits.

Aunque la teoría de Shannon es aplicable tanto a sistemas digitales como analógicos, está implícito en ella el que los primeros son más eficientes y el que los dígitos binarios son la forma óptima de transmitir información. El razonamiento está basado en el coste y puede ser esquematizado de la manera siguiente. Supongamos que la representación de un punto de imagen requiere doscientos cincuenta y seis valores. Podemos imaginar aquí el canal como una especie de caja que ha de tener el tamaño adecuado para alojar todos los números comprendidos entre 0 y 255 en la forma, por ejemplo, de pequeños cubos. Definimos entonces el coste del canal no como el coste de todos esos cubos, sino el de la caja necesaria para transportarlos. Es razonable pensar que cuantos más cubos (números) tenga que alojar la caja, más alto será su coste. Nuestro canal costaría doscientas cincuenta y seis unidades de cierta moneda.

¿Cuál sería el coste si utilizásemos dos canales más pequeños para transportar la misma información? Las cajas sólo tendrían que transportar dieciséis cubos, ya que al tomar un número de cada caja obtendríamos 16 ×16 combinaciones, o sea doscientos cincuenta y seis números. Sin embargo, el coste total de esos dos canales sería de 16 + 16 = 32 unidades. Si seguimos avanzando en la misma dirección, llegaríamos hasta el punto en el que un canal aloja sólo dos números; con ocho de esos canales obtendríamos de nuevo 2 × 2 × 2 × 2 × 2 × 2 × 2 × 2 = 256 y el coste de la configuración sería tan sólo 2 + 2 + 2 + 2 + 2 + 2 + 2 + 2= 16 unidades. Según Norbert Wiener (el abuelo de la cibernética), el hecho demuestra la gran perspicacia de Shannon al definir el bit. El sistema de coste mínimo está constituido por canales binarios que transportan un solo bit, el modo más económico de transmitir información.

Es justamente la eficiencia económica de la codificación binaria lo que está haciendo que el mundo se transforme en digital. Y es, una vez más, el log2 de Shannon —que aparece en ambas ecuaciones— lo que está detrás, ya que en toda aplicación que emplee ondas analógicas (con amplitudes que representan números enteros de manera precisa), la teoría de Shannon dice que sería mucho más barato usar bits para transmitir la misma información. Probablemente, el ejemplo más claro de ello es la rápida evolución que ha tenido lugar en la música grabada desde los discos de vinilo, que registraban el sonido en surcos (y ocupaban una gran superficie para almacenar apenas veinte minutos de música), hasta los modernos discos versátiles digitales (Digital Versatile Disc, DVD), pasando por los discos compactos. Mediante técnicas digitales, un DVD puede almacenar hasta cuatro horas de música en una vigésimo quinta parte del espacio que ocupaba un vinilo. Pero la idea es aplicable a muchas otras cosas. Los teléfonos móviles e inalámbricos funcionan mucho mejor en su versión digital. Y todo ello se debe al log2.

Así pues, estas dos ecuaciones:

I = −p log2p

y

C = Wlog2(1 + S/N)

han transformado el mundo de las comunicaciones. Y a pesar de su imponente aspecto, su verdadero poder reside en la relación que subyace en ambas:

Información en bits = log2 (lo que se quiere comunicar).

El modelo de Shannon (fuente-codificador-canal-decodificador-destino) es válido tanto si enviamos imágenes digitales mediante la última tecnología de Internet, como si charlamos a través de nuestro teléfono móvil o si intentamos que el camarero de un bar musical entienda nuestra demanda. La primera ecuación nace en el seno de este modelo: se trata de una definición muy general de la información, basada en la sorpresa y en la probabilidad. Pero el mensaje importante de esta ecuación consiste en que, si la probabilidad de un suceso es del cincuenta por ciento, éste contiene exactamente un bit de información. Generalizando esta idea, toda transacción real puede ser convertida en una cadena de bits del tamaño apropiado.

La segunda ecuación se concentra en la naturaleza del canal: la línea telefónica, el espacio libre o el ambiente ruidoso del bar. Shannon demostró que existe un límite para el número de bits por segundo que pueden ser transmitidos a través de un medio dado, límite que viene determinado por el ancho de banda y el ruido del canal. El modo de aprovechar este límite con la máxima economía es mediante la codificación digital. La clave está en diseñar codificadores cada vez más perfectos que conviertan la información de partida en cadenas de bits codificadas de forma óptima. Hay un buen número de empresas que trabajan en el tema de la codificación desde hace bastantes años, tanto en el campo de la telefonía móvil como en el de la música y el vídeo de entretenimiento.

Las ideas de Shannon no están restringidas al mundo de las comunicaciones. Disponemos de ecuaciones similares en otros campos de la ciencia, asociadas al concepto de entropía, el grado de desorden de un sistema físico. El concepto equivale al grado de sorpresa en teoría de la información. En cualquier caso, la formulación de Shannon demuestra que la información responde a las mismas leyes que gobiernan la física, la termodinámica y la química física y que son bien conocidas por los matemáticos. La teoría de la información era un área científica de la que sólo los diseñadores de equipos electrónicos tenían noción —y era una noción muy vaga— antes de 1950. Shannon hizo ver que se trata de una materia tan importante como puedan ser las partículas elementales y que posee unas leyes equivalentes a las que gobiernan a esas partículas. En mi trabajo relativo al modelado de la intrincada arquitectura del cerebro, el lenguaje de la teoría de la información está siempre presente. La capacidad de almacenamiento de las células cerebrales puede ser medida en bits y la anatomía de las interconexiones entre muchas áreas funcionales del cerebro puede ser estudiada mediante la noción de capacidad de un canal.

El modesto personaje al que debemos estas ideas, Claude Shannon, es uno de los gigantes tecnológicos del siglo XX. Aunque, quizás, el término tecnología sea inadecuado aquí, pues realmente Shannon hizo una contribución intelectual de primera magnitud al mundo contemporáneo. A Shannon le atraían las cosas complejas. Sus ecuaciones no se refieren a la naturaleza, sino a sistemas diseñados y desarrollados por ingenieros. Son ecuaciones que plasman de forma elegante la complejidad de la información y la problemática de los medios utilizados para almacenarla o transmitirla. La contribución de Shannon consistió en caracterizar esos medios de un modo que fuera útil para los ingenieros. Shannon ocupa un lugar similar al de otros grandes innovadores, como su héroe de juventud Thomas Edison (quien resultó ser pariente lejano de Shannon, para alegría de éste) o Johannes Gutenberg. Al igual que la imprenta, Internet es un monumento al lenguaje, la habilidad más característica del ser humano. Y al igual que el giro de una prensa para hacer vino estimuló la imaginación de Gutenberg, la imaginación de Shannon despertó ante el click de los conmutadores de un analizador diferencial.

Tras una brillante carrera académica, Shannon dejó el MIT en 1978, para convertirse en profesor emérito y uno de los más respetados decanos de la ciencia estadounidense. En 1985 recibió el Premio Kyoto, equivalente al Premio Nobel en el campo de los ordenadores. Tras su jubilación, continuó trabajando en una variada gama de temas, entre ellos una teoría matemática para los juegos malabares, el diseño de un pogo stick[97] motorizado y el desarrollo de un método de juego en bolsa basado en la teoría de las probabilidades. El final de su vida quedó trágicamente ensombrecido por la enfermedad de Alzheimer, la cual le impidió asistir a la inauguración de una estatua en su honor, erigida en su ciudad natal de Gaylord, Michigan, en otoño de 2000.

Claude Shannon falleció el 24 de febrero de 2001 en una clínica de Massachusetts. Su figura fue cortésmente elogiada esos días, pero resulta lamentable que la mayoría de los medios de comunicación —demasiado ocupados en participar en la revolución de la información— hayan ignorado hasta la fecha el trascendente papel de Shannon en la configuración actual del mundo.

En la actualidad, utilizamos el término intelectual para referirnos a quien hace alguna contribución notable a la filosofía, la política o las humanidades. No siempre fue así. El ideal platónico o aristotélico incluía también el ingenio y la abstracción matemática. Shannon cambió el mundo siendo un maestro en ambos campos.

LECTURAS RECOMENDADAS

C. E. Shannon, «A mathematical theory of communication», Bell System Technical Journal, 1948, vol. 27, págs. 379-423 y 623-656.

S. Román, Introduction to Coding and Information Theory, Dortmund, Springer-Verlag, 1996.

G. Boole, An Investigation of the Laws of Thought (Londres, Dover Publications, 1995).

C. E. Shannon, «A symbolic analysis of relay and switching circuits», Transactions of the American Institute of Electrical Engineering, 1938, vol. 57: págs. 713-732.

N. Wiener, Cybernetics, Cambridge, MIT Press, 1948. [Trad. esp.: Cibernética, Barcelona, Tusquets Editores, col. Metatemas 8, 1985].

I. Aleksander, Impossible Minds: My Neurons My Consciousness, Londres, Imperial College Press, 1996.

—, How to Build a Mind, Londres, Weidenfeld and Nicholson, 2000.