2

El poder de las cosas y sus datos

Todos los científicos son científicos de datos; si no, no lo son.

JON CROWCROFT

La Internet de las Cosas

Cada vez son más los dispositivos conectados a internet, y se están haciendo más presentes cada día. El mundo conectado y rico en datos que están creando va a cambiar nuestras vidas de un modo que ni nos imaginamos. Internet primero conectó ordenadores, luego a la gente; ahora conectará cualquier cosa de nuestro entorno, dándole vida.

Si la idea de la Internet de las Cosas (IdC) te parece algo difícil de entender, piensa en esto:

Hubo una época, no hace mucho tiempo, en que la mayoría de personas no «entendía» qué era internet. Hoy en día, la mayoría lo entiende. ¿Qué es internet? Es una enorme cantidad de ordenadores hablándose unos a otros. Pero ahora que añadimos procesadores a todo tipo de dispositivos que antes eran tontos, la definición de «ordenador» también se ha ampliado.

Por un módico precio añadimos un minúsculo módem a uno de esos chips y —voilà!— conectividad para todo tipo de objetos. Y eso, por definición, es la Internet de las Cosas: artículos de uso común —desde bicicletas hasta relojes, termostatos, coches o gafas de realidad virtual— que antes no estaban conectados a internet, pero ahora sí.

Estos dispositivos IdC se usan para recopilar datos para su análisis, como un pulsómetro de esos que mandan información de tu trabajo físico al teléfono móvil. Eso permite automatizar los sistemas de un modo novedoso. Algunos coches conectados, por ejemplo, pueden comunicar con el termostato IdC de tu casa, y encender el aire acondicionado cuando el GPS informa de que te estás acercando a casa.

Pero en términos generales, si añades una conexión a internet a algo para poder controlarlo, obtener registros o ambas cosas, forma parte de la Internet de las Cosas.

Parece sencillo, ¿verdad? Lo es, y aportará enormes beneficios.

La IdC ya está aportando cambios significativos al modo en que cultivamos alimentos, usamos combustible, conducimos nuestros coches o controlamos nuestros estado de salud. La Monsanto Company y otras empresas agrícolas usan la IdC para hacer más fácil, más rápido y más eficiente el cultivo y la cosecha de alimentos.

En un artículo publicado el año pasado en The New York Times, Steve Lohr escribió: «La tercera fase […] está empezando a arrancar, y supone explotar datos de muchas fuentes: sensores en las instalaciones agrícolas y en las plantas, imágenes por satélite y seguimiento de la meteorología. En un futuro próximo, el uso del agua y el fertilizante se medirá y se monitorizará con detalle, en algunos casos planta por planta».

Y Monsanto ya ha llegado a ese punto. La empresa utiliza sensores para recopilar datos en tiempo real con las cosechadoras, medir el volumen de las cosechas, la calidad de la tierra y la humedad, con el fin de aumentar la producción. También usan sensores para controlar la temperatura y la localización de las remesas de semillas, de modo que en caso de calor extremo puedan adaptar las rutas y así reducir las pérdidas de semillas.

Pero la IdC no sólo está cambiando el modo en que se cultivan los alimentos. General Electric (GE) lleva usando sensores IdC, programas y sus propias técnicas de análisis para ahorrar muchísimo dinero a sus clientes.

La tecnología operacional de la empresa le permite reducir el tiempo que pasan las plantas de gas natural licuado (GNL) fuera de servicio, señalando riesgos potenciales antes de que se conviertan en graves problemas. Con eso las empresas de GNL están ahorrando hasta 150 millones de dólares al año, tal como ha publicado la MIT Sloan Management Review.

GE empezó a avanzar hacia lo que se llama la Internet Industrial (básicamente, una subdivisión de la IdC), porque vio una ocasión de sacar beneficio de la recopilación y el análisis de datos sobre el uso del equipamiento industrial. La compañía actualmente considera que en 2020 los ingresos generados por sus soluciones de software alcanzarán los 15.000 millones de dólares.

A un nivel más personal, la IdC está cambiando nuestro modo de conducir, e incluso nuestra salud. Los coches semiautónomos (que pueden circular solos, en la mayoría de casos sólo por autopistas) ya están en las calles, y están abriendo el camino a una autonomía mucho mayor.

Recientemente Intel, BMW y Mobileye se asociaron para crear coches de empresa sin conductor en 2021. La empresa israelí Mobileye usa sensores instalados en los coches para enviar a la nube datos de localización con los que crear mapas, de modo que otros coches puedan aprender de ellos. Lo llaman «Gestión de la Experiencia Viaria» (Road Experience Management; REM), y permitirá que los coches sin conductor sepan dónde se encuentran gracias a la información que comparten unos con otros.

Mobileye combinará la REM con sus chips EyeQ, ya disponibles, que procesan las imágenes de alrededor del coche para darle al vehículo una idea de su propia situación. Aproximadamente un 90 por ciento de los fabricantes de coches usan ya la tecnología de Mobileye, y la empresa espera que sus chips EyeQ de quinta generación sean los sensores del ordenador central de los coches completamente autónomos a partir de 2020.

Y no hay que pensar que los coches sin conductor son pura ciencia ficción. IHS Automotive calcula que el 10 por ciento de todos los vehículos ligeros que se venderán en 2035 serán completamente autónomos.

Ahora mismo, sobre todo nos imaginamos la tecnología IdC ayudándonos a mejorar la producción mundial de alimentos. Y toda ayuda es poca. La población mundial se ha duplicado en los últimos cincuenta años y se calcula que aumentará hasta llegar al menos a los 8.000 millones de personas en 2050. Por ejemplo, una empresa llamada Semios está aplicando redes de sensores que detectan la escarcha, la humedad de las hojas, la humedad del terreno y la presión de las plagas. Cuando la presión de las plagas alcanza un nivel crítico, el sistema distribuye unas dosis precisas de feromonas para alterar los ciclos de apareamiento de las especies invasoras.

También hay que insistir en la necesidad de hacer un uso óptimo del agua. En las regiones productoras de alimento donde hay escasez de agua, cuando se producen ciclos de sequías impredecibles, por ejemplo, es esencial dar una respuesta mesurada y bien argumentada. Los granjeros que se enfrentan a estas situaciones necesitan disponer de información precisa para reducir las pérdidas y los usos inadecuados al mínimo. Los sistemas inteligentes de riego, con sensores que registran la humedad del terreno y permiten que los granjeros valoren la necesidad en relación con la disponibilidad, están demostrando ser muy útiles.

Todos hemos oído hablar de la idea de usar etiquetas RFID en los envoltorios de los alimentos para que avisen a una nevera inteligente cuando la leche se haya pasado, o cuando quede poco helado. Entonces, la red inteligente de casa enviará una notificación push al smartphone del usuario. Pero la IdC también se está usando para controlar la salud del ganado. Un informe publicado en theguardian.com explica que un grupo de investigadores están usando datos recogidos de las vacas en libertad para diseñar algoritmos que permitan optimizar la producción de leche o de carne, o marcadores que avisen cuando una vaca enferma.

El síndrome del colapso de las colmenas (CCD por sus siglas en inglés), que ha afectado a poblaciones de abejas de toda América del Norte, es un motivo grave de alarma. Sin nuestra principal especie polinizadora, desaparece el sector de la agricultura. Nadie conoce con seguridad el espectro completo de causas de este síndrome, pero sí conocemos algunos factores que lo propician.

Uno de los factores es un tipo de ácaro que ataca a las abejas, llamado Varroa destructor. Estos ácaros son fácilmente exterminables. Aumentando la temperatura a 42 °C estallan como granos de maíz, y esa temperatura no es ningún problema para las abejas. De modo que una empresa llamada Eltopia ideó un producto llamado provisionalmente «Mite Not». Es un circuito impreso en una película de bioplástico de maíz que recubren con cera de abeja, de modo que las abejas lo puedan usar para construir su panal.

El circuito funciona como sensor de temperatura, pero también como resistencia, y cuando se dan ciertas circunstancias en el panal, el sistema envía una señal al circuito para que caliente el panal, o una parte del panal. Es un ejemplo de exterminación de plagas de alta tecnología, sin pesticidas.

Por último, la IdC ha empezado a transformar nuestro estado de salud. Hoy en día los seguidores de actividad y los relojes inteligentes son los dispositivos tecnológicos portátiles que más atención están recibiendo, pero ya hay en el mercado dispositivos portátiles de uso médico u hospitalario.

Microsoft produce software que funciona con prendas y dispositivos portátiles y que permite que los pacientes hagan un seguimiento en tiempo real de la salud del paciente. Eso no sólo tiene la ventaja evidente de que ofrece acceso inmediato a la asistencia en caso de que al paciente le pase algo, sino que además reduce el tiempo empleado en diagnosticar los problemas de salud y da más tiempo para el tratamiento.

Por otra parte, Verily Life Sciences, de Google Alphabet, está desarrollando nanopartículas que pueden identificar el cáncer y otras enfermedades, y enviar sus datos a un dispositivo portátil situado en el brazo del usuario. La idea, aparentemente ambiciosa, es que estas partículas puedan llegar a detectar enfermedades en fases tempranas.

Estos dispositivos y este software podrían ahorrar enormes cantidades de dinero, además de mejorar nuestra salud: GE cree que sólo aumentando un 1 por ciento la eficiencia de la asistencia sanitaria se ahorrarían 63 millones de dólares cada año.

Año tras año, a medida que la Internet de las Cosas va aumentando en sofisticación, iremos viendo gran cantidad de referencias sobre nuestro entorno (visuales, de localización, de audio, gráficos, 3D, renderizaciones, temperatura, etc.) en tiempo real, y eso supone una enorme cantidad de datos. Por ejemplo, un coche que se conduzca solo genera unos 10 gigabytes de datos por cada milla recorrida (1,6 km aprox.), y éstos tienen que procesarse en menos de 10 milisegundos, tiempo necesario para que los sistemas anticolisión puedan intervenir y evitar un choque.

Enviar esa enorme cantidad de registros de los sensores y de vídeo a internet y procesarla en tiempo real será cada vez más difícil. Las infraestructuras existentes de internet no están diseñadas desde un principio para que puedan gestionar la gran revolución de los datos de la IdC (sensores, realidad virtual (RV)/realidad aumentada (RA), drones, vehículos autónomos, etc.). De hecho, ya hemos estado en ese punto, en ese momento en que todo puede cambiar en un instante.

Cómo acabar con internet

Era el verano de 1997, y yo empezaba mi doctorado en el Swiss Federal Institute of Technology de Lausana. Era el mismo día en que Lady Di moriría en el túnel del Pont de l’Alma de París, poco después de que Microsoft anunciara una histórica inversión de 150 millones de dólares en su histórico rival, Apple, de que el cometa Haley alcanzara el punto más cercano a la Tierra de los últimos 2.000 años. Yo no sabía una palabra de francés y había pasado el verano tomando clases para poder sobrevivir en una de las universidades más duras del mundo, situada en un cantón suizo francófono, y completar mis estudios de doctorado. En aquellos días estaban cambiando muchas cosas, tanto para mí como en el mundo, y estaban a punto de cambiar muchas más.

Nada más llegar a mi despacho de la universidad, el lunes por la mañana, me encontré un artículo sobre el escritorio que decía: «¿Cómo acabar con internet?» acompañado de una nota: «Soy Ernst, hablamos más tarde». En mi primer día como estudiante de doctorado, mi tutor de tesis, Ernst Biersach, me había dejado un estudio reciente de un profesor del Lawrence Berkeley Laboratory, uno de los pioneros de internet (inventó el protocolo que evita la congestión de la red) para que lo leyera y me sirviera de inspiración en mi recorrido hacia el doctorado.

Empecé a leer el artículo y, justo después de aquella misteriosa pregunta encontré una respuesta aún más inquietante. A la pregunta «¿Cómo acabar con internet» le seguía: «Internet fue creada para que pudiera sobrevivir a una guerra nuclear pero, ¿cómo puedes acabar con ella? […] Muy fácil: ¡Inventa la web!»

¡¿Cómo?! ¿La web podía acabar con internet? A diferencia de lo que piensan muchos, la web e internet son dos cosas diferentes. Internet es la red que proporciona la conectividad y que conecta ordenadores y redes de todo el mundo para que podamos viajar de unos a otros. La web vive «encima» de la red, y se compone de contenidos, páginas, redes sociales y servicios. Entre la web e internet hay una separación de casi treinta años.

Cuando empecé mi recorrido hacia el doctorado, la web acababa de ser creada en el acelerador de partículas del CERN, en Ginebra, cerca de donde estudiaba yo, e internet, que había sido diseñada como una red de redes capaz de soportar grandes interrupciones por ataques militares, empezaba a tener dificultades para proporcionar sus contenidos web (imágenes, páginas, actualizaciones de seguridad, y más tarde vídeos) a un creciente número de usuarios.

El problema era que internet había sido diseñada para enviar mensajes entre ordenadores de todo el mundo pero, a diferencia de las redes de televisión o de radio, no para distribuir una enorme cantidad de contenido multimedia. Y ése era el desafío que tenía que resolver en los años siguientes para conseguir mi doctorado: tenía que asegurarme de que internet sobreviviera a la web.

Durante muchos años, internet había sido un banco de pruebas y un terreno de juegos para científicos como yo, antes de que se nos uniera el resto del mundo. Hoy en día es una red muy compleja y tiene una propiedad antifragilidad por la que no hace falta que todo funcione bien en todo momento para que siga funcionando. De hecho, falla y se repara constantemente para asegurar su disponibilidad en todo momento. No obstante, no siempre fue así.

Con cada día que pasaba, internet crecía y se congestionaba cada vez más. A finales de diciembre de 1996, internet se componía de más de 100.000 redes que conectaban más de 13 millones de ordenadores a decenas de millones de usuarios en todo el mundo. En enero de 1993 había cincuenta servidores web en todo el mundo; en octubre de 1993 había más de quinientos; a finales de los años 1990 se produjo la burbuja puntocom, y para 1997 ya había 100.000 sitios web. Hoy en día la web cuenta con más de 45.000 millones de páginas y entradas de datos.

La World Wide Web se estaba convirtiendo rápidamente en un sistema de diseminación de datos a escala global. El éxito sin precedentes de la web provocó una sobrecarga de tráfico en las fuentes de datos y las rutas de la red. Desde entonces se han observado repetidamente «puntos calientes» de sobrecarga, embotellamientos conocidos como hot spots que a finales de los años 1990 aparecían a diario. Para poder hacer frente a aquel desafío, había mucha gente en el emergente sector comercial de internet que esperaban que científicos como yo encontráramos la solución antes de que internet llegara a colapsarse.

De hecho, se colapsó. En 1999, el primer desfile de ropa interior de Victoria’s Secret en la web generó tal demanda que internet se bloqueó en Dallas y otras zonas de Texas. ¡Victoria’s Secret reventó internet! Sí, eso fue una gran cosa para el departamento de marketing de Victoria’s Secret, pero una mala noticia para la web, ya que demostraba que internet no estaba preparada para distribuir una cantidad masiva de contenidos al mismo tiempo. Y durante los terribles atentados terroristas del 11 de septiembre, en pocos minutos todo el planeta acudió a los medios estadounidenses en línea en busca de más información. Con el aumento de la demanda de información de usuarios de todo el mundo, la mayoría de sitios web estadounidenses, como la de la CNN, no daban abasto. Algunos sitios web tuvieron que suspender el servicio, y muchos tuvieron que recurrir a sitios estáticos sin imágenes, sólo con texto: era como ver la televisión en blanco y negro. Internet estaba fracasando como medio de comunicación mundial cuando más necesaria era.

En los años 1970 la comunidad de internet pensaba que necesitarían conectar todos los ordenadores del mundo, pero consideraban que sólo habría unos centenares de miles. Lo que sorprendió a todo el mundo fue la aparición del ordenador personal, porque de repente internet tenía que conectar no centenares de miles de ordenadores, sino centenares de millones. A principios de los años 1980 el gran problema era la gran escala de la infraestructura necesaria para conectar todos aquellos ordenadores. Los expertos en internet tenían que rehacer los protocolos para redimensionar la red, los organismos de normalización para redimensionarlos, etc. Pero en los años 1990 y principios de los años 2000 la misión era redimensionar internet para que pudiera distribuir el contenido web y los datos que quería la gente (páginas web y contenidos multimedia), no conectar ordenadores.

En 1995, Bob Metcalfe, inventor del aclamado protocolo Ethernet que conecta los ordenadores a internet en cada domicilio y empresa, hizo una predicción que se haría famosa. Predijo que internet sufriría un «colapso catastrófico»; y prometió comerse sus palabras si se equivocaba. De hecho, durante el discurso inaugural de la sexta World Wide Web Conference, en 1997, cogió una copia impresa del artículo en que predecía el colapso, la metió en una batidora con algo de líquido y luego se bebió la papilla resultante. Eso fue después de que intentara comerse sus palabras en forma de enorme pastel, pero el público protestó vehementemente, de modo que acabó comiéndose la versión líquida de su artículo.

Quizá Bob no tuviera razón en cuanto al momento y la magnitud del colapso de internet, pero desde luego la web estaba poniendo en riesgo la red, e internet precisaba un replanteamiento y una reorganización a fondo para poder estar seguros de que la predicción de Bob no se hacía realidad y para redimensionar la distribución de contenido web de alta calidad a cientos de millones de personas. ¿Cómo se hizo?

Casi sin darme cuenta, yo mismo me encontré inmerso durante más de una década en un viaje fascinante para reparar internet, diseñar nuevas arquitecturas de red que pudieran soportar la explosión de la World Wide Web y una gran cantidad de registros y algoritmos de internet que ayudaran a comprenderla y mejorarla. Para hacerlo tuvimos que construir una «nueva» internet virtual sobre la ya existente, con millones de ordenadores y repetidores de datos web nuevos, situados en lugares estratégicos del planeta, cerca de ti, en la puerta de tu casa. Así nos asegurábamos de que la red pudiera pasar de una velocidad de marcación por teléfono a una rápida distribución de datos, haciendo posible el acceso a vídeos e información de mayor calidad, la protección contra amenazas de seguridad y ciberataques más sofisticados, y un mayor tiempo de conexión a la red, tanto desde el ordenador como, más tarde, desde los teléfonos móviles.

Dedicamos muchos años a analizar conjuntos de macrodatos, entre ellos los de rendimiento de internet desde cada nódulo, desde el punto de vista de millones de usuarios y sitios web. Y usamos esos datos y algoritmos para rediseñar internet de modo que pudiera distribuir una enorme cantidad de información. Y yo mismo —considerado el joven revolucionario entre los «gurús de internet», ya que usaba novedosos diseños de comunicación peer-to-peer (P2P) que rompían con los diseños tradicionales existentes, más jerárquicos—, desde luego estaba fascinado.

Una distribución de datos más rápida

La web la inventó Sir Tim Berners Lee en la Organización Europea de Investigación Nuclear del CERN de Ginebra a finales de los años 1980. Internet fue un invento del programa ARPANET de la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos en cooperación con varias universidades (UCLA, Stanford, UCL) a finales de los años 1960. La web se compone de una gran cantidad de centros de procesamiento de registros (CPD) que almacenan el contenido web por el que navegamos, las páginas web, imágenes, vídeos, televisión, y que también registra las interacciones de nuestros datos y nuestro rastro digital. Estos centros de procesamiento de datos están conectados a internet a través de una serie de cables que transportan la información hasta tu casa o tu dispositivo móvil.

El término «internet» hacer referencia a la red de redes, a una red que conecta a millones de redes privadas, públicas, académicas, empresariales y gubernamentales, de ámbito local o global, unidas por una amplia gama de conexiones electrónicas, wireless u ópticas y que te da acceso a una gran variedad de servicios y recursos web. Es la red de base por la que viajan los datos.

Básicamente, internet se compone de una serie de redes de acceso local (fijas o inalámbricas) a nivel urbano, interconectadas con un número mayor de redes a nivel nacional y continental (redes de interconexión) que te conectan con centros de procesamiento de datos (o con la nube), que alojan una gran cantidad de ordenadores, en muchos casos en puntos fríos y remotos del mundo, para disponer de espacio y ahorrar en refrigeración.

Lo que hace que internet sea tan especial es que es un sistema que permite que diferentes redes de ordenadores se comuniquen usando una serie de normas estandarizadas y se comprendan entre sí. Es verdaderamente un sistema global. Cables que atraviesan países y océanos, que traspasan fronteras y que comunican algunos de los lugares más remotos de la Tierra con todo los demás. E internet sigue creciendo. Cada día hay más ordenadores conectados, aparecen y desaparecen redes, y numerosas organizaciones y empresas trabajan para ampliar el acceso a internet en países que aún no están conectados. Internet no es algo físico y sólido; es más bien un concepto variable localizado en todas partes.

Pero en el momento en que iniciaba mi trabajo de investigación científica nos dimos cuenta de que había un problema: internet no podría soportar la cantidad de datos que la web podía proporcionar, especialmente en momentos destacados y eventos críticos en que todo el mundo visitaba los mismos lugares de la red. De hecho, si sumamos toda la velocidad a la que pueden enviar información los CPD a la red de internet y la comparamos con la velocidad máxima a la que la gente puede descargarse cosas de internet, hay una gran diferencia. La nube, donde se encuentra la información, sólo puede proporcionar datos a más o menos un 2 por ciento de la velocidad máxima a la que pueden recibirla los terminales.

De entre todos los que trabajábamos en este sentido, como los científicos que, como yo, buscaban mejorar la velocidad de internet, había una empresa que había aparecido en pleno nacimiento de la web, una startup que acabaría proponiendo una solución a la explosión de datos de la web: Akamai.

Artistas, magos, científicos como yo, chefs y diseñadores tienen en común el hecho de que comparten la mayor parte de su trabajo en foros abiertos en los que pueden debatir, potenciar el trabajo de los demás, obtener feedback y crecer como comunidad, en beneficio de todos. En uno de estos eventos, durante mis estudios de doctorado, conocí a Daniel Lewin, colega estadounidense que también trabajaba en la mejora de la web y en el diseño de algoritmos de distribución de datos que más adelante se volverían cruciales para la red. Estos algoritmos permitían que un gran número de servidores compartieran la carga con muy poca información de estado, repartiéndola de un modo muy efectivo. Daniel Lewin estaba haciendo sus estudios de doctorado en el Massachusetts Institute of Technology (MIT) en 1996. En aquel tiempo, Lewin y su tutor de tesis, el profesor F. Thomson Leighton, crearon Akamai.

Akamai desplegó 95.000 servidores en 72 países, y con 2.200 empleados, la empresa proporciona del 15 al 30 por ciento de todo el tráfico de la web en el mundo. Hoy en día, las innovaciones de Akamai permiten que millones de usuarios puedan ver vídeos en streaming a la vez, y mantiene los sitios web de noticias en línea durante las crisis globales, cuando los usuarios se lanzan en busca de la última información. También proporciona una barrera de seguridad a internet, evitando ataques de denegación de servicio, ataques de virus y malware, problemas de ciberseguridad y dando protección en importantes procesos de votación, en los que internet cada vez tiene un papel más crucial.

Internet necesitaba un modo mejor para ubicar de un modo instantáneo las enormes cantidades de datos cambiantes almacenados en ordenadores de todo el mundo y enviarlos a cualquier usuario, en cualquier lugar. E —igual de importante— el sistema también debía poder «redimensionarse», lo que significaba que pudiera funcionar aunque fuera utilizado por un número mucho mayor de personas. Es lo que posibilitó los avanzados servicios de internet que usamos hoy en día. La tecnología de Akamai gestionó el problema con habilidad; sitios web que de otro modo se habrían venido abajo con la fuerte demanda funcionaban ahora muy bien. Pero las cosas no eran tan sencillas.

El 11 de septiembre de 2011 yo vivía en Palo Alto (California). A primera hora de la mañana recibí una llamada de teléfono de mi familia en Europa. Unos terroristas habían atacado Nueva York usando aviones. Yo fui corriendo a internet para obtener más información. Daniel Lewin, el estudiante de doctorado que había coincidido en una conferencia para discutir sobre nuestro trabajo para mejorar la web, había dejado el MIT y había fundado Akamai con su profesor. Daniel Lewin también había servido cuatro años en las Fuerzas de Defensa Israelíes como oficial del Sayeret Matkal, una de las unidades de fuerzas especiales del ejército.

Desgraciadamente, Daniel Lewin acabó siendo la primera víctima de los ataques terroristas contra Estados Unidos que desencadenaron más de una década de guerra. Lewin se encontraba a bordo del vuelo nº 11 que impactó contra la Torre Norte del World Trade Center. Volaba de Boston a Los Ángeles por negocios relacionados con Akamai. Según parece, Lewin fue apuñalado durante el secuestro del vuelo nº 11 de American Airlines ese 11 de septiembre. Un informe de la Administración Federal de Aviación de Estados Unidos sugiere que quizá lo apuñalara Satam al-Suqami cuando intentó frustrar el secuestro. Lewin iba sentado en clase preferente. Ocupaba la plaza 9B, cerca de los secuestradores Mohamed Atta, Abduaziz al-Omari y al Suqami. Fue apuñalado por uno de ellos, probablemente por Satam al Suqami, que estaba sentado justo detrás de él. La comisión de investigación de los atentados especula que quizá ocurriera cuando Lewin intentó enfrentarse a uno de los secuestradores que tenía delante, ignorando que al Suqami estaba sentado detrás. Mientras tanto, sus colegas de Akamai, en Boston, vivían uno de los días más decisivos de la empresa, poniendo a prueba los algoritmos diseñados para mejorar internet después de años de investigación.

Poco después de las 9.00 horas del día de los atentados, un grupo de empleados del Centro de Control de Operaciones de la Red de Akamai Technologies, que tenía su sede en Cambridge, habían observado un aumento inusual de tráfico en internet. Cuando se enteraron de que era debido a la noticia de que una pequeña avioneta se había estrellado contra el World Trade Center, se alarmaron, y no sin motivo. Muy pronto, no obstante, se hizo evidente que no había nada en aquel incidente que fuera pequeño. Después del impacto del segundo avión, prácticamente cualquiera que tuviera una conexión a internet estaba conectándose para enterarse de qué había pasado.

Eso supuso una gran presión para sitios web de muchos de los clientes de Akamai, entre ellos la ABC.com, The Washington Post y otros muchos medios de comunicación, así como para los sitios web de la Cruz Roja, el FBI, American Airlines (propietaria del primer avión que impactó contra las torres, el vuelo nº 11, y del nº 77, que impactó en el Pentágono). El pico del 11/9 fue el equivalente en la web a una inundación de cien años de duración.

El alud de solicitudes también afectó a los servidores de nombres de dominios de internet (DNS), que actúan como guía de teléfonos de internet, facilitando el acceso a páginas web específicas. Son los encargados de asegurarse de que acabas en el lugar correcto cada vez que escribes el nombre de un sitio web en tu navegador. Los hackers a veces atacan a los proveedores de DNS para sabotear los sitios web a los que redirigen. Eso sigue siendo un gran problema hoy en día, y un recurso habitual de los hackers para atacar la red. Era responsabilidad de Akamai procurar que las empresas que pagaban por sus servicios se mantuvieran conectadas, y solucionar los problemas a los que se enfrentaba internet con el éxito de la web.

Diecisiete años es una eternidad, en tiempo de internet. En 2001 no teníamos Twitter, Facebook ni Instagram. Aun así, cuando cayeron las Torres Gemelas, los estadounidenses se dirigieron en masa a la red para buscar información sobre una de las noticias más importantes de la década. A pesar de lo limitados que eran muchos servicios —aún faltaban cuatro años para la llegada de los vídeos generados por los usuarios al estilo Youtube—, el 11 de septiembre produjo una cantidad de datos increíble.

Antes de que las Torres Gemelas se vinieran abajo, la empresa de direccionamiento del tráfico sólo había movido, como mucho, 6 gigabits de datos por segundo. Entonces la MSNBC decidió emitir su programa en directo por internet, lo que elevó el uso de éstos de la emisora por cable muy por encima de lo que había registrado nunca Akamai. La MSNBC había contratado a Akamai justo para que resolviera ese problema, y con el aumento del uso de aquéllos, Akamai observó que el sitio web de la MSNBC movía 12,5 gigabits de datos por segundo. (Para que nos hagamos una idea, hoy en día toda Nueva Zelanda hace un uso de banda ancha equivalente a 120 gigabits por segundo en horas pico).

Para algunos, internet se volvió lentísima. Cuando yo me conecté para informarme, intenté buscar noticias de Yahoo y de la CNN, pero sus sitios web se cargaban de forma intermitente. De hecho, el sitio web de la CNN tuvo que pasar a usar páginas de texto, informativas pero muy básicas.

La infraestructura de internet no fue el único obstáculo. Aquello pilló desprevenidos a todos los sitios web. El FBI, que había colgado fotografías de los terroristas del 11 de septiembre a pocas horas de los atentados, también tenía problemas para mantenerse a flote con todo aquel tráfico suplementario.

Las empresas de internet han aprendido mucho en los diecisiete años que han pasado desde entonces. Ahora se adaptan de forma rutinaria a los grandes acontecimientos noticiables ante la posibilidad de que la gente acuda en masa a la web para enterarse de qué ha sucedido, y para participar en el proceso de recopilación de información. Se trate de una boda real, de las Olimpiadas o del Black Friday, siempre va a haber algún evento, programado o espontáneo, que generará una carga exorbitante para la que no estaba preparada internet.

Para solucionarlo ha habido que hacer muchos análisis de datos e investigación algorítmica. De hecho, uno de los problemas más importantes que hemos tenido que solucionar para hacer que la web vaya rápida fue el de localizar el servidor web más rápido que puede conectar con un usuario, ya que encontrar el servidor más rápido es esencial para tener una experiencia rápida y positiva.

Las páginas web y los archivos de vídeo se almacenan en grandes centros de procesamiento de datos llenos de ordenadores repartidos por el mundo. La intuición nos dice que cuanto más haya que viajar por internet para encontrar un servidor web que tenga el vídeo que se busca, más posible es que la calidad percibida por el usuario sea mala, ya que las probabilidades de encontrarse con un nodo congestionado aumentan. La congestión de la red aumenta con la distancia, y los servidores más rápidos son los que tienes cerca. Por ejemplo, para un usuario en Madrid, un servidor de Londres será más rápido que uno en Mountain View (California).

Cabe pensar que encontrar el servidor más rápido es tan sencillo como trazar una línea sobre el mapa y encontrar el que esté más cerca geográficamente. No obstante, el problema en realidad es mucho más complicado, y aquí la intuición falla. Internet tiene algunos caminos «ocultos» por los que se pueden hallar servidores más rápidos que los que encontrarían trazando una línea recta sobre el mapa. En internet, el camino más rápido no siempre es el más corto; puede ser el más largo, tal como ocurre en muchas otras situaciones de la vida. ¡Resulta que internet es una red curva! Del mismo modo que el universo es curvo, o que la Tierra es curva, internet también es curva y tiene caminos que desafían a la intuición y que hacen que algunos servidores lejanos sean más rápidos que otros situados más cerca.

Cuando haces un vuelo transatlántico, ¿por qué no va recto el avión? ¿Por qué traza una curva y se acerca a Groenlandia? Cabría pensar que la ruta más corta sería una línea recta, pongamos entre Nueva York y Londres. Pero el avión traza una curva. Lo que aparentemente es el camino más lento es, de hecho, una vía más rápida, siguiendo rutas «más largas» no evidentes a primera vista. Algo parecido pasa en internet. Hay caminos más largos que son más rápidos que los cortos, e internet también parece tener una extraña forma curva, elíptica o hiperbólica.

Ésta es una sorprendente conclusión que surgió a partir de numerosos análisis de datos y que llevó décadas descubrir, pero es de vital importancia para el buen rendimiento de internet. Esta propiedad es crítica para el funcionamiento de la red sin un sistema de coordinación central que conecte todas las redes del mundo, y para permitir el redimensionamiento de la web, redirigiendo los picos de sobrecarga, como el del 11 de septiembre, al mejor servidor de cada momento.

Los macrodatos ya juegan un papel decisivo en nuestras vidas. Con el crecimiento de la IdC, esa influencia no dejará de crecer, ya que la Internet de las Cosas genera más datos, feeds de vídeo e imágenes que nunca. Vivimos en el zénit de una revolución digital nunca vista desde la aparición de internet en nuestras vidas. Sólo es cuestión de tiempo hasta que los datos digitales se conviertan en componente de prácticamente todo lo que hacemos. Y desde el momento en que se creó internet éstos se han usado para hacer que la gente pueda disfrutar de una internet más rápida y mejor, incluso antes de la llegada de la IdC.

Los científicos calculan que nos encontramos en la cúspide de la cuarta revolución industrial, en la que la inteligencia artificial, la robótica y la Internet de las Cosas cambian el modo en que hacemos las cosas. Primero la mecanización y el vapor transformaron nuestras vidas; luego fue la electricidad; recientemente fue la digitalización e internet; la próxima revolución será la de la inteligencia artificial, la robótica y la Internet de las Cosas.

La IdC a la velocidad de la luz

El próximo desafío para internet es el de asegurarse de que todos los dispositivos IdC puedan comunicarse entre sí como si estuviéramos en el mismo lugar. Eso será necesario para posibilitar la existencia de espacios de realidad virtual o de realidad aumentada en los que nos dé la impresión de tener a nuestros seres queridos o más próximos en la misma estancia que nosotros, o para que podamos fusionar la realidad virtual y la vida real, para que los desarrolladores de programas puedan crear imágenes en su interior que se fundan con la vida real. Con la realidad virtual y la realidad aumentada los usuarios pueden interactuar con los contenidos virtuales del mundo real y pueden distinguir los unos de los otros.

La realidad virtual y aumentada serán muy importantes para las empresas. Facebook compró Oculus Rift por 2.000 millones de dólares aunque la empresa no tenía clientes y sólo tenía dieciocho meses de vida. Con ello Facebook demostró que éste será un nuevo modo de interactuar con los ordenadores y con las personas. Con la realidad aumentada podrás pintar el mundo real. Y no son los únicos: Microsoft Hololense permitirá una experiencia similar para aprender, adiestrarse a distancia y experimentar nuevas realidades. La realidad virtual y la realidad aumentada requerirán una gran anchura de banda y mucha velocidad para poder aportarte la experiencia que buscas. Pero, sobre todo, necesitarán períodos de latencia y retrasos mínimos. Todo tendrá que responder muy rápidamente. Si no, la experiencia será muy pobre. ¡E incluso puede que te marees!

Hoy en día internet es tan rápida que la bahía de San Francisco puede conectar con Nueva York en menos tiempo del que se tarda en acabar esta frase. Eso es una velocidad de vértigo, pero no lo suficiente para los músicos, por ejemplo, que sueñan con el día en que podrán conectar los instrumentos a internet para que sus notas viajen a la velocidad de la luz. Así todo el mundo podría tocar en una única formación musical.

Los retrasos tienen un efecto devastador. Para solucionar este problema, la nube tiene que acercarse más a los consumidores. ¿Treinta milisegundos? Eso es un eco. Una eternidad. La esencia de la música es la comunicación en común. Y eso depende de un feedback instantáneo. Así que todas las esperanzas están puestas en un intento por superar el límite de velocidad, lanzado en octubre de 2014 por un equipo encabezado por Brighten Godfrey, investigador informático de la Universidad de Illinois y sus colegas de la Universidad de Duke.

Su misión —«trabajar en red a la velocidad de la luz»— desafía a los investigadores de redes informáticas a que creen una internet que alcance el límite físico del universo. Ellos se imaginan a un par de músicos de Oahu, en Hawái, tocando un cuarteto de Beethoven al unísono con otros dos en la Antártida.

Y éste es el problema: el retraso —o «latencia»— de una señal al recorrer una red. Los paquetes de datos viajan por internet unas 10 veces más despacio que la velocidad de la luz, a veces hasta 100 veces.

¿Esa conexión San Francisco-Nueva York? En la red informática típica, tarda un segundo más o menos; o incluso más. Si viajara a la velocidad de la luz, sólo tardaría 27 milisegundos (un milisegundo es una milésima de segundo).

Esa lentitud relativa resulta frustrante para los músicos, porque el oído humano percibe dos sonidos como simultáneos sólo si los oye a menos de 20 milisegundos de distancia. De modo que, aunque un grupo de músicos conectados en red en la misma ciudad podrían tocar juntos, resulta mucho más difícil si están separados por grandes distancias. (Incluso a la velocidad de la luz, unos 300.000 kilómetros por segundo, una melodía bidireccional tocada por dos músicos situados en extremos opuestos del planeta presentaría un retraso de 133 milisegundos).

Los retrasos también son un gran problema para las empresas de internet, que pierden millones de dólares cuando se reduce la velocidad. En el caso de Google, un retraso adicional de 400 milisegundos en la respuesta a las búsquedas reduce el volumen de búsquedas en un 0,74 por ciento.

En los últimos veinticinco años, la velocidad de internet ha aumentado a un ritmo asombroso; aun así, los investigadores están haciendo que sea aún más rápida. El doctor Brighten Godfrey, profesor auxiliar de la Universidad de Illinois en Urbana-Champaign, trabaja para que las cosas se puedan conectar por internet a una velocidad lo más próxima posible a la de la luz, barrera física insuperable.

Hoy en día, cuando las personas y las máquinas interactúan en la red, hasta para enviar un mensaje breve y obtener una respuesta hace falta un tiempo significativo. Eso es lo que llamamos latencia de la red. «La latencia es el gran reto al que se enfrentan nuestras experiencias interactivas en internet, tanto entre personas como entre ordenadores —señala el profesor Godfrey—. Y hoy en día cada milisegundo importa».

La latencia de la red tiene un impacto increíble en la posibilidad de conectar cosas. Sin embargo, hoy en día internet suele funcionar a una velocidad 30 veces mayor —y en muchos casos hasta 100 veces mayor— de lo que debería imponer el límite de la velocidad de la luz.

Y la mejora de la latencia de internet puede tener un profundo efecto en cómo usan internet las cosas. Internet debería operar a la velocidad de la luz. El tiempo que se tarda en enviar datos de un punto A a un punto B del mundo debería acercarse lo máximo posible a la velocidad a la que viaja la luz. Pero si medimos la rapidez de internet en la actualidad nos daremos cuenta de que para alcanzar un dato cualquiera tardamos unas veintitrés veces más de lo que se tardaría a la velocidad de la luz. Para solucionar este problema hay que recurrir a numerosos análisis de datos que permitan mejorar los protocolos de internet, y situar servidores cerca de cada usuario del mundo, reduciendo así el tiempo que tarda en viajar la información.

Las máquinas de operaciones financieras rápidas como la que describe el libro Flash Boys requiere unas conexiones de internet superrápidas. Las páginas de comercio electrónico como Amazon, Google o Facebook han demostrado repetidamente que reduciendo una décima parte el tiempo que se tarda en visualizar una página se traduce en aumentos de beneficios mesurables en sus páginas comerciales (y un 1 por ciento más de ingresos aproximadamente).

El acceso rápido a los datos es tan importante que las empresas han empezado a construir sus propias redes y a reducir las distancias. Es el caso de Spread Networks, empresa de operaciones en bolsa que hace unos años completó un nuevo túnel que atraviesa los montes Allegheny, en Pensilvania. No obstante, el túnel de Spread no estaba pensado para el paso de pasajeros o de mercancías; era para un cable de fibra óptica que ahorraría tres milisegundos —tres milésimas de segundo— en las comunicaciones entre los mercados de Chicago y la bolsa de Nueva York.

¿A quién le importan tres milisegundos? La respuesta es a las máquinas de comercio de alta frecuencia, que hacen dinero comprando o vendiendo acciones una fracción de segundo antes que los demás. No es de extrañar que Michael Lewis inicie el relato de su libro Flash Boys, gran éxito de ventas sobre la polémica generada por el comercio de alta frecuencia, con la historia del túnel de Spread Networks.

La historia de Flash Boys se centra en varias personas, entre ellas Sergey Aleynikov, que fue programador de Goldman Sachs, y Bradley Katsuyama, fundador de Investors’ Exchange (IEX). Flash Boys empieza describiendo la construcción de la línea secreta de 1.330 kilómetros de cable, para la que hacía falta un trazado lo más recto posible, atravesando montañas y pasando bajo los ríos, desde Chicago hasta Nueva Jersey, para reducir el tiempo de transmisión de los datos… ¡de 17 a 13 milisegundos! Este proyecto de 300 millones de dólares estaba diseñado para conectar los mercados financieros de Chicago y Nueva York, donde cabía la posibilidad de sacar beneficios con una inversión ventajosa realizada con un margen de milisegundos.

Recientemente la velocidad de los datos en los mercados financieros se ha convertido en un asunto de gran importancia: cuanto más rápido viajen éstos, mayor es el beneficio. Los expertos afirman que el acceso a estos cables de fibra óptica, al igual que otras tecnologías, dan al mercado de valores la posibilidad de obtener información más rápida, volviéndose así más eficientes. En los últimos años, el comercio electrónico ha sustituido al parqué de la bolsa, con sus brokers que gritaban, daban golpes al teléfono y repasaban, histéricos, la cinta de la teleimpresora, y ese cambio ha tenido un impacto en el mercado.

Con los avances tecnológicos, los valores actualmente se compran y se venden digitalmente, en servidores informáticos, en edificios a menudo anónimos —pero muy vigilados—, generalmente a kilómetros de los epicentros históricos de las finanzas, lo que significa que los tipos audaces con trajes elegantes representados en películas como El lobo de Wall Street han dejado de ser los reyes de las finanzas.

Los programadores informáticos se han hecho con la corona gracias a los códigos que producen, capaces de ejecutar operaciones miles de veces más rápido que cualquier humano. En el centro están los operadores de operaciones de alta frecuencia (HFT por sus siglas en inglés), que instalan conexiones de datos ultrarrápidas de fibra óptica entre sus sistemas y los mercados de valores modernos, lo que les da una minúscula ventaja de velocidad sobre sus rivales. Esta ventaja, aunque sea de milisegundos, les permite ver las órdenes de otros compradores antes de que se ejecuten.

Básicamente, usan esta ventaja temporal para comprar las acciones antes de que se procese la primera orden, y para vendérsela al comprador interesado a un precio ligeramente más alto, en un proceso conocido como front-running. Esto significa que esos milisegundos valen millones.

La velocidad de los datos se ha convertido en algo tan importante que actualmente las compañías de inversión en bolsa invierten en redes de propiedad, como enlaces de radio (por microondas) entre Chicago y Nueva Jersey, que siguen una ruta aún más recta que el cable de 1.330 kilómetros de Spread Networks (ya que las microondas siempre siguen una trayectoria recta, mientras que los cables, por su propia naturaleza, deben rodear barreras físicas). La nueva ruta también aprovecha la velocidad superior a la que viajan las señales por el aire (en comparación con la velocidad de transmisión de la fibra de vidrio, que frena la luz). Con estas dos ventajas, este nuevo enlace ha rebajado en 4,5 milisegundos la velocidad del cable de Spread Networks, y eso puede marcar una gran diferencia en el mercado de valores.

Pero ésa no es más que una aplicación posible. Hay otras aplicaciones interactivas —como las apuestas, la navegación en la web, la cirugía remota, el aprendizaje a distancia, la conducción autónoma o la colaboración musical— que se beneficiarían tremendamente con la mejora en la velocidad de internet.

Los humanos, con nuestro sistema de percepción visual, no podemos distinguir un evento que ocurre inmediatamente después de apretar un botón de uno ocurrido 30 milisegundos después de haber apretado un botón. Si se consigue que internet sea 30 milisegundos más rápida, a los seres humanos nos parecerá instantánea, desde el punto de vista visual. Eso significa poner un servidor de internet a menos de 900 kilómetros de cualquier ser humano del planeta, o a menos de 300 kilómetros si es necesario que el retraso no sea superior a los 10 milisegundos.

La tecnología ya está conectando cosas como instrumentos musicales por el mundo, y transformando el concepto de creación musical. Se pueden tomar clases y realizar audiciones por YouTube. Pero la colaboración en tiempo real sigue siendo la última frontera. Recientemente, en un concierto organizado por la Universidad de Stanford, se hizo público el compromiso de que la velocidad de internet serviría para construir puentes culturales a través de la música. En esta ocasión, el músico y científico Chris Chafe utilizó la conexión de alta velocidad de la universidad, Internet2, para poner en contacto a trece músicos que tocaban en Stanford, en la UC Santa Barbara, en la Virginia Tech y en la Universidad de Guanajuato, en México.

Los músicos, que se oían como si estuvieran tocando en la misma sala de conciertos, entretejieron una interpretación clásica, folclórica y electrónica llamada Imagining the Universe. Las notas del contrabajo y el piano de Virginia Tech tardaron 46 milisegundos en llegar a Stanford, igual que el violonchelo de Chafe. El tiempo que empleó el sonido de la flauta de México fue similar. Santa Bárbara, estaba más cerca, a sólo 7 milisegundos de distancia.

Hace treinta años no habríamos podido soñar siquiera que llegaríamos a este punto, pero hoy intentamos llegar más lejos, para unir de verdad todo el mundo y todas sus cosas.

La Internet de las Cosas y los datos

Internet primero conectó los ordenadores; luego conectó a las personas, y ahora está conectando las cosas. Y con «cosas» me refiero a todas las cosas físicas que nos rodean. Coches, lavadoras, ropa, sensores de las fábricas, alimentos en los supermercados, muebles, semáforos, etc. Eso es lo que se llama la Internet de las Cosas (Internet of Things, IdC), y lo que se espera que sea la nueva fase de crecimiento en internet.

Si has seguido los comentarios sobre la Internet de las Cosas, probablemente hayas oído al menos una vez esta asombrosa predicción: para 2020 habrá en el mundo 50.000 millones de dispositivos conectados. Hans Vestburg, exconsejero delegado de Ericsson, fue uno de los primeros en vaticinarlo en una presentación de 2010 a sus accionistas. Al año siguiente, Dave Evans, que en aquella época trabajaba para Cisco, publicó la misma predicción en un libro blanco.

La cifra actual se encuentra en algún punto entre el cálculo de Gartner, de 6.400 millones (que no incluye teléfonos inteligentes, tabletas ni ordenadores), el de la International Data Corporation, de 9.000 millones (que también excluye esos dispositivos) y el del HIS, de 17.600 millones (con todos esos dispositivos incluidos).

Algunas aplicaciones futuras de la Internet de las Cosas pueden sonar a ciencia ficción, pero entre las posibilidades más prácticas y realistas de esta tecnología se incluyen éstas:

  • Avisos al móvil o a mecanismos portátiles cuando las redes de IdC detecten la proximidad de algún peligro físico.
  • Automóviles que se aparquen solos.
  • Encargos de alimentos u otros artículos de uso doméstico de forma automática.
  • Seguimiento automático de los hábitos de ejercicio y de la actividad personal diaria, que incluya el seguimiento del progreso realizado y de las metas alcanzadas.
  • Comercio de alta frecuencia entre mecanismos adaptados al efecto.

Éstos son algunos de los posibles efectos beneficiosos de la IdC en el mundo de los negocios:

  • Seguimiento y localización de artículos del inventario de fábricas.
  • Ahorro de combustible con el diseño de motores a gas que interactúen de modo inteligente con el medio.
  • Nuevos y mejores controles de seguridad para personas que trabajen en entornos peligrosos.

La Internet de las Cosas significa que puedes coger cualquier cosa que te compres en la tienda, enchufarlo a internet e interactuar con ello. Hay tres tecnologías que hacen posible la Internet de las Cosas: los sensores, la informática y las redes.

Los sensores son cada vez más pequeños, más baratos y requieren menos energía. Los nuevos teléfonos tienen montones de nuevos sensores, y cada vez son mejores. Los sensores cuestan poco: dispositivos de todo tipo van integrando sensores ambientales, sensores de movimiento, sensores 3D… La informática va progresando a un ritmo exponencial. Hoy en día se pueden conseguir ordenadores de 10 dólares con los que jugar y experimentar, y son el equivalente a un supercomputador de los años 1990.

El problema de la IdC es la gran cantidad de productos no estandarizados que existen, que en un momento dado deberían converger. De hecho, también han aparecido nuevas redes de baja potencia y gran alcance, con sensores ideales para la IdC.

La Internet de las Cosas no va a hacer que tu nevera te hable de los alimentos que han caducado o de la leche que se te ha pasado, ni que tu lavadora hable con tu microondas. Pero puede hacer que tu cámara tome una fotografía de una agresión en la calle automáticamente y que la envíe a la policía. Otros usos pueden estar relacionados con la localización, recurriendo a pequeños sensores de pocos dólares y que se pueden fijar a cualquier cosa con enganches muy baratos (por ejemplo, a los cordones de los zapatos), o que te permitan pedir las cosas que necesitas allá donde las necesites (por ejemplo, pedir una pizza en casa a través de un imán de la cocina conectado a internet).

En el mundo industrial la IdC tiene numerosas aplicaciones. Los sensores, colocados en conductos y cisternas, efectúan controles de seguridad y de fugas, por ejemplo, para detectar al instante lo que pasa en el terreno y permitir hacer cosas que puedan cambiar la vida. La aplicación más rentable que puede tener la IdC es en la gestión de las cadenas de suplidos. Si puedes mejorar la gestión de la cadena de suplidos de una empresa, puedes ganar miles de millones.

La IdC también tendrá relación con la realidad visual y aumentada, y con las comunicaciones múltiples, que serán muy importantes para las empresas y, a largo plazo, también para los individuos.

La informática de las prendas también es parte importante de la IdC, y produce montones de datos. El Apple watch, Fitbit y otros dispositivos similares van apareciendo a gran velocidad como compañeros de vida, pero aún no nos la están cambiando. Seguimos buscando esa app definitiva para los mecanismos que se pueden llevar puestos. Por ejemplo, una que te diga cuándo tomarte la medicina o que controle las lámparas para que cambien de color de día o de noche y mejorar así la experiencia, o quizá incluso que te salve la vida, interactuando con los servicios de atención sanitaria. Esta tecnología IdC se está volviendo tan barata que se puede aplicar a una simple bombilla.

Los pequeños mecanismos del campo de la IdC crearán un mercado de 14 billones de dólares y producirán montones de macrodatos que habrá que analizar, procesar y a los que habrá que reaccionar para mejorar la productividad, los negocios y la vida diaria de la gente. Si los dispositivos de que disponemos tuvieran más acceso a la información sobre nuestra posición y nuestra actividad, serían mucho más útiles. Pero es necesario contar con una app o un servicio que funcione bien.

La Internet de las Cosas representa un concepto general que define la capacidad de los dispositivos conectados a la red de percibir y recoger datos del mundo que nos rodea, y luego compartirlos por internet, enviándolos adonde haga falta para su procesamiento y su utilización con fines diversos e interesantes.

Pero la Internet de las Cosas se basa en los datos, no en las cosas. Y éstos tienen que ser precisos, seguros y procesables. Si algo no se puede medir, no se puede gestionar. Aunque esta afirmación sea perfectamente cierta, si no se puede medir la producción de estos últimos de estos dispositivos con precisión, probablemente no tengan ningún valor, porque unos datos erróneos provocan decisiones equivocadas, especialmente cuando uno no se da cuenta de que los datos son erróneos.

Un gran ejemplo fue el accidente del vuelo 447 de Air France, en el que, según parece, los pilotos levantaron el morro del avión pese a que habían perdido velocidad, porque los sensores les dijeron que iban demasiado rápido. Este dato erróneo debió de hacer que empeoraran la situación. Contar con un equipamiento completo y conectado y generar un flujo de registros no garantiza la precisión. Los datos sólo son lo precisos que puedan ser el sistema y los sensores, combinados con cierto conocimiento del sistema, que pueda separar las señales del ruido.

Como experimento personal de la precisión de éstos, yo usé los datos de calorías de tres sensores/sistemas diferentes para hacer un seguimiento de las calorías consumidas en cinco salidas de jogging. Usando un Fitbit (con pulsómetro), otro Garmin (con pulsómetro) y uno Strava (que aprovecha el feed de datos del Garmin), obtuve tres series de datos diferentes para cada carrera. Incluso los dos que compartían datos daban resultados diferentes.

Suponiendo que hayas gestionado tus sensores y el proceso de obtención de datos correctamente para garantizar la precisión de los mismos, el paso siguiente es asegurarte de que éstos se han guardado de forma segura y de que conservan su integridad durante su tránsito por el sistema. En la IdC, los negocios pueden empezar con un sensor ya presente en las instalaciones o en el terreno, y que opere de forma remota. Del mismo modo, los vehículos pueden enviar montones de datos de telemetría y de servicio a sus fabricantes.

Todos ellos se recogen y luego pasan por una serie de servidores y aplicaciones antes de que por fin acaben en pleno centro de datos, para que sean analizados y se pueda actuar en consecuencia.

Cada minuto enviamos 204 emails, generamos 1,8 millones de «me gusta» de Facebook, enviamos 278 tuits y colgamos 200.000 fotografías en Facebook.

En 2011 se vendieron 12 millones de etiquetas RFID (usadas para capturar datos y seguir el movimiento de objetos en el mundo físico). Con el despegue de la Internet de las Cosas, se calcula que en 2021 este número habrá aumentado hasta los 209.000 millones.

El boom de los datos y de la Internet de las Cosas irán de la mano. Eso significa que el número de dispositivos que se conectan a la red aumentará de los 13.000 millones de hoy a los 50.000 millones en 2020.

Se espera que el sector de los macrodatos y de la Internet de las Cosas crezca de los 10.200 millones de dólares de 2013 a unos 54.300 millones en 2017.

¿Qué es lo que está pasando? La Internet de las Cosas se basa en un aumento de la comunicación entre máquinas; depende de la computación en la nube y de las redes de sensores que recogen datos; es una conexión móvil, virtual e instantánea; y dicen que va a hacer que todo sea «inteligente» en nuestras vidas, desde las farolas de las calles hasta los puertos marítimos.

En 2007 se hundió un puente en Minesota y mató a mucha gente, porque las placas de acero no estaban preparadas para soportar el peso del puente. Cuando reconstruimos los puentes podemos usar cemento inteligente: un cemento equipado con sensores para controlar las tensiones, las grietas y las torsiones, que nos avisa para que reparemos los defectos antes de que causen una catástrofe. Y este tipo de tecnología no sólo protege las estructuras del puente.

Si hay hielo en el puente esos mismos sensores del cemento lo detectarán y comunicarán la información a tu coche a través de la red inalámbrica. Si el coche sabe que se va a encontrar con un peligro más adelante, dará instrucciones al conductor para que baje la velocidad, y si el conductor no lo hace, el coche mismo lo hará. No es más que un ejemplo de las comunicaciones sensor-máquina y máquina-máquina que pueden producirse. Los sensores del puente comunican con la maquinaria del coche: convertimos información en acción.

Las implicaciones de todo esto se van haciendo evidentes. ¿Qué puedes conseguir cuando un coche inteligente y una red urbana inteligente empiezan a hablarse? Vamos a conseguir la optimización del flujo del tráfico simplemente porque en lugar de contar con semáforos con temporizadores, tendremos semáforos inteligentes capaces de responder a los cambios en el flujo del tráfico. Se enviará información sobre el tráfico y las condiciones de la red viaria a los conductores, proponiéndoles rutas alternativas a las zonas congestionadas, cubiertas de nieve o en obras.

Así que ahora tenemos sensores que monitorizan y hacen un seguimiento de todo tipo de datos; tenemos apps en la nube que los traducen en información útil y que la transmiten a máquinas en el terreno, lo que permite obtener respuestas móviles y en tiempo real. Y así los puentes se convierten en puentes inteligentes, y los coches… en coches inteligentes.

Las empresas de construcción han empezado a equipar sus silos y sus camiones con sensores que pueden controlar las existencias, como la cantidad de cemento almacenada, y transmitir esa información a través de una plataforma en la nube para acelerar las entregas y asegurar la continuación de la actividad. Y los gigantes de la industria petrolera han empezado a aplicar tecnologías móviles sensor-máquina que previenen accidentes con gran antelación gracias al análisis rápido y a la acción inmediata. Cuando los sensores detectan un problema —como una corrosión o una pérdida en una conducción—, la tecnología máquina-máquina (M2M) permite atajarlo inmediatamente.

Otro ejemplo de aplicación de la IdC en la industria petrolera son los pozos inteligentes. Se trata de pozos con mecanismos de control del flujo y sensores de profundidad, para que puedan ser monitorizados y controlados desde la superficie sin poner en riesgo la seguridad de los obreros. El pozo inteligente utiliza tecnología sísmica 4D, que monitoriza las fugas de gas, el flujo del agua, los cambios de presión y cualquier otra alteración provocada por las fluctuaciones en los movimientos sísmicos, facilitando la predicción y el control de los impactos sísmicos que pudieran causar daños significativos.

Pero seguimos pensando a pequeña escala. Hay que ir más allá de la construcción, más allá de la energía. Tenemos sensores capaces de medir fuerza, carga, momento dinámico y presión; sensores que pueden detectar la presencia de gas y sustancias químicas; sensores que oyen las vibraciones del sonido y distinguen entre diferentes señales acústicas; sensores que toman la temperatura, detectan el movimiento, la velocidad y el desplazamiento; que identifican la posición, la presencia y la proximidad. En otras palabras, tenemos la posibilidad de recoger datos prácticamente ilimitados en tiempo real.

¿Cómo le damos utilidad a todos estos datos? Echa un vistazo a tu propia casa. ¿Qué elementos puedes dotar de inteligencia? He aquí uno muy simple: una vez observé un sistema de videoconferencia que permitía al dueño de un perro hablarle, llamarle y darle de comer de forma remota con una aplicación inteligente. Piensa en grande. Una casa que vincula alarmas de humo, sistemas de seguridad y consolas de entretenimiento con tu teléfono. Una casa con sensores instalados en las tuberías que pueden detectar fugas antes de que se produzcan.

Recientemente Microsoft se asoció con una empresa de San Francisco para codificar información en ADN sintético para comprobar su potencial como nuevo medio de almacenamiento de registros.

Twist Bioscience le proporcionó a Microsoft 10 millones de filamentos de ADN con el objetivo de codificar datos digitales. En otras palabras, Microsoft está intentando descubrir cómo usar las moléculas que componen el código genético humano para codificar información digital.

Aunque aún estamos a años de distancia de la obtención de un producto comercial, las primeras pruebas han demostrado que es posible codificar y recuperar el ciento por ciento de datos digitales del ADN sintético. El uso del ADN podría permitir el almacenaje de enormes cantidades de ellos en un minúsculo componente. En Twist sostienen que un gramo de ADN podría almacenar casi un billón de gigabytes de datos.

Cada vez es más importante encontrar nuevos modos de almacenar datos, ya que las personas los generan cada vez más en sus vidas diarias, y porque estamos conectando millones de sensores IdC.

También es importante para Microsoft, que opera una de las mayores plataformas de nube públicas. Encontrar modos más eficientes de almacenar datos podría reducir los costes, y el almacenamiento basado en ADN tiene el potencial de durar más que los medios usados actualmente.

Microsoft también colabora con gobiernos de todo el mundo para que entren en el mundo de los macrodatos y la IdC, cambiando así sus operaciones diarias. Los gobiernos usan herramientas de análisis predictivo para mejorar tremendamente la calidad de sus decisiones. Y van recogiendo y analizando grandes volúmenes de información para potenciar tanto su eficiencia como el servicio que dan a los ciudadanos.

En 2016 Microsoft también anunció que Cortana, su asistente personal controlado por voz, análogo a Siri, estaba a punto de emprender el vuelo gracias a una nueva asociación entre Microsoft y Boeing.

Microsoft y Boeing han anunciado su asociación para trasladar el conjunto de servicios digitales de aviación a la nube de Microsoft, y el resultado final es que los servidores de Microsoft van a volverse más inteligentes, según la empresa.

«Centralizar las aplicaciones de aviación digital de Boeing en la plataforma de macrodatos de Microsoft permitirá analizar una gran serie de datos procedentes de múltiples fuentes». El objetivo de Boeing era usar la plataforma inteligente Cortana para que los operadores de la aerolínea pudieran gestionar de forma más efectiva su inventario, para programar de forma más eficiente los horarios de pilotos y personal de cabina y los servicios de mantenimiento —que podrían provocar retrasos en los vuelos— a partir de los registros recopilados en la nube.

Imagínate un «programador inteligente» centralizado que sepa qué aviones necesitan mantenimiento y cuándo, así como la disponibilidad del personal, los horarios de los vuelos y la carga de los aviones: podría ser mucho más proactivo que la mayoría de sistemas actuales gestionados por humanos.

Quizá vayas observando una tendencia común. Una de las grandes ventajas de las tecnologías inteligentes es la capacidad de predecir y prevenir problemas cualquiera que sea su procedencia. Si la batería de tu coche fuera inteligente, te diría cuántos viajes exactamente puedes hacer antes de que se agote. Si pudieras monitorizar y controlar tus propiedades a distancia y a tiempo real, tendrías conocimiento de cualquier problema en el momento en que surgiera, y ahorrarías mucho dinero.

Este repaso no incluye ni de lejos todos los aspectos en los que van a afectarnos esta tecnología y sus datos. Va a cambiar las cosas y crear nuevas oportunidades en todos los campos imaginables.

Seguridad para todos

La Internet de las Cosas inmediatamente desata controversias sobre la privacidad de los datos personales. Se trate de información sobre nuestra ubicación física o de nuestro peso o tensión arterial —informaciones útiles quizá para quienes nos proporcionan atención médica—, el hecho de que haya información personal nuestra actualizada y detallada viajando por el mundo es un motivo evidente de preocupación.

Si te conectaste a la red en Estados Unidos en octubre de 2016, probablemente observarías que unos cuantos de tus sitios web favoritos dejaron de funcionar durante un buen rato. Ahora los expertos dicen que se debió a que miles de dispositivos IdC —como grabadoras de vídeo o cámaras conectadas a la web— fueron víctimas de un ataque informático.

Una vez se hicieron con el control de estos dispositivos, los hackers los manipularon para que enviaran un número desorbitado de peticiones a una empresa que da servicio a los sitios web de Netflix, Google, Spotify y Twitter.

Cuando el tráfico aumentó tanto que resultó imposible gestionarlo, los sitios web se colapsaron. Fue un ataque de la vieja escuela —llamado habitualmente «ataque de denegación de servicio», pero esta vez desplegado a través de la nueva red de dispositivos que llamamos la Internet de las Cosas.

Los expertos en seguridad llevaban años advirtiéndonos de que los dispositivos conectados a internet son susceptibles de sufrir el ataque de los hackers. Lo que no sabían exactamente era qué podrían hacer los hackers una vez penetren en tu televisor, tu nevera o tu termómetro inteligentes, por ejemplo.

Ahora ya tenemos la respuesta, y es peor de lo que imaginaban los expertos. Utilizando las cámaras de seguridad y las grabaciones de vídeo de negocios de fuera de Estados Unidos, los hackers han creado un ejército de dispositivos capaces de bloquear grandes pedazos de internet y, posiblemente, silenciar los datos de las personas y de la IdC.

El condado de Montgomery (Maryland, Estados Unidos) está empleando la Internet de las Cosas para crear un campo de pruebas con el fin de ayudar a los granjeros a aumentar su eficiencia y su rentabilidad. En particular, el condado de Montgomery está trabajando con granjeros que acceden voluntariamente a implantar en sus granjas sensores que pueden ayudarles a operar de un modo más eficiente, midiéndolo todo, desde la temperatura del suelo al agua o el uso de los pesticidas. También están usando la tecnología para ayudar a los granjeros que producen lácteos a enviar los informes obligatorios para la producción de la leche.

En la otra punta del mundo, la Compañía de Aguas de Áqaba, en Jordania, que distribuye agua a 130.000 habitantes, necesitaba un sistema más efectivo de monitorización y gestión de los suministros de agua, con el fin de poder servir agua a sus clientes de un modo más eficiente. Usando la plataforma de la nube, la Compañía de Aguas de Áqaba ha encontrado un modo sencillo de hacer un seguimiento de sus infraestructuras y de sus bombas a distancia. «Ahora, con nuestra red, a través de una serie de alertas y alarmas automatizadas, podemos detectar y resolver problemas en cuanto ocurren —explicaba Naem Saleh, director general de la Compañía de Aguas de Áqaba—. Eso significa que nos enteramos inmediatamente de cualquier problema y de su localización. No necesitamos enviar empleados en busca de fugas, lo que nos ayuda a reducir la inversión en este concepto».

Pero para poder confiar en que estas infraestructuras tan importantes puedan gestionarse y controlarse a distancia a través de la Internet de las Cosas, usando los macrodatos, es necesario asegurarse de que los datos están bien protegidos.

El gran punto débil de la Internet de las Cosas es que el número de dispositivos se multiplica. Hace diez años, la mayoría de nosotros sólo teníamos que preocuparnos de proteger nuestros ordenadores. Hace cinco, tuvimos que preocuparnos también de proteger nuestros teléfonos inteligentes. Ahora tenemos que preocuparnos de proteger el coche, los electrodomésticos, nuestras prendas y muchos otros dispositivos IdC.

El hecho de que haya tantos dispositivos susceptibles de ser pirateados significa más oportunidades para los hackers. Puede que hayas oído hablar de que los hackers podrían llegar a controlar coches de forma remotamente, haciéndolos acelerar o frenar. Pero también podrían usar dispositivos aparentemente banales como los sistemas de vigilancia de bebés o el termostato, para obtener información privada o simplemente por aguarle el día a alguien. Se trata de pensar qué podría hacer un hacker con un dispositivo si consiguiera burlar su sistema de seguridad.

Con la difusión de la Internet de las Cosas tenemos que pensar en proteger cada vez más dispositivos. Pero aunque empezaras a tomarte en serio la seguridad, las compañías tecnológicas que fabrican estos nuevos mecanismos se toman los riesgos demasiado a la ligera. Y uno de los problemas es que las empresas no actualizan sus dispositivos lo suficiente (o quizá no los actualicen en absoluto). Eso significa que un dispositivo IdC y sus datos, que eran seguros cuando los compraste, pueden volverse inseguros a medida que los hackers van encontrándoles nuevas vulnerabilidades. Los ordenadores solían tener este problema, pero las actualizaciones automáticas han contribuido a aliviar este problema.

De hecho, varios incidentes han demostrado que la Internet de las Cosas presenta numerosas vulnerabilidades, por lo que corren el riesgo de sufrir ciberataques. Los dispositivos inteligentes —electrodomésticos, coches o prendas, por ejemplo— son básicamente nuestros compañeros de vida. A diferencia de un smartphone, que contiene información sobre nuestras comunicaciones, contactos, fotografías y vídeos, estos otros dispositivos revelan información más específica sobre nuestra conducta, como nuestros hábitos al volante, de salud o en la cocina, o el patrón de aprendizaje de nuestros hijos. Eso ofrece unas posibilidades inmejorables para los hackers que quieran buscar datos personales, incluidos los recogidos por los dispositivos conectados a internet que se pueden llevar en las prendas de vestir.

Charlie Miller y Chris Valasek, investigadores de seguridad, alteraron para siempre el concepto de «seguridad del vehículo», cuando publicaron en Wired la demostración de que podían piratear un Jeep Cherokee de 2014 a distancia, desactivando la transmisión y los frenos. Los coches pirateados no son los únicos dispositivos de la Internet de las Cosas capaces de matar a alguien, por supuesto. El equipo médico más especializado también presenta vulnerabilidades de software y hardware que podría permitir que algún individuo malintencionado se infiltrara y los controlara, lo que podría tener consecuencias mortales. Sólo hay que preguntarle al cardiólogo de Dick Cheney que, temiéndose que el exvicepresidente pudiera ser objeto de un ataque mortal a través de su marcapasos, le desactivó la conectividad wifi durante el tiempo que Cheney ocupó el cargo.

Cuando Mattel incorporó conectividad wifi a su Hello Barbie para permitir lo que describía como conversaciones artificialmente inteligentes en tiempo real, dejó desprotegida la conexión de la app para smartphone Hello Barbie, lo que permitiría interceptar todo el audio que registra la muñeca. Una «nevera inteligente» de Samsung, diseñada para sincronizarse por wifi con el Google Calendar del usuario, no validaba los certificados de seguridad, lo que exponía al robo de las credenciales de Gmail del usuario. Incluso los dispositivos para la vigilancia de bebés siguen siendo preocupantemente inseguros, pese al riesgo de que algún pirata pueda espiar a los pequeños: un estudio de la empresa de seguridad Rapid 7 puso a prueba nueve vigilabebés y observó que todos eran relativamente fáciles de piratear.

Hace diez años yo mismo formé parte de un equipo que rediseñó el sistema de actualizaciones de Microsoft Windows para aumentar la seguridad de los datos y de los ordenadores de todo el mundo usando tecnologías P2P. Dado que Microsoft me había contratado para mejorar la ciberseguridad de millones de ordenadores, teníamos que recopilar grandes cantidades de datos y desarrollar nuevos algoritmos para comprender si los ordenadores eran capaces de ayudarse entre sí o no, qué ordenadores había que parchear primero, en qué orden habría que enviar las actualizaciones, etc. La tecnología P2P (de red de pares) había sido usada para distribuir archivos de música y películas entre consumidores, pero nunca para proteger los ordenadores de ataques.

A pesar de los tremendos esfuerzos de ingeniería realizados para proteger los datos y los ordenadores, los usuarios aún sufrían retrasos en la respuesta durante las grandes actualizaciones, que los dejaban en situación de vulnerabilidad a los ciberataques, lo que dejaba expuestos sus datos. Por ejemplo, el 13 de abril de 2004 se lanzaron cuatro parches de Windows para resolver una vulnerabilidad de seguridad que afectaba a los ordenadores que usaban Windows. El tráfico del sitio de actualizaciones de Microsoft Windows aumentó más que en la actualización anterior. Unos 3 o 4 millones de usuarios visitaron el sitio. Como resultado de esta sobrecarga, muchos clientes se encontraron con que su perfil de Windows Update no funcionaba bien y no pudieron descargar los últimos parches, lo que dejaba sus ordenadores y sus datos en una situación de riesgo frente a los hackers.

El retraso que sufrieron los clientes implicó que algunos tuvieran que esperar horas o incluso días antes de instalar el parche en su sistema, alargando así el tiempo de exposición de estos sistemas vulnerables más de lo deseado y abriendo la puerta a los piratas informáticos. Las actualizaciones de seguridad, el software antivirus y otras actualizaciones críticas tenían que llegar a los ordenadores lo antes posible para minimizar el riesgo de propagación de gusanos informáticos, de robo de datos o de ciberataques.

Hasta el año 2000, las empresas de seguridad que distribuían soluciones a los ordenadores de todo el mundo lo hacían situando equipos específicos en determinados lugares de la red, o en sus límites, el mejor ejemplo de este tipo de soluciones es, de nuevo, Akamai, que gestiona más de 40.000 servidores en más de 40 países. No obstante, usar redes de pares y hacer que los ordenadores colaboren protegiéndose mutuamente es en sí mismo un sistema expansible y mucho más rápido. Internet puede adaptarse espontáneamente a la demanda aprovechando los recursos que proporciona cada ordenador, y aumentando su nivel de protección mucho más rápidamente. La capacidad de mantener segura la red crece al mismo tiempo que la demanda de esas soluciones de seguridad, ya que los ordenadores se ayudan mutuamente al tiempo que se protegen.

La última versión de Microsoft Windows ha llenado numerosos titulares últimamente, pero uno de ellos reveló un modo totalmente novedoso de hacer llegar actualizaciones de Windows al usuario: la comunicación entre pares (peer-to-peer o P2P). En el pasado, Microsoft ha invertido mucho en sus propios servidores de actualización, que proporcionan parches y otros remedios a los usuarios, sean particulares o empresas. Pero ahora mismo está usando la tecnología que diseñamos hace más de una década para proteger los datos más rápidamente.

El próximo desafío de la Internet de las Cosas es protegerlo todo de los gusanos, los virus y los ataques que circulan por la red. Para conseguirlo, empresas como Microsoft tienen un mecanismo activo a todas horas, 365 días al año, para monitorizar las nuevas vulnerabilidades informáticas, el malware y los defectos potenciales que puedan convertir a tu ordenador en víctima de un ataque informático. Una vez detectada la vulnerabilidad, el sistema de actualización de Windows se pone en marcha. Este sistema de protección cibernética es el mayor del mundo y se ocupa de la seguridad de 400 millones de ordenadores, pero ahora tendrá que ampliarse a la Internet de las Cosas, para mantener el alma de sus datos protegida y segura.