FIGURA 3.2. La ley de Moore muestra la evolución de la velocidad de procesamiento de los ordenadores frente al tiempo. Cada dos años se duplica el número de transistores que pueden empaquetarse en un área dada de un circuito integrado. Esta división bienal por dos del tamaño de los transistores significa que la velocidad de computación de cada transistor se duplica cada dos años por el mismo coste.
Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la Naturaleza. En 1981, un físico israelí, Jakob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendemos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado (10−66 cm2). Por lo tanto, el número total de bits en una esfera de R centímetros de radio está dado por 10−66 × R2. Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la Naturaleza.