3 · Pluralidad de tecnociencias.

Así como en el siglo XIX se fueron diferenciando una pluralidad de ciencias, algunas tradicionales (matemáticas, lógica, astronomía, medicina, física, química, biología, geología), otras nuevas (economía, sociología, psicología, antropología, etc.), en base a las cuales se organizó el edificio científico del siglo XX, durante el siglo XXI habrá que distinguir entre dichas disciplinas y sus correspondientes tecnociencias: tecnomatemáticas, tecno-lógica, tecno-astronomía, tecnofísica, tecnoquímica, tecnobiología, tecnomedicina, tecnogeología, tecnoeconomía, tecnosociología, tecnopsicología, etc. Puesto que hemos afirmado la emergencia de una nueva modalidad de actividad científico-tecnológica, es preciso contrastar si este cambio se ha producido en las diversas disciplinas, así como cuándo, cómo y dónde. Ello requeriría estudios muy detallados de la evolución de cada disciplina científica (y tecnológica), tarea que de ninguna manera pretendemos afrontar.

En este apartado enumeraremos múltiples ejemplos de tecnociencias específicas, aunque sea de manera muy sumaria. Con ello, el concepto de «tecnociencia» irá adquiriendo una determinación extensional, no solo intensional, como hasta ahora. Nos limitaremos a evocar brevemente algunos de los principales ejemplos, sin pretender sistematizar el estudio ni el desarrollo de cada una de las tecnociencias.

a) Tecnomatemáticas.

Aunque la macrociencia surgió históricamente en el ámbito de la física, empezaremos nuestro examen con la tecnomatemática, y ello por tres razones. En primer lugar, porque el proyecto ENIAC fue uno de los primeros cánones de la macrociencia. En segundo lugar, porque la informática puede ser considerada como la modalidad principal de tecnomatemática. En tercer lugar, porque el paso de las matemáticas a las tecnomatemáticas ilustra bien la diferencia entre macrociencia y tecnociencia. Las tecnomatemáticas pueden ser macro-, pero también micro-, sin dejar de estar mediatizadas por las tecnologías informáticas. Puesto que hemos subrayado la importancia que atribuimos a la informática en el desarrollo y consolidación de la tecnociencia, su propia emergencia requiere una atención especial.

La tecnomatemática surgió como computing Sciences, centrándose en una de las tareas más tradicionales de los matemáticos: el cálculo numérico y simbólico. A partir de los años 30 se produjo una gran efervescencia en este terreno. En 1930, Vannevar Bush construyó en el MIT un analizador diferencial que resolvía ecuaciones importantes para el estudio de los circuitos eléctricos. El alemán Konrad Zuse ideó una calculadora universal, la Z3, terminada en 1941. Se trataba de una pequeña máquina con un lector de bandas, una consola para el operador y dos armarios con 2600 relés, que podía hacer varias operaciones matemáticas, por ejemplo multiplicaciones y raíces cuadradas con números de 22 bits. Los valores iniciales había que introducirlos a mano, por lo que mostraba deficiencias técnicas importantes. Los usuarios de dichas máquinas eran científicos, pero también militares: la Z4 de Zuse fue usada en 1943 para operaciones contra los barcos aliados en el Mediterráneo[39]. Otro gran proyecto que conviene mencionar fue el MARK I, iniciado por Howard H. Aiken en Harvard en 1937. Introdujo un registro de los datos, que posteriormente se convertiría en la memoria de los ordenadores. Financiado por IBM, el MARK I fue presentado en 1944 y ofrecido de inmediato a instancias militares por su potencia de cálculo. Todas estas máquinas eran electromecánicas. La introducción de la tecnología de los tubos de vacío (Atanasof y Berry, con su ABC de 1939) permitió crear las primeras calculadoras electrónicas, así como la representación digital de los números, frente a la decimal.

El ENIAC de la Moore School de Pennsylvania, iniciado en 1943 y perfeccionado en su diseño por von Neumann en 1945, logró integrar varias mejoras técnicas surgidas durante los años 30. Lo construyeron Eckert, un ingeniero, Mauchly, un consultor, y Goldstine, encargado militar de dicho proyecto, que fue clasificado como secreto (proyecto PX de la Oficina de Material Balístico). El ENIAC tenía 17.648 tubos de vacío, 70.000 resistencias, 10.000 capacidades, 1500 relés y 6000 conmutadores manuales, por lo que era una máquina grande y compleja, cuyo funcionamiento requería muchas habilidades técnicas. Si se estropeaba un solo tubo, el cálculo quedaba interrumpido y había que volver a empezar. Costó una fortuna, 500.000 dólares de aquella época, pero funcionaba a gran velocidad y era a la vez programable y universal, es decir, aplicable a diversos tipos de cálculos. Su consumo de electricidad y su emisión de calor era enorme, por lo que tenía que ser refrigerado continuamente. Tras la incorporación de von Neumann al equipo, el diseño del aparato mejoró mucho, así como su automatismo[40]. Así surgió el EDVAC, heredero directo del ENIAC, y tras él una saga de ordenadores diseñados conforme a la «arquitectura von Neumann». Financiado por la Army norteamericana, puede ser considerado como el primer ordenador en el sentido actual del término, y por tanto como el paradigma inicial de la macromatemática. La novedad principal consistió en que el programa que ordenaba la ejecución de los cálculos se grababa en la misma máquina, es decir, la idea originaria de lo que hoy denominamos software: «la nueva máquina, contrariamente a sus predecesoras, ya no calculaba: trataba información binaria, lo que le permitía, indirectamente, efectuar cálculos»[41]. Cabe decir que, si el ENIAC fue el canon de la macromatemática, el EDVAC prefiguraba lo que nosotros denominamos tecnomatemática, en la medida en que era una máquina diseñada para procesar información, no solo para hacer cálculos[42]. De ahí la importancia que atribuimos al proyecto ENIAC-EDVAC para investigar el origen de la macromatemática y la tecnomatemática.

No nos extenderemos en detalles históricos, que hoy en día son perfectamente accesibles. Del proyecto ENIAC-EDVAC nos interesa subrayar, por una parte, su enorme envergadura y complejidad, por otra su gran eficacia para computar rápidamente trayectorias de proyectiles y ondas expansivas y, por supuesto su carácter de proyecto militar, con una importante componente industrial e ingenieril. Mas no hay que olvidar el profundo conocimiento científico que aportó von Neumann, tanto del campo de la física y las matemáticas como de las emergentes teorías de la computación, algunas de ellas vinculadas a la neurofisiología. Significativamente, tras finalizar la guerra mundial surgieron importantes divergencias entre los miembros del equipo que lo habían diseñado y construido. Eckert y Mauchly quisieron comercializar la máquina: de hecho, acabaron fundando UNIVAC. El Ejército construyó nuevos prototipos más potentes para usos militares. Von Neumann se empeñó en utilizarlo ante todo para la investigación científica y se dedicó a dar conferencias por todo el mundo para dar a conocer el invento. El conflicto acabó en tribunales y ulteriormente en una dura competencia comercial entre IBM y UNIVAC. Por tanto, ya en los albores de la tecnomatemática aparecieron muchas de las características distintivas que hemos señalado, aunque aquí no vayamos a estudiarlas en detalle.

En las décadas ulteriores esta tendencia «tecnomatematizadora» continuó desarrollándose. Ramas relativamente complejas de las matemáticas como el Álgebra y el Cálculo Diferencial e Integral fueron absorbidas por la tecnomatemática. Hoy en día existen numerosos paquetes matemáticos (Macsyma, Reduce, Mathematica, SPSS, etc.) que permiten llevar a cabo automáticamente operaciones que los matemáticos tardaron siglos en poder dominar, como la resolución de ecuaciones algebraica, el cálculo diferencial, la resolución de integrales o las distribuciones estadísticas. Otro tanto cabe decir de la Geometría, puesto que los ordenadores permiten trazar y resolver figuras geométricas con mucha mayor facilidad y rapidez que con las técnicas clásicas. También han surgido nuevas modalidades de geometría, como la Turtle Geometry, que pueden ser llamadas con rigor tecnogeometrías (o infogeometrías). Todo ese software matemático está basado en las propias teorías matemáticas, pero incrementa considerablemente la capacidad de operar y, sobre todo, genera nuevos objetos matemáticos, por ejemplo los fractales. Los ordenadores llevan a cabo numerosas acciones matemáticas mejor que las personas, lo cual no implica que todo pueda ser hecho por los ordenadores. La tecnomatemática no implica la desaparición de las matemáticas. Lo que ocurre es que ha aparecido un nuevo modo de hacer matemáticas.

Los ejemplos abundan: en Teoría de Números ha surgido una nueva rama, la Computational Number Theory, que tiene gran utilidad para la criptografía y para abordar algunos problemas clásicos, como la conjetura de Riemann. Buena parte de los problemas de Álgebra Elemental pueden ser abordados mediante programas informáticos de Computer Algebra, lo cual no impide que se siga investigando otras estructuras algebraicas con los métodos tradicionales. Otro tanto cabe decir del Análisis Matemático, ámbito en donde ha habido grandes progresos en su informatización, sin que esta haya sido exhaustiva, ni mucho menos. Uno de los ejemplos más significativos de tecnomatemática fue la demostración del teorema de los cuatro colores en Topología, sobre todo porque introdujo cambios radicales en una de las acciones más típicas de las matemáticas: la acción de demostrar, cuyo resultado es la demostración. Una parte importante de dicha demostración solo puede ser llevada a cabo mediante el ordenador, de modo que la mediación tecnológica llegó también a las demostraciones[43]. En cambio, pese a los esfuerzos que se han hecho en inteligencia artificial para la demostración automática de teoremas, se está muy lejos de lograrlo, salvo en casos sencillos. Sin embargo, las investigaciones relacionadas con la automatización de las demostraciones geométricas, por ejemplo, han acarreado importantes avances en otros ámbitos de la tecnociencia, como la robótica, la visión artificial (machine vision) o la geometría de sólidos[44].

Un tercer canon de tecnomatemática fue la creación en los años 80 de un nuevo lenguaje matemático, TEX, diseñado por Knuth y ampliamente difundido por todo el mundo. Hoy en día, los matemáticos escriben en alguna de las diversas variantes de TEX, manteniendo un lenguaje informático común a todos ellos. Esa técnica de info-escritura matemática ha venido a añadirse a los diversos sistemas de signos utilizados por los matemáticos, no a eliminarlos. Un cuarto ejemplo es la infografía (Sutherland, 1963) y podrían mencionarse muchísimos más. La historia de la tecnomatemática queda por hacer, en la medida en que no coincide plenamente con la historia de la informática, aunque ambas hayan surgido de un mismo embrión.

La influencia no solo se produce en un sentido, de las tecnologías sobre las matemáticas, sino también en sentido contrario. El enorme desarrollo de los algoritmos informáticos, por ejemplo, ha generado nuevas teorías matemáticas: Algorítmica, Teoría de Funciones Recursivas, Teoría de la Complejidad Computacional, Inteligencia Artificial, etc. No solo hay tecnologías de la computación, sino también ciencias de la computación. La tecnociencia no solo genera nuevas tecnologías (como la Robótica), también nuevas ciencias y nuevas teorías. Es una de las razones para llamarla tecnociencia, no simplemente tecnología.

Aunque en principio las tecnomatemáticas exigían grandes equipamientos informáticos, cosa que sigue ocurriendo (ordenadores CRAY, interconexión de múltiples ordenadores a través de Internet para investigar determinados problemas matemáticos, etc.), no es menos cierto que las tecnomatemáticas se desarrollan actualmente con equipamientos informáticos relativamente pequeños. Por tanto, siendo el tamaño un rasgo distintivo entre la ciencia y la macrociencia, no es el principal entre la ciencia y la tecnociencia. Mucho más importante es el profundo cambio que la informática ha suscitado en la actividad matemática, parte de la cual sería inviable hoy en día sin esa mediación tecnológica, empezando por la acción de escribir y publicar. A lo largo de la historia, siempre que ha surgido un nuevo formalismo matemático los cambios han sido ingentes en casi todas las ciencias. Este es el caso de la aparición del nuevo formalismo informático, que ha sido el principal factor de la emergencia de la tecnomatemática, conjuntamente con las profundas transformaciones que han experimentado las comunidades matemáticas, parte de las cuales han devenido empresas tecnomatemáticas. La criptología y la inteligencia artificial son dos de los ejemplos canónicos, pero podrían aportarse otros muchos, como la propia Estadística, cuyo desarrollo, aplicación y enseñanza resulta imposible hoy en día sin ayuda informática.

b) Tecnoastronomía.

Es otro de los grandes ejemplos de tecnociencia, sobre todo porque afecta a una de las disciplinas científicas más antiguas, junto a las matemáticas y la medicina. Así como el telescopio de Galileo revolucionó la astronomía del siglo XVI y XVII, así también las nuevas tecnologías de observación, computación y representación de datos han modificado radicalmente nuestra concepción del cosmos y, además, la investigación astronómica. A lo largo del siglo XX se ha producido una profunda revolución en Astronomía, tanto desde el punto de vista teórico como desde la perspectiva praxiológica. A nuestro modo de ver, se trata de una revolución tecnocientífica, suscitada ante todo por los cambios de la práctica astronómica, y más concretamente de los aparatos de observación, que en la actualidad son enormes equipamientos que exploran el espacio a distancias siderales.

La primera rama de la astronomía que dio el paso hacia la macrociencia fue la radio-astronomía[45]. Sin embargo, nos centraremos en la astronomía óptica, y más concretamente en el programa del telescopio espacial Hubble, porque ilustra mejor el paso de la astronomía a macroastronomía, y luego a tecnoastronomía. Los grandes telescopios (Wilson, Palomar, etc.) existían desde antes de la segunda guerra mundial, e incluso cabe decir que siempre los ha habido en la historia de la astronomía. La tecnoastronomía del proyecto Hubble no depende del tamaño ni del coste de los instrumentos, siendo ambos grandísimos, sino de un cambio profundo en la práctica investigadora, como veremos a continuación. También nos interesa el hecho de que dicho macroproyecto fue impulsado por instancias «externas» a la comunidad de astrónomos ópticos, quienes fueron muy escépticos al principio, si no críticos[46].

El agente tecnocientífico que impulsó el proyecto Hubble desde 1970 fue la NASA, Agencia Científica norteamericana especializada en la investigación espacial. El proyecto fue duramente debatido durante tres años y aprobado finalmente por la Casa Blanca y el Congreso estadounidense, aunque su desarrollo hasta 1990 sufrió muchos avatares, y en particular un parón presupuestario en junio de 1974. La razón invocada fue que no era uno de los cuatro proyectos seleccionados como prioritarios por la National Academy of Sciences. En efecto, en 1972 el Comité de Astronomía de la Academia de Ciencias no lo había considerado urgente para la década de los 70, relegando su realización a los años 80, y como segunda prioridad. Había otros proyectos alternativos, como la sonda espacial a Júpiter (proyecto Galileo), que interesaba en particular a los astrónomos planetarios. Sin embargo, un lobby formado por la NASA, las empresas involucradas en la construcción del telescopio espacial y algunos astrónomos concretos (Bahcall, Schwarschild y Spitzer, en particular este último), consiguió superar el escepticismo de la mayoría de astrónomos[47], pactando algunas modificaciones en el proyecto inicial. La Cámara de Representantes había exigido cofinanciación internacional, momento en el que entró la European Space Agency europea (ESA). Desde el punto de vista científico, el diseño inicial se orientaba a la astronomía estelar y galáctica, de gran interés para la cosmología. Un cambio técnico, la sustitución del detector fotográfico inicialmente previsto por otro que fuera sensible a las zonas rojas del espectro, permitió que el diseño del Hubble fuera más adecuado para la observación de los planetas del sistema solar, condición requerida por otro comité de la Academia de Ciencias. Presiones ulteriores a favor del Proyecto Galileo obligaron a buscar nuevamente una solución de compromiso. Como veremos en el capítulo 2, esta es una de las maneras en que las controversias tecnocientíficas se desarrollan: mediante pugnas por las prioridades de unos y otros macroproyectos entre las diversas subcomunidades científicas, las cuales buscan aliados en Agencias gubernamentales, parlamentarios, políticos, comités, etc., con el fin de sacar adelante las iniciativas que les interesan.

El telescopio espacial lo empezó a construir la NASA en 1977, contratando la mayor parte de la tarea a empresas privadas norteamericanas. Fue lanzado al espacio en 1990 y desde entonces ha funcionado razonablemente bien. Puesto que el proyecto de un telescopio espacial surgió en los años 60, el proyecto Hubble cubre por completo la etapa de transición de la macrociencia a la tecnociencia en el ámbito de la astronomía óptica. El coste estimado del primer proyecto (1965) fue de un billón de dólares. El coste real fue muy superior.

El objetivo principal del telescopio espacial consistía en evitar las interferencias de la atmósfera para los telescopios ópticos e incrementar el grado de precisión de las observaciones. La astronomía óptica, a diferencia de la radio-astronomía, siempre había estado limitada a la zona visible del espectro electromagnético. El telescopio espacial, en cambio, puede observar en el intervalo del espectro que va de los 120 nanómetros a 1 milímetro, ampliando considerablemente la capacidad observacional de la disciplina. Fue una mejora tecnológica importante que permitió ampliar una capacidad de acción científica, la observación. Aunque el Hubble no logró alcanzar la capacidad observacional para la que había sido diseñado, debido a la aparición de un fenómeno poco estudiado, la aberración esférica en las enormes lentes de las que estaba provisto, sin embargo mejoró considerablemente la astronomía óptica, contribuyendo positivamente al desarrollo de la cosmología. Numerosas teorías científicas han podido ser contrastadas gracias al Hubble. Pese a ello, la comunidad científica, salvo algunas excepciones, no veía al principio la necesidad de llevar a cabo una inversión económica tan grande, puesto que los telescopios terrestres en buenas condiciones atmosféricas podían ser más potentes, aunque tuvieran menos capacidad de resolución. En resumen, las expectativas epistémicas suscitadas por el telescopio espacial no justificaban, a juicio de los astrónomos ópticos, la enorme inversión ni las desventajas derivadas de esa dependencia de un único aparato, al que luego sería muy difícil mejorar técnicamente, por estar en el espacio, no en tierra. Por otra parte, ninguna institución científica, por poderosa que fuese, estaba en condiciones de asumir el altísimo coste de la operación. El liderazgo de la NASA fue absolutamente necesario para que el proyecto se llevara a cabo. Ya en las fases de diseño del Hubble, la NASA decidió convertir al Hubble en una «national facility», es decir, puso los numerosísimos datos que obtendría el Hubble cuando estuviera operativo a disposición de todos los astrónomos norteamericanos, y no solo de unas cuantas instituciones. Esta decisión hizo gravitar el coste del proyecto sobre la Administración Federal y la propia NASA, pero contribuyó decisivamente a que el proyecto Hubble, entonces denominado Large Scale Telescopy, tuviera mayor aceptación entre los astrónomos ópticos, a los que se les prometían datos en gran cantidad para sus futuras investigaciones, incluidos los astrónomos planetarios. La macro-astronomía óptica, entonces en fase de proyecto, prometía generar nuevos conocimientos, siempre que la tecnología funcionara. El proyecto comenzó a tener más adeptos, frente a la tradición de los telescopios asentados en tierra y fijos. Como subraya Smith, «en los primeros años de la NASA, la investigación en astronomía espacial fue asunto de un pequeño número de investigadores principales y de sus equipos asociados, ubicados en una universidad o en un laboratorio»[48]. El proyecto Hubble modificó radicalmente esta cultura de investigación atomizada, forzando la creación de redes de investigación con universidades y centros de investigación interconectados a través del Hubble.

Obviamente, la NASA tuvo que resolver el problema de la transmisión de los datos desde el espacio a la tierra, para lo cual fue imprescindible la creación de redes telemáticas. En una palabra, del observatorio localizado en una determinada institución se pasó al observatorio-red, con una gran cantidad de astrónomos conectados al Hubble para poder acceder a los datos. La informatización de la investigación astronómica resultó asimismo necesaria, al igual que la firma de contratos de colaboración con la NASA por parte de las universidades y observatorios astronómicos beneficiarios.

Comprobamos con ello que este proyecto macrocientífico fue convirtiéndose en tecnociencia en el pleno sentido del término durante la fase previa a su realización, es decir, durante la construcción del Hubble. En su fase de diseño en los años 60 ya principios de los 70, el Hubble y los demás telescopios espaciales proyectados eran únicamente macrociencia. Conforme el proyecto se iba configurando, surgieron nuevas necesidades, no solo científicas o tecnológicas, sino también de financiación, colaboración y, en particular, de cambios en la organización de la actividad astronómica. Toda una cultura de investigación fue transformada gracias al proyecto Hubble. Cuando el telescopio fue lanzado al espacio, la comunidad de astrónomos ópticos se había transformado radicalmente. Había pasado a integrarse en una empresa tecnocientífica, liderada en este caso por una Agencia Gubernamental. Procesos similares ocurrieron en otros sectores de la astronomía, aunque aquí no vayamos a ocuparnos de ellos.

El Hubble ha sido decisivo para la investigación astronómica de finales del siglo XX, por haber generado muchísimo conocimiento, tanto observacional como teórico. Las verificaciones, comprobaciones y falsaciones de conjeturas han estado a la orden del día desde que el Hubble fue lanzado y estuvo operativo en la década de los 90. Pero lo importante es que, antes de que surgiera nuevo conocimiento, la práctica científica se había transformado radicalmente. Esta es una de las principales tesis que mantenemos. Abundan las obras de cosmología en las que el Telescopio Espacial Hubble es mencionado una y otra vez como un instrumento decisivo cara a la obtención de conocimiento astronómico. En cambio, escasean los estudios sobre el cambio previo en la estructura de la investigación astronómica, que había sido provocado por dicho proyecto mucho antes de que el aparato fuera operativo. La revolución tecnocientífica en astronomía óptica fue impulsada por el proyecto del telescopio espacial, no por sus resultados epistémicos. Una vez realizada esa revolución, surgieron grandes cambios teóricos. Cuando hablamos de tecnociencia es preciso analizar primero los cambios en la práctica científica, que son los que caracterizan ese nuevo tipo de revoluciones. Independientemente del efecto que han tenido los datos procedentes del Hubble para los modelos cosmológicos alternativos que estaban en disputa a finales del siglo XX, la revolución tecnocientífica se había producido antes en dicha disciplina. La implantación en la astronomía óptica de un nuevo modo de producción de conocimiento científico es el signo distintivo de la tecno-astronomía frente a la astronomía tradicional.

Conviene subrayar que los grandes proyectos tecno-astronómicos, como el Hubble, no solo generan nuevos instrumentos de observación, sino que también requieren nuevos sistemas de transporte, telecomunicaciones y procesamiento de la información. Las lentes de los actuales astrónomos (a quienes se denomina astrofísicos) no son fijas, sino móviles, y son transportadas a miles de kilómetros del espacio terrestre por cohetes espaciales. Ello permite mejorar la observación y acceder a objetos astronómicos que antes eran inobservables, así como detectar nuevos fenómenos. Para ello es imprescindible que los datos obtenidos por el telescopio espacial sean enviados a la Tierra en forma completamente automatizada y a través de redes telemáticas. No hay Hubble posible ni exploración de los planetas y las galaxias sin avances en el ámbito de la informática y las telecomunicaciones. Las TIC son uno de los requisitos de la tecnoastronomía, y en general de la investigación tecnocientífica. Por tanto, las acciones astronómicas clásicas y los datos que de ellas se obtienen están completamente mediatizados por las diversas tecnologías que permiten obtenerlos y transmitirlos a los ordenadores terrestres. Estamos de nuevo ante un claro ejemplo de tecnociencia, que ha traído consigo un enorme desarrollo teórico, no solo técnico. Cabe decir que una buena parte de la astronomía contemporánea se ha convertido en tecnoastronomía y que las diversas teorías cosmológicas que proponen los físicos teóricos están basadas todas ellas en tecnodatos o tecnoevidencia empírica. La noción de evidencia empírica está mediatizada tecnológicamente, y ello necesariamente, al igual que las demostraciones tecnomatemáticas. Un nuevo argumento, esta vez epistemológico y metodológico, para apoyar la distinción entre ciencia y tecnociencia.

Hay que resaltar asimismo el carácter transdisciplinar de las investigaciones tecnoastronómicas. La construcción y el funcionamiento de los tecno-observatorios depende de una multitud de disciplinas científicas y tecnológicas, pero los resultados que se derivan de un proyecto así no solo inciden sobre la astronomía, sino también sobre otras ramas de la ciencia y la ingeniería. La transdisciplinariedad y la simbiosis entre ciencia y tecnología es uno de los rasgos distintivos de la tecnociencia, frente a la compartimentación disciplinar de las ciencias y las tecnologías de la Era Moderna. La tecnoastronomía proporciona múltiples ejemplos de ello, al igual que otras tecnociencias. Baste pensar que, por influencia de la tecnoastronomía, la denominación «geología» ha dejado de ser la más adecuada, puesto que ahora es posible hacer estudios «geológicos» de objetos que no son la Tierra: los planetas y sus satélites, los cometas, las estrellas, etc.

La tecnociencia también conduce a replantear algunos problemas filosóficos clásicos. Mencionaremos un ejemplo extremadamente sencillo, que nos parece suficientemente ilustrativo. Supongamos el enunciado «hay agua en Marte». ¿Es verdadero o falso? Para dilucidar esta cuestión es imprescindible la tecnociencia, y en concreto el proyecto Hubble, puesto que hay que desplazar naves espaciales cerca de Marte, eventualmente depositar robots en su superficie, automatizar por completo la acción de observar, transmitir los datos obtenidos a la Tierra a través de redes telemáticas, etc. Hecho esto, los astrónomos, que habrán de conocer a fondo las técnicas de representación informática de los datos transmitidos por el Hubble, llamarán a los químicos para que verifiquen la verdad o falsedad del enunciado y, en su caso, estudien la composición del agua marciana, lo cual tendrá extremado interés para los «marteólogos» y para otras muchas comunidades científicas. Una nueva muestra de la transdisciplinariedad de las investigaciones tecnocientíficas y del cambio radical que la tecnociencia induce sobre la noción de «conocimiento empírico», gracias al cambio previo de la práctica científica.

c) Tecnofísica.

La física fue el ámbito científico donde primero se desarrolló la macrociencia, con los diversos Radiation Laboratories, el proyecto Manhattan y la construcción de ciclotrones. También fue pionera en la reestructuración de la actividad científica. Los macroproyectos de los años 40 y 50 tuvieron una fuerte componente industrial y, en cuanto a los vínculos con la política científica, muchos físicos de prestigio se dedicaron a ella y acabaron convirtiéndose en auténticos profesionales. Algunos Departamentos y Centros de Investigación de Física Aplicada fueron los primeros ejemplos de industrialización y empresarialización de la ciencia. En conjunto, cabe decir que en Física abundan ejemplos de macrociencia y de tecnociencia, tanto en los EEUU como en otros países. Un estudio a fondo de la macrofísica y la tecnofísica durante el siglo XX requeriría varios libros, por lo que aquí nos limitaremos a mencionar brevemente algunos ejemplos ilustrativos, dejando para investigaciones ulteriores un análisis más detallado de la revolución tecnofísica del siglo XX. Nos centraremos en la primera época, la macrofísica, por haber sido decisiva en el cambio de estructura que sufrió la investigación científica en la época de la segunda guerra mundial.

El proyecto Manhattan es el principal ejemplo, razón por la que nos centraremos en él. Desde un punto de vista financiero, fue el primer gran macroproyecto del siglo XX, solo superado por los grandes programas de exploración espacial. Se calcula que en el período 1942-45 los EEUU invirtieron 2 millones de dólares de aquella época en su desarrollo, es decir, más de 100.000 millones de dólares al valor de dicha divisa a finales de siglo. Se trató de un proyecto militar máximamente secreto. En su desarrollo colaboraron físicos teóricos, experimentalistas, químicos, matemáticos, ingenieros y numerosas industrias. Desarrollado a un ritmo vertiginoso, experimentó cambios importantes en función de los descubrimientos científicos que se hicieron conforme se iba avanzando. Desde el principio se trabajó en dos proyectos, uno orientado a la fabricación de una bomba de fisión de uranio o de plutonio, otro hacia una bomba de implosión. Al principio, la prioridad la tenía la bomba de fisión. En 1944 se le dio mayor prioridad a la bomba de plutonio y se comenzó a investigar en las bombas termonucleares cuya posibilidad había sido sugerida por Teller, uno de los físicos involucrados en el proyecto. Los resultados finales fueron muy satisfactorios para los promotores del proyecto y para buena parte de quienes se integraron en él. El conocimiento científico avanzó enormemente y surgieron desarrollos tecnológicos innovadores: la física nuclear ha generado una nueva fuente de energía, desconocida hasta el siglo XX. Algunas empresas se hicieron millonarias gracias al proyecto Manhattan. Los militares norteamericanos se apuntaron un éxito indudable, que ha marcado las estrategias de los ejércitos durante todo el siglo XX: poseer la bomba atómica ha sido el objetivo de todas las grandes potencias. En resumen, desde la perspectiva de los impulsores del proyecto y de los diversos grupos que participaron activamente en él, los resultados fueron muy satisfactorios.

La valoración de dichos resultados cambia por completo si nos situamos fuera del núcleo de la macrociencia. Los daños humanos, sociales y ecológicos en Japón fueron inconmensurables con los que cualquier otra arma de guerra había producido en toda la historia. El desarrollo ulterior de armas nucleares por parte de la URSS dio lugar al equilibrio del terror, situación que no ha tenido precedentes en la historia, dada la magnitud del desastre que hubiera podido producir una guerra nuclear. Las valoraciones morales y religiosas de los bombardeos fueron claramente negativas, pero no tuvieron ninguna incidencia, ni siquiera para frenar el desarrollo de la carrera armamentística. El proyecto Manhattan es un ejemplo claro de la primacía de facto de otros sistemas de valores, aparte de los valores éticos y religiosos. Pocos ejemplos hay tan claros para mostrar que la macrociencia y la tecnociencia generan profundos conflictos de valores. La noción kuhniana de inconmensurabilidad entre teorías resulta irrelevante a la hora de analizar esta nueva modalidad de contradicción, que se produce en la práctica y con terribles consecuencias para las personas, los países y el medio ambiente. Como veremos en el capítulo siguiente, el proyecto Manhattan es uno de los ejemplares canónicos del nuevo paradigma tecnocientífico. Jamás el ser humano había demostrado tal capacidad de transformar el mundo, en este caso destructivamente. El conocimiento tecnocientífico mostró fehacientemente su enorme potencialidad al llevar la capacidad destructiva a cotas hasta entonces insospechadas.

Es importante recordar que Los Álamos fue una institución militar en la que algunos científicos civiles tuvieron un gran poder. Fue el primer ejemplo práctico de los efectos que puede tener el contrato social entre políticos, científicos, ingenieros, industriales y militares. Internamente, la estructura de los diversos departamentos y equipos fue estrictamente jerárquica. El Director del Laboratorio, Oppenheimer, tenía potestad para trasladar a los científicos de un equipo a otro, en función de las prioridades del proyecto. Dentro de cada equipo, los científicos y los ingenieros colaboraron estrechamente. Había un Consejo de Gobierno y otro de Coordinación entre los distintos Departamentos, que al principio eran cuatro: Theoretical División, Chemistry and Meiallurgy División, Experimental Physics División y Engineering and Ordenance División[49]. Por su propia denominación, quedaba claro el carácter militar de la investigación, así como el tipo de personal científico-tecnológico involucrado. Groves y Oppenheimer siguieron desde el principio una estrategia pluralista: aunque la línea dedicada a la fisión era prioritaria, también se apoyaban líneas de investigación alternativas, siempre que pudieran conducir al resultado de producir una bomba atómica que, llegado el caso, pudiera ser fabricada en serie. Para este segundo objetivo el plutonio parecía preferible al uranio, porque podía ser fabricado en un reactor nuclear, cuya construcción en Chicago fue apresuradamente encargada a la empresa privada Du Pont. Esta magna obra de ingeniería fue crucial para el desarrollo del proyecto, porque gracias a la construcción de dicho reactor nuclear se descubrió el fenómeno de la fisión espontánea y relativamente frecuente del plutonio (una vez al mes), que pasó a convertirse en un nuevo tema de investigación científica. La producción industrial del plutonio, necesaria para el proyecto Manhattan, posibilitó el estudio de un nuevo hecho físico, hasta entonces desconocido. Como afirma L. Hoddeson al comentar este descubrimiento, «este experimento de fisión espontánea es uno de los casos de estudio más importantes de la historia de la física, porque ilustra cómo un resultado puramente científico pudo cambiar el curso de la historia»[50]. Como mínimo, cambió las prioridades de la investigación del proyecto Manhattan. El pequeño grupo dedicado a estudiar la bomba de implosión pasó de cinco miembros a cincuenta en muy pocos meses.

Conforme se necesitaban expertos en explosivos (Kistiakowsky), en dinámica de fluidos (von Neumann), en computación (IBM, ENIAC) o en fisión espontánea (grupo de Berkeley, dirigido por Segré), inmediatamente eran fichados para el proyecto[51]. Entre tanto, los químicos trabajaban en la separación del plutonio 240. Otra de las características del proyecto Manhattan fue el paralelismo entre diversas líneas de investigación. Cuando todavía quedaban importantes problemas por resolver (teóricos, instrumentales, de producción industrial del plutonio, de ensayos previos, etc.), los demás equipos continuaban sus investigaciones independientemente. La coordinación de las etapas y de los logros previsibles fue fundamental para el éxito del proyecto, así como la flexibilidad a la hora de modificar las prioridades y de mantener vivas líneas de investigación alternativas, por si alguna fallaba. El objetivo final, estrictamente militar, primaba sobre las convicciones que pudieran tener los científicos involucrados en el proyecto sobre los presupuestos teóricos más acertados y sobre las líneas aparentemente más prometedoras. Cualquier teoría era válida, siempre que se vislumbraran en ella posibilidades de lograr el objetivo principal. Otra muestra clara de subordinación de los objetivos epistémicos de los científicos a los fines principales del proyecto, así como de la instrumentalización del conocimiento científico para el logro de un objetivo militar.

El 20 de julio de 1944, el Consejo Director del proyecto Manhattan anunció que, a partir de esa fecha, «toda la prioridad había que dársela al programa de implosión; al mismo tiempo, no se abandonaría nada del programa alternativo»[52]. Como tercera prioridad, Oppenheimer autorizó a Teller a investigar la cuestión de las bombas termonucleares. Como consecuencia de esta decisión, se crearon dos nuevas Divisiones en el Proyecto Manhattan: la G (gadget), dedicada exclusivamente al problema teórico de la implosión del plutonio, y la X (explosivos e investigaciones complementarias sobre la implosión). Algunos científicos e ingenieros fueron trasladados de las anteriores Divisiones a las nuevas, pero sin eliminar ninguna. Las nuevas prioridades no implicaron el abandono de las anteriores, como ha sido habitual en las políticas científicas ulteriores. La ponderación de las diversas líneas de investigación por la vía de la asignación presupuestaria y de la dotación de equipamientos y recursos humanos es la regla de oro de la racionalidad tecnocientífica, Dicho de otra manera: las políticas científicas son estructuralmente pluralistas, puesto que financian paralelamente líneas de investigación diferentes, e incluso opuestas. Los criterios de valoración efectivos se ponen en evidencia al analizar este tipo de indicadores y de estrategias. Esta es una de las razones por las que la axiología de la ciencia, basada en indicadores y protocolos de valoración de los proyectos, constituye una de las vías adecuadas para el análisis de la actividad tecnocientífica.

A partir de esa fecha, se produjeron otras muchas aportaciones científicas, tecnológicas e industriales. No hay que olvidar que, además de diseñar la bomba y demostrar su posibilidad teórica, había que construirla y ensayarla[53]. No entraremos en esos detalles, para no alargarnos excesivamente en la descripción del Proyecto Manhattan. Lo dicho hasta ahora basta para nuestros objetivos en este apartado. Estamos ante uno de los grandes paradigmas de la macrociencia, con todas las especificidades que le hemos atribuido en el apartado 1.4, aparte de otras muchas que son propias del Proyecto Manhattan. Construir la bomba fue un asunto de gran complejidad tecnológica, industrial y financiera, pero las acciones tecnocientíficas finales (Hiroshima y Nagasaki) no hubieran sido posibles sin la estricta dedicación de grandes científicos al proyecto, provinientes de varias disciplinas. La pluralidad de agentes necesarios es uno de los aspectos más notables del Proyecto, así como la total primacía de un objetivo militar, para cuyo logro fueron movilizados ingentes recursos financieros, humanos, tecnológicos e industriales. Como subraya Hoddeson: «para resolver el difícil y complejo problema de la implosión antes de que terminara la Segunda Guerra Mundial fue preciso desarrollar un nuevo y potente modo de investigar, en el que científicos, ingenieros, metalúrgicos y artesanos trabajaron estrechamente juntos, apropiándose unos y otros de las cajas de herramientas de los demás»[54]. En mayor o menor grado, esta es una de las características típicas de los proyectos de macrofísica.

Desde un punto de vista metodológico, el pluralismo también fue muy considerable. El éxito del proyecto Manhattan no puede ser atribuido a los cambios de teoría (aunque alguno hubo) ni a nuevos métodos científicos. En cambio, la radical transformación experimentada por la práctica científica y tecnológica a lo largo del proyecto es un factor causal de su éxito, como han subrayado quienes han indagado a fondo el desarrollo del mismo. Sin la ingente financiación del Gobierno de los EEUU, sin la militarización de la investigación, sin la colaboración de grandes empresas industriales, algunas de las cuales habían incorporado nuevos métodos de producción y organización y sin la estricta disciplina a la que estuvieron sometidos los científicos y los ingenieros, la bomba atómica no hubiera podido fabricarse en un lapso de tiempo tan breve. Las urgencias derivadas de la actividad bélica fueron decisivas para que este primer gran ejemplo de macrofísica tuviera éxito. Ulteriormente se convirtió en un canon de cómo se debe actuar en la investigación macrocientífica. Por ello lo tomamos como uno de los puntos de arranque de la revolución tecnocientífica.

El análisis de otros ejemplos de macrofísica nos llevaría a parecidas conclusiones, aunque, por supuesto, con matices y diferencias significativas. Otro tanto cabría decir de los proyectos propiamente tecnofísicos, como los grandes aceleradores de partículas (Brookhaven, CERN, etc.)[55]. Como dijimos anteriormente, un estudio minucioso del desarrollo de la macrofísica y de su transición hacia la tecnofísica requeriría un espacio mucho más amplio y, además, la confluencia de diferentes tipos de análisis. La filosofía de la ciencia no basta para estudiar este tipo de casos. Para analizar a fondo los cambios en la estructura de la práctica científica se requiere la colaboración de diferentes expertos en los estudios de ciencia y tecnología.

Como conclusión, y siempre a título de hipótesis a investigar empíricamente, concluiremos que en la tecnofísica intervienen tecnologías y disciplinas científicas muy diversas, pero prácticamente siempre las tecnologías informáticas, al igual que en las tecnomatemáticas y la tecnoastronomía. El cálculo de la masa crítica de uranio o de plutonio enriquecidos que se precisa para hacer estallar una bomba atómica no hubiera sido posible sin la ayuda de las computadoras que proporcionó IBM y de las nuevas técnicas de cálculo numérico que aportaron dichas máquinas, al igual que el ENIAC en la fase final del proyecto Manhattan para simulaciones en dinámica de fluidos. Otro tanto cabe decir del cálculo de trayectorias de proyectiles, de los movimientos de las partículas en los grandes aceleradores y en general de los sistemas físicos no lineales. La resolución de este tipo de problemas fue el principal motivo que llevó a von Neumann a involucrarse personalmente en los proyectos ENIAC y Manhattan. Lo mismo podría decirse hoy en día de otras muchas ramas de la física: meteorología, túneles de viento, aeronáutica, etc. Pero el ejemplo más claro lo constituye la investigación en pequeñas partículas, que depende por completo de la construcción de grandes aceleradores de partículas y de la tecnología informática imprescindible para procesar los datos. Disponer de uno de esos laboratorios tecnofísicos constituye una condición necesaria para investigar en ese campo y detectar nuevas partículas. Otro tanto cabe decir de las nanotecnologías actuales, que son un híbrido entre física, biología molecular, ingeniería e informática. No resulta exagerado afirmar que la tecnofísica constituye la vanguardia de la investigación en física, sin perjuicio de que siga habiendo físicos teóricos que, a partir de los tecnodatos, construyan conceptos y propongan leyes conforme a la metodología científica tradicional. La tecnofísica no solo genera descubrimientos, también invenciones y nuevas teorías. Lo importante es que las genera a partir de una práctica investigadora previa que requiere una profunda hibridación entre científicos y tecnólogos, así como el apoyo de otros agentes tecnocientíficos que tienen sus propios objetivos y metas.

d) Tecnoquímica.

Desde la revolución industrial, la química ha estado estrechamente vinculada a la actividad empresarial. Por ello, no es de extrañar que los primeros macroproyectos químicos fueran desarrollados por empresas privadas, concretamente la Compañía Du Pont. Con el fin de diversificar las fuentes de las que procede la tecnociencia, en el campo de la química nos centraremos en la política de I+D desplegada por esta empresa a lo largo de buena parte del siglo XX, porque muestra muy bien que la macroquímica y las macrociencias pueden surgir también gracias a la iniciativa privada. Como señala Hounshell, el término Big Science designa normalmente «proyectos científicos financiados por el Gobierno que implican gastos masivos en equipamientos de gran tamaño en torno a los cuales trabajan amplios equipos de investigadores»[56]. Sin embargo, las empresas privadas han desarrollados algunos proyectos macrocientíficos en función de sus respectivas políticas de I+D. En el caso de la tecnociencia es lo más habitual, puesto que la inversión privada en I+D+i supera a la pública en los EEUU desde los años 80. Por ello conviene analizar con un cierto detalle el modo en que surge la macrociencia en una empresa privada.

La Compañía Du Pont creó su primer laboratorio de I+D en 1902, siguiendo las ideas de uno de sus fundadores, Pierre S. du Pont, para quien las inversiones en investigación básica formaban parte de su estrategia corporativa:

En nuestro Laboratorio Experimental deberíamos intentar tener en marcha en todo momento algunas investigaciones cuya esperanza de éxito sea muy grande, aunque paralelamente puedan tener un gran coste para su desarrollo, exigiendo investigaciones prolongadas, incluso de varios años, así como el empleo de recursos considerables. Planteo esta política por dos razones: primero, porque permitirá disponer de un conjunto de personas bien entrenadas cuyo empleo estable esté asegurado. Segundo, y más importante, porque de esta manera el valor del Laboratorio será eventualmente mucho mayor[57].

Esta política empresarial tuvo como resultado paradigmático la invención del nylon en 1940, no solo porque su comercialización produjo enormes beneficios a la compañía, sino ante todo porque el modelo organizativo que llevó a dicho descubrimiento se convirtió en canónico para Du Pont, así como para el proyecto Manhattan y otros macroproyectos en los años 40 y 50. Du Pont fue llamada a colaborar con el proyecto de Los Álamos por esta razón, atribuyéndosele la importante responsabilidad de dirigir la producción de plutonio, cosa que hizo con gran eficiencia en la célebre factoría Clinton de los alrededores de Chicago. Por tanto, nos centraremos en estos dos ejemplos de macrociencia, de los muchos que podrían encontrarse en la firma Du Pont.

En los años 30, Du Pont era una empresa que intervenía en negocios muy distintos: pinturas, plásticos, explosivos, productos químicos, amoníaco sintético, celofán, etc. Charles Stine, el jefe de la oficina central de investigación creó en 1927 en Wilmington (Delaware) un grupo de investigación básica, argumentando que podría ser útil para varios sectores de producción de la empresa a la vez. Uno de los científicos que fichó fue Wallace H. Carothers, un químico de Harvard, a quien puso a la cabeza del grupo de investigación sobre polímeros, con el encargo explícito de hacer investigación básica en química. El equipo inicial de Carothers no era muy numeroso (9 investigadores), por lo que no cabe hablar de megaciencia de polímeros en los años 30. Pero el inesperado descubrimiento por dicho grupo del neopreno, la primera fibra sintética, y sobre todo del nylon, una poliamida, reforzó enormemente al grupo de investigación básica. El Departamento de I+D de Du Pont empleaba en 1934 a 850 científicos e ingenieros dedicados a la investigación básica y aplicada. Bolton, el sucesor de Stine en la dirección del laboratorio de investigación básica, introdujo una nueva organización en la actividad investigadora, que con el tiempo pasó a ser el modelo organizativo principal de I+D en la empresa. Este cambio organizativo es el que convirtió la pequeña ciencia y la investigación aplicada a la industria que Du Pont promovía desde principios de siglos en una auténtica organización macrocientífica, y con el tiempo tecnocientífica.

En primer lugar, el Departamento de investigación fundamental comenzó a colaborar estrechamente con otros dos Departamentos de la empresa, orientados a la investigación aplicada. Con ello se produjo el vínculo entre científicos, ingenieros y expertos en mercadotecnia. Además, Bolton creó un grupo de dirección, al que denominó Sieenng Committee, que agrupaba a los líderes de los diversos equipos investigadores junto con los responsables de la dirección de las investigaciones. Había dos reuniones semanales y la asistencia era obligatoria. La función del Comité era coordinar la investigación. Se establecieron reuniones de revisión de la investigación que llevaba a cabo cada grupo, en las que los investigadores o los grupos presentaban los resultados que iban obteniendo. Además organizaron el proyecto nylon en forma paralela, sin esperar a que cada grupo hubiera obtenido los resultados esperables para poner en marcha a los restantes equipos de investigación. En resumen, se creó un modelo de investigación coordinada, dirigida y continuamente supervisada por la dirección, dividiendo la investigación por componentes, poniendo en marcha todas ellas y planificando las progresivas síntesis y convergencias entre los respectivos resultados. La planta industrial para la fabricación del nylon fue construida cuando la investigación todavía estaba en curso. Otro tanto cabe decir de los estudios realizados para el lanzamiento de la fibra sintética al mercado, los cuales incidieron indirectamente en la orientación que había que dar a la actividad investigadora. En total, la compañía gastó más de 15 millones de dólares en el proyecto del nylon, una cantidad inusitada para la época, porque superaba la de algunos departamentos gubernamentales. El éxito comercial del lanzamiento, orientado exclusivamente a sujetadores femeninos, fue enorme. A partir de los 40, Du Pont orientó su producción hacia otras prendas y objetos, pero lo importante fue que atribuyó el éxito del proyecto nylon a la estrecha colaboración entre científicos, ingenieros y expertos en comercialización, así como al modelo de gestión de I+D que había diseñado Bolton.

El éxito del nylon contribuyó a prestigiar a la compañía en todo EEUU y su modelo de gestión de I+D se convirtió en canónico. En 1942, Arthur Compton se puso en contacto con Du Pont para encargarle el diseño, construcción y puesta en funcionamiento de una planta de producción de plutonio, siempre que los plazos para ello fuesen mínimos. A diferencia del uranio, el plutonio podía ser producido en grandes cantidades, razón por la que los diseñadores del proyecto Manhattan siempre optaron por dos vías posibles para la construcción de bombas atómicas, una de uranio y otra de plutonio. La eficiencia de Du Pomt al cumplir el encargo recibido fue decisiva para el desarrollo del proyecto Manhattan, como vimos anteriormente. La compañía inspiraba confianza por su larga tradición en I+D, pero sobre todo por el modelo organizativo que había puesto en funcionamiento para el proyecto nylon.

Cabe decir que en este momento es cuando la compañía Du Pont se involucra de verdad en un proyecto macrocientífico. El proyecto nylon fue un preludio de ello. Al principio fue un proyecto clásico de investigación industrial. Pero la incorporación de científicos básicos y el nuevo modelo organizativo lo transformaron en uno de los grandes precursores de la tecnociencia de financiación privada. Podemos concluir, por tanto, que la empresa Du Pont aportó uno de los rasgos distintivos de la tecnociencia, sin perjuicio de que su modelo organizativo fuera modificado y corregido en las décadas ulteriores. Los científicos que trabajaron en él perdieron la autonomía tradicional, que caracteriza a la ciencia académica. Las prioridades, los objetivos concretos y los plazos para lograrlos les venían dados por el Comité que dirigía la investigación. Algunos de los miembros de dicho Comité eran relevantes científicos, pero en tanto gestores de I+D asumieron otro tipo de valores y prioridades, aparte de los puramente epistémicos. Esta transformación es una constante en el paso de la ciencia a la tecnociencia. En este caso primaron las estrategias de la empresa, en otros los de la NASA o los de instituciones militares. La tecnociencia siempre implica una mixtura entre especialistas con diversas formaciones e intereses, así como una política científica preestablecida y nuevos modelos de organización de la actividad investigadora.

e) Tecnomedicina.

Las relaciones entre medicina y biología siempre han sido muy estrechas. Además, buena parte de la investigación en estas dos ciencias ha estado basada en las aportaciones de la física, la química, la farmacología, etc. En este apartado haremos breves alusiones a algunos de los desarrollos macrocientíficos en medicina. Otros aspectos serán considerados cuando hablemos de tecnobiología.

La emergencia de la macrofísica en la época de la segunda guerra mundial incidió fuertemente en la medicina, tanto en los aspectos científicos como en los tecnológicos. El desarrollo de la física nuclear indujo la creación de los marcadores fisiológicos de fósforo radioactivo, que comenzaron a desarrollarse en el Radiation Laboratory de Lawrence en Berkeley. En general, los radioisótopos supusieron una mejora tecnológica importante en medicina, contribuyendo a la aparición de una nueva disciplina, la medicina nuclear (o atómica). En 1936 se produjeron los primeros usos clínicos de esas nuevas técnicas.

Sin embargo, la macromedicina propiamente dicha surgió tras la guerra como derivación del Proyecto Manhattan. La División Médica de dicho proyecto puso en funcionamiento diversos laboratorios en el período 1942-45 (Chicago, Rochester, Berkeley, Columbia y Washington) con el fin de estudiar los efectos producidos por la exposición a las radiaciones emitidas por materiales radioactivos, así como la toxicidad de los materiales químicos que se requerían para procesar el uranio. Finalizada la guerra, los integrantes de dicha División, con el físico Warren a la cabeza, tenían claro que esa línea de investigación debía continuar. También pensaban que la medicina nuclear podría aportar una auténtica revolución en biología y en medicina[58]. La penicilina (1940) fue el gran avance médico de la segunda guerra mundial, pero la investigación de la energía nuclear abría un campo de investigación amplio y novedoso, que atrajo a físicos, químicos, médicos y biólogos, con la imprescindible colaboración de ingenieros y técnicos. En 1948, Stanford Warren, que fue Premio Nobel de Medicina, lideró el desarrollo de la nueva especialidad, al ocupar cargos claves en las diversas instituciones que se fueron creando.

La Comisión de Energía Atómica tomó el relevo del Proyecto Manhattan y mantuvo su interés por la medicina. Warren propugnó que todos los descubrimientos que se habían producido durante la guerra en el campo de la medicina y la biología dejaran de ser secretos. También fomentó la creación de laboratorios de investigación de las Facultades de Medicina, la conexión con los hospitales y la creación de una Sociedad de Radiobiología que aglutinara a la comunidad científica emergente. La Comisión de Energía Atómica (AEC) adoptó el plan Warren y las Universidades que habían colaborado en la División Médica del Proyecto Manhattan siguieron recibiendo una financiación semejante a la de la época de guerra, incorporándose otras instituciones académicos y hospitalarias a la naciente radiobiología. Esta fue una de las vías por las que surgieron la macromedicina y la macrobiología, por influencia directa del proyecto Manhattan. La Universidad de California en Los Angeles, por ejemplo, firmó un contrato (GEN-12) muy importante con la AEC en 1947, por un importe de 250.000 dólares anuales. Ello permitió impulsar la biofísica, la radiología y la medicina nuclear. Ulteriormente se creó un Instituto para investigar el cáncer. En conjunto, Warren fue el promotor de un proyecto multidisciplinar de gran envergadura y tuvo el acierto de conectarlo con la enseñanza (Medical School) y con la clínica (Wadsworth Hospital, Birmingham Veterans Hospital), lo cual permitió formar a especialistas en las nuevas materias y aplicar los nuevos conocimientos de inmediato. Otro tanto ocurrió en Berkeley (Donner Foundation, especializada en la investigación del cáncer), en Rochester y en otras universidades norteamericanas.

Conforme al Informe Bush, la nueva estructuración de la actividad científica llegó plenamente a la medicina, tanto en el contexto de investigación como en los de aplicación y educación. Obviamente, esto solo ocurrió en algunas universidades, no en todas. La macromedicina emergente convivió con la medicina clásica, aunque no sin conflictos a la hora de repartir los presupuestos del Instituto Nacional de la Salud. En conjunto, cabe decir que la macromedicina surgió en los EEUU inmediatamente después de la segunda guerra mundial y como prolongación del proyecto Manhattan en tiempos de paz. Comprobamos así la enorme importancia que tuvo dicho proyecto a la hora de reestructurar el sistema norteamericano de ciencia y tecnología. Obviamente, la industria colaboró activamente en la tarea, fabricando los nuevos instrumentos precisos. La interdisciplinariedad de la investigación es uno de los aspectos que más resaltan en la macromedicina emergente a partir de 1946-47.

Otra iniciativa muy relevante fue el Isotope Distribution Program, diseñado por la National Science Foundation y ejecutado por la AEC. Lo dirigió Paul Aebersold durante veinte años, trasladando los laboratorios desde Los Álamos a Oak Ridge, con el status de Laboratorio Nacional. La creación de este tipo de national facilities ha caracterizado la política científica de los EEUU durante el siglo XX y, como ya vimos, constituye uno de los rasgos distintivos de la macrociencia. Tratándose de grandes laboratorios, muy costosos en su construcción y en su mantenimiento, el único modo de rentabilizarlos era ponerlos a disposición de numerosas universidades y centros de investigación. Ello requiere una gestión acertada y, entre otras consecuencias, fuerza la cooperación y la coordinación entre equipos que científicamente son competidores. El Oak Ridge Institute of Nuclear Studies fue utilizado por científicos de diversas disciplinas, incluidos biólogos y médicos. Se rompía con ello la separación entre las comunidades científicas, puesto que estas colaboraban de hecho en equipos multidisplinares financiados por el Gobierno y sus Agencias específicas. Este Instituto es un buen ejemplo de industria macrocientífica, en este caso pública, cuyo funcionamiento y organización es completamente distinto al de las comunidades y laboratorios académicos. Uno de sus objetivos era estimular los usos industriales y médicos de la energía nuclear[59]. Se trataba de diseminar el conocimiento que se había logrado durante la guerra y el que seguían obteniendo los laboratorios de investigación básica y aplicada, pero no solo a través de las aulas y las publicaciones científicas, que también, sino transfiriendo dicho conocimiento a las industrias y a los hospitales, es decir, en lo que nosotros denominamos contexto de aplicación. El final de la guerra supuso la vuelta a la actividad académica normal en los EEUU, pero también la aparición de un nuevo modelo de práctica científica, que tenía precedentes puntuales antes de la guerra, pero que ahora surgía como consecuencia de una política científica prediseñada y sistemática. Aunque la autonomía de estas industrias macrocientíficas era muy grande, detrás de ellas estaba el Gobierno Federal, en la medida en que se había involucrado en la tarea de fomentar la investigación y el desarrollo.

Podrían mencionarse otros muchos grandes ejemplos de macromedicina, como la guerra contra el cáncer que impulsó la administración Nixon en los años 60, pero las breves menciones que hemos hecho pueden bastar para bosquejar las líneas maestras del cambio, que también se produjo en el ámbito de la medicina. Por supuesto, nuevas disciplinas aparecieron y también se produjeron avances científicos importantes. Pero en esta obra nos ocupamos únicamente de la transformación de la práctica científica, y esto también sucedió en medicina. Las primeras grandes empresas especializadas en radioisótopos (Tracerlab en Boston, Abbott Laboratories en el norte de Chicago) fueron creadas a finales de los años 40. El objetivo de la política científica no solo era crear conocimiento, sino también generar industrias y aplicar de inmediato los avances científicos y tecnológicos en la mejora del nivel sanitario del país. Si analizáramos únicamente los progresos en el conocimiento, entenderíamos solo una parte de los objetivos de la política científica de la postguerra. El Instituto de Oak Ridge fabricaba radioisótopos (factoría científica) y luego los distribuía libremente a los agentes científicos, industriales y hospitalarios relevantes, a razón de 300.000 dólares al año (1949). Asimismo formaba expertos en radioisótopos, contribuyendo a la diseminación del conocimiento y a la creación de una comunidad de profesionales, que luego iban a insertarse en industrias, hospitales y centros de investigación de todo el país. Ulteriormente se pasó a subsidiar la adquisición de radioisótopos, a medida que el sector industrial fue creciendo. El Centro de Oak Ridge funcionó como una factoría de conocimiento, pero también como un motor en el sector de las macrociencias de la salud, dentro del sistema CyT norteamericano.

El Programa de Medicina Atómica, que contaba con unos fondos de 500.000 dólares anuales, fue decisivo para la emergencia de la macromedicina industrializada. Las 12 unidades de radioisótopos de 1949 se convirtieron en 33 en 1953. Un laboratorio medio tenía una superficie considerable (entre 1200 y 3000 pies cuadrados) y buena parte de ellos estaban en los hospitales. Lo importante es que esos laboratorios estaban coordinados entre sí a través de Oak Ridge, puesto que este Centro fue la matriz de todos ellos. Los laboratorios médicos fueron transformándose por todo el país, conforme a un nuevo modelo de laboratorio diseñado por expertos en política científica, construido por industriales y utilizado por científicos y técnicos.

La privatización de los laboratorios y los hospitales, junto con la informatización y otros factores, transformaron ulteriormente la macromedicina, convirtiéndola en tecnomedicina. En esta obra no nos ocuparemos de esta nueva fase, dejándola abierta a investigaciones ulteriores.

f) Tecnobiología.

Al hablar de tecnomedicina, vimos que los primeros desarrollos de la macrobiología surgieron como consecuencia del proyecto Manhattan. Sin embargo, el gran macroproyecto biológico es el del Genoma Humano, que se puso en marcha en los años 90. Se trata de un proyecto propiamente tecnocientífico, en el sentido que aquí damos a ese término, y por ello lo consideraremos como el canon de la tecnobiología. Antes de comentarlo, sin embargo, conviene mencionar las transformaciones que experimentó la biología en los años 50, y concretamente la genética. En esa época se inició la tecnobiología, aunque no con la envergadura que adquirió a finales del siglo XX.

El cambio en biología no procede de la macrofísica, sino de lo que hemos denominado tecnomatemática. Durante la guerra, la Oficina de Investigación Científica y Desarrollo (OSRD) había financiado proyectos sobre cuestiones computacionales de interés para la balística. Norbert Wiener colaboró en esos proyectos. De ahí surgieron sus primeras propuestas sobre servomecanismos y homeostasis fisiológica, hechas conjuntamente con Bigelow y Rosenbleuth. En la etapa final de la guerra, Wiener y von Neumann promovieron estudios sobre control automático digital, que luego fueron el origen de la cibernética[60]. Ambos trabajaron en biología a partir de 1945, partiendo de un modelo computacional: máquinas que se autorreproducen. La comunidad biomédica con la que von Neumann entró en contacto le animó a desarrollar esos modelos como herramienta heurística para investigar las acciones genéticas. En 1948, Wiener publicó su célebre libro Cybernetics, or Control and Communication in the Animal and Machine, en el que se comparaban los autómatas y los organismos biológicos. Wiener coincidía con von Neumann al pensar que los aminoácidos conforman cadenas de proteínas mediante procedimientos combinatorios y aplicó modelos matemáticos a la reproducción de los genes y de los virus. Ambos introdujeron un nuevo paradigma en genética, en el sentido kuhniano del término.

Ese mismo año, Claude Shannon publicó un importante artículo sobre su teoría matemática de la comunicación y al año siguiente divulgó esas ideas en colaboración con Warren Weaver, director de la Rockefeller’s Foundation Natural Science División y del programa de biología molecular de dicha Fundación. Shannon se ocupaba en cuestiones de criptoanálisis y teoría de códigos, e introdujo conceptos como el de redundancia y el de codificación binaria, siempre en el ámbito de la comunicación entre máquinas. Como resultado, la criptología y los computadores electrónicos (en concreto el MANIAC, continuación del EDVAC de von Neumann) comenzaron a utilizarse para analizar los códigos genéticos. En conjunto, el impacto de las ideas de Wiener, von Neumann y Shannon fue enorme, hasta el punto de que los genes comenzaron a ser considerados como máquinas biológicas que se comunican entre sí mediante códigos cifrados, y no solo como organismos bioquímicos. La noción de código genético fue ampliamente aceptada y utilizada, al igual que los métodos computacionales para investigarlo y descifrarlo. Henry Quastler asumió la tarea de repensar la biología como una ciencia de la información. Sus escritos fueron muy comentados, de manera que, cuando Quastler organizó un importante simposio sobre Information Theory in Biology en el Control Systems Laboratory de Brookhaven (1952), el nuevo paradigma encontró una comunidad científica emergente para desarrollarlo. Quastler propuso estimaciones de la cantidad de información que hay en un organismo humano (5x1025) y a partir de ello calculó que la descripción genética de un ser humano podía contener 5x1021 páginas de información. Lo que denominó catálogo del genoma tendría alrededor de un millón de bits.

En resumen, justo antes de que Watson y Crick publicaran en 1953 su celebérrimo artículo sobre la doble hélice del DNA, un nuevo paradigma se había instalado en el ámbito de la biología, y más concretamente en genética. El descubrimiento de la doble hélice por parte de Watson y Crick fue típicamente científico, a base de observar fotografías de las que Watson infirió la existencia de estructuras helicoidales en los genes. Sin embargo, previamente a ello se había instaurado en genética un nuevo paradigma, que requería la utilización de poderosos instrumentos de computación a la hora de investigar, dada la envergadura de las magnitudes de información consideradas. Además, el nuevo paradigma transfería a la biología una serie de conceptos procedentes de las computing Sciences y de la teoría de los sistemas artificiales. La genética actual no solo está basada en la doble hélice, sino también en la noción de código genético y conceptos derivados. Por ello afirmamos que, a diferencia de la genética mendeliana, la genética de la segunda mitad del siglo XX tuvo una fuerte componente tecnocientífica, que se vio reforzada ulteriormente con la introducción de las técnicas de DNA recombinante y, sobre todo, con el proyecto Genoma Humano.

En los años 50 se produjo una auténtica proliferación de modelos combinatorios, propuestos todos ellos con el fin de descifrar el código genético, noción que para entonces se había consolidado plenamente entre los investigadores. El propio Crick, modificando una propuesta de George Gamow (diamond code), propuso en 1956 el célebre código sin comas, que ulteriormente se reveló inadecuado. Teller sugirió un código secuencial. Y otros científicos (biólogos, físicos, matemáticos, ingenieros, etc.) propusieron otros modelos. El problema central de la genética de aquella época consistía en investigar la transferencia de información desde los ácidos nucleicos a las proteínas, partiendo siempre de la hipótesis de la codificación y recurriendo a los ordenadores más potentes de la época para las investigaciones empíricas, dada la magnitud de bits que se manejaban. Por su parte, Watson comenzó a hablar de información inter-bacterial, por ejemplo, ampliando el nuevo paradigma a otros campos de la biología, aparte de los genes. El nuevo paradigma infobiológico (o infogenético) avanzó rápidamente en los años 50, atrayendo a los mejores investigadores, siempre en colaboración con matemáticos, ingenieros e informáticos. No hay que olvidar que en su artículo seminal de 1953, Watson y Crick ya decían con claridad que:

Se sigue que en una molécula larga son posibles muchas permutaciones y por tanto parecería que precisamente la secuencia de bases es el código que traslada la información genética[61].

Esta etapa supuso la emergencia de la biología computacional, una de las modalidades más importantes de tecnobiología. Un estudio a fondo de la misma aportaría datos de enorme interés, pero con lo dicho hasta ahora basta como primera introducción. Por supuesto, paralelamente continuaban las investigaciones bioquímicas. Pero los infobiólogos, por así llamarlos, habían constituido una nueva comunidad, a la que cabe calificar de tecnocientífica, conforme a los rasgos distintivos que hemos apuntado en los apartados precedentes. Algunas de esas investigaciones estuvieron apoyadas por instituciones militares, así como por empresas.

El Proyecto Genoma Humano supone una continuación de esta línea de investigación, aunque en medio se produjeron aportaciones relevantes, a las que no vamos a referirnos, por mor de la brevedad[62]. A finales de 1966 se había descifrado el código genético entero y podía darse por cerrada la primera etapa de la genética informacional o computacional.

El origen del Proyecto Genoma Humano (PGH) tiene que ver con el éxito relativo del programa de guerra contra el cáncer promovido por la administración Nixon en los años 40. En 1986, el Premio Nobel italiano Renato Dulbecco publicó un artículo en Nature afirmando que había que cambiar de estrategia, promoviendo un programa de investigación a gran escala en lugar de las aproximaciones graduales que se iban haciendo. Es decir, propuso un macroprograma de investigación genética, que, como decía:

En importancia sería comparable a la conquista del espacio y se debería emprender con la misma mentalidad. Y sería aún mejor que fuera una empresa internacional, porque la secuencia del ADN humano es la realidad de nuestra especie y todo lo que ocurre en el mundo depende de su secuencia[63].

Independientemente del determinismo genético que subyace a esta propuesta, y que constituye uno de los principales puntos conflictivos del PGH, la propuesta de Delbecco fue bien acogida. Transfería algunos postulados de la macrociencia a la genética. No en vano el Proyecto Genoma suele ser denominado «el Proyecto Manhattan de la Biología». Por otra parte, el Departamento de Energía norteamericano daba vueltas por entonces a una idea similar, a través del Director de la Oficina de Salud e Investigación Medioambiental de dicho Departamento (DOE, a partir de ahora). En efecto, Charles de Lisi había organizado un pequeño simposio sobre el asunto en marzo de 1986, en el que se aceptó la idea, pero se puso en duda que el DOE fuera la agencia adecuada para promover un proyecto así. Los National Institutes of Health (NIH) era un candidato obvio para hacerlo. También hubo empresas privadas que acariciaron ideas similares, como la Genoma Corporation, aunque tuvo que renunciar al proyecto porque no encontró capital suficiente. La financiación privada no era lo suficientemente grande como para acometer macroproyectos, aunque sí proyectos tecnocientíficos de menor envergadura. Dicho sea de paso, advertimos con ello una diferencia importante entre la simultaneidad de los descubrimientos en la ciencia moderna y en la tecnociencia. En este último caso, lo más frecuente es que dos o más empresas tecnocientíficas (públicas o privadas) imaginen o diseñen simultáneamente proyectos alternativos de investigación sobre un mismo tema, no que se descubra simultáneamente un hecho en un laboratorio. En la tecnociencia compiten empresas entre sí y el punto clave estriba en poner en marcha los proyectos en el momento adecuado, además de encontrar la financiación adecuada para ello. El diseño de los proyectos tiene una importancia fundamental a la hora de lograr aceptación y apoyos. De ahí la importancia de las pre-acciones tecnocientíficas, es decir, del diseño y la planificación de lo que se pretende llevar a cabo. Se da por supuesto que, una vez iniciado un proyecto como el PGH, los hechos científicos surgirán por añadidura.

Puesto que dentro de las Agencias Gubernamentales había al menos dos dispuestas a acometer el PGH, el DOE y los NIH, la National Science Foundation medió, creando una Comisión especial para estudiar y diseñar un posible Proyecto Genoma, así como las instituciones que podrían llevarlo a cabo. Dicha Comisión aconsejó que fuera un proyecto internacional, aunque liderado por los EEUU. En lugar de secuenciar el ADN, lo cual resultaba extremadamente costoso, al menos mientras no se produjeran avances tecnológicos importantes, la Comisión propuso hacer primero un mapa del genoma humano, además de caracterizar los genomas de otros organismos (ratón, mosca de la fruta y algunas levaduras y bacterias). Paralelamente, había que financiar investigaciones para mejorar las tecnologías que posibilitaran una secuenciación más barata[64]. En cambio, no se pronunció sobre la Agencia que podría encargarse del proyecto, el DOE o los NIH. El Congreso aprobó en principio la iniciativa, por lo que el DOE y los NIH pasaron a presupuestarla. Dos Agencias gubernamentales competían ante el Congreso por lograr la concesión de un macroproyecto de investigación, de la misma manera que los equipos universitarios y las empresas de investigación compiten entre sí en las convocatorias públicas de política científica. El primer presupuesto del DOE (1988) llegaba a 12 millones de dólares. Pero el Director de los NIH, James Wyngaarden, consideró que se requerían unos 50 millones para que pudieran cumplirse de verdad los objetivos. Ello dio más fiabilidad al segundo proyecto, tras la correspondiente evaluación. La dotación final del proyecto fue de 3000 millones de dólares para varios años. El problema ulterior consistió en encontrar una persona con suficiente prestigio y capacidad política para gestionar un proyecto de tal envergadura. Al final, James Watson fue nombrado Director del PGH, cargo que ocupó desde 1988 hasta 1992, fecha en la que dimitió, por fuertes disensiones con la nueva Directora del NIH.

Este nombramiento tiene un gran interés para nosotros, por varias razones. En primer lugar, porque confirma la idea de que los científicos de prestigio son imprescindibles para las empresas tecnocientíficas a la hora de dirigir macroproyectos. Sin embargo, a esos científicos no se les pide que aporten teorías o que investiguen en los laboratorios. Lo que se les demanda es que gestionen el proyecto, que diseñen estrategias y, sobre todo, que tengan buenas relaciones con diversas comunidades científico-tecnológicas y con los expertos en política científica. Si, además, su imagen inspira confianza al público y a los potenciales inversores, tanto mejor. Los méritos científicos son necesarios, pero no bastan para situarse en ese nuevo escenario de la tecnociencia: el despacho de dirección de un macroproyecto de investigación. Este tipo de procesos de selección están basados en varios sistemas de valores y manifiestan los valores efectivos de la tecnociencia.

En segundo lugar, una de las primeras decisiones de Watson fue que un 5% del PGH estaría dedicado a investigar las repercusiones éticas, legales y sociales del nuevo proyecto. Como veremos en el capítulo 5, esa decisión implica el reconocimiento explícito de que los valores sociales, jurídicos y morales también son relevantes en la investigación macrocientífica, al menos para estudiar sus consecuencias, algo que hubiera sido impensable en la época de la segunda guerra mundial, cuando los valores y los objetivos militares primaban sobre cualesquiera otros, incluidos los económicos. Así surgió el subprograma ELSI (Ethical, Legal and Social Implications), que ha tenido gran importancia como modelo a seguir en política científica. Aunque fuera de manera periférica (5%), las cuestiones jurídicas, morales y sociales comenzaron a tener una cierta presencia en el diseño mismo de los macroproyectos.

En tercer lugar, para desarrollar el programa se creó un nuevo centro de investigación: el National Center for Human Genome Research, siguiendo el modelo Bush de política científica, pero en este caso con Watson a la cabeza. No hay grandes acciones tecnocientíficas sin nuevos agentes institucionales o empresariales, que pasan a insertarse en los sistemas nacionales de ciencia y tecnología. En este caso, el proyecto desbordó las fronteras nacionales, puesto que centros importantes del Reino Unido, Francia, Alemania y Japón decidieron colaborar con el NCHGR, aportando financiación, recursos humanos y equipamientos, entre otras cosas. La coordinación del proyecto fue internacional, lo que convirtió en indispensables las redes telemáticas para interconectar los diversos participantes en el consorcio tecnocientífico. El Nuevo Centro fue diseñado como un laboratorio-red, en el sentido que hemos atribuido a este término en el apartado 2.2.

En cuarto lugar, un fuerte conflicto de valores entre el Director Científico del Proyecto, Watson, y la dirección político financiera (representada por Bernardine Healy, nombrada Directora de los NIH por George Bush en abril de 1991), acabó forzando al dimisión de Watson:

Healy había apoyado enérgicamente la polémica decisión del NIH de solicitar la patente de los centenares de fragmentos génicos identificados por su científico Craig Venter, aunque solo fuera para que la oficina de patentes se definiera sobre la posibilidad de patentar genes sin ninguna función conocida. Watson censuraba la investigación de Venter y estaba muy indignado con la decisión de Healy de seguir adelante con la solicitud de patentes. Por si fuera poco, Healy le pidió a Venter que la asesorara sobre el futuro de la investigación del genoma humano en los NIH al tiempo que le decía a Watson que se abstuviera de expresar más críticas en público[65].

Ya en esta primera escaramuza del PGH podemos comprobar que no basta con ser un gran científico para ser un buen gestor científico. La apropiación del conocimiento, en este caso genético, forma parte de la estructura de la tecnociencia, a diferencia de la ciencia, en la que el conocimiento es un bien común que se hace público, salvo excepciones. Aun trabajando para los NIH, Venter representaba bien al empresario tecnocientífico que luego llegó a ser al fundar Genoma Celerics y defendía los valores empresariales junto a los valores tradicionales de la ciencia, como la publicidad del conocimiento. El mapa del genoma, y sobre todo su ulterior secuenciación, no solo es un bien epistémico. En la época de la tecnobiología, ante todo es un bien económico, o por decirlo en términos más claros, una nueva modalidad de capital. La administración Reagan ya había decidido en la década anterior que el Gobierno debía ser reemplazado por la iniciativa privada para liderar la investigación científica, siempre que ello fuera posible. No es de extrañar que la administración Bush retomara esa política, pese al enorme prestigio nacional e internacional de Watson.

A Watson le sucedió Francis Collins, aunque Venter fue incrementando su prestigio. A partir de 1986 introdujo el método de secuenciación automática, recurriendo para ello a una de las pocas máquinas secuenciadoras entonces existentes, que permitía analizar cientos de genes al mismo tiempo, mientras que los demás investigadores los estudiaban uno a uno[66]. De esta manera daba un paso decisivo hacia la conversión de la genética en tecnogenética. A partir de esa fecha, todas las investigaciones de Venter contaron con grandes equipamientos informáticos. En 1991, Venter y Adams concibieron un nuevo método de secuencia, el EST (expressed sequence tag), con el que se abrió la polémica de las patentes en el PGH. Craig Venter culminó su trayectoria en 1998, cuando comunicó a Collins, el sucesor de Watson, que iba a crear una nueva empresa que secuenciaría el genoma antes de 2005, fecha inicialmente prevista para el proyecto PGH. Para ello iba a recurrir a una nueva técnica de secuenciación, a centenares de máquinas secuenciadoras y a uno de los superordenadores más potentes. Dicho propósito fue publicitado en la prensa, con el fin de atraer financiación. La creación de Celera Genomics obligó a que PGH incrementara sus fondos para poder competir con Venter en la carrera tecnocientífica. Durante dos años, la contienda tecnogenética se desarrolló en los laboratorios, los despachos financieros y los medios de comunicación. La mediación del Presidente Clinton puso fin a esta «controversia tecnocientífica», llegando ambos equipos a un pacto en junio de 2000. Al final, el equipo público y el privado pudieron anunciar el 2002 la culminación del trabajo.

Sin embargo, Celera Genomics había introducido importantes novedades en la práctica investigadora, que rápidamente fueron imitadas por otras empresas de tecnobiología. Aparte de las ya comentadas (patentes, uso masivo de ordenadores, campañas de comunicación en mass media, etc.), hay una derivación que nos interesa resaltar, porque ilustra muy bien la vinculación entre la tecnociencia y la economía de la información y el conocimiento.

En 1992, Reid Adler, Director de la Oficina de Transferencia Tecnológica de los NIH, había intentado patentar las primeras 2500 secuencias génicas parciales obtenidas con el método EST. Tras una gran polémica en todo el mundo, en la que intervino el Vicepresidente Al Gore (aparte de John Watson, claro), la Oficina de Patentes norteamericana rechazó la solicitud, en buena medida porque intentaba patentar no solo las secuencias parciales, sino también los genes subyacentes, muchos de los cuales todavía estaban por identificar. Tras una segunda tentativa con 4448 EST, los NIH renunciaron a pedir más patentes. Para entonces, Venter había dejado de trabajar para los NIH, debido a que una solicitud suya de un proyecto de investigación de 10 millones de dólares había sido rechazada. Pasó a dirigir el Institute for Genomic Research (TIGR), institución sin ánimo de lucro financiada con 70 millones de dólares por un mecenas, Wallace Steinberg. El Instituto fue equipado con 30 secuenciadores automáticos ABI 373A, 17 estaciones ABI Catalyst y una base de datos relacional instalada en un ordenador Sun SPARC Center 2000 de gran potencia. El objetivo inmediato consistía en multiplicar por 10 el ritmo de producción de EST, por lo que el Instituto se convirtió en una gran factoría tecnocientífica, con la peculiaridad de que solo producía secuencias, es decir, información. A largo plazo, el objetivo científico consistía en investigar la evolución comparando las secuencias de las diversas especies. Se trataba, por tanto, de un macroproyecto estrictamente infogenético, en donde todos los instrumentos eran tecnologías de información y comunicación. Por tanto, consideraremos al TIGR como el principal canon de empresa tecnobiológica de finales del siglo XX.

Mas las novedades no acabaron ahí. Para recuperar su inversión, Steinberg creó una empresa asociada al Instituto, Human Genome Sciences (HGS), y le cedió un 10% de las acciones a Venter, por haber sido cofundador de la misma. El éxito ulterior de TIGR entre los científicos, y el éxito empresarial paralelo de HGS, convirtió a Venter en uno de los primeros científicos que llegaron a ser multimillonarios. La investigación tecnogenética no solo podía ser rentable para los empresarios que la financiaban, sino también para los propios investigadores.

A partir de 1993, HGS se fue convirtiendo en una empresa farmacéutica. Su estrategia consistió en vender el acceso a la base de datos EST a las empresas del ramo. En mayo de 1993, una empresa británica (SmithKIine-Beecham) pagó 125 millones de dólares por el 7% de las acciones de HGS junto con el derecho exclusivo para comercializar los ETS. El conocimiento científico de la base de datos del TIGR se había convertido en capital puro y duro, que comenzó a ser altamente rentable para Steinberg y Venter. Este último y el Presidente de HGS, Haseltine, llegaron a ocupar la portada de la revista Business Week: había surgido un modo de hacer negocios con el conocimiento científico. La base de datos relacional del TIGR se convirtió en una auténtica mina de conocimiento, que era generado por Venter y su equipo de científicos con ayuda de nuevos equipamientos informáticos, cada vez más potentes. La revolución tecnocientífica en Biología encontró así uno de sus más destacados ejemplares, en el sentido kuhniano del término. La práctica científica se transformó radicalmente, debido a que a la investigación se le superponía una estrategia empresarial novedosa y rentable.

Los científicos recibieron este cambio con significativas muestras de rechazo, pero empresas similares comenzaron a proliferar por todo el mundo y no faltaron investigadores trabajando en ellas. El propio Venter acabó fundando su propia empresa, como vimos. En cualquier caso, cabe afirmar que la transformación más radical de la estructura de la práctica científica en biología se produjo en la década de los 90 en el TIGR, siendo Craig Venter y sus socios quienes lideraron esa revolución tecnocientífica en biología.

Habría muchas más cuestiones a comentar, pero ya nos hemos extendido suficientemente sobre el PGH y su ulterior privatización como HGS, y ulteriormente como Genoma Celerics.

Para resumir este primer análisis sobre la emergencia de la tecnobiología, diremos que la informática y las disciplinas surgidas de las computing Sciences han tenido un papel muy importante en la transformación de la biología, y en particular de la genética. La secuenciación de los genes es ante todo una operación tecnológica, que requiere considerables medios y habilidades técnicas. Los datos que se obtienen (el mapa del genoma humano, por ejemplo) son estrictamente informáticos, de modo que solo pueden ser representados con ayuda de potentes ordenadores. La empresarialización de la actividad investigadora es muy habitual en genética. Por otra parte, hemos comprobado que el Proyecto Genoma acabó generando auténticos bancos de conocimiento, que produjeron considerables beneficios económicos. En conjunto, también en el caso de la biología cabe decir que a finales del siglo XX ha surgido una tecnobiología con fuerte impronta informática y empresarial. Los avances del conocimiento que ha suscitado son indudables, pero también es constatable la profunda transformación de la práctica científica que ha tenido lugar a lo largo de la segunda mitad del siglo XX, y ante todo en su década final.

g) Tecnogeología.

Los satélites de observación y las tecnologías informáticas han modificado profundamente el modo de hacer los planos geológicos de la Tierra, la Luna o Marte, transformando por completo el conocimiento y la práctica geológica. Algunos instrumentos de observación permiten detectar objetos o sustancias concretas a bastantes metros de profundidad. Las sondas tradicionales eran mecánicas, las actuales son telemáticas. De nuevo estamos ante un ejemplo claro de tecnociencia.

También en este caso la informática desempeña una función básica, por ejemplo mediante las técnicas de representación tridimensional. Nos limitaremos a citar cómo los propios geólogos concebían esta revolución tecnogeológica, o infogeológica, como también podría ser denominada: «en la actualidad, los geólogos están participando en una revolución técnica que ha ampliado enormemente las posibilidades de la visualización y la interpretación científica mediante el uso de técnicas sofisticadas de presentaciones tridimensionales»[67]. Estas técnicas son imprescindibles para simular los procesos geológicos, es decir, para representar informáticamente el conocimiento científico. Conviene resaltar que este tipo de tecnologías han sido fuertemente impulsadas por las compañías petroleras, obviamente interesadas en el avance de la tecnobiología y de la tecnobiología. Los departamentos de investigación de dichas empresas utilizan habitualmente los ordenadores más potentes del mercado (CRAY I y II, etc.), por lo que también en este caso podemos afirmar que la tecnobiología se ha desarrollado ampliamente en el último cuarto del siglo XX. Aun así, los expertos en la materia afirman que «uno de los axiomas de los procesos de simulación informática es que los ordenadores nunca proporcionan el poder computacional que satisfaría las necesidades de los geólogos»[68]. Disponer de grandes equipamientos informáticos es una condición necesaria para investigar en geología y para aplicar a la industria del petróleo dichos conocimientos.

Las nuevas tecnologías de la información y la telecomunicación se utilizan también para la teledetección geológica y para la simulación de los grandes cataclismos que se producen en el globo terrestre: volcanes, terremotos, maremotos, etc. Otro tanto cabe decir de la geología marina, cuyo avance está estrechamente vinculado a las nuevas tecnologías. En conjunto, la tecnogeología se ha desarrollado enormemente en las últimas décadas, lo cual no impide que siga existiendo la geología clásica, basada en los métodos tradicionales de la tecnociencia. También en este caso cabe distinguir entre geología y tecnogeología, sin perjuicio de que ambas tengan un entronque común, porque la segunda procede de la primera. La síntesis entre ciencia y tecnología constituye, en este caso, la nota más destacada. Pero también se observa la estrecha vinculación con las grandes empresas, en particular las compañías petroleras.

h) Tecnociencias sociales.

La aplicación de la estadística transformó por completo la sociología, que pasó a ser una disciplina estrictamente empírica. Lo importante es subrayar que también en este caso, dada la complejidad de las sociedades, la tecnología es un requisito imprescindible para obtener datos empíricos, así como para procesarlos, almacenarlos, compararlos entre sí, etc. Las encuestas de opinión son un buen ejemplo de lo que decimos, al igual que la elaboración de los censos. La utilización de lectoras ópticas automatizadas para procesar los datos brutos muestra de nuevo que también en el caso de la sociología la obtención de datos empíricos significativos sería imposible sin recurrir a diversas herramientas tecnológicas. Otro tanto cabe decir en el caso de la economía, cuyas investigadores recurren una y otra vez a simulaciones informáticas para modelizar la situación de la economía en los diversos países. Hoy en día es imposible tener una representación del estado económico de un país sin recurrir a las herramientas que permiten el procesamiento de datos y la elaboración de simulaciones para hacer prognosis sobre la evolución económica.

Los ejemplos podrían multiplicarse, pero no merece la pena detenernos en ello. Entendemos que este breve recorrido por diversas ciencias (naturales y sociales) ilustra suficientemente la emergencia de la tecnociencia y, en muchos casos, su relevancia dentro de cada disciplina concreta. Obsérvese que en todos esos casos la informática juega un papel importante, sin perjuicio de que también intervengan otras tecnologías. Por eso decimos que la informática es el formalismo de la tecnociencia, al modo en que la matemática fue el formalismo principal de la ciencia moderna. La ciencia escribía los datos empíricos, la tecnociencia los infoescribe. El procesamiento y la transmisión de esos datos también se lleva a cabo por vías informáticas y telemáticas, al igual que la presentación de los resultados que se obtienen a partir de ellos. Las técnicas de visualización científica, por otra parte, permiten convertir esos datos en imágenes y en modelos científicos. La construcción de modelos científicos, habitualmente matematizados, ha sido una de las características distintivas del saber del saber científico. A partir de esos modelos se emitían las hipótesis y se llevaban a cabo las constrastaciones empíricas. En el caso de la tecnociencia ese tipo de modelos no bastan y es preciso recurrir a modelos informáticos, cuyo manejo requiere equipamiento y habilidades tecnológicas específicas. Por ello los equipos de investigación tecnocientífica tienen que estar compuestos por científicos y tecnólogos. Para llevar adelante dichas investigaciones son precisos ambos tipos de conocimiento. Es otra de las razones que argüimos para hablar de tecnociencia, y no solo de ciencia.

Como conclusión de este apartado, diremos que el test de las tecnociencias específicas ofrece resultados satisfactorios. Aunque no toda la ciencia se ha convertido en tecnociencia, sí cabe afirmar que en todas las ciencias se ha producido la emergencia de esta nueva modalidad de ciencia. Los numerosos rasgos distintivos que hemos propuesto en los apartados 2.1 y 2.2 valen en principio para distinguir la ciencia de la tecnociencia. En el resto de este libro los tomaremos como puntos de partida para nuestra indagación.