Computer
Sapete come sono fatti gli scienziati! Karl Lashley, ad esempio, conduceva strani esperimenti sui topi per scoprire come funzionava il loro cervello. Li addestrava a percorrere un tragitto a forma di labirinto e poi tagliava via via dei pezzi della loro corteccia cerebrale per vedere fino a che punto essi continuavano a trovare la strada giusta. Ebbene, anche quando queste povere bestiole venivano private del novanta per cento della loro corteccia cerebrale, riuscivano egualmente a districarsi dal labirinto. Provate a togliere dalla vostra automobile i nove decimi dei suoi componenti e vedete se continua a correre!
Più tardi un altro scienziato – Dennis Gabor – riuscì a ottenere un effetto simile a quello dei topolini di Lashley: con una speciale camera oscura, disperdeva l’immagine fotografata su tutta la superficie di un’apposita lastra detta «ologramma». Se, poi, rompeva l’ologramma in tanti frammenti, ogni frammento conteneva l’intera immagine proiettata. In altri termini, nell’ologramma di Gabor ogni parte conteneva il tutto, proprio come nel cervello dei topolini di Lashley.
Più tardi ancora, il neurologo Karl Pribram scoprì che anche il cervello umano funziona come un ologramma, per cui ogni sua parte contiene la memoria del tutto.
Il sogno di inventare macchine capaci di sostituire l’uomo accompagna da sempre l’umanità. Già Aristotele vagheggiava: «Se ogni strumento potesse, a un ordine dato, lavorare da se stesso, se le spolette tessessero da sole, se l’archetto suonasse da solo sulla cetra, gli imprenditori potrebbero fare a meno degli operai e i padroni degli schiavi». Inseguendo questo sogno, Pietro il Grande si faceva costruire automi quasi perfetti e pretendeva dai propri soldati un comportamento da automi. Poi fu la volta delle macchine a vapore, di quelle elettriche e di quelle a scoppio, con le quali si riuscì a sostituire milioni di lavoratori in mansioni sempre più complesse. Ma restò comunque impossibile avvicinarsi all’imitazione del cervello umano con le sue qualità di ologramma. Fin quando, finalmente, il computer fu.
Partendo dalla macchina analitica con cui – tra il 1833 e il 1842 – Charles Babbage voleva risolvere problemi computazionali e logici, durante la Seconda guerra mondiale, sotto il nome Colossus, un embrione di computer aiutò gli inglesi a forzare i codici nazisti. Poi, nel 1945, due scienziati dell’università della Pennsylvania costruirono per l’esercito americano il primo calcolatore elettronico: conteneva diciottomila tubi.
Nel 1971 la Intel brevettò il primo microprocessore. Oggi, nello spazio di un’unghia, è stampato un circuito pari a tutta la rete stradale europea e a quella americana messe assieme. Con l’Apple II, nel 1977 il computer si intrufolò nelle nostre pareti domestiche. Il Duemila si è aperto con il debutto di Power Mac G4, capace di superare il miliardo di operazioni al secondo.
Dieci anni dopo, nell’ambito del progetto SyNapse, l’Ibm ha presentato due prototipi di chip che funzionano come un cervello umano: dotati di nodi che elaborano informazioni come fossero dei neuroni e collegati a memorie integrate come fossero sinapsi, riescono a selezionare gli input in base alla loro importanza e ad apprendere sia dall’esperienza che dall’ambiente. L’obiettivo è ottenere computer cognitivi capaci di analizzare la realtà quasi come gli esseri umani ma con una potenza di calcolo e di memoria infinitamente maggiore. Nel 2015 il computer ha superato la capacità di calcolo di un topo; entro il 2045 supererà le capacità di calcolo di tutti i cervelli umani combinati tra loro.
Come qualsiasi mio coetaneo, ho avuto la fortuna di intersecare i diversi passaggi di questa epopea. Agli inizi degli anni Sessanta ero un giovane ricercatore all’Italsider e, per compiere alcune elaborazioni, mi avevano offerto la possibilità di adoperare l’elaboratore. Allora, per usarlo, occorreva entrarci letteralmente dentro: si trattava, infatti, di varie stanze bianche e asettiche come ambulatori ospedalieri in cui si aggiravano uomini in camice bianco (come medici, appunto), che manovravano apparecchiature grandi quanto armadi, con tante lucette multicolori.
Le aziende che a quel tempo avevano un computer l’ostentavano a pianterreno, come dietro le vetrine di un negozio, in modo che i passanti potessero vederlo e ammirarlo dalla strada con stupita meraviglia.
Poi venne la «Perottina», cioè il primo personal computer costruito al mondo. Non era stato inventato alla Microsoft di Seattle ma all’Olivetti di Ivrea, da un simpatico ingegnere – Giancarlo Perotto – con cui strinsi affettuosa amicizia. In America sarebbe diventato una divinità ricoperta d’oro ma in Italia se ne è rimasto in incognito, fino alla morte, da qualche parte del Piemonte o della Liguria. Quando mi fece vedere la sua «Perottina» rimasi sbalordito: era grande quanto un’attuale fotocopiatrice ma era più potente dell’immenso calcolatore che avevo conosciuto all’Italsider.
Fu poi un altro simpaticissimo ingegnere – Luciano De Crescenzo – che mi avviò all’uso del personal. Insisteva affettuosamente affinché lo comprassi sostenendo che mi avrebbe cambiato la vita. E poiché continuavo a titubare, una sera arrivò a casa mia con uno scatolone contenente il mio primo pc. Me lo installò e mi intimò: «Ora ti ci vuole un informatico che si sia appena separato dalla moglie: si sentirà solo e, quindi, la sera avrà molto tempo da dedicarti. Impara velocemente perché un bel giorno, trovata una nuova compagna, inaspettatamente scomparirà». Qualche giorno dopo mi portò anche l’informatico-separato e così potei imboccare la mia carriera di «computerofilo», che non ho più abbandonato. Imparai rapidamente tutto quello che riuscii a imparare dall’informatico triste e solitario, che si annunziava tutte le sere al citofono, anche quando non avevamo preso accordi. Poi, come previsto da Luciano, una bella sera non citofonò e, da allora in poi, dovetti fare da solo.
Quella guida tanto sicura quanto triste e fugace mi era comunque bastata per capire che il computer sa fare tutto ma non è capace né di piangere né di ridere, anche se riesce a far piangere con i suoi dispetti crudeli (quando, ad esempio, in un batter d’occhio distrugge furtivamente il lavoro di un’intera giornata) e riesce a far ridere (quando, ad esempio, combina buffi accostamenti di parole o invia un nostro messaggio proprio a chi non doveva riceverlo).
Nei decenni che mi separano da quella iniziazione il computer è andato avanti, sempre superando se stesso e il mondo circostante, di cui è diventato simbolo, rendendolo postindustriale. «Non so se il computer cambia la vita. Certamente ha cambiato la mia» ha detto una volta Giovanni Paolo II. Io, che non sono né papa né santo, ignoro se il computer abbia un’anima, come invece sosteneva Umberto Eco. Non so nemmeno se l’anima ce l’hanno gli esseri umani, figuriamoci le macchine! Però, come gli uomini e più degli uomini, i computer imparano, ricordano, calcolano, disegnano. Soprattutto hanno sfoderato un’imprevista, straordinaria attitudine a colloquiare tra loro, a diffondere informazioni a distanze siderali e a scambiarsele in tempo reale creando quella «ragnatela planetaria» che è il World Wide Web: l’immensa rete, vasta quanto il mondo, che consente a ogni essere vivente di mettersi in contatto con tutto il resto dell’umanità tramite internet. Dobbiamo questa meraviglia all’informatico inglese Tim Berners-Lee, allora ricercatore al Cern, che il 6 agosto 1991 mise online il suo primo sito, sviluppando un progetto avviato fin dal 1989 insieme al collega Robert Cailliau. Grazie al suo Web, chiunque possegga uno spazio su internet può pubblicarvi contenuti multimediali e fornirvi servizi compatibili: dalla distribuzione di software (download) alla gestione di caselle di posta elettronica (web mail), dalla distribuzione in tempo reale di audio e video, web tv e web radio (streaming) alla comunicazione simultanea tra più utenti (web chat). Il tutto in modo semplice e a basso costo.
Convinto che «internet deve restare gratis, aperto e neutrale», Berners-Lee ha rinunziato al brevetto e ai diritti della sua scoperta per difendere la vocazione democratica della rete in funzione della crescita economica e culturale dell’intera umanità. In un certo senso, Berners-Lee ha costretto i computer a essere eticamente umani anche se tecnicamente sovrumani.