La cosa più incomprensibile dell’universo è che sia comprensibile.
ALBERT EINSTEIN
L’universo è comprensibile perché è governato da leggi scientifiche; vale a dire che del suo comportamento si possono costruire modelli. Ma quali sono queste leggi o modelli? La prima forza a essere descritta in linguaggio matematico fu la gravità. La legge di gravitazione di Newton, pubblicata nel 1687, affermava che ogni corpo dell’universo attrae ogni altro corpo con una forza proporzionale alla sua massa. Ebbe un grande impatto sulla vita intellettuale dell’epoca perché mostrava per la prima volta che almeno un aspetto dell’universo poteva essere tradotto con precisione in un modello, e forniva l’apparato matematico per farlo. L’idea che esistano leggi di natura solleva questioni analoghe a quella per cui Galileo era stato dichiarato colpevole di eresia circa cinquant’anni prima. Per esempio, la Bibbia narra di come Giosuè pregasse perché il Sole e la Luna si fermassero nelle loro traiettorie in modo che la luce del giorno si prolungasse quanto bastava per finire di sconfiggere gli amorrei a Canaan. Secondo il libro di Giosuè (10.12-13), il Sole rimase fermo per quasi un giorno. Oggi sappiamo che ciò avrebbe significato che la Terra aveva smesso di ruotare su se stessa. Se la Terra si fosse fermata, secondo le leggi di Newton ogni cosa che non vi fosse stata ben fissata sarebbe rimasta in moto con la velocità originaria del pianeta (quasi 1700 chilometri all’ora all’equatore): un prezzo un po’ alto da pagare per ritardare un tramonto. Tutto ciò non preoccupava affatto Newton, il quale, come abbiamo detto, credeva che Dio potesse intervenire sul funzionamento dell’universo, e lo facesse effettivamente.
Dopo la gravità, i primi aspetti dell’universo per cui si scoprì una legge o un modello furono le forze elettriche e magnetiche. Queste si comportano come la gravità, con l’importante differenza che due cariche elettriche o due magneti dello stesso tipo si respingono, mentre cariche o magneti di segno opposto si attirano. Le forze elettriche e magnetiche sono assai più intense della gravità, ma solitamente non le avvertiamo nella vita quotidiana perché un corpo macroscopico contiene numeri quasi uguali di cariche elettriche positive e negative. Ciò significa che le forze elettriche e magnetiche agenti tra due corpi macroscopici praticamente si elidono a vicenda, a differenza delle forze gravitazionali che si sommano tutte.
Le nostre attuali idee sull’elettricità e il magnetismo sono state elaborate nell’arco di circa un secolo, tra la metà del Settecento e la metà dell’Ottocento, allorché fisici di diversi paesi condussero approfonditi studi sperimentali di queste forze. Una delle scoperte più importanti fu quella che forze elettriche e magnetiche sono connesse: una carica elettrica in moto esercita una forza sui magneti, mentre una calamita in moto esercita una forza sulle cariche elettriche. Il primo a rendersi conto dell’esistenza di una qualche connessione fu il fisico danese Hans Christian Ørsted. Nel 1820, mentre si preparava per una lezione che doveva tenere all’università, Ørsted osservò che la corrente elettrica generata dalla batteria che stava usando faceva deviare l’ago di una bussola che si trovava nelle vicinanze. In breve comprese che l’elettricità in moto generava una forza magnetica, e coniò il termine «elettromagnetismo». Qualche anno dopo lo scienziato britannico Michael Faraday ipotizzò che, se una corrente elettrica – per esprimerci in termini moderni – poteva generare un campo magnetico, un campo magnetico avrebbe potuto generare una corrente elettrica. Faraday diede una dimostrazione sperimentale dell’effetto nel 1831. Quattordici anni più tardi scoprì una connessione anche tra elettromagnetismo e luce dimostrando che un intenso campo magnetico può modificare la natura della luce polarizzata.
Faraday non aveva compiuto studi formali. Provenendo dall’umile famiglia di un fabbro dei dintorni di Londra, aveva lasciato la scuola a tredici anni per lavorare come fattorino e come rilegatore in una libreria. Lì, nel corso degli anni, si diede una formazione scientifica leggendo i libri di cui doveva prendersi cura ed effettuando esperimenti semplici e poco dispendiosi nel tempo libero. Alla fine ottenne un posto di assistente nel laboratorio del grande chimico Sir Humphry Davy, dove sarebbe rimasto per i restanti quarantacinque anni della sua vita, succedendo a Davy alla morte di questi. Faraday aveva difficoltà con la matematica e non ne imparò mai molta, ragione per cui concepire una descrizione teorica degli strani fenomeni elettromagnetici che osservava nel suo laboratorio gli richiese un grande sforzo. Ma ugualmente vi riuscì.
Una delle più importanti innovazioni intellettuali introdotte da Faraday fu il concetto di campo di forza. Al giorno d’oggi, grazie ai libri e ai film dove la fanno da padroni alieni con gli occhi da insetti e relative astronavi, la maggior parte delle persone ha familiarità con il termine, cosicché forse a Faraday spetterebbero dei diritti d’autore. Ma fin dai tempi di Newton uno dei grandi misteri della fisica era il fatto che le sue leggi sembravano indicare che le forze agiscono attraverso lo spazio vuoto che separa i corpi in interazione. A Faraday quest’idea non piaceva, in quanto era convinto che per far muovere un corpo qualcosa dovesse venire a contatto con esso. Così immaginò lo spazio interposto tra le cariche elettriche e i magneti riempito di tubetti invisibili che esercitano fisicamente spinta e trazione, e chiamò campo di forza l’insieme di questi tubetti. Un buon modo per farsi un’idea intuitiva di un campo di forza è l’esperimento che si effettua comunemente nelle aule scolastiche ponendo una lastra di vetro sopra un magnete a sbarra e spargendo della limatura di ferro sulla lastra. Dando qualche colpetto per vincere l’attrito, la limatura si muove come se fosse spinta da una forza invisibile e si dispone in modo da formare degli archi che vanno da un polo della calamita all’altro. Questa configurazione è una mappa della forza magnetica invisibile che permea lo spazio. Oggi si pensa che tutte le forze siano trasmesse da campi, e quindi quello di campo è un concetto importante nella fisica moderna... oltre che nella fantascienza.
Per diversi decenni la comprensione dell’elettromagnetismo segnò il passo, senza andare al di là della conoscenza di alcune leggi empiriche: l’intuizione che elettricità e magnetismo fossero strettamente connessi, sia pure in modo misterioso; l’idea che avessero una qualche specie di relazione con la luce; e il concetto embrionale di campo. C’erano almeno undici teorie dell’elettromagnetismo, tutte insoddisfacenti. Poi, negli anni ’60 dell’Ottocento, il fisico scozzese James Clerk Maxwell sviluppò le idee di Faraday traducendole in una struttura matematica che rendeva ragione della profonda e misteriosa relazione tra elettricità, magnetismo e luce. Il risultato fu un insieme di equazioni che descrivevano forze elettriche e forze magnetiche come manifestazioni della medesima entità fisica: il campo elettromagnetico; in tal modo elettricità e magnetismo venivano unificati in un’unica forza. Maxwell dimostrò inoltre che i campi elettromagnetici potevano propagarsi nello spazio sotto forma di un’onda. La velocità di tale onda era determinata da un numero che compariva nelle sue equazioni e che calcolò in base a dati sperimentali che erano stati misurati qualche anno prima. Con suo grande stupore la velocità così calcolata risultava uguale alla velocità della luce, che a quell’epoca era nota a livello sperimentale con un’incertezza dell’1 per cento. Aveva così scoperto che anche la luce è un’onda elettromagnetica!
Campi di forza. Il campo di forza di un magnete a sbarra messo in evidenza dalla disposizione della limatura di ferro.
Oggi le equazioni che descrivono i campi elettrici e magnetici sono chiamate equazioni di Maxwell. Pochi ne hanno sentito parlare, ma si tratta probabilmente delle equazioni più importanti dal punto di vista commerciale che si conoscano. Non soltanto governano il funzionamento di tutto ciò che va dagli elettrodomestici ai computer, ma descrivono anche onde distinte dalla luce, come le microonde, le onde radio, la luce infrarossa e i raggi X. Tutte queste radiazioni differiscono dalla luce visibile soltanto per un aspetto: la loro lunghezza d’onda. Le onde radio hanno lunghezze d’onda di un metro o più, mentre la luce visibile ha una lunghezza d’onda di qualche decimilionesimo di metro e i raggi X inferiore a un centomilionesimo di metro. Il Sole irraggia a tutte le lunghezze d’onda, ma la sua radiazione ha un massimo di intensità alle lunghezze d’onda che ci sono visibili. Probabilmente non è un caso che le lunghezze d’onda che possiamo vedere a occhio nudo siano quelle a cui il Sole irraggia con maggiore intensità: è verosimile che i nostri occhi si siano evoluti con la capacità di rilevare la radiazione elettromagnetica in quella gamma proprio perché è la gamma presente in misura più abbondante. Se mai entreremo in contatto con esseri di altri pianeti, questi probabilmente avranno la capacità di «vedere» la radiazione alle lunghezze d’onda, quali che siano, che il loro sole emette con maggiore intensità, modulate da fattori quali le proprietà filtranti della polvere e dei gas presenti nell’atmosfera del loro pianeta. Così alieni evolutisi in presenza di raggi X potrebbero far carriera nel campo della sicurezza aeroportuale.
Lunghezza d’onda. Microonde, onde radio, luce infrarossa, raggi X – e i diversi colori della luce visibile – differiscono soltanto per le loro lunghezze d’onda.
Le equazioni di Maxwell stabiliscono che le onde elettromagnetiche si propagano a una velocità di circa 300.000 chilometri al secondo, ossia a circa 1 miliardo e 80 milioni di chilometri all’ora. Ma parlare di una velocità non ha alcun significato se non si specifica un sistema di riferimento rispetto al quale la velocità viene misurata. Questa è una cosa a cui normalmente non occorre pensare nella vita quotidiana. Quando al volante vediamo un limite di velocità di 130 chilometri all’ora, è sottinteso che la nostra velocità sia misurata rispetto alla strada e non rispetto al buco nero che c’è al centro della Via Lattea. Ma anche nella vita di tutti i giorni ci sono occasioni in cui si deve tener conto dei sistemi di riferimento. Per esempio, se portate una tazza di tè lungo il corridoio di un jet in volo, potreste dire che la vostra velocità è di 3 chilometri all’ora. Chi si trovasse a terra, però, potrebbe dire che vi state muovendo a 920 chilometri all’ora. Perché non pensiate che l’uno o l’altro di questi osservatori abbia più ragione di pretendere che la propria affermazione sia la verità, tenete presente che, siccome la Terra gira intorno al Sole, qualcuno che vi guardasse dalla superficie di quel corpo celeste dissentirebbe da entrambi e direbbe che vi state muovendo a circa 30 chilometri al secondo, senza parlare della sua invidia per la vostra aria condizionata. Tenendo conto di tali divergenze, la domanda che si poneva quando Maxwell sostenne di aver scoperto che la «velocità della luce» emergeva dalle sue equazioni era: rispetto a che cosa è misurata la velocità della luce nelle equazioni di Maxwell?
Non c’è ragione di credere che il parametro di velocità che compare nelle equazioni di Maxwell sia una velocità misurata rispetto alla Terra. Le sue equazioni, dopotutto, si applicano all’intero universo. Una risposta alternativa che fu presa in considerazione per qualche tempo è che le sue equazioni specificassero la velocità della luce rispetto a un mezzo non ancora rivelato che permeerebbe lo spazio, mezzo chiamato etere luminifero o, per brevità, semplicemente etere, che è il nome usato da Aristotele per la sostanza che credeva riempisse tutto l’universo al di fuori della sfera terrestre. Questo ipotetico etere sarebbe il mezzo attraverso il quale le onde elettromagnetiche si propagano, proprio come il suono si propaga nell’aria. Se fosse esistito l’etere, ci sarebbe stato un criterio assoluto di quiete (cioè la quiete rispetto all’etere) e quindi anche una maniera assoluta di definire il moto. L’etere avrebbe fornito un sistema di riferimento privilegiato esteso in tutto l’universo, rispetto al quale si sarebbe potuta misurare la velocità di qualunque corpo. Perciò l’esistenza dell’etere venne postulata per ragioni teoriche, e ciò indusse alcuni scienziati a cercare un modo per studiarlo, o almeno per confermarne l’esistenza. Uno di questi scienziati era Maxwell stesso.
Se correte incontro a un’onda sonora nell’aria, l’onda vi si avvicina più rapidamente, e se correte in direzione opposta, vi si avvicina più lentamente. Analogamente, se vi fosse un etere, la velocità della luce dovrebbe variare in dipendenza dal vostro moto rispetto a tale mezzo. In effetti, se la luce si comportasse come il suono, proprio come i passeggeri su un jet supersonico non sentono mai alcun suono emesso dalla parte posteriore dell’aereo, così anche i viaggiatori in moto con velocità sufficiente attraverso l’etere potrebbero lasciare indietro un’onda luminosa. Muovendo da queste considerazioni, Maxwell propose un esperimento. Se esiste un etere, la Terra deve muoversi attraverso di esso mentre orbita intorno al Sole. E siccome la Terra in gennaio si sposta in una direzione diversa rispetto, diciamo, ad aprile o a luglio, si dovrebbe riuscire a osservare una minuscola differenza nella velocità della luce in differenti periodi dell’anno, come mostra la figura qui sotto.
Maxwell fu dissuaso dal pubblicare la sua idea sui «Proceedings of the Royal Society» dal direttore della rivista, il quale pensava che l’esperimento non avrebbe funzionato. Ma nel 1879, poco prima di morire all’età di quarantotto anni per un doloroso cancro allo stomaco, Maxwell mandò a un amico una lettera sull’argomento. La lettera fu pubblicata postuma sulla rivista «Nature», dove la lesse, fra gli altri, un fisico americano di nome Albert Michelson. Ispirati dalla congettura di Maxwell, nel 1887 Michelson ed Edward Morley effettuarono un esperimento di grande precisione volto a misurare la velocità con la quale la Terra si muove attraverso l’etere. L’idea dei due fisici americani era di confrontare la velocità della luce in due direzioni diverse, perpendicolari tra loro. Se tale velocità era una costante rispetto all’etere, le misurazioni avrebbero dovuto mettere in evidenza velocità della luce differenti a seconda della direzione del raggio luminoso. Ma Michelson e Morley non osservarono alcuna differenza del genere.
Moto attraverso l’etere. Se fossimo in moto attraverso l’etere, dovremmo essere in grado di rilevare tale moto osservando delle differenze stagionali nella velocità della luce.
Il risultato dell’esperimento di Michelson e Morley è chiaramente in conflitto con il modello in cui le onde elettromagnetiche si propagano attraverso un etere, e avrebbe dovuto portare all’abbandono del modello. Ma lo scopo di Michelson era stato quello di misurare la velocità della Terra rispetto all’etere, non di provare o confutare l’ipotesi dell’etere in sé, e il suo risultato non lo indusse a concludere che l’etere non esisteva. E nessun altro trasse tale conclusione. Anzi, il celebre fisico Sir William Thomson (più tardi Lord Kelvin) aveva affermato ancora nel 1884: «L’etere luminifero ... è l’unica sostanza di cui siamo sicuri in dinamica. Di una cosa siamo certi, ed è la realtà e sostanzialità dell’etere luminifero».
Come è possibile credere all’etere nonostante i risultati dell’esperimento di Michelson-Morley? I fisici, come spesso accade, tentarono di salvare il modello mediante aggiunte artificiose su misura. Alcuni postularono che la Terra trascinasse con sé l’etere, in modo che in realtà non vi fosse moto rispetto a esso. Il fisico olandese Hendrik Antoon Lorentz e il fisico irlandese George Francis FitzGerald suggerirono che in un sistema di riferimento in moto rispetto all’etere, probabilmente a causa di qualche effetto meccanico non ancora noto, gli orologi rallentassero e le distanze si contraessero, in modo che la misura della velocità della luce desse ancora il medesimo risultato. Gli sforzi di salvare il concetto di etere continuarono per circa vent’anni, fino alla pubblicazione di una straordinaria memoria di un giovane e sconosciuto impiegato dell’Ufficio brevetti di Berna, Albert Einstein.
Einstein aveva ventisei anni nel 1905, quando pubblicò il suo articolo Zur Elektrodynamik bewegter Körper (L’elettrodinamica dei corpi in movimento), in cui formulò la semplice ipotesi che le leggi della fisica, e in particolare la velocità della luce, dovessero apparire identiche a tutti gli osservatori in moto uniforme. Questa idea di fatto richiede di rivoluzionare i nostri concetti di spazio e di tempo. Per renderci conto del perché, immaginiamo due eventi che si verificano nel medesimo punto ma in istanti diversi su un jet di linea. Per un osservatore sull’aereo ci sarà una distanza nulla tra i due eventi. Ma per un secondo osservatore a terra gli eventi saranno separati dalla distanza percorsa dal jet nel tempo trascorso tra i due eventi. Ciò mostra che due osservatori in moto l’uno rispetto all’altro non saranno d’accordo sulla distanza tra due eventi.
Sul jet in volo. Se si fa rimbalzare una palla sul pavimento di un jet, un osservatore a bordo dell’aereo può stabilire che tocca lo stesso punto a ogni rimbalzo, mentre un osservatore a terra misurerà una grande distanza tra i punti di rimbalzo.
Ora supponiamo che due osservatori vedano un impulso di luce che si propaga dalla coda al muso dell’aereo. Come nell’esempio precedente, non saranno d’accordo sulla distanza percorsa dalla luce tra la sua emissione alla coda dell’aereo e la sua ricezione al muso. Poiché la velocità è il rapporto tra distanza percorsa e tempo impiegato, ciò significa che se sono d’accordo sulla velocità alla quale l’impulso si propaga – la velocità della luce – non saranno d’accordo sull’intervallo di tempo che separa l’emissione dalla ricezione.
Quello che c’è di strano in tutto ciò è che, sebbene misurino tempi differenti, i due osservatori stanno guardando il medesimo processo fisico. Einstein non tentò di escogitare una spiegazione artificiosa. Ne trasse invece la conclusione logica, anche se sbalorditiva, che la misura del tempo impiegato, come la misura della distanza percorsa, dipende dall’osservatore che compie la misurazione. Tale effetto è una delle chiavi della teoria contenuta nell’articolo di Einstein del 1905, che ha preso il nome di relatività speciale, o ristretta.
Possiamo renderci conto di come questa analisi potrebbe essere applicata ai dispositivi di misura del tempo se consideriamo due osservatori che guardano un orologio. La relatività ristretta afferma che l’orologio marcia più rapidamente secondo un osservatore che è in quiete rispetto a esso. Per gli osservatori che non sono in quiete rispetto all’orologio, questo marcia più lentamente. Se consideriamo l’impulso luminoso che si propaga dalla coda al muso dell’aereo alla stregua del tic-tac di un orologio, vediamo che per un osservatore a terra l’orologio marcia più lentamente perché il raggio di luce deve percorrere una distanza maggiore in quel sistema di riferimento. Ma l’effetto non dipende dal meccanismo dell’orologio; sussiste per tutti i dispositivi di misura del tempo, anche per i nostri orologi biologici.
La memoria di Einstein mostrò che, al pari del concetto di quiete, anche quello di tempo non può essere assoluto, come pensava Newton. In altre parole, non è possibile assegnare a ogni evento un tempo su cui tutti gli osservatori siano d’accordo. Al contrario, ogni osservatore ha proprie misure del tempo, e i tempi misurati da due osservatori in moto relativo l’uno rispetto all’altro non concorderanno. Le idee di Einstein sono in contrasto con la nostra intuizione perché le loro implicazioni non sono evidenti alle velocità con cui abbiamo normalmente a che fare nella vita quotidiana. Ma sono state ripetutamente confermate dagli esperimenti. Per esempio, immaginiamo un orologio di riferimento in quiete al centro della Terra, un altro orologio sulla superficie del pianeta, e un terzo a bordo di un aereo che vola in direzione della rotazione terrestre o in direzione contraria. Rispetto all’orologio al centro della Terra, quello a bordo di un aereo che vola verso est – nel senso della rotazione terrestre – si muove più rapidamente di quello sulla superficie della Terra, e quindi dovrebbe marciare più lentamente. Analogamente, rispetto all’orologio al centro della Terra, quello a bordo di un aereo che vola verso ovest – in direzione opposta alla rotazione terrestre – si muove più lentamente di quello alla superficie, il che significa che dovrebbe marciare più rapidamente dell’orologio alla superficie. E questo è esattamente ciò che si osservò quando, in un esperimento eseguito nell’ottobre 1971, un orologio atomico estremamente preciso fu portato in volo intorno al mondo. Così potreste allungare la vostra vita volando continuamente intorno al mondo in direzione est, anche se forse vi stufereste di vedere tutti quei film che proiettano sugli aerei di linea. Ma l’effetto è molto piccolo, circa 180 miliardesimi di secondo per ogni giro (ed è anche un po’ ridotto dagli effetti della differenza di gravità, ma di questo non è il caso di occuparci qui).
La dilatazione del tempo. Gli orologi in movimento sembrano marciare più lentamente. Poiché ciò vale anche per gli orologi biologici, persone in moto sembreranno invecchiare più lentamente, ma non fatevi illusioni: alle velocità di tutti i giorni, nessun orologio ordinario sarebbe in grado di misurare la differenza.
Grazie alle ricerche di Einstein i fisici si resero conto di come, se si postula che la velocità della luce sia la stessa in tutti i sistemi di riferimento, dalla teoria dell’elettricità e del magnetismo di Maxwell discenda che il tempo non può essere trattato come entità separata dalle tre dimensioni dello spazio. Tempo e spazio sono invece strettamente intrecciati. È un po’ come se si aggiungesse una quarta direzione futuro-passato alle tre consuete destra-sinistra, avanti-indietro e su-giù. I fisici chiamano «spaziotempo» questa fusione di spazio e tempo, e poiché lo spaziotempo comprende una quarta direzione, chiamano quest’ultima quarta dimensione. Nello spaziotempo il tempo non è più separato dalle tre dimensioni spaziali e, per dirla in termini semplici, proprio come la definizione di destra-sinistra, avanti-indietro o su-giù dipende dall’orientamento dell’osservatore, così anche la direzione del tempo varia a seconda della velocità dell’osservatore. Osservatori in moto con velocità diverse sceglierebbero per il tempo direzioni differenti nello spaziotempo. La teoria della relatività ristretta di Einstein era quindi un nuovo modello, che spazzava via i concetti di tempo assoluto e di quiete assoluta (cioè quiete rispetto all’etere fisso).
Einstein presto comprese che per rendere la gravità compatibile con la relatività era necessario un altro cambiamento. Secondo la teoria della gravità di Newton, in ogni istante dato i corpi si attraggono reciprocamente con una forza che dipende dalla distanza tra loro in quell’istante. Ma la teoria della relatività aveva abolito il concetto di tempo assoluto, e quindi non c’era modo di definire quando la distanza tra le masse dovesse essere misurata. Perciò la teoria newtoniana della gravitazione non era coerente con la relatività ristretta e andava modificata. Il contrasto poteva sembrare una semplice difficoltà tecnica, forse addirittura un particolare che poteva in qualche modo essere aggirato senza cambiare molto la teoria. Come si vide poi, nulla avrebbe potuto essere più lontano dalla verità.
Negli undici anni seguenti Einstein elaborò una nuova teoria della gravità, che chiamò relatività generale. Il concetto di gravità nella relatività generale è del tutto diverso da quello di Newton. Si basa invece sull’idea rivoluzionaria che lo spaziotempo non sia piatto, come si era ammesso in precedenza, ma sia curvo e deformato dalla massa e dall’energia presenti in esso.
Un buon modo per immaginarsi la curvatura è pensare alla superficie della Terra. Sebbene questa sia soltanto bidimensionale (poiché ci sono solo due direzioni in cui muoversi, diciamo nord-sud ed est-ovest), ce ne serviremo come esempio perché uno spazio curvo bidimensionale è più facile da immaginare di uno spazio curvo quadridimensionale. La geometria degli spazi curvi come la superficie terrestre non è la geometria euclidea che ci è familiare. Per esempio, sulla superficie della Terra, la distanza minima tra due punti – che è un segmento di retta nella geometria euclidea – è il cammino che congiunge i due punti lungo un cerchio massimo. (Un cerchio massimo è un cerchio sulla superficie della Terra il cui centro coincide con il centro del pianeta. L’equatore è un esempio di cerchio massimo, e lo stesso vale per qualunque cerchio ottenuto ruotando l’equatore intorno a un qualsiasi diametro.)
Immaginiamo, per esempio, di voler andare da New York a Madrid, due città che sono all’incirca alla stessa latitudine. Se la Terra fosse piatta, si seguirebbe la via più breve procedendo diritti verso est. Così facendo arriveremmo a Madrid dopo aver percorso 5965 chilometri. Invece, a causa della curvatura della Terra, c’è una rotta che su una carta piana sembra curva e quindi più lunga, ma che in realtà è più breve. Potremmo arrivare a destinazione in 5800 chilometri seguendo la rotta del cerchio massimo, che significa dirigersi inizialmente verso nordest, virando poi gradualmente verso est, e infine verso sudest. La differenza di lunghezza tra le due rotte è dovuta alla curvatura della superficie terrestre, ed è un segno caratteristico della sua geometria non euclidea. Le linee aeree lo sanno, e fanno in modo che i piloti seguano rotte di cerchio massimo ogniqualvolta ciò sia possibile.
Geodetiche. Il percorso più breve tra due punti sulla superficie della Terra sembra curvo se viene tracciato su una carta piana: una cosa da tenere presente nel caso si sia sottoposti a un controllo del tasso alcolico.
Secondo le leggi del moto di Newton, corpi come le palle di cannone, i croissant e i pianeti si muovono in linea retta a meno che su di essi agisca una forza, quale la gravità. Ma la gravità, nella teoria di Einstein, non è una forza come le altre; è invece una conseguenza del fatto che la massa distorce lo spaziotempo, generando una curvatura. Nella relatività generale, i corpi si muovono lungo le geodetiche, che sono quanto c’è di più simile a linee rette in uno spazio curvo. Le rette sono geodetiche sul piano, e i cerchi massimi sono geodetiche sulla superficie della Terra. In assenza di materia, le geodetiche nello spaziotempo quadridimensionale sono l’equivalente delle rette nello spazio tridimensionale. Ma quando è presente materia che distorce lo spaziotempo, le traiettorie dei corpi nel corrispondente spazio tridimensionale si incurvano in un modo che nella teoria newtoniana era spiegato mediante l’attrazione della gravità. Quando lo spaziotempo non è piatto, le traiettorie dei corpi risultano incurvate, dando l’impressione che su di essi agisca una forza.
La teoria della relatività generale di Einstein si riduce alla relatività ristretta quando la gravità è assente, e nell’ambiente a bassa gravità del sistema solare fa quasi le stesse predizioni della teoria di Newton, ma non esattamente le stesse. In realtà, se nei sistemi di navigazione satellitari GPS non si tenesse conto della relatività generale, nelle posizioni globali si accumulerebbero errori a un tasso di circa dieci chilometri al giorno! Ma la reale importanza della relatività generale non sta tanto nella sua applicazione a congegni che ci guidano verso nuovi ristoranti, quanto piuttosto nel fatto che costituisce un modello assai differente dell’universo, che predice nuovi effetti come le onde gravitazionali e i buchi neri. E così la relatività generale ha trasformato la fisica in geometria. La tecnologia moderna è abbastanza precisa da consentirci di effettuare numerose verifiche di grande accuratezza della relatività generale, che le ha superate tutte.
Pur avendo entrambe rivoluzionato la fisica, la teoria dell’elettromagnetismo di Maxwell e la teoria della gravità di Einstein – la relatività generale – sono, come la fisica newtoniana, teorie classiche. Sono cioè modelli in cui l’universo ha un’unica storia. Come si è visto nel capitolo precedente, ai livelli atomico e subatomico questi modelli non sono in accordo con le osservazioni. Si deve invece fare uso delle teorie quantistiche in cui l’universo può avere ogni possibile storia, ciascuna con la propria «intensità» o ampiezza di probabilità. Per quanto riguarda i calcoli pratici relativi alla realtà quotidiana possiamo continuare a servirci delle teorie classiche, ma se vogliamo comprendere il comportamento degli atomi e delle molecole, abbiamo bisogno di una versione quantistica della teoria dell’elettromagnetismo di Maxwell; e se vogliamo comprendere l’universo delle origini, quando tutta la materia e l’energia del cosmo erano compresse in un piccolo volume, dobbiamo disporre di una versione quantistica della teoria della relatività generale. Abbiamo bisogno di tali teorie anche perché, se l’obiettivo è quello di comprendere la natura a livello fondamentale, non sarebbe coerente che alcune delle leggi fossero quantistiche e altre classiche. Dobbiamo perciò trovare versioni quantistiche di tutte le leggi di natura. Teorie di questo tipo sono chiamate teorie quantistiche dei campi.
Tutte le forze di natura note rientrano in quattro tipi fondamentali:
- La gravità. È la più debole delle quattro, ma è una forza a lungo raggio d’azione e agisce in senso attrattivo su ogni entità dell’universo. Ciò significa che per corpi grandi le forze gravitazionali si sommano e possono dominare tutte le altre forze.
- L’elettromagnetismo. È anch’esso una forza a lungo raggio d’azione ed è molto più intenso della gravità, ma agisce soltanto su particelle dotate di carica elettrica; la forza è repulsiva tra cariche del medesimo segno e attrattiva tra cariche di segno opposto. Ciò significa che le forze elettriche agenti tra corpi grandi si elidono reciprocamente, ma sulla scala degli atomi e delle molecole dominano. Le forze elettromagnetiche sono responsabili di tutta la chimica e la biologia.
- La forza nucleare debole. È all’origine della radioattività e svolge un ruolo essenziale nella formazione degli elementi nelle stelle e nell’universo primordiale. Ma nella vita quotidiana non veniamo mai a contatto con questa forza.
- La forza nucleare forte. Questa forza tiene insieme i protoni e i neutroni all’interno del nucleo atomico. Tiene insieme anche i singoli protoni e neutroni, il che è necessario perché queste particelle sono a loro volta fatte di particelle ancora più piccole, i quark, cui abbiamo fatto cenno nel III capitolo. La forza forte è la fonte dell’energia solare e dell’energia nucleare, ma, come accade per la forza debole, non entriamo in contatto diretto con essa.
La prima forza per la quale si riuscì a formulare una descrizione quantistica fu l’elettromagnetismo. La teoria quantistica dell’elettromagnetismo, chiamata elettrodinamica quantistica, o in breve QED (Quantum ElectroDynamics), fu elaborata negli anni ’40 da Richard Feynman e altri, ed è divenuta un modello per tutte le teorie quantistiche dei campi. Come si è detto, secondo le teorie classiche, le forze sono trasmesse da campi. Ma, nelle teorie quantistiche, i campi di forza sono concepiti come formati da varie particelle elementari chiamate bosoni: questi sono particelle portatrici di forza, che volano avanti e indietro tra le particelle materiali trasmettendo le forze. Le particelle di materia sono invece chiamate fermioni. Elettroni e quark sono esempi di fermioni. Il fotone, o particella di luce, è un esempio di bosone: è il bosone che trasmette la forza elettromagnetica. Ciò che accade è che una particella materiale, come un elettrone, emette un bosone, o quanto di forza, e rincula in direzione opposta, più o meno come un cannone rincula dopo aver sparato un proiettile. Il bosone poi collide con un’altra particella materiale e viene assorbito, alterando il moto di tale particella. Secondo la QED, tutte le interazioni tra particelle cariche – quelle cioè che sono soggette alla forza elettromagnetica – sono descritte in termini di scambio di fotoni.
Le predizioni della QED sono state verificate e si è trovato che concordano in modo molto preciso con i risultati sperimentali. Ma eseguire i calcoli matematici richiesti dalla QED può essere difficile. Il problema, come vedremo più avanti, è che quando al quadro dello scambio di particelle delineato sopra si impone l’ulteriore condizione quantistica che si tenga conto di tutte le storie mediante le quali l’interazione può verificarsi – per esempio, di tutti i modi in cui i bosoni possono essere scambiati –, la matematica diventa complicata. Fortunatamente, oltre ad aver elaborato il concetto di storie alternative – il modo di intendere le teorie quantistiche descritto nell’ultimo capitolo –, Feynman escogitò anche un metodo grafico chiaro per tener conto delle differenti storie, un metodo che oggi viene applicato non soltanto alla QED ma a tutte le teorie quantistiche dei campi.
Il metodo grafico di Feynman fornisce un modo per visualizzare ciascun termine della somma sulle storie. Le immagini che si ottengono, dette diagrammi di Feynman, sono uno degli strumenti più importanti della fisica moderna. Nella QED la somma su tutte le storie possibili può essere rappresentata come una somma su diagrammi di Feynman del tipo di quelli mostrati qui sotto, che rappresentano alcuni dei modi in cui due elettroni possono diffondere l’uno sull’altro mediante la forza elettromagnetica. In questi diagrammi le linee dritte rappresentano gli elettroni e quelle ondulate i fotoni. Si intende che il tempo scorre dal basso verso l’alto, e i punti in cui le linee si congiungono corrispondono all’emissione o all’assorbimento di fotoni da parte di un elettrone. Il diagramma (A) rappresenta due elettroni che si avvicinano, si scambiano un fotone, e poi proseguono per la loro strada. Questo è il modo più semplice in cui due elettroni possono interagire mediante la forza elettromagnetica, ma è necessario considerare tutte le storie possibili. Perciò bisogna includere anche diagrammi come (B). Anche (B) mostra due linee in ingresso, gli elettroni che si avvicinano, e due linee in uscita, gli elettroni diffusi, ma in questo caso gli elettroni si scambiano due fotoni prima di allontanarsi. I diagrammi riportati qui sono soltanto alcune delle possibilità; in effetti ce n’è un numero infinito, di cui bisogna tener conto a livello matematico.
Diagrammi di Feynman. Questi diagrammi si riferiscono a un processo in cui due elettroni diffondono l’uno sull’altro.
I diagrammi di Feynman non sono soltanto un metodo chiaro per rappresentare e classificare i modi in cui le interazioni possono svolgersi. Per essi valgono delle regole che consentono di dedurre, dalle linee e dai vertici che vi compaiono, un’espressione matematica. La probabilità, per esempio, che gli elettroni entranti, con una data quantità di moto iniziale, alla fine si allontanino con una specifica quantità di moto finale si ottiene poi sommando i contributi di ciascun diagramma di Feynman. Ciò può richiedere non poco lavoro perché, come si è detto, ce n’è un numero infinito. Inoltre, sebbene agli elettroni entranti e uscenti siano assegnate un’energia e una quantità di moto definite, le particelle negli anelli chiusi all’interno del diagramma possono avere energia e quantità di moto qualsiasi. Questo è importante perché nell’applicare il metodo di Feynman si deve sommare non soltanto su tutti i diagrammi ma anche su tutti quei valori dell’energia e della quantità di moto.
I diagrammi di Feynman furono di enorme aiuto ai fisici nel visualizzare i processi descritti dalla QED e nel calcolarne le probabilità. Ma non erano un rimedio per un grave problema di cui la teoria soffriva: quando si sommano i contributi del numero infinito di storie differenti, si ottiene un risultato infinito. (Se i termini successivi di una somma infinita decrescono abbastanza rapidamente, è possibile che la somma sia finita, ma purtroppo ciò non accade in questo caso.) In particolare, quando si sommano i diagrammi di Feynman, il risultato sembra implicare che l’elettrone abbia una massa e una carica infinite. Ciò è assurdo, perché carica e massa possono essere misurate e sono finite. Per trattare questi infiniti fu messo a punto un procedimento chiamato rinormalizzazione.
Il procedimento di rinormalizzazione comporta di sommare grandezze che sono per definizione infinite e negative in modo che, con un’accurata contabilità matematica, i valori negativi infiniti e i valori positivi infiniti nella somma si elidano quasi completamente, lasciando un piccolo residuo, il valore finito osservato per la massa e la carica. Questi artifici potrebbero sembrare quel genere di cose che vi procurerebbero una bocciatura a un esame di matematica, ed effettivamente la rinormalizzazione è, proprio come sembra, matematicamente dubbia. Una conseguenza è che i valori che si ottengono con questo metodo per la massa e la carica dell’elettrone possono essere qualunque numero finito. Il vantaggio è che i fisici possono scegliere gli infiniti negativi in modo da ottenere il valore giusto, l’inconveniente è che proprio per questo massa e carica dell’elettrone non possono essere predette dalla teoria. Ma una volta che si siano fissate in questo modo la massa e la carica dell’elettrone, ci si può servire della QED per fare molte altre predizioni precise, che sono sempre in strettissimo accordo con l’osservazione, e perciò la rinormalizzazione è uno degli ingredienti essenziali della QED. Uno dei primi trionfi della teoria, per esempio, fu la predizione corretta del cosiddetto spostamento di Lamb, una piccola variazione dell’energia di uno degli stati dell’atomo di idrogeno scoperta nel 1947.
Diagrammi di Feynman. Richard Feynman guidava un famoso furgone istoriato con i suoi diagrammi. Questa rappresentazione artistica aveva proprio lo scopo di far conoscere i diagrammi discussi sopra. Pur essendo Feynman morto nel 1988, il furgone esiste ancora, ed è conservato presso il Caltech in California.
Il successo della rinormalizzazione nel caso della QED incoraggiò i tentativi di elaborare teorie quantistiche dei campi capaci di descrivere le altre tre forze fondamentali. Ma la suddivisione delle forze di natura in quattro tipologie è probabilmente fittizia e conseguenza dell’insufficiente comprensione che ne abbiamo. Perciò i fisici si sono messi alla ricerca di una teoria del tutto in grado di unificare le quattro forze in un’unica legge che sia compatibile con la teoria quantistica. Tale risultato costituirebbe il santo graal della fisica.
Un indizio a conferma che l’unificazione è l’impostazione corretta venne dalla teoria della forza debole. La teoria quantistica del campo che descrive la forza debole in quanto tale non può essere rinormalizzata; presenta cioè infiniti che non possono essere eliminati sottraendo un numero finito di grandezze quali massa e carica. Ma nel 1967 Abdus Salam e Steven Weinberg proposero, l’uno indipendentemente dall’altro, una teoria in cui l’elettromagnetismo veniva unificato con la forza debole, e scoprirono che l’unificazione poneva rimedio al flagello degli infiniti. La forza unificata è detta forza elettrodebole. La sua teoria poteva essere rinormalizzata, e prediceva l’esistenza di tre nuove particelle chiamate W+, W– e Z0. Indizi della Z0 furono scoperti al CERN di Ginevra nel 1973. Salam e Weinberg ricevettero il premio Nobel nel 1979, sebbene le particelle W e Z non siano state osservate direttamente fino al 1983.
La forza forte può essere rinormalizzata in quanto tale in una teoria chiamata cromodinamica quantistica, o QCD (Quantum ChromoDynamics). Secondo la QCD, il protone, il neutrone e molte altre particelle materiali elementari sono fatti di quark, i quali hanno una singolare proprietà che i fisici hanno scelto di chiamare colore (da cui il termine «cromodinamica», sebbene i colori dei quark siano semplicemente delle utili etichette, senza alcuna connessione con i colori visibili). I quark esistono in tre cosiddetti colori, rosso, verde e blu. Inoltre, ogni quark ha un’antiparticella associata, e i colori di queste antiparticelle sono chiamati antirosso, antiverde e antiblu. L’idea è che soltanto combinazioni complessivamente prive di colore possano esistere come particelle libere. Ci sono due modi per ottenere tali combinazioni neutre di quark. Un colore e il relativo anticolore si elidono, quindi un quark e un antiquark formano una coppia incolore, una particella instabile detta mesone. Anche quando si mescolano tutti e tre i colori (o gli anticolori) il risultato è incolore. Tre quark, uno per ciascun colore, formano particelle stabili chiamate barioni, di cui protoni e neutroni sono esempi (e tre antiquark formano le antiparticelle dei barioni). Protoni e neutroni sono i barioni che costituiscono il nucleo degli atomi e sono la base di tutta la materia ordinaria dell’universo.
Barioni e mesoni. Si ritiene che barioni e mesoni siano fatti di quark tenuti insieme dalla forza forte. Quando queste particelle entrano in collisione tra loro, possono scambiarsi dei quark, ma i singoli quark non possono essere osservati.
La QCD ha inoltre una proprietà chiamata libertà asintotica, cui abbiamo fatto cenno, senza nominarla, nel III capitolo. Libertà asintotica significa che le interazioni forti tra quark sono piccole quando i quark sono vicini tra loro ma aumentano se questi ultimi sono più lontani, un po’ come se fossero connessi da degli elastici. Tale proprietà spiega perché quark isolati non si osservano in natura e non siamo stati in grado di produrne in laboratorio. Tuttavia, anche se non possiamo osservare singoli quark, accettiamo il modello perché riesce a spiegare in modo del tutto soddisfacente il comportamento dei protoni, dei neutroni e di altre particelle materiali.
Dopo aver unificato le forze deboli ed elettromagnetiche, negli anni ’70 del secolo scorso i fisici si misero alla ricerca di un modo per far rientrare nella teoria elettrodebole la forza forte. C’è un certo numero di cosiddette teorie di grande unificazione, o GUT (Grand Unified Theories), che appunto unificano le interazioni forti con la forza elettrodebole, ma esse per lo più predicono che i protoni, la sostanza di cui siamo fatti, dovrebbero decadere, in media, dopo circa 1032 anni. Si tratta di una vita media estremamente lunga, dato che l’universo ha soltanto 1010 anni circa. Ma nella fisica quantistica, quando si dice che la vita media di una particella è di 1032 anni, non si intende che la maggior parte delle particelle viva approssimativamente 1032 anni, qualcuna un po’ di più e qualcuna un po’ di meno. Si intende invece che ogni anno la particella ha una probabilità su 1032 di decadere. Di conseguenza, se si guarda un serbatoio contenente 1032 protoni soltanto per un anno, si dovrebbe vedere qualcuno dei protoni decadere. Costruire un simile serbatoio non è troppo difficile, dal momento che 1032 protoni sono contenuti in non più di un migliaio di tonnellate d’acqua. Gli scienziati hanno effettuato esperimenti di questo tipo, ma rivelare i decadimenti e distinguerli da altri eventi causati dai raggi cosmici che ci piovono addosso di continuo non è cosa facile. Per ridurre al minimo il rumore, gli esperimenti vengono condotti in profondità sottoterra, in luoghi come la miniera Mozumi della Compagnia mineraria di Kamioka in Giappone, che si trova 1000 metri sotto una montagna, e pertanto è in parte schermata dai raggi cosmici. In seguito alle osservazioni effettuate nel 2009, i ricercatori hanno concluso che, se anche i protoni decadono, la loro vita media è superiore a circa 1034 anni, il che non rappresenta una buona notizia per le teorie di grande unificazione.
Poiché le GUT non trovavano riscontro nelle osservazioni, la maggior parte dei fisici ha adottato una teoria ad hoc chiamata modello standard, che comprende la teoria unitaria delle forze elettrodeboli e la QCD come teoria delle interazioni forti. Ma nel modello standard, le forze elettrodeboli e forti agiscono in modo indipendente e non sono realmente unificate. Il modello ha grande successo ed è in accordo con tutte le osservazioni disponibili, ma è insoddisfacente a livello fondamentale perché, oltre a non unificare le forze elettrodeboli e forti, non include la gravità.
«Temo che incorniciarla non la renda una teoria unitaria.»
Fondere la forza forte con le forze elettromagnetiche e deboli può essersi rivelato difficile, ma i problemi che si sono incontrati non sono niente in confronto al problema di amalgamare la gravità con le altre tre interazioni, o anche solo di formulare una teoria quantistica della gravità considerata a sé. La ragione per cui è risultato così difficile creare una teoria quantistica della gravità ha a che fare con il principio di indeterminazione di Heisenberg, che abbiamo discusso nel IV capitolo. Non è ovvio, ma si può mostrare che, con riferimento a tale principio, il valore di un campo e la sua velocità di variazione svolgono il medesimo ruolo della posizione e della velocità di una particella. Vale a dire che, quanto maggiore è la precisione con cui l’uno è determinato, tanto minore può essere quella con cui è determinata l’altra. Ciò ha l’importante conseguenza che non esiste nulla di simile allo spazio vuoto. Questo perché spazio vuoto significa che il valore di un campo è esattamente zero e anche la velocità di variazione del campo è esattamente zero (altrimenti lo spazio non rimarrebbe vuoto). Poiché il principio di indeterminazione non consente che siano esattamente definiti i valori sia del campo che della sua velocità di variazione, lo spazio non è mai vuoto. Può avere uno stato di energia minima, chiamato «vuoto», ma tale stato è soggetto a quelle che sono chiamate fluttuazioni quantistiche, o fluttuazioni del vuoto, in cui particelle e campi si creano e si distruggono senza sosta.
Si possono concepire le fluttuazioni del vuoto come coppie di particelle che a un certo istante compaiono simultaneamente, si allontanano e poi si riavvicinano e si annichilano reciprocamente. In termini di diagrammi di Feynman, tali eventi corrispondono ad anelli chiusi. Queste particelle sono chiamate particelle virtuali. A differenza delle particelle reali, quelle virtuali non si possono osservare in modo diretto con un rivelatore di particelle. Ma loro effetti indiretti, come piccole variazioni dell’energia delle orbite elettroniche, possono essere misurati, e risultano in un accordo straordinariamente preciso con le predizioni teoriche. Il problema è che le particelle virtuali hanno energia, e poiché le coppie virtuali sono in numero infinito, dovrebbero avere una quantità infinita di energia. Secondo la relatività generale, ciò significa che dovrebbero incurvare l’universo riducendolo a dimensioni infinitamente piccole, il che ovviamente non avviene!
Il problema degli infiniti è analogo a quello che si incontra nelle teorie delle forze forti, deboli ed elettromagnetiche, salvo che in quei casi la rinormalizzazione elimina gli infiniti. Ma gli anelli chiusi nei diagrammi di Feynman per la gravità producono infiniti che non possono essere rimossi dalla rinormalizzazione perché nella relatività generale non c’è un numero di parametri rinormalizzabili sufficiente per eliminare dalla teoria tutte le grandezze infinite. Si ha quindi una teoria della gravità che predice che certe grandezze, come la curvatura dello spaziotempo, sono infinite, il che non è compatibile con un universo abitabile. Ciò significa che l’unica possibilità per ottenere una teoria ragionevole sarebbe che in qualche modo tutti gli infiniti si elidano senza ricorrere alla rinormalizzazione.
Nel 1976 fu individuata una soluzione per il problema, sotto forma di una teoria che è chiamata supergravità. Il prefisso «super» non fu aggiunto per esprimere l’entusiasmo dei fisici per la possibilità che la teoria funzionasse davvero. Si riferisce invece a un tipo di simmetria che la teoria possiede, e che va sotto il nome di supersimmetria.
In fisica si dice che un sistema possiede una simmetria se le sue proprietà non sono modificate da una certa trasformazione, quale una rotazione nello spazio oppure la conversione nell’immagine speculare. Per esempio, se la si ribalta, una ciambella mantiene esattamente lo stesso aspetto (a meno che non sia ricoperta di cioccolata, nel qual caso è meglio mangiarla senz’altro). La supersimmetria è una simmetria di un genere più sottile, che non può essere associato a una trasformazione nello spazio ordinario. Una delle implicazioni fondamentali della supersimmetria è che le particelle che mediano le forze e le particelle materiali, e quindi forza e materia, sono realmente soltanto due facce della stessa cosa. In termini pratici, ciò significa che ogni particella di materia, come un quark, dovrebbe avere una partner che è una particella mediatrice di forza, e ogni particella mediatrice di forza, come il fotone, dovrebbe avere una partner che è una particella materiale. Quest’idea è potenzialmente in grado di risolvere il problema degli infiniti perché risulta che gli infiniti che derivano dagli anelli chiusi di particelle mediatrici di forza sono positivi, mentre gli infiniti che derivano dagli anelli chiusi di particelle materiali sono negativi, cosicché nella teoria gli infiniti dei due tipi tendono a elidersi. Purtroppo i calcoli necessari per stabilire se nella supergravità sarebbero rimasti degli infiniti non annullati erano talmente lunghi e difficili e talmente esposti agli errori che nessuno se la sentiva di intraprenderli. La maggior parte dei fisici credeva, comunque, che la supergravità fosse probabilmente la risposta giusta al problema dell’unificazione della gravità con le altre forze.
Si potrebbe pensare che la validità della supersimmetria sia qualcosa di facile da verificare: basta esaminare le proprietà delle particelle esistenti e vedere se formano delle coppie. In realtà non si è osservata nessuna di queste particelle partner. Ma vari calcoli eseguiti dai fisici indicano che le particelle partner corrispondenti a quelle che si osservano dovrebbero avere masse almeno mille volte maggiori di quella del protone. Si tratta di valori troppo grandi perché particelle simili potessero essere viste in qualsiasi esperimento effettuato finora, ma si spera che alla fine se ne possano creare nel Large Hadron Collider di Ginevra.
La supersimmetria è stata la chiave per la formulazione della supergravità, ma il concetto di supergravità aveva in effetti avuto origine anni prima tra i fisici che studiavano una teoria ancora allo stato embrionale, detta teoria delle corde (o delle stringhe). Secondo la teoria delle corde, le particelle non sono punti, ma configurazioni di vibrazione che hanno lunghezza ma non larghezza né spessore, come pezzi di corda infinitamente sottile. Anche le teorie delle corde portano a degli infiniti, ma si ritiene che nella versione corretta questi si elideranno completamente. Le teorie hanno anche un’altra caratteristica insolita: sono coerenti soltanto se lo spaziotempo ha dieci dimensioni, invece delle quattro consuete. Dieci dimensioni potrebbero sembrare qualcosa di stimolante per gli scienziati, ma sarebbero fonte di non pochi problemi per uno che si fosse dimenticato dove ha parcheggiato l’automobile. A ogni modo, se ci sono queste dimensioni aggiuntive, perché non ce ne accorgiamo? Secondo la teoria delle corde, sono avvolte in uno spazio di dimensioni molto piccole. Per farcene un’idea, immaginiamo un piano bidimensionale. Lo definiamo bidimensionale perché occorrono due numeri (per esempio, una coordinata orizzontale e una verticale) per localizzare un punto qualsiasi su di esso. Un altro spazio bidimensionale è la superficie di una cannuccia da bibita. Per localizzare un punto in tale spazio, si deve sapere dov’è nella direzione della lunghezza della cannuccia, e anche dov’è lungo la sua dimensione circolare. Ma se la cannuccia fosse molto sottile, si avrebbe un’ottima approssimazione della posizione usando soltanto la coordinata nella direzione della lunghezza, e quindi si potrebbe ignorare la dimensione circolare. E se la cannuccia avesse un diametro di un milionesimo di milionesimo di milionesimo di milionesimo di milionesimo di centimetro, non ci si accorgerebbe affatto della dimensione circolare. Questa è l’idea che i teorici delle corde hanno delle dimensioni aggiuntive: sono altamente incurvate, su una scala così piccola che non le possiamo scorgere. Nella teoria delle corde le dimensioni aggiuntive sono avvolte su se stesse in quello che è detto spazio interno, in contrapposizione allo spazio tridimensionale di cui facciamo esperienza nella vita quotidiana. Come vedremo, questi stati interni non sono soltanto dimensioni nascoste sotto il tappeto, ma hanno un importante significato fisico.
Cannucce e linee. Una cannuccia è bidimensionale, ma se il suo diametro è abbastanza piccolo, o se viene vista da lontano, sembra unidimensionale come una linea.
Al di là della questione delle dimensioni, la teoria delle corde soffriva di un’altra difficoltà imbarazzante: sembrava che vi fossero almeno cinque differenti teorie e milioni di modi in cui le dimensioni aggiuntive potevano essere avvolte su se stesse, il che costituiva decisamente un eccesso di possibilità per coloro che sostenevano che la teoria delle corde fosse l’unica teoria del tutto. Poi, intorno al 1994, si cominciarono a scoprire delle dualità: emerse cioè che differenti teorie delle corde, e differenti modi di avvolgere le dimensioni aggiuntive su se stesse, sono semplicemente maniere diverse di descrivere i medesimi fenomeni in quattro dimensioni. Inoltre si scoprì che anche la supergravità è connessa alle altre teorie in questo modo. I teorici delle corde oggi sono convinti che le cinque teorie diverse e la supergravità siano soltanto differenti approssimazioni – ciascuna valida in una diversa situazione – a una teoria più fondamentale.
Tale teoria più fondamentale è chiamata, come si è già detto, teoria M. Pare che nessuno sappia che cosa significhi di preciso la «M», ma può darsi che stia per «master» (principale), per «miracolo» o per «mistero». Sembra comunque che sia tutte e tre le cose. I fisici stanno ancora tentando di decifrare la natura di tale teoria, ma la cosa potrebbe anche rivelarsi impossibile. Potrebbe darsi che la tradizionale aspirazione dei fisici a un’unica teoria della natura sia destinata ad andare delusa, e che non esista una formulazione unica. Potrebbe darsi che per descrivere l’universo ci si debba servire di differenti teorie in situazioni diverse. Ciascuna teoria potrebbe avere una propria versione della realtà, ma secondo il realismo dipendente dai modelli ciò è accettabile purché le teorie concordino nelle loro predizioni ogni qualvolta si sovrappongono, cioè ogni qualvolta possono essere applicate simultaneamente.
Che la teoria M esista come formulazione unica o soltanto come una rete, di certo ne conosciamo alcune proprietà. In primo luogo, la teoria M ha undici dimensioni spaziotemporali, e non dieci. I teorici delle corde sospettavano da tempo che la predizione delle dieci dimensioni potesse richiedere una correzione, e ricerche recenti hanno messo in evidenza che effettivamente una dimensione era stata trascurata. Inoltre la teoria M può contenere, oltre che corde vibranti, anche particelle puntiformi, membrane bidimensionali, bolle tridimensionali e altri oggetti di cui è più difficile farsi un’idea intuitiva e che si estendono in un numero ancor maggiore di dimensioni spaziali, fino a nove. Questi oggetti sono chiamati p-brane (dove p, numero delle dimensioni, va da 1 a 9).
E come stanno le cose per quanto riguarda l’enorme numero di modi in cui si possono avvolgere le dimensioni minuscole? Nella teoria M le dimensioni dello spazio interno non possono essere avvolte in un modo qualsiasi. La matematica della teoria pone restrizioni alla maniera in cui ciò può avvenire. La struttura specifica dello spazio interno determina sia i valori delle costanti fisiche, come la carica dell’elettrone, sia la natura delle interazioni tra le particelle elementari. In altre parole, determina le leggi visibili di natura. Diciamo «visibili» intendendo con ciò le leggi che si osservano nel nostro universo: le leggi delle quattro forze e i parametri quali massa e carica che caratterizzano le particelle elementari. Ma le leggi più fondamentali sono quelle della teoria M.
Le leggi della teoria M ammettono quindi differenti universi, con leggi visibili diverse, a seconda di come lo spazio interno è avvolto su se stesso. La teoria M contiene soluzioni che danno adito a molti spazi interni diversi, forse non meno di 10500, il che significa che permette 10500 universi differenti, ciascuno con proprie leggi. Per farsi un’idea di quanto grande sia tale numero, si può pensare a questo: se un essere fosse in grado di analizzare le leggi previste per ciascuno di quegli universi in un solo millisecondo e avesse iniziato a lavorarci al momento del big bang, adesso ne avrebbe studiati soltanto 1020. E questo senza fare pause caffè.
Qualche secolo fa Newton mostrò che le equazioni matematiche potevano fornire una descrizione sbalorditivamente precisa del modo in cui i corpi interagiscono, sia sulla Terra sia nei cieli. Gli scienziati furono indotti a credere che si sarebbe potuto determinare il futuro dell’intero universo se soltanto si fosse conosciuta la teoria appropriata e si fosse disposto di una sufficiente potenza di calcolo. Poi vennero l’indeterminazione quantistica, lo spazio curvo, i quark, le corde e le dimensioni aggiuntive, e il risultato finale dei loro sforzi sono 10500 universi, ciascuno con leggi differenti, uno solo dei quali corrisponde all’universo che conosciamo. L’originaria speranza dei fisici di formulare un’unica teoria che spiegasse le leggi visibili del nostro universo come unica conseguenza possibile di un certo numero di presupposti deve forse essere abbandonata. Che significa tutto ciò? Se la teoria M ammette 10500 insiemi di leggi visibili, come mai siamo finiti proprio in questo universo, con le leggi che sono sotto i nostri occhi? E che si può dire di quegli altri mondi possibili?