Im Jahr 1911 beschäftigte sich der britische Wissenschaftler C.T. R. Wilson mit Wolkenformationen. Zu diesem Zweck wanderte er regelmäßig zum Gipfel des Mount Wilson, eines berühmten, fast immer nasskalten Berges in Schottland. Dort kam ihm der Gedanke, es müsse doch einen einfacheren Weg geben, um Wolken zu untersuchen.1 Zu Hause im Cavendish Laboratory in Cambridge baute er eine künstliche Wolkenkammer: In diesem einfachen Apparat konnte er Luft anfeuchten und abkühlen, sodass sich unter Laborbedingungen ein vernünftiges Modell für die Wolkenbildung ergab.
Das Gerät funktionierte gut, hatte aber außerdem einen weiteren, unerwarteten Nutzen. Als Wilson ein Alphateilchen durch die Kammer wandern ließ, um den Samen für die zukünftigen Wolken zu legen, hinterließ es eine sichtbare Spur, ähnlich dem Kondensstreifen eines Flugzeugs. Damit hatte er den Teilchendetektor erfunden. Dieses Instrument lieferte den überzeugenden Beleg, dass es die subatomaren Teilchen tatsächlich gibt.
Später erfanden zwei andere Wissenschaftler des Cavendish Laboratory ein leistungsfähigeres Gerät zur Herstellung von Protonenstrahlen, und Ernest Lawrence entwickelte im kalifornischen Berkeley sein berühmtes, eindrucksvolles Zyklotron, den Teilchenzertrümmerer, wie man solche spannenden Apparate lange Zeit nannte. Alle derartigen Geräte funktionierten – und funktionieren noch heute – mehr oder weniger nach dem gleichen Prinzip: Man beschleunigt ein Proton oder ein anderes geladenes Teilchen auf einem festgelegten Weg (der manchmal linear, manchmal auch ringförmig ist) auf sehr hohe Geschwindigkeit, lässt es dann auf ein anderes Teilchen prallen und beobachtet, was dabei weggeschleudert wird. Das ist der Grund, warum man von Teilchenzertrümmerern sprach. Es war nicht gerade die raffinierteste Form der Wissenschaft, aber es erfüllte im Allgemeinen seinen Zweck.
Voller Ehrgeiz bauten die Physiker immer größere Maschinen, und nun fanden oder postulierten sie eine scheinbar unendliche Zahl von Teilchen oder ganzen Teilchenfamilien: Vektorbosonen, Pionen, Hyperonen, Mesonen, K-Mesonen, Higgs-Bosonen, intermediäre Vektorbosonen, Baryonen, Tachyonen. Irgendwann war sogar den Physikern selbst nicht mehr wohl bei der Sache. Als der große Physiker Enrico Fermi einmal von einem Studenten nach einem bestimmten Teilchen gefragt wurde, erwiderte er:
»Junger Mann, wenn ich mir die Namen dieser ganzen Teilchen merken könnte, wäre ich Botaniker geworden.«2
Heute tragen die Teilchenbeschleuniger Namen, wie Flash Gordon sie in der Schlacht verwenden würde: Super-Protonensynchrotron, Großer Elektronen-Positronen-Collider, Großer Hadronen-Collider, Relativistischer Schwerionen-Collider. Mit gewaltigen Energiemengen (manche Anlagen arbeiten nur nachts, damit in den Städten der Umgebung nicht die Lichter ausgehen, wenn die Maschine anläuft) peitschen sie die Teilchen derart voran, dass ein einziges Elektron in einer Sekunde 47000 Runden durch einen sieben Kilometer langen Tunnel dreht.3 Deshalb wurden Befürchtungen laut, die Wissenschaftler könnten in ihrer Begeisterung unabsichtlich schwarze Löcher oder so genannte »seltsame Quarks« schaffen, die theoretisch mit anderen Teilchen in Wechselwirkung treten können und sich dann unkontrolliert vermehren. Wenn Sie diesen Text lesen können, ist so etwas noch nicht geschehen.
Damit man Teilchen findet, müssen sie eine gewisse Konzentration haben. Sie sind nicht nur winzig klein und rasend schnell, sondern oftmals auch entsetzlich schwer fassbar. Manche Teilchen sind in 0,000000000000000000000001 (10-24) Sekunden entstanden und wieder verschwunden. Und selbst die langsamsten dieser instabilen Teilchen bleiben nicht länger als 0,0000001 (10-7) Sekunden erhalten.4
Manche Teilchen sind geradezu lächerlich flüchtig. Die Erde wird in jeder Sekunde von 10000 Billionen Billionen winzigen, fast masselosen Neutrinos heimgesucht (die in ihrer Mehrzahl aus dem nuklearen Schmelztiegel der Sonne stammen). Praktisch alle gehen durch den Planeten und alles, was sich auf ihm befindet, ungehindert hindurch, als würde es nicht existieren, auch durch dich und mich. Um nur ein paar von ihnen einzufangen, brauchen die Wissenschaftler riesige Tanks mit bis zu 50 Millionen Litern schwerem Wasser (das heißt Wasser mit einem besonders hohen Gehalt an schwerem Wasserstoff oder Deuterium), und diese Tanks müssen sich tief unter der Erde befinden (in der Regel in alten Bergwerken), damit andere Strahlungen sie nicht beeinflussen.
In sehr seltenen Fällen trifft ein vorüberkommendes Neutrino auf einen der Atomkerne im Wasser und erzeugt dabei einen kleinen Energieausbruch. Die Wissenschaftler zählen solche Ereignisse und bringen uns damit einem Verständnis für die grundlegenden Eigenschaften des Universums ein klein wenig näher. Im Jahr 1998 berichteten japanische Forscher, Neutrinos hätten tatsächlich eine Masse, allerdings nur eine sehr kleine: Sie beträgt demnach ein Zehnmillionstel der Masse eines Elektrons.5
Um heutzutage Teilchen zu finden, braucht man Geld, und zwar eine Menge. In der modernen Physik besteht eine seltsame, umgekehrte Proportionalität zwischen der Kleinheit des Gesuchten und den Ausmaßen der Gerätschaften, die für eine solche Suche notwendig sind. Die Europäische Organisation für Kernforschung (CERN) gleicht einer kleinen Stadt. Sie erstreckt sich über die Grenze zwischen Frankreich und der Schweiz, beschäftigt 3000 Menschen und besetzt ein Gelände, das sich nach Quadratkilometern bemisst. CERN kann mit einer Reihe von Magneten aufwarten, die mehr wiegen als der Eiffelturm, und ihr unterirdischer Tunnel hat einen Umfang von rund 26 Kilometern.
Wie James Trefil feststellt, ist es sehr einfach, Atome zu zerlegen: Wir tun es jedes Mal, wenn wir eine Leuchtstoffröhre einschalten.6 Atomkerne zu spalten, erfordert jedoch viel Geld und eine üppige Stromversorgung. Noch höher sind die Anforderungen, wenn man sich auf die Ebene der Quarks begibt, jener Teilchen, aus denen die Teilchen bestehen: Dann braucht man Milliarden Volt an Elektrizität und den Etat eines kleinen mittelamerikanischen Staates. Der neue große Hadronenbeschleuniger, der 2005 bei CERN in Betrieb gehen soll, wird eine Energie von 14 Billionen Volt erreichen, und sein Bau kostet mehr als l,3 Milliarden Euro.* 7
Aber solche Zahlen sind noch gar nichts im Vergleich zu Leistung und Kosten des riesigen, mittlerweile leider aufgegebenen »Superconducting Supercollider«, mit dessen Bau man in den achtziger Jahren des 20. Jahrhunderts in der Nähe von Waxahachie in Texas begann. Er erlebte dann einen Zusammenstoß ganz eigener Art mit dem Kongress der Vereinigten Staaten. Mit dem Beschleuniger verfolgen die Wissenschaftler das Ziel, »das letzte Wesen der Materie« zu untersuchen, wie es immer formuliert wird: Sie wollten so weit wie möglich die Bedingungen nachvollziehen, die im Universum während der ersten 10000 Milliardstelsekunden herrschten. Man wollte Teilchen durch einen 84 Kilometer langen Tunnel schießen und dabei eine Energie von atemberaubenden 99 Billionen Volt erreichen. Es war ein großartiger Plan, der Bau hätte aber auch acht Milliarden Dollar gekostet (eine Zahl, die am Ende auf zehn Milliarden geklettert war), und der Betrieb hätte jedes Jahr mehrere hundert Millionen Dollar verschlungen.
Es war vielleicht eines der besten Beispiele aller Zeiten dafür, wie man Geld im wahrsten Sinne des Wortes in den Sand setzen kann: Der Kongress bewilligte zunächst zwei Milliarden Dollar für das Projekt, und 1993, nachdem man bereits fast 23 Kilometer Tunnel gegraben hatte, wurde es aufgegeben. Damit kann Texas heute die teuerste Baugrube der Welt vorweisen. Wie mein Freund Jeff Guinn vom Fort Worth Star-Telegram berichtet, ist die Baustelle heute »eigentlich ein riesiges, gerodetes Feld mit einer Reihe enttäuschter Kleinstädte drumherum.«8
Seit dem Debakel mit dem Superbeschleuniger haben die Teilchenphysiker ihre Messlatte ein wenig tiefer gehängt, aber selbst vergleichsweise bescheidene Projekte verursachen geradezu atemberaubende Kosten, wenn man sie mit – nun ja – fast allem anderen vergleicht. Der Bau eines geplanten Neutrino-Observatoriums in der alten Homestale Mine in Lead, South Dakota, würde 500 Millionen Dollar kosten9 – und das, obwohl das Bergwerk bereits existiert. Von den jährlichen Betriebskosten ist dabei noch nicht einmal die Rede. »Außerdem würden 281 Millionen Dollar an ›allgemeinen Umwandlungskosten‹ anfallen. Allein die Modernisierung eines Teilchenbeschleunigers am Fermilab in Illinois verschlingt mittlerweile 260 Millionen Dollar.10«
Teilchenphysik ist also, kurz gesagt, ein ungeheuer teures Unternehmen – aber auch ein produktives. Die Zahl der bekannten Teilchen liegt heute bei weit über 150, und über weitere 100 gibt es Vermutungen, aber leider ist es »sehr schwierig, die Beziehungen dieser Teilchen zueinander zu verstehen und herauszufinden, wozu die Natur sie braucht oder was für eine Verbindung zwischen ihnen besteht«, wie Richard Feynman es formulierte.11 Jedes Mal, wenn man eine Kiste aufgeschlossen hat, findet man darin zwangsläufig eine neue, verschlossene Kiste. Nach Ansicht mancher Fachleute gibt es so genannte Tachyonen,Teilchen, die sich schneller bewegen können als das Licht.12 Andere möchten gern Gravitonen finden, die Träger der Gravitation. Wann wir endgültig den Boden erreichen werden, ist nicht leicht zu sagen. Carl Sagan warf in seinem Buch Unser Kosmos die Möglichkeit auf, man könne sich ins Innere eines Elektrons begeben und dort wiederum ein eigenständiges Universum vorfinden – ein Gedanke, der an die Sciencefiction-Geschichten der fünfziger Jahre erinnert. »Dieser Hypothese zufolge würde sich ein Elementarteilchen wie ein Elektron in unserem Universum … seinerseits als geschlossenes Universum enthüllen, aufgegliedert in die Entsprechungen zu Galaxien und kleineren Gebilden, bestehend aus einer unermesslichen Anzahl anderer, weit kleinerer Elementarteilchen, die wiederum ihrerseits lauter Universen geringerer Größenordnung darstellten und so weiter bis in alle Ewigkeit – ein unendlicher Regress nach unten, Universen in Universen ohne Ende. Und genauso verhielte es sich auch nach oben.«13
Es ist eine Welt, die sich dem Verständnis der meisten von uns entzieht. Selbst wenn man heute nur eine grundlegende Einführung in die Teilchenphysik liest, muss man sich in einem Wortgestrüpp wie diesem zurechtfinden: »Das positiv geladene Pion zerfällt nach einer mittleren Lebensdauer von 2,603 x 10-8 Sekunden in ein Myon und ein Antineutrino; sein Antiteilchen verwandelt sich entsprechend in ein Antimyon und ein Neutrino. Das neutrale Pion schließlich zerfällt nach einer mittleren Lebensdauer von ungefähr 0,8 x 10-16 Sekunden in zwei Photonen …«14 So geht es immer weiter – und das in einem Buch für ein Laienpublikum, das von einem der (normalerweise) begnadetsten Dolmetscher verfasst wurde: von Steven Weinberg.
In den sechziger Jahren des 20. Jahrhunderts unternahm der Physiker Murray Gell-Mann vom California Institute of Technology den Versuch, alles ein wenig zu vereinfachen. Dazu erfand er eigentlich eine neue Klasse von Teilchen; Steven Weinberg schreibt: »Schon bald versuchte man, Ordnung in die Vielfalt der Hadronen zu bringen.«15 Mit diesem Sammelbegriff bezeichnet man in der Physik die Protonen, Neutronen und andere Teilchen, die der starken Kernkraft unterliegen. Nach Gell-Manns Theorie bestehen alle Hadronen aus noch kleineren, grundlegenderen Teilchen. Sein Kollege Richard Feynman wollte diese neuen, fundamentalen Teilchen auf den Namen Partonen taufen, konnte sich damit aber nicht durchsetzen.16 Stattdessen wurden sie als Quarks bekannt. Den Namen entlehnte Gell-Mann aus einer Zeile in Finnegans Wake: »Three quarks for Muster Mark!« (Physiker, die genau sein wollen, sprechen das Wort so aus, dass es sich nicht mit larks, sondern mit storks reimt, obwohl Joyce sicher die erste Aussprachevariante im Sinn hat.) Aber die Vorstellung, Quarks seien etwas Grundsätzliches und Einfaches, lebte nicht lange. Als man mehr über sie in Erfahrung brachte, musste man Unterteilungen einführen. Obwohl Quarks viel zu klein sind, als dass sie eine Farbe, einen Geschmack oder irgendeine andere erkennbare physikalische Eigenschaft haben könnten, gruppierte man sie in sechs Kategorien: up, down, strange, charm, top und bottom. Die Physiker bezeichnen diese Gruppen seltsamerweise als »Geschmäcker« (flavors) und unterteilen sie nochmals in drei »Farben«: rot, grün und blau. (Die Begriffe wurden in Kalifornien zur Zeit der psychedelischen Drogen geprägt – man hat den Verdacht, dass dies kein Zufall war.)
Am Ende erwuchs aus alledem das so genannte Standardmodell, das eigentlich eine Art Baukasten für die subatomare Welt ist.17 Das Standardmodell besteht aus sechs Quarks, sechs Leptonen, fünf bekannten Bosonen und einem postulierten sechsten, dem Higgs-Boson (benannt nach dem schottischen Wissenschaftler Peter Higgs), sowie drei der vier physikalischen Kräfte: starke und schwache Kernkraft und Elektromagnetismus.
Entscheidend dabei ist, dass unter den Grundbausteinen der Materie auch die Quarks sind; diese werden durch weitere Teilchen, die Gluonen, zusammengehalten; Quarks und Gluonen bilden gemeinsam die Protonen und Neutronen, das Material des Atomkerns. Leptonen sind die Quelle der Elektronen und Neutrinos. Quarks und Leptonen bezeichnet man zusammenfassend als Fermionen. Die Bosonen, die nach dem indischen Physiker S. N. Bose benannt sind, erzeugen und transportieren Kräfte; zu ihnen gehören die Photonen und Gluonen.18 Das Higgs-Boson könnte tatsächlich existieren oder auch nicht; es wurde erfunden, weil es eine Möglichkeit bietet, die Teilchen mit Masse auszustatten.
Wie man leicht erkennt, ist das alles ein wenig umständlich, aber es ist das einfachste Modell, mit dem man alle Vorgänge in der Welt der Teilchen erklären kann. Den Eindruck der meisten Teilchenphysiker gab Leon Lederman 1985 in einer Sendung des amerikanischen Fernsehsenders PBS wieder: Dem Standardmodell fehlt es an Eleganz und Einfachheit. »Es ist zu kompliziert. Es enthält zu viele willkürliche Parameter«, sagte Lederman.19
»Man mag nicht mit ansehen, wie der Schöpfer an 20 Knöpfen dreht, um 20 Parameter festzulegen und so das Universum zu schaffen, wie wir es kennen.« Eigentlich ist Physik nichts anderes als eine Suche nach letztmöglicher Einfachheit, aber bisher stehen wir nur vor einer Art elegantem Durcheinander – oder, wie Lederman es formulierte: »Es gibt ein tief sitzendes Gefühl, dass das Bild alles andere als schön ist.«
Das Standardmodell ist nicht nur unbeholfen, sondern auch unvollständig. Es sagt nämlich nichts über die Gravitation aus. Man kann im Standardmodell suchen, wo man will, nirgendwo wird man eine Erklärung dafür finden, warum ein Hut, den man auf einen Tisch legt, nicht zur Decke schwebt. Und ebenso bietet es auch, wie wir gerade festgestellt haben, keine Erklärung für die Masse. Damit Teilchen überhaupt eine Masse haben können, müssen wir den Begriff des Higgs-Bosons20 einführen; die Frage, ob es tatsächlich existiert, ist ein Thema für die Physik des 21. Jahrhunderts. Oder, wie Feynman vergnügt feststellt:
»Da stehen wir also und haben eine Theorie, wissen aber nicht, ob sie richtig oder falsch ist; allerdings wissen wir sehr wohl, sie ist ein bisschen falsch oder zumindest unvollständig.«21
In dem Versuch, alles unter einen Hut zu bringen, haben die Physiker ein Gedankengebäude namens Superstringtheorie geschaffen. Danach sind alle diese kleinen Dinger wie Quarks und Leptonen, die wir uns bisher als Teilchen vorgestellt haben, in Wirklichkeit »Strings«, vibrierende Energiestränge, die in elf Dimensionen schwingen: den dreien, wie wir bereits kennen, dazu die Zeit und sieben weitere, die wir – nun ja – einfach nicht kennen können.22 Die Strings sind winzig klein – so klein, dass man sie als punktförmige Teilchen betrachten kann.23
Mit den zusätzlich eingeführten Dimensionen schafft die Superstringtheorie für die Physiker die Möglichkeit, aus Quanten- und Gravitationsgesetzen ein vergleichsweise ordentliches Paket zu schnüren, aber sie hat auch zur Folge, dass alle Aussagen der Wissenschaftler über die Theorie beunruhigend stark wie jene Gedanken klingen, die uns aufstehen lassen, wenn ein Fremder auf der Parkbank sie äußert. Der Physiker Michio Kaku beispielsweise erklärt den Aufbau des Universums aus Sicht der Superstringtheorie so: »Der heterotische String besteht aus einem geschlossenen String mit zwei Schwingungsmoden, im Uhrzeigersinn und gegen den Uhrzeigersinn, die unterschiedlich behandelt werden. Wenn die Schwingungen gegen den Uhrzeigersinn erfolgen, ist ein sechsundzwanzigdimensionaler Raum erforderlich, wobei sechzehn Dimensionen kompaktifiziert sind. (Wie wir uns erinnern, wurde in Kaluzas ursprünglicher Theorie die fünfte Dimension kompaktifiziert, indem man sie zu einem Kreis aufwickelte.)«24 In dem gleichen Ton geht es etwa 430 Seiten lang weiter.
Aus der Stringtheorie ging im weiteren Verlauf die so genannte »M-Theorie« hervor. In ihr kommen Oberflächen vor, die als Membranen bezeichnet werden – oder, für die besonders hippen Geister in der Physik – einfach als »Branes«.25 Ich fürchte, an dieser Haltestelle auf der Autobahn des Wissens müssen die meisten von uns aussteigen. Mit dem folgenden Satz versuchte die New York Times, das Thema einem Laienpublikum so einfach wie möglich zu erklären: »Der ekpyrotische Prozess beginnt weit in der unbegrenzten Vergangenheit mit zwei flachen, leeren Branes, die parallel zueinander in einem verzerrten, fünfdimensionalen Raum liegen … Die beiden Branes, welche die Wände der fünften Dimension bilden, könnten in der noch weiter entfernten Vergangenheit durch eine Quantenfluktuation aus dem Nichts entstanden und dann auseinander getrieben sein.«26 Darüber kann man nicht diskutieren. Verstehen kann man es auch nicht. Nebenbei bemerkt: ekpyrotisch kommt von dem griechischen Wort für »Feuersbrunst«.
In der Physik sind die Dinge mittlerweile auf einer Stufe angelangt, auf der »es für den Nichtfachmann nahezu unmöglich ist, zwischen dem zu Recht Sonderbaren und dem wirklich Verrückten zu unterscheiden«, wie Paul Davies es in der Wissenschaftszeitschrift Nature formulierte.27 Eine interessante Zuspitzung erlebte die Frage im Herbst 2002, als zwei französische Physiker, die Zwillingsbrüder Igor und Grichka Bogdanov, eine Theorie von ehrgeiziger Dichte entwickelten, in der Begriffe wie »imaginäre Zeit« und »Kubo-Schwinger-Martin-Zustand« vorkamen; angeblich konnten sie damit das Nichts beschreiben, aus dem das Universum vor dem Urknall bestand – eine Zeit, von der man immer angenommen hatte, man werde nie etwas darüber wissen können (weil sie der Geburt der Physik und der physikalischen Eigenschaften vorausging).28
Der Aufsatz der Bogdanovs löste unter Physikern sofort hitzige Debatten aus: War sie Unsinn, die Arbeit von Genies oder schlichter Betrug? »Wissenschaftlich betrachtet, ist sie eindeutig mehr oder weniger völliger Unsinn«, erklärte der Physiker Peter Woit von der Columbia University gegenüber der New York Times, »aber darin unterscheidet sie sich heutzutage kaum von großen Teilen der übrigen Literatur.«
Karl Popper, den Steven Weinberg als »Haupt der modernen Wissenschaftsphilosophen« bezeichnete, äußerte einmal die Vermutung, es gebe vielleicht keine letzte Theorie der Physik, sondern jede Erklärung werde eine weitere Erklärung erfordern, sodass sich eine unendliche Kette immer grundlegenderer Prinzipien ergibt.29 Andererseits wäre es denkbar, dass solche Kenntnisse einfach unsere Fähigkeiten übersteigen. Aber »zum Glück scheinen wir noch nicht am Ende unserer intellektuellen Möglichkeiten zu sein«, so Weinberg in seinem Buch Der Traum von der Einheit des Universums.30
Auf diesem Gebiet wird es mit ziemlicher Sicherheit weitere gedankliche Entwicklungen geben, und ebenso sicher werden diese Gedanken das Begriffsvermögen der meisten Menschen übersteigen.
Während die Physiker in den mittleren Jahrzehnten des 20. Jahrhunderts verblüfft in die Welt des Allerkleinsten blickten, mussten die Astronomen nicht weniger fasziniert feststellen, dass auch ihr Wissen über das Universum unvollständig war.
Sie erinnern sich: Bei unserer letzten Begegnung mit Edwin Hubble hatte er gerade herausgefunden, dass fast alle Galaxien in unserem Blickfeld sich von uns entfernen, wobei Geschwindigkeit und Entfernung dieses Rückzugs genau proportional sind: Je größer der Abstand zu einer Galaxie ist, desto schneller bewegt sie sich. Hubble erkannte, dass sich dieser Zusammenhang mit der einfachen Gleichung Ho = v/d ausdrücken lässt (wobei Ho eine Konstante, v die Rückzugsgeschwindigkeit einer Galaxie und d ihre Entfernung von uns ist). Ho wird seither als Hubble-Konstante bezeichnet, und die ganze Gleichung nennt man Hubble-Gesetz. Mit dieser Formel berechnete Hubble das Alter des Universums auf rund zwei Milliarden Jahre31; das war ein wenig seltsam, denn selbst Anfang der zwanziger Jahre war man sich ziemlich sicher, dass viele Dinge innerhalb des Universums – nicht zuletzt auch die Erde selbst – erheblich älter sind. Die genauere Bestimmung dieser Zahl ist seither in der Kosmologie ein wichtiges Tätigkeitsfeld.
Fast das einzig Konstante an der Hubble-Konstante war das Ausmaß der Meinungsverschiedenheiten über ihren Zahlenwert. Im Jahr 1956 entdeckten die Astronomen, dass die variablen Cepheiden viel variabler sind, als man zuvor geglaubt hatte: Es gibt nicht eine, sondern zwei Formen von ihnen. Diese Erkenntnis ermöglichte eine Neuberechnung, und nun gelangte man für das Alter des Universums zu einer Zahl zwischen sieben und 20 Milliarden Jahren32 – nicht gerade eine genaue Schätzung, aber zumindest war das Alter nun endlich so groß, dass es auch die Entstehung der Erde einschließen konnte.
In den folgenden Jahren entspann sich eine lang anhaltende Diskussion zwischen Allan Sandage, der Hubbles Nachfolger am Mount Wilson Observatory geworden war, und dem in Frankreich geborenen Astronomen Gerard de Vaucouleurs, der an der University of Texas arbeitete.33 Sandage gelangte nach jahrelangen, sorgfältigen Berechnungen zu einem Wert von 50 für die Hubble-Konstante, und daraus ergab sich für das Universum ein Alter von 20 Milliarden Jahren. De Vaucouleurs war sich ebenso sicher, dass die Hubble-Konstante einen Wert von 100 hat.** Das hätte bedeutet, dass Größe und Alter des Universums nur halb so groß waren, wie Sandage annahm – dass es also nur 10 Milliarden Jahre alt war. Noch größer wurden die Unsicherheiten im Jahr 1994, als eine Arbeitsgruppe der Carnegie Observatories in Kalifornien auf der Grundlage neuer Messungen des Hubble-Weltraumteleskops die Vermutung äußerte, das Universum sei möglicherweise nur acht Milliarden Jahre alt – wobei die Wissenschaftler allerdings einräumten, das sei weniger als das Alter mancher Sterne im Universum. Im Februar 2003 gab ein Team der NASA und des Goddard Space Flight Center in Maryland nach Auswertung der Daten eines neuen, weit reichenden Satelliten namens Wilkinson Microwave Anisotropy Probe recht zuversichtlich bekannt, das Alter des Universums betrage 13,7 Milliarden Jahre, vielleicht auch etwa 100 Millionen Jahre mehr oder weniger. Damit war der Streit zumindest vorerst beigelegt.
Die Schwierigkeit bei einer eindeutigen Altersbestimmung besteht darin, dass häufig weite Spielräume für Interpretationen bleiben. Angenommen, wir stehen nachts auf einem Feld, sehen in der Dunkelheit zwei elektrische Lichter und sollen entscheiden, wie weit sie von uns entfernt sind. Mit recht einfachen astronomischen Hilfsmitteln kann man herausfinden, dass die beiden Lampen gleich hell sind und dass eine beispielsweise um 50 Prozent weiter von uns entfernt ist als die andere. Wir können aber nicht mit Sicherheit sagen, ob es sich bei dem näher gelegenen Licht beispielsweise um eine 58-Watt-Birne handelt, die 40,6 Meter weit weg ist, oder um eine 61-Watt-Birne in einer Entfernung von 39,9 Metern. Zusätzlich muss man berücksichtigen, dass Schwankungen in der Erdatmosphäre, intergalaktischer Staub, Licht von Sternen im Vordergrund und viele andere Faktoren zu Verzerrungen führen. Insgesamt stützen sich die Berechnungen also zwangsläufig auf eine ganze Reihe von Annahmen, die aufeinander aufbauen und von denen jede den Anlass zu Meinungsverschiedenheiten geben kann. Hinzu kommt, dass Arbeitszeit am Teleskop immer kostbar ist, und insbesondere die Messung von Rotverschiebungen war stets sehr zeitaufwändig. Manchmal braucht man eine ganze Nacht, um eine einzige Aufnahme zu machen. Deshalb waren die Astronomen immer wieder gezwungen (oder zumindest bereit), ihre Schlussfolgerungen auf bemerkenswert spärliche Befunde zu stützen. In der Kosmologie ist »ein Berg von Theorien auf einem Maulwurfshügel aus Befunden aufgebaut«, wie der Journalist Geoffrey Carr es formulierte.34 Und Martin Rees meint: »In der derzeitigem Zufriedenheit [bei unserem heutigen Kenntnisstand] spiegelt sich möglicherweise eher der Mangel an Daten als die Qualität der Theorie wider.«35
Diese Unsicherheit besteht übrigens nicht nur im Hinblick auf die äußersten Ränder des Universums, sondern auch für relativ nahe gelegene Objekte. Ein Beispiel nennt Donald Goldsmith: Wenn Astronomen sagen, die Galaxie M87 sei 60 Millionen Lichtjahre entfernt, meinen sie in Wirklichkeit (»auch wenn sie es in der Öffentlichkeit nicht gerade an die große Glocke hängen«), dass der Abstand irgendwo zwischen 40 Millionen und 90 Millionen Lichtjahren liegt36 – was nun nicht gerade genau das Gleiche ist. Für das Universum als Ganzes vervielfachen sich natürlich die Probleme. Vor diesem Hintergrund liegen die besten heutigen Schätzungen für das Alter des Universums anscheinend in einem Bereich von 12 bis 13,5 Milliarden Jahren, aber von einer einheitlichen Meinung sind wir in dieser Frage weit entfernt.37
Nach einer interessanten, kürzlich veröffentlichten Theorie ist das Universum nicht annähernd so groß, wie wir bisher geglaubt haben, sondern wenn wir manche Galaxien in sehr großer Entfernung zu sehen glauben, beobachten wir in Wirklichkeit nur Spiegelungen – Geisterbilder, die durch zurückgeworfenes Licht entstehen.
Tatsache ist, dass uns auch auf einer ganz grundlegenden Ebene noch sehr viele Kenntnisse fehlen – wir wissen nicht einmal, woraus das Universum besteht. Wenn Wissenschaftler berechnen wollen, welche Materiemenge notwendig ist, um alles zusammenzuhalten, klafft immer eine gewaltige Lücke. Anscheinend bestehen mindestens 90 Prozent des Universums, vielleicht aber auch 99 Prozent aus »dunkler Materie«, wie Fritz Zwicky sie nannte, Material, das von seinem Wesen her für uns unsichtbar ist. Es ist schon ein ärgerlicher Gedanke: Wir leben in einem Universum, das wir zum größten Teil nicht einmal sehen können. Aber so ist es. Wenigstens die Namen der beiden Hauptschuldigen sind unterhaltsam: Verantwortlich sind entweder die WIMPs (weakly interacting massive particles, schwach interagierende massereiche Teilchen) – unsichtbare Materiestückchen, die vom Urknall übrig geblieben sind – oder aber die MACHOs (massive compact halo objects, massive, kompakte Halo-Objekte), was nur ein anderer Name für schwarze Löcher, braune Zwerge und andere sehr lichtschwache Sterne ist.
Teilchenphysiker bevorzugen als Erklärung die WIMPs, den Astronomen sind die MACHOs als sternenartige Ursache lieber. Eine Zeit lang lagen die MACHOs im Rennen vorn, aber man fand sie nicht annähernd in ausreichender Zahl; dann schlug das Pendel in Richtung der WIMPs aus, aber dabei stellte sich das Problem, dass man noch kein einziges solches Teilchen gefunden hat. Da zwischen ihnen nur schwache Wechselwirkungen herrschen, sind sie (selbst wenn man annimmt, dass sie existieren) sehr schwer nachzuweisen – die Störungen durch kosmische Strahlung wären zu stark. Also müssen die Wissenschaftler sich unter die Erde begeben. In 1000 Meter Tiefe hat das Bombardement aus dem Kosmos nur ein Millionstel der Stärke auf der Oberfläche. Aber selbst wenn man das alles in Rechnung stellt, »fehlen in der Bilanz zwei Drittel des Universums«, wie ein Autor es formulierte.38 Vorerst können wir sie ohne weiteres als DUNNOs bezeichnen (für dunkle, unbekannte, nichtreflektierende, nicht nachweisbare Objekte).
Indizien aus jüngster Zeit legen die Vermutung nahe, dass die Galaxien im Universum sich nicht nur von uns entfernen, sondern dass ihre Geschwindigkeit dabei sogar stetig zunimmt. Das widerspricht allen Erwartungen. Anscheinend ist das Universum nicht nur voll dunkler Materie, sondern auch voll dunkler Energie. Die Wissenschaftler sprechen in diesem Zusammenhang manchmal von Vakuumenergie oder – noch exotischer – von Quintessenz. Was es auch sein mag, es sorgt offenbar für eine Ausdehnung, die niemand erklären kann. Nach dieser Theorie ist der leere Raum gar nicht so leer, sondern es gibt Materie- und Antimaterieteilchen, die ins Dasein treten und wieder verschwinden – und dabei treiben sie das Universum mit stetig steigender Geschwindigkeit auseinander.39 Erstaunlicherweise gibt es für all das nur eine Lösung: Einsteins kosmologische Konstante, jenen kleinen mathematischen Ausdruck, den er in die allgemeine Relativitätstheorie hineinschrieb, um die angenommene Ausdehnung des Universums zum Stillstand zu bringen, und den er später als »größten Unsinn meines Lebens« bezeichnete.40 Heute sieht es so aus, als hätte er damit letztlich doch Recht behalten.
Das Fazit aus alledem lautet: Wir leben in einem Universum, dessen Alter wir nicht berechnen können, umgeben von Sternen, deren Entfernung wir nicht kennen, zwischen Materie, die wir nicht identifizieren können, und alles funktioniert nach physikalischen Gesetzen, deren Eigenschaften wir eigentlich nicht verstehen.
Mit dieser recht beunruhigenden Feststellung wollen wir zum Planeten Erde zurückkehren und uns mit einem Thema befassen, das wir tatsächlich verstehen, auch wenn es jetzt vielleicht nicht mehr verwunderlich erscheint, dass wir es nicht ganz begreifen und dass auch das, was wir wissen, erst seit kurzem bekannt ist.
* Aus solchen kostspieligen Projekten erwachsen auch praktische Nebenwirkungen. Das World Wide Web ist ursprünglich ein Produkt von CERN. Es wurde dort 1989 von dem Wissenschaftler Tim Berners-Lee erfunden. zurück
** Natürlich kann man zu Recht fragen, was mit einer »Konstante von 50« oder »Konstante von 100« gemeint ist. Die Antwort liegt in den astronomischen Maßeinheiten. Astronomen sprechen, außer in umgangssprachlichen Unterhaltungen, nie von Lichtjahren. Ihre Entfernungseinheit ist das Parsec (eine Kurzform aus Parallaxe und Sekunde), das sich auf ein universelles Maß namens Sternenparallaxe gründet und 3,26 Lichtjahren entspricht. Sehr große Entfernungen, beispielsweise die Größe eines Universums, werden in Megaparsec gemessen: ein Megaparsec entspricht einer Million Parsec. Die Konstante wird in Kilometern je Sekunde und Megaparsec angegeben. Wenn Astronomen also für die Hubble-Konstante einen Wert von 50 nennen, meinen sie in Wirklichkeit »50 Kilometer je Sekunde und Megaparsec«. Die meisten Menschen können sich unter einer solchen Maßeinheit überhaupt nichts vorstellen, aber wenn es um astronomische Maßstäbe geht, gilt das eigentlich für fast alle Entfernungen. zurück