Anmerkungen

Kapitel 1: Die Grenzen der Wirklichkeit

1

Der Gedanke, dass unser Universum eine Scheibe ist, die in einem höherdimensionalen Bereich schwimmt, geht auf einen Artikel zweier angesehener russischer Physiker zurück: V. A. Rubakov und M. E. Shaposhnikov, »Do We Live Inside a Domain Wall?«, in: Physics Letters B 125 (26. Mai 1983); die Stringtheorie kommt darin nicht vor. Die Version, auf die ich mich in Kapitel 5 konzentrieren werde, ergibt sich aus Fortschritten, die Mitte der neunziger Jahre in der Stringtheorie gemacht wurden.

Kapitel 2: Endlos Doppelgänger

1

Das Zitat stammt aus der Ausgabe des Literary Digest vom März 1933. Man sollte anmerken, dass die Richtigkeit dieses Zitats in jüngster Zeit von dem dänischen Wissenschaftshistoriker Helge Kragh infrage gestellt worden ist (siehe sein Werk Cosmology and Controversy, Princeton 1999). Er vermutet, es könne sich um eine nachträgliche Interpretation eines Berichts handeln, der früher im gleichen Jahr in Newsweek erschienen war; das Einstein-Zitat darin bezieht sich auf den Ursprung der kosmischen Strahlung. Eines ist aber sicher: In diesem Jahr hatte Einstein seine Überzeugung aufgegeben, dass das Universum unbeweglich ist, und die dynamische Kosmologie anerkannt, die sich aus seinen ursprünglichen Gleichungen der Allgemeinen Relativitätstheorie ergibt.

2

Dieses Gesetz sagt uns, welche Gravitationskraft F zwischen zwei Objekten mit den Massen m1 und m2 wirkt, deren Abstand zueinander r ist. Als Formel lautet das Gesetz: F = Gm1m2/r2, wobei G die Newtonsche Gravitationskonstante ist – eine experimentell ermittelte Zahl, welche die intrinsische Stärke der Gravitationskraft angibt.

3

Für Leser mit mathematischen Neigungen: Die Einstein-Gleichungen lauten e9783641082079_i0071.jpg = 8 π GTμv ; darin ist gμv die Metrik der Raumzeit, Rμv ist der Ricci-Tensor, R ist der Krümmungsskalar, G ist die Newtonsche Gravitationskonstante und Tμv ist der Energie-Impuls-Tensor.

4

In den Jahrzehnten seit dieser berühmten Bestätigung der Allgemeinen Relativitätstheorie wurde die Verlässlichkeit der Ergebnisse von einigen Autoren angezweifelt: Um das Licht entfernter Sterne in der Nähe der Sonne überhaupt sehen zu können, hatte man die Beobachtungen während einer Sonnenfinsternis vornehmen müssen; leider herrschte während der Sonnenfinsternis von 1919 jedoch schlechtes Wetter, was die Anfertigung hinreichend detailscharfer Fotos erschwerte. Es stellt sich die Frage, ob Eddington und seine Mitarbeiter vielleicht voreingenommen waren, weil sie von vornherein wussten, nach welchem Ergebnis sie suchten; als sie dann Fotos aussortierten, die sie wegen der wetterbedingten Beeinträchtigungen für unzuverlässig hielten, beseitigten sie möglicherweise auch eine unverhältnismäßig große Zahl von Aufnahmen, in denen die Daten nicht mit Einsteins Theorie übereinzustimmen schienen. Eine gründliche Studie aus jüngerer Zeit stammt von Daniel Kennefick (siehe www.arXiv.org, Identifikationsnummer arXiv:0709.0685), der unter anderem auch eine moderne Auswertung der 1919 aufgenommenen Fotoplatten berücksichtigt; er vertritt mit überzeugenden Argumenten die Ansicht, dass die 1919 erreichte Bestätigung der Allgemeinen Relativitätstheorie tatsächlich verlässlich ist.

5

Für Leser mit mathematischen Neigungen: Einsteins Gleichungen der Allgemeinen Relativitätstheorie verkürzen sich in diesem Fall auf e9783641082079_i0072.jpg . Die Variable a(t) ist dabei der Skalenfaktor des Universums, eine Zahl, deren Wert eine allgemein gültige Skala für die Abstände zwischen Objekten angibt (wenn der Wert von a(t) zu zwei verschiedenen Zeitpunkten sich beispielsweise um den Faktor 2 unterscheidet, haben zwei beliebige Galaxien zu diesen beiden Zeitpunkten ebenfalls einen um den Faktor 2 unterschiedlichen Abstand voneinander), G ist die Gravitationskonstante, ρ ist die Dichte der Materie/Energie, und k ist ein Parameter, dessen Wert 1, 0 oder – 1 sein kann, je nachdem, ob der Raum eine sphärische, euklidische (»flache«) oder hyperbolische Form hat. In dieser Form wird die Gleichung in der Regel Alexander Friedmann zugeschrieben und deshalb auch als Friedmann-Gleichung bezeichnet.

6

Leser mit mathematischen Neigungen sollten zweierlei bedenken. Erstens definieren wir in der Allgemeinen Relativitätstheorie in der Regel Koordinaten, die selbst von der im Raum enthaltenen Materie abhängig sind: Wir nutzen Galaxien als die Träger der Koordinaten (wobei wir so tun, als seien jeder Galaxie die entsprechenden Koordinatenwerte »aufgemalt« – sogenannte mitbewegte Koordinaten). Auch wenn wir eine bestimmte Raumregion identifizieren wollen, beziehen wir uns in der Regel auf die Materie, die darin enthalten ist. Genauer könnte man den Text also folgendermaßen formulieren: Die Raumregion, die zum Zeitpunkt t1 eine bestimmte Gruppe aus N Galaxien enthält, hat zu einem späteren Zeitpunkt t2 ein größeres Volumen. Zweitens steht hinter der intuitiv plausiblen Aussage, dass die Dichte von Materie und Energie sich mit der Expansion oder dem Zusammenziehen des Raumes verändert, eine unausgesprochene Annahme über die Zustandsgleichung für Materie und Energie. Es gibt aber Situationen – eine davon wird uns in Kürze begegnen –, in denen der Raum sich ausdehnen oder zusammenziehen kann, ohne dass die Dichte einer bestimmten Energieverteilung — die Energiedichte der sogenannten kosmologischen Konstante – sich verändert. In noch exotischeren Szenarien kann der Raum sogar expandieren, während die Energiedichte zunimmt. Dies ist möglich, weil die Gravitation unter bestimmten Umständen eine Energiequelle darstellen kann. Wichtig ist in diesem Abschnitt die Aussage, dass die Gleichungen der Allgemeinen Relativitätstheorie sich in ihrer ursprünglichen Form nicht mit der Vorstellung von einem unveränderlichen Universum vertragen.

7

Wie wir in Kürze genauer erfahren werden, gab Einstein seine Vorstellung von einem statischen Universum auf, als er sich mit astronomischen Daten auseinandersetzen musste, denen zufolge das Universum expandiert. Man sollte aber festhalten, dass Einstein bereits vor Verfügbarkeit dieser Daten am unbeweglichen Universum zu zweifeln begann. Der Physiker Willem de Sitter wies Einstein darauf hin, dass sein statisches Universum instabil war: Wäre es nur ein winziges bisschen größer, würde es wachsen; wäre es ein winziges bisschen kleiner, müsste es in sich zusammenfallen. Physiker haben etwas gegen Lösungen, die nur unter perfekten, ungestörten Verhältnissen Bestand haben.

8

Im Urknallmodell kann man die Expansion des Raumes analog zur Aufwärtsbewegung eines geworfenen Balles betrachten: Die Gravitationsanziehung wirkt auf den nach oben fliegenden Ball und verlangsamt seine Bewegung; nach dem gleichen Prinzip zieht die Gravitationsanziehung auch an den Galaxien, die sich voneinander entfernen, so dass ihre Bewegung ebenfalls abgebremst wird. In beiden Fällen ist für die Fortsetzung der Bewegung keine abstoßende Kraft erforderlich. Man kann aber fragen: Der Ball wurde von unserem Arm gen Himmel geworfen, was aber hat die räumliche Expansion des Universums in Gang gesetzt? Auf diese Frage werden wir in Kapitel 3 zurückkommen: Wie wir dort sehen werden, postuliert die moderne Theorie während der allerersten Augenblicke der kosmischen Geschichte eine kurze Phase mit abstoßender Gravitation. Außerdem werden wir genauer erfahren, dass neuere Beobachtungen stichhaltige Indizien dafür liefern, dass sich die Expansion des Raumes im Laufe der Zeit nicht verlangsamt; dies führte, wie wir in späteren Kapiteln sehen werden, überraschenderweise zu einer Wiederauferstehung der kosmologischen Konstante, was tiefgreifende Konsequenzen haben könnte.

Die Entdeckung der Expansion des Raumes war ein Wendepunkt der modernen Kosmologie. Neben Hubbles Beiträgen stützte sie sich auf die Arbeiten und Erkenntnisse vieler anderer, darunter Vesto Slipher, Harlow Shapley und Milton Humason.

9

Ein zweidimensionaler Torus wird in der Regel als ausgehöhlter Donut dargestellt. Dass dieses Bild mit der Beschreibung im Text übereinstimmt, kann man in zwei Schritten verstehen: Wenn wir erklären, dass das Überqueren des rechten Bildschirmrandes uns wieder zum linken Rand bringt, ist das gleichbedeutend damit, dass wir den gesamten rechten Rand mit dem linken Rand gleichsetzen. Wäre der Bildschirm flexibel (beispielsweise aus dünnem Kunststoff), könnte man diese Gleichsetzung deutlich machen, indem man den Bildschirm zu einem Zylinder zusammenrollt und den rechten und linken Rand mit Klebeband verbindet. Auch wenn wir erklären, beim Überqueren des oberen Randes kämen wir automatisch wieder am unteren Rand heraus, entspricht das der Gleichsetzung der beiden Ränder. Um dies zu verdeutlichen, biegen wir den Zylinder ein zweites Mal und kleben jetzt den kreisförmigen oberen und unteren Rand zusammen. Die so entstehende Form sieht wie der übliche Donut aus. Ein Aspekt ist an dieser Manipulation allerdings irreführend: Die Oberfläche des Donut ist gekrümmt; wäre sie mit reflektierender Farbe beschichtet, wäre das Spiegelbild verzerrt. Dies ist allerdings ein Artefakt, das sich aus unserem Versuch ergibt, den Torus als Objekt in einer dreidimensionalen Umgebung darzustellen. Intrinsisch, also: als zweidimensionale Oberfläche betrachtet, ist der Torus überhaupt nicht gekrümmt. Er ist vielmehr, wie die Darstellung als flacher Videospiel-Bildschirm zeigt, flach. Deshalb konzentriere ich mich im Haupttext auf die fundamentalere Beschreibung als Fläche, deren Kanten paarweise gleichgesetzt werden.

10

Leser mit mathematischen Neigungen werden feststellen, dass ich mit »geeignetem Zerschneiden und Verkleben« die Bildung von Quotienten einfach verbundener einhüllender Räume und verschiedener diskreter Isometriegruppen meine.

11

Der genannte Wert gilt für die Jetztzeit. Im frühen Universum war die kritische Dichte höher.

12

Wäre das Universum unbeweglich, dann wäre Licht, das sich während der letzten 13,7 Milliarden Jahre ausgebreitet hat und uns erst jetzt erreicht, tatsächlich in einer Entfernung von 13,7 Milliarden Lichtjahren ausgesandt worden. In einem expandierenden Universum hat das Objekt, welches das Licht aussandte, sich während der Jahrmilliarden, in denen das Licht unterwegs war, aber immer weiter von uns entfernt. Wenn das Licht bei uns ankommt, ist das Objekt also längst weiter – viel weiter – als 13,7 Milliarden Lichtjahre von uns entfernt. Eine einfache Berechnung mithilfe der Allgemeinen Relativitätstheorie zeigt, dass ein solches Objekt (unter der Annahme, dass es noch existiert und die Entfernungszunahme nur auf die Expansion des Raumes zurückzuführen ist) heute 41 Milliarden Lichtjahre von uns entfernt wäre. Wenn wir also in den Weltraum blicken, können wir im Prinzip das Licht von Quellen sehen, deren Distanz zu uns heute rund 41 Milliarden Lichtjahre beträgt. So betrachtet, hat das beobachtbare Universum einen Durchmesser von etwa 82 Milliarden Lichtjahren. Das Licht von weiter entfernten Objekten hätte noch nicht genug Zeit gehabt, uns zu erreichen, und damit liegen diese Objekte hinter unserem kosmischen Horizont.

13

Salopp formuliert, kann man sich vorstellen, dass Teilchen aufgrund der Quantenmechanik einem ständigen »Quantenzittern« unterliegen: Unausweichlichen, zufälligen Quantenfluktuationen, deretwegen allein schon die Vorstellung, das Teilchen habe eine bestimmte Position und Geschwindigkeit (Impuls), nur eine Näherung sein kann. So betrachtet, gehen Veränderungen von Position/Geschwindigkeit, die ähnlich klein sind wie das Quantenzittern, im »Rauschen« der Quantenmechanik unter und sind deshalb nicht von Bedeutung.

Man kann es auch genauer ausdrücken: Multipliziert man die Ungenauigkeit der Positionsmessung mit der Ungenauigkeit der Impulsmessung, ist das Ergebnis – die Unschärfe  – stets größer als eine Zahl, die als Planck’sches Wirkungsquantum bezeichnet wird; benannt ist es nach Max Planck, einem der Pioniere der Quantenphysik. Daraus folgt insbesondere, dass eine hochgenaue Positionsmessung eines Teilchens zwangsläufig mit einer großen Ungenauigkeit in der Messung des Impulses und damit auch der Energie verbunden ist. Da Energie stets begrenzt ist, bedeutet dies auch eine Begrenzung für das Auflösungsvermögen der Positionsmessungen.

Zu beachten gilt es auch, dass wir diese Vorstellungen immer in einem begrenzten Raumbereich anwenden – in der Regel in Regionen von der Größe des heutigen kosmischen Horizonts (wie im nächsten Abschnitt). Die Beschränkung auf eine Region von endlicher Größe, so groß diese auch sein mag, bedeutet, dass es eine maximale mögliche Ungenauigkeit der Positionsmessungen gibt. Wenn man annimmt, dass ein Teilchen sich in einer bestimmten Region befindet, ist die Ungenauigkeit seiner Position sicher nicht größer als die Ausdehnung der Region selbst. Eine solche maximale Ungenauigkeit in der Positionsbestimmung ist nach der Unschärferelation mit einer minimalen Unsicherheit  – das heißt mit einer begrenzten Auflösung – der Impulsmessung verbunden. In Verbindung mit der begrenzten Auflösung der Positionsmessung ist die Anzahl der möglichen verschiedenen Konfigurationen von Position und Geschwindigkeit eines Teilchens damit nicht mehr unendlich, sondern nur noch endlich.

Jetzt kann man immer noch fragen, was uns denn nun eigentlich daran hindert, ein Instrument zu bauen, das die Teilchenposition noch genauer messen kann. Auch dies ist eine Frage der Energie. Im Haupttext erläutere ich es genauer: Wenn man die Position eines Teilchens mit immer größerer Genauigkeit messen will, muss man Testteilchen immer höherer Energie verwenden. Um festzustellen, ob sich eine Fliege in einem Zimmer befindet, kann man sich des diffusen Lichtes einer ganz gewöhnlichen Deckenlampe bedienen. Wenn man aber feststellen will, ob ein Elektron sich in einer Höhle befindet, muss man sie mit dem scharfen Strahl eines leistungsfähigen Lasers erleuchten. Und um die Position des Elektrons immer genauer zu ermitteln, muss man diesen Laserstrahl immer energiereicher machen. Wenn aber nun das Licht eines immer energiereicheren Lasers auf ein Elektron trifft, verursacht dies immer größere Störungen der Geschwindigkeit des Elektrons. Unter dem Strich hat die Genauigkeit bei der Bestimmung der Teilchenposition den Preis, dass die Geschwindigkeit des Teilchens sich stark verändert – und dies ist gleichbedeutend mit einer großen Veränderung der Teilchenenergie. Wenn es eine Grenze für den maximalen Energiegehalt von Teilchen gibt, was immer der Fall ist, dann gibt es automatisch auch eine Grenze für das Auflösungsvermögen der Positionsbestimmung.

Begrenzte Energie in einem begrenzten Raumbereich führt also zu begrenztem Auflösungsvermögen der Positions- und Geschwindigkeitsmessungen.

14

Der unmittelbarste Weg zu dieser Berechnung führt über ein Ergebnis, das ich in Kapitel 9 in allgemein verständlicher Form beschreiben werde: Die Entropie eines Schwarzen Lochs – der Logarithmus der Anzahl unterschiedlicher Quantenzustände – ist proportional zu seiner Oberfläche, gemessen in Planck-Längen-zum-Quadrat. Ein Schwarzes Loch, das unseren kosmischen Horizont ausfüllt, hätte einen Radius von ungefähr 1028 Zentimetern, entsprechend rund 1061 Planck-Längen. Seine Entropie betrüge demnach rund 10122 Planck-Längen-zum-Quadrat. Die Anzahl maximal möglicher unterschiedlicher Zustände beträgt also rund 10 zur 10122sten Potenz oder e9783641082079_i0073.jpg.

15

Manch einer fragt sich vielleicht, warum ich nicht auch Felder mit aufnehme. Wie wir noch genauer erfahren werden, sind Teilchen und Felder einander ergänzende Sprachen: Ein Feld kann man unter dem Gesichtspunkt der Teilchen beschreiben, aus denen es besteht, ganz ähnlich wie man eine Ozeanwelle unter dem Gesichtspunkt ihrer Wassermoleküle beschreiben kann. Die Entscheidung, ob man die Teilchen- oder Feldsprache verwendet, hängt davon ab, welche Beschreibung für die vorliegende Situation am günstigsten ist.

16

Welche Entfernung Licht in einer bestimmten Zeit zurücklegen kann, hängt stark von der Expansionsgeschwindigkeit des Raumes ab. In späteren Kapiteln werden wir Hinweise darauf kennenlernen, dass die Geschwindigkeit der Expansion zunimmt. Wenn das stimmt, gibt es eine Obergrenze für die Entfernung, die Licht im Raum zurücklegen kann, selbst wenn man beliebig lange wartet. Weit entfernte Raumregionen würden so schnell von uns zurückweichen, dass das von uns ausgesandte Licht sie nicht erreichen kann; umgekehrt würde auch das von ihnen ausgesandte Licht nicht bis zu uns vordringen. Damit würden kosmische Horizonte – für uns der Teil des Raumes, mit dem wir Lichtsignale austauschen können – nicht unbegrenzt anwachsen. (Leser mit mathematischen Neigungen finden die entscheidenden Formeln in der Anmerkung 7 zu Kapitel 6.)

17

G. Ellis und G. Bundrit untersuchten doppelte Bereiche in einem unendlich ausgedehnten klassischen Universum; J. Garriga und A. Vilenkin studierten solche Bereiche im Rahmen der Quantentheorie.

Kapitel 3: Ewigkeit und Unendlichkeit

1

Dickes Sichtweise wich unter anderem darin von vorangehenden Überlegungen ab, dass er sich auf die Möglichkeit eines pulsierenden Universums konzentrierte, das immer wieder den gleichen Zyklus durchmacht: Urknall, Expansion, Zusammenfallen, neuer Urknall. In jedem derartigen Zyklus wäre der Raum von Reststrahlung durchdrungen.

2

Eines sollte man festhalten: Obwohl Galaxien keine Düsentriebwerke besitzen, weisen sie in der Regel eine gewisse Bewegungskomponente zusätzlich zu derjenigen Bewegung auf, die sich aus der Expansion des Raumes ergibt. Dahinter stecken typischerweise intergalaktische Gravitationskräfte, die über große Abstände wirksam sind, oder der Bewegungszustand der wirbelnden Gaswolke, aus der sich die Sterne der Galaxie bilden. Diese sogenannte Eigenbewegung ist in der Regel so gering, dass man sie für kosmologische Betrachtungen getrost außer Acht lassen kann.

3

Das Horizontproblem ist vielschichtig, und meine Beschreibung der Lösung durch die kosmische Inflation weicht ein wenig vom Üblichen ab. Für interessierte Leser möchte ich deshalb hier ein wenig mehr ins Detail gehen. Zuerst noch einmal das Problem: Stellen wir uns zwei Regionen am Nachthimmel vor, die so weit voneinander entfernt sind, dass sie untereinander noch nie in Kontakt treten konnten. Um die Sache konkret zu machen, nehmen wir außerdem an, dass es in jeder der beiden Regionen einen Beobachter gibt, der über einen Thermostat die Temperatur seiner Region steuert. Die Beobachter wollen, dass beide Regionen die gleiche Temperatur haben, aber da sie noch nie kommunizieren konnten, wissen sie nicht, wie sie ihre Thermostaten einstellen sollen. Der nahe liegende Gedanke lautet deshalb: Da die Beobachter sich vor einigen Jahrmilliarden viel näher waren, konnten sie damals wesentlich leichter kommunizieren und so dafür sorgen, dass beide Regionen die gleiche Temperatur haben. Wie aber im Haupttext erwähnt wurde, scheitert dieser Argumentationsgang in den herkömmlichen Urknallmodellen. Warum, möchte ich hier genauer ausführen. In den herkömmlichen Urknallmodellen expandiert das Universum, aber wegen der Anziehungskraft der Gravitation nimmt die Expansionsgeschwindigkeit im Laufe der Zeit ab. Es ist der gleiche Effekt, wie wenn man einen Ball in die Luft wirft: Während des Aufstiegs entfernt sich der Ball zunächst schnell von uns und wird dann aufgrund der Erdanziehungskraft immer langsamer. Verlangsamt sich die Expansion des Raums, hat dies weitreichende Konsequenzen. Die Kernidee möchte ich mit der Analogie des geworfenen Balls verdeutlichen. Stellen wir uns einen Ball vor, der beispielsweise sechs Sekunden lang nach oben steigt. Da er anfangs (nachdem er unsere Hand verlassen hat) schnell fliegt, legt er vielleicht die Hälfte der Strecke in nur zwei Sekunden zurück, dann aber dauert es wegen der Verlangsamung vier weitere Sekunden, bis er die zweite Hälfte der Entfernung hinter sich hat. In der Mitte des Zeitraums, bei drei Sekunden, hat er die Mitte der Strecke bereits weit hinter sich. Ähnlich verhält es sich auch, wenn die Raumexpansion sich im Laufe der Zeit verlangsamt: In der Mitte der kosmischen Geschichte sind unsere beiden Beobachter bereits um mehr als die Hälfte ihrer jetzigen Entfernung voneinander getrennt. Überlegen wir einmal, was das bedeutet. Die beiden Beobachter waren einander zwar näher, aber die Kommunikation fiel ihnen nicht leichter, sondern schwerer. Signale, die ein Beobachter aussendet, hatten halb so viel Zeit, den anderen zu erreichen, aber dazu mussten sie eine Entfernung zurücklegen, die größer war als die Hälfte des heutigen Abstandes. In der Hälfte der Zeit über mehr als die Hälfte des heutigen Abstandes hinweg zu kommunizieren, ist schwieriger.

Der Abstand zwischen Objekten ist also nur einer von mehreren Faktoren, die man berücksichtigen muss, wenn man gegenseitige Einflussmöglichkeiten analysiert. Die zweite entscheidende Frage ist, wie viel Zeit seit dem Urknall verstrichen ist, denn daran entscheidet sich, wie weit sich jeder angenommene Einfluss hat ausbreiten können. Nach den herkömmlichen Urknallmodellen waren die Abstände zwischen allen Dingen in der Vergangenheit zwar tatsächlich geringer, das Universum expandierte aber auch schneller, so dass Einflüsse im Vergleich zu heute weniger Zeit hatten, sich bemerkbar zu machen. Zur Beseitigung dieser Schwierigkeit postulieren die Inflationsmodelle in den allerersten Augenblicken der kosmischen Geschichte eine Phase, in der die Expansionsgeschwindigkeit des Raumes nicht wie die eines nach oben geworfenen Balles abnahm; die Expansion des Raumes begann vielmehr langsam und gewann dann ständig an Geschwindigkeit – sie beschleunigte sich. Nach dem gerade erläuterten Gedankengang sind unsere beiden Beobachter in der Mitte einer solchen Inflationsphase durch weniger als die Hälfte des Abstands voneinander entfernt, der sie am Ende der Phase trennt. Generell stand also zu früheren Zeiten dank der beschleunigten Expansion im Vergleich zu heute nicht weniger, sondern mehr Zeit für die Übertragung von Einflüssen zur Verfügung. Auf diese Weise hätten Regionen, die heute weit voneinander entfernt sind, in der Anfangsphase des Universums ohne Weiteres kommunizieren können. Und damit ließe sich auch die heutige gemeinsame Temperatur der Regionen erklären.

Da die beschleunigte Expansion insgesamt zu einer viel größeren räumlichen Expansion führt als in den herkömmlichen Urknallmodellen, waren die beiden Regionen zu Beginn der Inflation viel dichter benachbart als in einem vergleichbaren Augenblick in den Modellen ohne Inflation. Auch anhand dieser Größendiskrepanz im sehr frühen Universum lässt sich, ganz äquivalent zu den vorherigen Überlegungen, sehen, warum Kommunikation zwischen verschiedenen Raumregionen, die in den herkömmlichen Urknallmodellen nicht möglich wäre, in den Inflationsmodellen ohne Weiteres zu bewerkstelligen ist. Wenn der Abstand zwischen diesen Regionen zu einer bestimmten Zeit kurz nach dem Anfang deutlich kleiner war, dann hatten sie es entsprechend leichter, Signale auszutauschen.

Nimmt man die Expansionsgleichung auch für sehr frühe Zeitpunkte der kosmischen Geschichte ernst (und nehmen wir als konkretes Beispiel an, der Raum habe wie bei einer Kugel positive Krümmung), dann kann man nachweisen, dass sich unterschiedliche Raumregionen im Rahmen der herkömmlichen Modelle ganz zu Anfang schneller voneinander entfernt haben müssen als im Inflationsmodell: Auf diese Weise erreichten sie in den Urknallmodellen eine weit größere Entfernung voneinander als in den Inflationsmodellen. Dementsprechend gibt es in den Inflationsmodellen eine Ära, während derer die Geschwindigkeit, mit der sich verschiedene Raumregionen voneinander entfernen, langsamer ist als in den herkömmlichen Urknallmodellen.

Wenn man das kosmische Inflationsmodell beschreibt, steht oftmals ausschließlich die im Vergleich zu herkömmlichen Modellen ungeheure Zunahme der Expansionsgeschwindigkeit im Mittelpunkt und vernachlässigt die Phasen, in denen die Expansion in den Inflationsmodellen langsamer erfolgt. Die unterschiedlichen Beschreibungen ergeben sich daraus, welche physikalischen Merkmale der beiden Theorien man vergleicht. Vergleicht man die Entwicklung zweier Regionen, die im sehr frühen Universum eine bestimmte Entfernung voneinander hatten, dann entfernen diese sich im Rahmen der kosmischen Inflationsmodelle viel schneller voneinander als in den herkömmlichen Urknallmodellen; entsprechend sind sie auch heute weiter voneinander entfernt. Betrachtet man aber zwei Regionen, die heute einen bestimmten Abstand haben (beispielsweise zwei Regionen auf entgegengesetzten Seiten des Nachthimmels wie die, von denen wir ausgegangen waren), ist die von mir gegebene zweite Beschreibung wichtiger. In einem bestimmten Augenblick in der Frühzeit des Universums waren diese Regionen viel enger benachbart, und sie bewegten sich in einem Modell mit Inflationsphase viel langsamer auseinander als in den herkömmlichen Urknallmodellen. Die inflationäre Expansion hat die Aufgabe, den langsameren Anfang wieder wettzumachen, indem sie die Regionen schneller auseinandertreibt; damit ist sichergestellt, dass die beiden Regionen letztlich an der gleichen Stelle am Himmel ankommen wie im herkömmlichen Urknallmodell.

In einer umfassenderen Darstellung des Horizontproblems müsste man genauer beschreiben, welche kosmischen Umstände die Inflationsphase in Gang setzten und durch welche späteren Prozesse beispielsweise die kosmische Hintergrundstrahlung entstanden ist. Die hier gegebene verkürzte Beschreibung macht aber bereits die entscheidenden Unterschiede zwischen beschleunigter und verlangsamter Expansion deutlich.

4

Was es dabei zu beachten gilt: Wenn man auf den Beutel drückt, führt man ihm Energie zu, und da sowohl Masse als auch Energie die für Gravitation charakteristische Verzerrung entstehen lassen, ist die Gewichtszunahme vor allem auf die Zunahme der Energie zurückzuführen. Entscheidend ist aber, dass auch die Zunahme des Drucks selbst zur Gewichtszunahme beiträgt. (Um genau zu sein, sollten wir uns außerdem vorstellen, dass wir dieses »Experiment« in einer Vakuumkammer anstellen, so dass wir die Auftriebskräfte aufgrund der Luft, die den Beutel umgibt, nicht zu berücksichtigen brauchen.) In Beispielen aus dem Alltagsleben ist die Zunahme winzig klein. In einem astrophysikalischen Umfeld jedoch kann sie durchaus wichtig werden. Tatsächlich ist sie von Bedeutung, wenn wir verstehen wollen, warum Sterne unter bestimmten Umständen so weit kollabieren, dass sie Schwarze Löcher bilden. Dass Sterne stabile Gebilde sind, verdanken sie einem Gleichgewicht zwischen dem nach außen gerichteten Druck, der auf Kernprozesse im Inneren des Sterns zurückgeht, und der anziehenden, durch die Masse des Sterns verursachten Gravitation. Geht der Kernbrennstoff des Sterns zur Neige, dann nimmt der Druck ab, so dass der Stern sich weiter zusammenzieht. Dabei rücken alle Bestandteile näher zusammen, und ihre Gravitationsanziehung wird dementsprechend stärker. Um eine weitere Kontraktion zu vermeiden, ist ein stärkerer nach außen gerichteter Druck (positiver Druck genannt) notwendig. Der zusätzliche positive Druck bewirkt aber seinerseits eine stärkere Gravitationsanziehung, so dass zum Ausgleich ein noch größerer positiver Druck nötig ist. Unter bestimmten Umständen schaukelt sich das Ganze auf, und gerade der positive Druck, der in dem Stern ja eigentlich der Gravitationsanziehung entgegenwirkt, trägt nun seinereits so stark zu dieser Anziehung bei, dass der vollständige Gravitationskollaps unvermeidlich wird. Der Stern implodiert und wird zu einem Schwarzen Loch.

5

In dem von mir zuvor geschilderten Inflationsmodell gibt es keine grundsätzliche Erklärung dafür, warum der Wert des Inflatonfelds sich zu Beginn hoch oben auf der Potenzialkurve befindet. Ebenso wenig erklärt das Modell, warum die Potenzialkurve gerade diese und keine andere Form hat. Stattdessen geht beides als zusätzliche Annahme in die Modelle ein. Spätere Versionen der kosmischen Inflation, insbesondere eine, die von Andrei Linde entwickelt wurde und unter dem Namen chaotische Inflation bekannt ist, gelangten zu dem Befund, dass auch eine eher »normale« Potenzialkurve (eine Parabelform ohne Abflachung, wie sie sich aus den einfachsten mathematischen Gleichungen für die potenzielle Energie ergibt) eine inflationäre Expansion hervorbringen kann. Auch bei dieser Potenzialkurve muss sich der Wert des Inflatonfelds am Anfang hoch oben befinden, damit die inflationäre Expansion beginnen kann, aber dafür hätten die ungeheuer heißen Bedingungen, mit denen man im frühen Universum rechnet, auf ganz natürliche Weise gesorgt.

6

Für besonders sorgfältige Leser möchte ich ein weiteres Detail hinzufügen. Die rasche Expansion des Raumes in der kosmischen Inflationsphase ist mit einer starken Abkühlung verbunden (so wie umgekehrt die schnelle Kompression des Raumes oder der meisten anderen Dinge für einen Temperaturanstieg sorgt). Wenn die Inflation jedoch zu Ende geht, pendelt der Wert des Inflatonfelds rund um das Minimum der Potenzialkurve, wobei es seine Energie auf ein Sammelsurium aus Teilchen überträgt. Diesen Prozess bezeichnet man als »Wiederaufheizen«, weil die so entstehenden Teilchen kinetische Energie besitzen und deshalb durch Angabe einer Temperatur charakterisiert werden können. Wenn der Raum dann die gewöhnliche (nicht auf Inflation beruhende) Urknall-Expansion durchmacht, sinkt die Temperatur des Teilchenmeers mit der Zeit immer weiter ab. Wichtig ist dabei aber, dass die durch die Inflation vorgegebene Einheitlichkeit auch einheitliche Bedingungen für diese Prozesse schafft und damit für ein einheitliches Endergebnis sorgt.

7

Alan Guth war sich der immerwährenden Natur der Inflation bewusst; Paul Steinhardt zeigte, wie sie sich in bestimmten Zusammenhängen mathematisch realisieren lässt; Alexander Vilenkin gab dafür eine noch allgemeinere Ableitung an.

8

Der Wert des Inflatonfelds bestimmt darüber, wie viel Energie und negativen Druck es dem Raum verleiht. Je größer die Energie ist, desto größer ist auch die Expansionsgeschwindigkeit des Raumes. Die schnelle Expansion des Raumes wirkt ihrerseits auf das Inflatonfeld selbst zurück: Je schneller sich der Raum ausdehnt, desto heftiger fluktuiert der Wert des Inflatonfelds.

9

Ich möchte hier eine Frage anschneiden, die manch einer sich vielleicht schon gestellt hat und auf die wir in Kapitel 10 zurückkommen werden. Wenn der Raum inflationär expandiert, nimmt seine Gesamtenergie zu: Je größer das Raumvolumen ist, das von einem Inflatonfeld ausgefüllt wird, desto größer ist die Gesamtenergie (wenn der Raum unendlich groß ist, ist auch die Energie unendlich – in diesem Fall würden wir von der Energie sprechen, die in einer begrenzten Raumregion enthalten ist, während diese größer wird). Damit stellt sich natürlich die Frage: Woher kommt die Energie? In der analogen Situation mit der Champagnerflasche stammt die zusätzliche Energie in der Flasche aus der Kraft, die wir mit unseren Muskeln ausgeübt haben. Was spielt im expandierenden Kosmos die Rolle unserer Muskeln? Die Antwort: die Gravitation. Mit unseren Muskeln haben wir dafür gesorgt, dass der verfügbare Raum innerhalb der Flasche größer wurde (weil wir den Korken herausgezogen haben), und die Gravitation ist das Agens, das den verfügbaren Raum im Kosmos expandieren lässt. Entscheidend ist dabei die Erkenntnis, dass die Energie des Gravitationsfeldes negativ sein kann. Betrachten wir zwei Teilchen, die aufgrund ihrer gegenseitigen Gravitationsanziehung aufeinander zu stürzen. Die Gravitation zwingt die Teilchen, sich immer schneller einander anzunähern, und dabei wird die (positive) kinetische Energie der Teilchen immer größer. Das Gravitationsfeld kann die Teilchen mit positiver Energie ausstatten, weil die Gravitation auf ihre eigene Energiereserve zurückgreift, die dabei negativ wird: Je näher die Teilchen einander kommen, desto stärker negativ wird die Gravitationsenergie (und entsprechend mehr positive Energie müsste man aufwenden, um die Kraft der Gravitation zu überwinden und die Teilchen wieder zu trennen). Die Gravitation ähnelt also einer Bank, die einen unendlich großen Kreditrahmen bietet und entsprechend nach Bedarf endlose Geldsummen verleiht; das Gravitationsfeld kann endlose Energiemengen liefern, weil seine eigene Energie immer stärker negativ werden kann. Das ist die Energiequelle, die bei der inflationären Expansion angezapft wird.

10

Für Leser mit mathematischen Neigungen lautet eine genauere Beschreibung der waagerechten Achse in Abbildung 3.5 folgendermaßen: Betrachten wir die (zweidimensionale) Kugelfläche, an der die ungehinderte Reise der Photonen der kosmischen Hintergrundstrahlung, die uns jetzt erreichen, ihren Ausgang nahm. Wie für jede Kugelfläche können wir auch für diese als bequemes Koordinatensystem sogenannte Kugelkoordinaten wählen. Die Temperatur der kosmischen Hintergrundstrahlung kann man dann als Funktion der beiden Koordinatenwinkel auffassen und analog zur Fourierentwicklung als Linearkombination der Kugelflächenfunktionen e9783641082079_i0074.jpg ausdrücken. Die senkrechte Achse in Abbildung 3.5 gibt, etwas vereinfacht gesagt, an, wie groß die dabei auftretenden Koeffizienten sind – wenn wir uns dabei auf der waagerechten Achse immer weiter nach rechts bewegen, gelangen wir zu immer geringeren Winkelabständen. Die Details finden sich zum Beispiel in dem ausgezeichneten Buch von Scott Dodelson, Modern Cosmology, San Diego, Calif., 2003.

11

Ein wenig genauer gesagt, bestimmt nicht die Stärke des Gravitationsfeldes als solche über die Verlangsamung der Zeit, sondern die Stärke des Gravitationspotenzials. Wer sich beispielsweise in einer kugelförmigen Höhle im Zentrum eines massereichen Sterns aufhalten würde, würde überhaupt keine Gravitationskraft spüren, aber da er sich tief in einem Loch des Gravitationspotenzials befände, würde die Zeit dennoch langsamer ablaufen als für jemanden, der sich weit außerhalb des Sterns befindet.

12

Auf dieses Ergebnis (und sehr ähnliche Ideen) stießen mehrere Wissenschaftler in unterschiedlichen Zusammenhängen; ausdrücklich formuliert wurde es insbesondere von Alexander Vilenkin, aber auch von Sidney Coleman und Frank de Luccia.

13

Erinnern wir uns noch einmal an die Beschreibung des Patchwork-Multiversums: Dort haben wir unterstellt, dass die Unterschiede der Teilchenanordnungen von einem Flicken zum nächsten zufällig sind. Der Zusammenhang zwischen Patchwork- und inflationärem Multiversum schafft nun die Möglichkeit, diese Annahme zu untermauern. Ein Blasenuniversum bildet sich in einer bestimmten Region, wenn der Wert des Inflatonfelds absinkt; dabei wird die im Inflaton enthaltene Energie in Teilchen umgewandelt. Über die genaue Anordnung dieser Teilchen zu jedem Zeitpunkt bestimmt der genaue Wert des Inflatons während des Umwandlungsprozesses. Da aber das Inflatonfeld Quantenfluktuationen unterliegt, ist auch dieser Wert zufälligen Schwankungen unterworfen – eben denjenigen Schwankungen, die auch das Muster der geringfügig heißeren und kühleren Stellen in Abbildung 3.4 entstehen lassen. Betrachtet man alle Flicken in einem Blasenuniversum, so führen die Quantenfluktuationen des Inflatons zu der gewünschten zufälligen Verteilung der Teilchenanordnungen. Deshalb erwarten wir, dass jede Teilchenanordnung, auch jene, die für all das verantwortlich ist, was wir derzeit um uns herum sehen, sich ebenso oft wiederholt wie jede andere.

Kapitel 4: Vereinheitlichung der Naturgesetze

1

Ich danke Walter Isaacson für persönliche Mitteilungen über diese und einige weitere historische Fragen im Zusammenhang mit Einstein.

2

Ein paar Einzelheiten: Die Erkenntnisse von Glashow, Salam und Weinberg zeigten, dass die elektromagnetische Kraft und die schwache Kernkraft Aspekte einer gemeinsamen elektroschwachen Kraft sind, eine Theorie, die Ende der siebziger und Anfang der achtziger Jahre durch Experimente mit Teilchenbeschleunigern bestätigt wurde. Glashow und Georgi gingen noch einen Schritt weiter und postulierten, die elektroschwache Kraft und die starke Kernkraft könnten Erscheinungsformen einer noch grundsätzlicheren Naturkraft sein, ein Ansatz, der als große Vereinheitlichung bezeichnet wurde. In ihrer einfachsten Version wurde die große Vereinheitlichung jedoch widerlegt, als man eine ihrer Vorhersagen  – nämlich die, dass Protonen mit einer bestimmten Häufigkeit in andere Teilchen zerfallen – nicht durch Beobachtungen bestätigen konnte. Es gibt indes viele andere Versionen der großen Vereinheitlichung, die experimentellen Überprüfungen standhalten, denn die von ihnen vorhergesagte Zerfallsrate der Protonen ist so niedrig, dass die Empfindlichkeit der Experimente derzeit für ihren Nachweis nicht ausreicht. Aber auch wenn die große Vereinheitlichung bisher durch Daten nicht belegt wurde, steht außer Zweifel, dass man die drei Kräfte, die es neben der Gravitation gibt, mit der mathematischen Sprache der Quantenfeldtheorie beschreiben kann.

3

Die Entdeckung der Superstringtheorie zog andere, eng miteinander verwandte theoretische Ansätze für eine vereinheitlichte Theorie der Naturkräfte nach sich. Insbesondere die supersymmetrische Quantenfeldtheorie und ihre Erweiterung um die Gravitation, die Supergravitation, werden seit Mitte der siebziger Jahre energisch weiterverfolgt. Grundlage von supersymmetrischer Quantenfeldtheorie und Supergravitation ist das Prinzip der Supersymmetrie. Die beiden Ansätze wenden dieses Prinzip im Rahmen der herkömmlichen, punktförmigen Beschreibung von Teilchen an; entdeckt wurde es aber zuerst im Zusammenhang mit der Superstringtheorie. Später in diesem Kapitel werden wir die Supersymmetrie kurz erörtern, aber für Leser mit mathematischen Neigungen möchte ich hier feststellen, dass die Supersymmetrie die einzige zusätzliche Symmetrie ist, um die man in einer nicht trivialen Theorie der Elementarteilchen die Rotationssymmetrie, die Translationssymmetrie und die Lorentz-Symmetrie beziehungsweise allgemeiner die Poincaré-Symmetrie erweitern kann. Sie stellt Beziehungen zwischen Teilchen mit unterschiedlichem quantenmechanischem Spin her und begründet damit eine enge mathematische Verwandtschaft zwischen Teilchen, die Kräfte übertragen, und den Teilchen, aus denen die Materie besteht. Supergravitation wiederum ist eine Erweiterung der Supersymmetrie unter Einschluss der Gravitationskraft. In der Frühzeit der Stringtheorieforschung erkannte man, dass sich Supersymmetrie und Supergravitation ergeben, wenn man die Stringtheorie mit Hilfe geeigneter Näherungen beschreibt, wie sie bei niedrigen Energien sinnvoll sind. Bei niedrigen Energien ist ganz allgemein nicht zu erkennen, dass Strings ausgedehnte Gebilde sind – stattdessen erscheinen sie als punktförmige Teilchen. Wie wir in diesem Kapitel erörtern werden, verwandelt sich bei Anwendung auf niederenergetische Prozesse die Mathematik der Stringtheorie demgemäß in die der Quantenfeldtheorie. Da sowohl Supersymmetrie als auch Gravitation trotz dieser Umwandlung erhalten bleiben, bringt die Niedrigenergie-Näherung der Stringtheorie entsprechend die supersymmetrische Quantenfeldtheorie und die Supergravitation hervor. Wie wir in Kapitel 9 genauer erfahren werden, konnte man in jüngerer Zeit zwischen bestimmten supersymmetrischen Feldtheorien und Stringtheorie einen noch fundamentaleren Zusammenhang herstellen.

4

Gut informierte Leser mögen Einwände gegen meine Aussage vorbringen, jedes Feld sei mit einem Teilchen assoziiert. Genauer gesagt gilt: Die winzigen Fluktuationen eines Feldes rund um ein lokales Potenzialminimum lassen sich allgemein als Anregung von Teilchen interpretieren. Mehr brauchen wir für die Diskussion, um die es hier geht, nicht. Außerdem werden gut informierte Leser feststellen, dass die Lokalisierung eines Teilchens an einem Punkt ebenfalls eine Idealisierung darstellt, denn dazu wären nach der Unschärferelation ein unendlicher Impuls und unendliche Energie erforderlich. Die wesentliche Aussage lautet auch hier: In der Quantenfeldtheorie gibt es keine prinzipielle Begrenzung dafür, wie genau ein Teilchen lokalisiert sein kann.

5

Historisch betrachtet, entwickelte man ein mathematisches Verfahren namens Renormierung, um mit den quantitativen Folgen starker, auf kleinen Größenskalen ablaufenden (sprich: energiereichen) Fluktuationen von Quantenfeldern zurechtzukommen. Wendet man die Renormierung auf die Quantenfeldtheorien der drei Nicht-Gravitationskräfte an, verschwinden die unendlichen Größen, die in den verschiedenen Berechnungen aufgetaucht waren; auf diese Weise konnten die Physiker überaus genaue Vorhersagen treffen. Wendet man die Renormierung jedoch auf die Quantenfluktuationen des Gravitationsfelds an, bleibt der Erfolg aus: Die Methode kann Unendlichkeiten, die in quantenfeldtheoretischen Rechnungen unter Einbeziehung der Gravitation auftauchen, nicht beseitigen. Heutzutage betrachten die Physiker diese Unendlichkeiten aus einem etwas anderen Blickwinkel. Wie wir mittlerweile erkannt haben, ist es auf dem Weg zu einem immer tiefer gehenden Verständnis für die Naturgesetze sinnvoll, jeden Vorschlag zunächst als vorläufig zu betrachten und davon auszugehen, dass er – wenn er überhaupt eine Bedeutung hat – die physikalischen Verhältnisse wahrscheinlich nur hinab bis zu einer bestimmten Längenskala (oder nach oben hin bis zu einer bestimmten Energieskala) beschreiben kann. Jenseits davon treten Phänomene auf, die von der jeweiligen Theorie nicht erfasst werden können. Unter diesem Gesichtspunkt wäre es töricht, die Theorie auf Größenskalen auszuweiten, die kleiner sind als jene in ihrem Anwendungsbereich (oder auf Energien, die oberhalb des Anwendungsbereiches liegen). Mit solchen eingebauten Beschränkungen treten (ganz ähnlich wie im Haupttext beschrieben wurde) keinerlei Unendlichkeiten auf. Stattdessen stellt man die Berechnungen im Rahmen einer Theorie an, deren Anwendungsbereich von vornherein festgeschrieben ist. Dennoch beschränkt sich die Fähigkeit, Vorhersagen zu treffen, auf Phänomene innerhalb der von der Theorie gezogenen Grenzen – bei sehr kurzen Abständen (oder sehr hoher Energie) liefert die Theorie keine Erkenntnisse. Letztlich wäre es das Ziel einer vollständigen Theorie der Quantengravitation, die eingebauten Grenzen aufzuheben und quantitative Vorhersagen bei beliebigen Größenskalen zu ermöglichen.

6

Um uns einen Eindruck davon zu verschaffen, woher gerade diese Zahlen stammen, können wir Folgendes festhalten: Die Quantenmechanik (Näheres darüber in Kapitel 8) stellt einen Zusammenhang zwischen Welle und Teilchen her, und je mehr Masse das Teilchen besitzt, desto kürzer ist seine Wellenlänge (das heißt der Abstand zwischen aufeinanderfolgenden Wellenkämmen). Auch Einsteins Allgemeine Relativitätstheorie bringt jedes Objekt mit einer bestimmten Länge in Verbindung – sie charakterisiert die Größe, auf die das Objekt zusammengepresst werden müsste, damit es zum Schwarzen Loch wird. Je mehr Masse das Objekt besitzt, desto größer ist die entsprechende Länge. Stellen wir uns also einmal vor, wir würden von einem durch die Quantenmechanik beschriebenen Teilchen ausgehen und dann langsam seine Masse steigern. Dabei wird die Quantenwelle des Teilchens immer kürzer, und seine »Schwarzes-Loch-Größe« nimmt zu. Bei einer bestimmten Masse sind die Quantenlänge und die Schwarze-Loch-Größe genau gleich. Dieser Massen- und Längenwert charakterisieren damit genau jenen Bereich, in dem sowohl quantenmechanische als auch allgemein-relativistische Überlegungen eine Rolle spielen. Wer nachrechnet, wird feststellen, dass es sich bei Masse und Länge um die im Haupttext genannten Werte handelt: die Planck-Masse beziehungsweise die Planck-Länge. Um einen Ausblick auf spätere Entwicklungen zu geben: In Kapitel 9 werde ich das holographische Prinzip erläutern. Dieses Prinzip formuliert auf der Grundlage der Allgemeinen Relativitätstheorie und der Physik der Schwarzen Löcher eine ganz bestimmte Grenze für die Zahl der physikalischen Freiheitsgrade, die in einem gegebenen Raumvolumen vorhanden sein können (eine genauere Version der Diskussion in Kapitel 2 über die Zahl verschiedener Teilchenanordnungen in einem Raumvolumen; siehe auch Anmerkung 14 zu Kapitel 2). Wenn dieses Prinzip zutrifft, kann der Konflikt zwischen Allgemeiner Relativitätstheorie und Quantenmechanik bereits auftreten, bevor die Abstände klein und die Krümmungen groß werden. Für ein riesiges Volumen würde man, selbst wenn es nur ein Teilchengas sehr geringer Dichte enthält, mit der Quantenfeldtheorie wesentlich mehr Freiheitsgrade vorhersagen, als es das holographische Prinzip (das auf der Allgemeinen Relativitätstheorie basiert) zulässt.

7

Der quantenmechanische Spin ist als Konzept leider nicht sehr anschaulich. Insbesondere in der Quantenfeldtheorie, in der Teilchen als punktartige Gebilde betrachtet werden, kann man sich kaum vorstellen, was »Spin« – wörtlich: Rotation – eigentlich bedeuten soll. Was die Experimente wirklich zeigen, ist, dass Teilchen eine charakteristische Eigenschaft besitzen können, die alle Merkmale eines konstanten Drehimpulses aufweist. Außerdem zeigt die Quantentheorie – und Experimente bestätigen es –, dass dieser konstante Drehimpulswert für Teilchen immer ein ganzzahliges Vielfaches einer ganz bestimmten fundamentalen Größe ist (nämlich des Planck’schen Wirkungsquantums, geteilt durch 2). Da auch klassische rotierende Objekte einen Eigendrehimpuls besitzen (der allerdings nicht unveränderlich ist, sondern von der Rotationsgeschwindigkeit des Objekts abhängt), haben die Theoretiker den Namen »Spin« übernommen und wenden ihn auf diese analoge Quantensituation an. So kommt es, dass auch Teilchen ein »Spin-Drehimpuls« zugeschrieben wird oder, kürzer: ein »Spin«. Dass sich diese Teilchen dabei tatsächlich wie winzige Kreisel um sich selbst drehen, ist zwar ein anschauliches Bild. Genauer sollte man sich aber nur vorstellen, dass Teilchen nicht nur durch ihre Masse, ihre elektrische Ladung und verschiedene mit den Kernkräften zusammenhängende Ladungen definiert sind, sondern zusätzlich durch ihren charakteristischen und unveränderlichen Spin-Drehimpuls. Genau wie wir die elektrische Ladung eines Teilchens als eine seiner definierenden Grundeigenschaften anerkennen, so zeigen die Experimente, dass das Gleiche für den Spin-Drehimpuls gilt.

8

Wie gesagt: Der Konflikt zwischen Allgemeiner Relativitätstheorie und Quantenmechanik erwächst aus den starken Quantenfluktuationen des Gravitationsfeldes, welche die Raumzeit so heftig durchschütteln, dass die traditionellen mathematischen Methoden damit nicht zurechtkommen. Die Unschärferelation besagt, dass diese Fluktuationen immer stärker werden, wenn man den Raum auf immer kleineren Größenskalen untersucht (was umgekehrt erklärt, warum wir die Fluktuationen im Alltagsleben nicht bemerken). Insbesondere zeigen die Berechnungen, dass die höchst energiereichen Fluktuationen über Entfernungen, die kleiner als die Planck-Länge sind, die Mathematik ins Chaos stürzen (je kleiner die Abstände, desto größer die Energie der Fluktuationen). Da die Quantenfeldtheorie Teilchen als Punkte ohne räumliche Ausdehnung beschreibt, können die Abstände, die man mit Hilfe solcher Teilchen erkunden kann, beliebig klein sein, und damit können die Quantenfluktuationen, denen sie ausgesetzt sind, beliebig energiereich werden. Das ändert sich durch die Stringtheorie. Strings sind keine Punkte – sie haben eine räumliche Ausdehnung. Daraus folgt, dass es für die zugänglichen Abstände auch prinzipiell eine Untergrenze gibt, denn mit einem String kann man keine Entfernungen erkunden, die kleiner sind als er selbst. Diese Begrenzung der möglichen Abstände setzt wiederum dem Energiereichtum der Fluktuationen eine Grenze. Eine solche Begrenzung erweist sich als ausreichend, um die mathematischen Unstimmigkeiten zu beseitigen, so dass die Stringtheorie eine Verbindung von Quantenmechanik und Allgemeiner Relativitätstheorie ermöglicht.

9

Wäre ein Objekt wirklich eindimensional, könnten wir es nicht unmittelbar sehen, denn es hätte keine Oberfläche, die Photonen zurückwerfen kann, und wäre auch nicht in der Lage, durch eigene atomare Übergänge Photonen zu erzeugen. Wenn ich also im Haupttext »sehen« sage, meine ich damit alle Beobachtungshilfsmittel und Experimente, mit denen man nach Belegen für die räumliche Ausdehnung eines Objekts suchen kann. Entscheidend ist dabei, dass jeder räumliche Abstand, der kleiner ist als das Auflösungsvermögen des experimentellen Verfahrens, in dem Experiment nicht bemerkt wird.

10

»What Einstein Never Knew«, Fernsehsendung aus der Reihe NOVA des Senders PBS, 1985.

11

Zumindest wären diejenigen Bestandteile des Universums, die für unser Dasein am wichtigsten sind, völlig anders. Da die vertrauten Teilchen und die aus ihnen zusammengesetzten Objekte – Sterne, Planeten, Menschen und so weiter – weniger als fünf Prozent der Masse im Universum ausmachen, würde eine solche Änderung den (der Masse nach) allergrößten Teil des Universums nicht beeinträchtigen. Gemessen an ihren Wirkungen auf das Leben, wie wir es kennen, wäre die Veränderung allerdings tief greifend.

12

Die Quantenfeldtheorien erlegen den Teilcheneigenschaften einige – wenn auch nicht sehr strenge – Beschränkungen auf. Um bestimmte nicht hinnehmbare physikalische Verhaltensweisen zu vermeiden (beispielsweise die Verletzung entscheidender Erhaltungsgesetze, die Verletzung bestimmter Symmetrien und so weiter), können die für die (elektrische und auch nukleare) Ladung der Teilchen möglichen Werte eingeschränkt sein. Um außerdem zu gewährleisten, dass sich die Wahrscheinlichkeiten der möglichen Ergebnisse für alle physikalischen Prozesse zu eins addieren, kann es auch für die Teilchenmassen Beschränkungen geben. Dennoch bleibt für die erlaubten Werte der Teilcheneigenschaften ein breiter Spielraum.

13

Manche Wissenschaftler merken an, dass diese Frage in der Stringtheorie dringlicher ist, auch wenn weder die Quantenfeldtheorie noch unsere derzeitigen Kenntnisse über die Stringtheorie eine Erklärung für die Teilcheneigenschaften liefern. Die Sache ist ein wenig verwickelt, aber für Leser mit weitergehendem fachlichen Interesse möchte ich sie kurz zusammenfassen. In der Quantenfeldtheorie werden die Eigenschaften der Teilchen – beispielsweise ihre Masse, um ein konkretes Beispiel zu wählen – durch Zahlen bestimmt, die in die Gleichungen der Theorie eingesetzt werden. Die Tatsache, dass die Gleichungen der Quantenfeldtheorie es erlauben, diese Zahlen zu variieren, ist die mathematische Entsprechung der Aussage, dass die Quantenfeldtheorie die Teilchenmassen nicht festlegt, sondern sie als Input verwendet. In der Stringtheorie hat die freie Wählbarkeit der Teilchenmassen einen ähnlichen mathematischen Ursprung – die Gleichungen lassen zu, dass bestimmte Parameter beliebige Werte annehmen –, aber wie dies im Einzelnen geschieht, ist von größerer Bedeutung. Die frei wählbaren Zahlen – das heißt Zahlen, deren Werte man ohne Energieaufwand verändern kann – entsprechen der Existenz von Teilchen ohne Masse. (Um die in Kapitel 3 eingeführte Sprache der Potenzialkurven zu verwenden: Man stelle sich eine völlig flache Potenzialkurve vor, also eine horizontale Gerade. Genau wie ein Spaziergang auf völlig flachem Gelände keine Auswirkungen auf die potenzielle Energie hat, so ist auch die Veränderung des Wertes eines solchen Feldes nicht mit Energieaufwand verbunden. Da die Masse eines Teilchens der Krümmung der Potenzialkurve seines Quantenfelds in direkter Nähe des Minimalwerts entspricht, haben die Quanten solcher Felder keine Masse.) Eine übermäßig große Zahl masseloser Teilchen ist für eine Theorie eine eher peinliche Eigenschaft, denn die Teilchenbeschleunigerexperimente und kosmologischen Beobachtungen lassen nur wenig Freiraum für die Existenz zusätzlicher Sorten solcher Teilchen. Die Stringtheorie ist nur dann hieb- und stichfest, wenn die betreffenden Teilchen eine Masse annehmen. In den vergangenen Jahren haben verschiedene Entdeckungen gezeigt, wie das passieren kann; sie haben mit Flüssen zu tun, die durch Löcher in den Calabi-Yau-Räumen der zusätzlichen Dimensionen strömen. Einige Aspekte dieser Entwicklungen werde ich in Kapitel 5 erörtern.

14

Dass Experimente Anhaltspunkte liefern werden, die stark gegen die Stringtheorie sprechen, ist nicht unmöglich. Die Struktur der Stringtheorie sorgt dafür, dass alle physikalischen Phänomene bestimmten Grundprinzipien unterliegen. Dazu gehören die Unitarität (die Summe aller Wahrscheinlichkeiten sämtlicher möglichen Ergebnisse in einem bestimmten Experiment muss eins sein) und die lokale Lorentz-Invarianz (in einem ausreichend kleinen Bereich gelten die Gesetze der Speziellen Relativitätstheorie), aber auch eher technische Eigenschaften wie die Analytizität und die Kreuzsymmetrie (das Ergebnis von Teilchenkollisionen muss so vom Impuls der Teilchen abhängen, dass bestimmte mathematische Kriterien erfüllt sind). Sollte man – vielleicht mit dem LHC – Anhaltspunkte dafür finden, dass eines dieser Prinzipien verletzt ist, wäre es eine schwierige Aufgabe, die Daten wieder mit der Stringtheorie in Einklang zu bringen. (Ebenso wäre es eine Herausforderung, diese Daten mit dem Standardmodell der Teilchenphysik zu vereinbaren, das dieselben Prinzipien enthält, allerdings unter der Grundvoraussetzung, dass das Standardmodell bei hinreichend hohen Energieskalen eine Art neuer Physik Platz machen muss, weil die Theorie die Gravitation nicht einschließt. Daten, die mit einem der genannten Prinzipien in Konflikt geraten, wären ein Argument dafür, dass es sich bei der neuen Physik nicht um eine Stringtheorie handelt.)

15

Häufig spricht man vom Zentrum eines Schwarzen Lochs, als sei es eine Stelle im Raum. Das ist aber nicht der Fall. Es ist ein Augenblick in der Zeit. Wenn man den Ereignishorizont eines Schwarzen Lochs überquert, tauschen Zeit und Raum (genauer: die radiale Richtung) die Rollen. Fällt man beispielsweise in ein Schwarzes Loch, dann entspricht die radiale Bewegung dem Fortschreiten der Zeit. Man wird also so zum Zentrum des Schwarzen Lochs gezogen, wie man auch zum nächsten Zeitpunkt gezogen wird. Das Zentrum des Schwarzen Lochs entspricht in diesem Sinn einem letzten Zeitpunkt.

16

Entropie ist aus vielerlei Gründen ein Schlüsselbegriff der Physik. In dem hier erörterten Fall dient sie als Diagnosehilfsmittel, mit dem man feststellen kann, ob die Stringtheorie in ihrer Beschreibung Schwarzer Löcher irgendwelche wesentlichen physikalischen Aspekte außer Acht lässt. Wäre das der Fall, wäre der mit Hilfe der String-Mathematik berechnete Wert für die Unordnung eines Schwarzen Lochs falsch. Dass die Antwort genau mit den Befunden übereinstimmt, zu denen Bekenstein und Hawking durch ganz andere Überlegungen gelangten, ist ein Zeichen, dass die Stringtheorie die grundlegende physikalische Beschreibung erfolgreich erfasst. Dies ist ein sehr ermutigendes Ergebnis. Einzelheiten finden sich in meinem Buch Das elegante Universum, Kapitel 13.

17

Den ersten Anhaltspunkt für diese paarweisen Entsprechungen zwischen Calabi-Yau-Räumen lieferten die Arbeiten von Lance Dixon sowie unabhängig davon die von Wolfgang Lerche, Nicholas Warner und Cumrun Vafa. Ich selbst fand zusammen mit Ronen Plesser eine Methode, mit der man die ersten konkreten Beispiele solcher Paare erzeugen konnte; wir bezeichneten sie als Spiegelpaare und die Beziehung zwischen ihnen als Spiegelsymmetrie. Wie Plesser und ich außerdem zeigen konnten, lassen sich schwierige Berechnungen bei einem Mitglied eines Spiegelpaars, an denen scheinbar undurchschaubare Einzelheiten wie die Zahl der Kugeln, die man in den Raum hineinpacken kann, beteiligt sind, in dem Spiegelraum in weit besser handhabbare Berechnungen umsetzen. Dieses Ergebnis wurde von Philip Candelas, Xenia de la Ossa, Paul Green und Linda Parkes aufgegriffen und umgesetzt: Sie entwickelten Verfahren, um die Äquivalenz, die Plesser und ich für die »schwierigen« und »leichten« Formeln nachgewiesen hatten, direkt auszuwerten. Mit der leichten Formel gewannen sie dann Informationen über ihren schwierigen Partner, so unter anderem über die im Haupttext erwähnten Zahlen zur Beschreibung von Kugelpackungen. In den seither vergangenen Jahren ist die Spiegelsymmetrie zu einem eigenen Forschungsgebiet geworden, das zu zahlreichen wichtigen Ergebnissen gelangt ist. Eine detaillierte historische Darstellung findet sich in Shing-Tung Yau und Steve Nadis, The Shape of Inner Space, New York 2010.

18

Die Behauptung, die Stringtheorie habe Quantenmechanik und Allgemeine Relativitätstheorie erfolgreich verbunden, stützt sich auf eine Fülle von Berechnungen und gewinnt durch die Befunde, von denen in Kapitel 9 die Rede sein wird, noch an Überzeugungskraft.

Kapitel 5: Schwebende Universen gleich nebenan

1

Klassische Mechanik: e9783641082079_i0075.jpg Elektromagnetismus: d*F = *J und dF = 0. Quantenmemechanik: e9783641082079_i0076.jpg. Allgemeine Relativitätstheorie: e9783641082079_i0077.jpg

2

Gemeint ist hier die sogenannte Feinstrukturkonstante α = e2/ℏc. Ihr Zahlenwert (bei der typischen Energie elektromagnetischer Prozesse) beträgt ungefähr 1/137 oder rund 0,0073.

3

Wittens Argumentation lautete: Wenn die Stringkopplung des Typs I einen hohen Wert hat, verwandelt sich die Theorie in den O-heterotischen Typ mit kleiner Kopplung und umgekehrt; der Typ IIB mit großer Kopplung verwandelt sich in sich selbst, den Typ IIB, aber mit kleiner Kopplung. Die Fälle der E-heterotischen Theorie und des Typs IIA sind etwas verwickelter (Einzelheiten in: Das elegante Universum, Kapitel 12), im Gesamtbild sind aber alle fünf Theorien in ein Geflecht gegenseitiger Wechselbeziehungen eingebunden.

4

Für Leser mit mathematischen Neigungen: Die Strings als eindimensionale Gebilde haben die Besonderheit, dass die Physik, mit der ihre Bewegung beschrieben wird, einer unendlichdimensionalen Symmetriegruppe gehorcht. Genauer: Wenn ein String sich bewegt, definiert er dabei eine zweidimensionale Fläche, und das Wirkungsfunktional, aus dem seine Bewegungsgleichungen abgeleitet werden können, definiert eine zweidimensionale Quantenfeldtheorie auf eben dieser Fläche. Klassischerweise sind solche zweidimensionalen Wirkungen invariant unter konformen Abbildungen (das heißt: invariant unter winkeltreuen Abbildungen der zweidimensionalen Fläche), und eine solche Symmetrie kann auch in der Quantenversion erhalten bleiben, wenn man der Theorie verschiedene Beschränkungen auferlegt (beispielsweise die Dimensionenzahl der Raumzeit, in der sich der String bewegt, geeignet wählt). Die konformen Abbildungen bilden eine unendlichdimensionale Gruppe, und das erweist sich als unentbehrlich für den Nachweis, dass die störungstheoretische Behandlung eines Quanten-Strings mathematisch in sich widerspruchsfrei ist. Beispielsweise kann man die unendliche Zahl von Anregungen eines beweglichen Strings, die ansonsten eine negative Norm hätten (aufgrund der negativen Signatur der Zeitkomponente der Raumzeitmetrik) mit Hilfe der unendlich dimensionalen Symmetriegruppe systematisch »wegdrehen«. Einzelheiten finden sich in: M. Green, J. Schwarz und E. Witten, Superstring Theory, Bd. 1, Cambridge 1988.

5

Wie bei vielen großen Entdeckungen, so gebührt das Verdienst auch hier sowohl jenen, die mit ihren Erkenntnissen die Grundlagen legten, als auch denen, deren Arbeiten ihre Bedeutung nachwiesen. Eine solche Rolle bei der Entdeckung der Branen in der Stringtheorie spielten unter anderen Michael Duff, Paul Howe, Takeo Inami, Kelley Stelle, Eric Bergshoeff, Ergin Sezgin, Paul Townsend, Chris Hull, Chris Pope, John Schwarz, Ashoke Sen, Andrew Strominger, Curtis Callan, Joe Polchinski, Petr Hořava, J. Dai, Robert Leigh, Hermann Nicolai und Bernard de Wit.

6

Der aufmerksame Leser könnte hier einwenden, dass auch das inflationäre Multiversum die Zeit auf grundlegende Weise einbezieht: Immerhin kennzeichnet die Grenze unserer Blase den Anfang der Zeit in unserem Universum; »außerhalb unserer Blase« bedeutet also auch »außerhalb unserer Zeit«. Das stimmt zwar, mir geht es hier aber um etwas Allgemeineres: Die bisher erörterten Multiversen basieren auf Betrachtungen von Prozessen, die durch den ganzen Raum verteilt ablaufen. In dem Multiversum, dass wir jetzt beschreiben werden, ist die Zeit von vornherein ein zentraler Bestandteil.

7

Alexander Friedmann, The World as Space and Time, 1923 auf Russisch erschienen, wiedergegeben von H. Kragh in »Continual Fascination: The Oscillating Universe in Modem Cosmology«, in: Science in Context 22,4 (2009), S. 587–612.

8

Ein interessantes Detail: Die Autoren des zyklischen Branwelt-Modells liefern in ihrem Modell ein Beispiel für eine besonders praktische Anwendung für die Dunkle Energie (genauer wird die Dunkle Energie in Kapitel 6 erörtert): In der letzten Phase jedes Zyklus sorgt das Vorhandensein von Dunkler Energie in den Branwelten für die Übereinstimmung mit der heute beobachteten, beschleunigten Expansion; diese beschleunigte Expansion verringert ihrerseits die Entropiedichte und schafft so die Voraussetzungen für den nächsten kosmologischen Zyklus.

9

Große Flusswerte destabilisieren auch jeden gegebenen Calabi-Yau-Raum, zu dem die zusätzlichen Dimensionen zusammengerollt sein können. Große Flüsse neigen dazu, die Calabi-Yau-Räume zu vergrößern, und das führt schnell zu Konflikten mit dem Kriterium, dass die zusätzlichen Dimensionen für uns nicht sichtbar sind.

Kapitel 6: Neue Gedanken über eine alte Konstante

1

George Gamow, My World Line, New York 1970; J. C. Pecker, Letter to the Editor, in: Physics Today (Mai 1990), S. 117.

2

Zitiert nach den Einstein Archives, www.alberteinstein.info/db/ViewImage.do?DocumentID=34223&Page=17. Hierbei gilt es zu beachten, dass Einstein für die »kosmologische Konstante«, wie wir sie heute nennen, den Begriff »kosmologisches Glied« verwendete; aus Gründen der Klarheit habe ich im Haupttext den Austausch vorgenommen.

3

The Collected Papers of Albert Einstein, hg. von Robert Schulmann u. a., Princeton 1998, Bd. 8, S. 432f. (Dokument 325).

4

Manche Dinge ändern sich natürlich tatsächlich. Wie ich in den Anmerkungen zu Kapitel 3 erwähnt habe, haben Galaxien in der Regel zusätzlich zu ihrer Geschwindigkeit aufgrund der Expansionsbewegung des Raumes eine (vergleichsweise geringe) Eigengeschwindigkeit. Über kosmologische Zeiträume hinweg können sich die relativen Positionen der Galaxien durch diese Eigenbewegungen verändern; das kann zu verschiedenen interessanten astrophysikalischen Ereignissen führen, beispielsweise zur Kollision und Verschmelzung von Galaxien. Für unsere Veranschaulichung der kosmischen Expansion kann man solche Komplikationen aber getrost außer Acht lassen.

5

Es gibt eine Komplikation, die sich zwar nicht auf die hier erläuterte Grundidee auswirkt, die aber ins Spiel kommt, wenn man die Situation genauer durchrechnet. Wenn Photonen von einer Supernova zu uns fliegen, wird ihre Teilchenzahldichte auf die beschriebene Weise verdünnt. Sie unterliegen aber noch einer anderen Ausdünnung. Im nächsten Abschnitt werde ich beschreiben, wie die Expansion des Raumes dafür sorgt, dass die Wellenlänge der Photonen ebenfalls länger wird, während ihre Energie entsprechend abnimmt – ein Effekt, der, wie wir noch genauer erfahren werden, als Rotverschiebung bezeichnet wird. Wie ich dort erläutern werde, konnten Astronomen aus Messungen der Rotverschiebung Aufschlüsse darüber gewinnen, wie groß das Universum war, als die Photonen ausgesandt wurden – ein wichtiger Schritt zur Beantwortung der Frage, wie sich die Expansion des Raumes im Laufe der Zeit verändert hat. Die Dehnung der Photonen – entsprechend der Verringerung ihrer Energie – hat indes noch eine andere Wirkung: Sie führt zu einer zusätzlichen Abschwächung weit entfernter Strahlungsquellen. Um also den Abstand einer Supernova durch Vergleich von scheinbarer und absoluter Helligkeit richtig zu ermitteln, müssen die Astronomen nicht nur die Verdünnung der Photonendichte in Betracht ziehen (wie ich es im Haupttext beschrieben habe), sondern auch die zusätzliche Energieverringerung, die auf die Rotverschiebung zurückzuführen ist. (Noch genauer gesagt, muss man diesen zusätzlichen Verdünnungsfaktor zwei Mal anwenden; der zweite Rotverschiebungsfaktor berücksichtigt, dass die Häufigkeit, mit der Photonen eintreffen, auf ähnliche Weise durch die kosmische Expansion gedehnt wird.)

6

Geeignet interpretiert, kann auch die zweite vorgeschlagene Antwort für die Bedeutung der gemessenen Entfernung als korrekt betrachtet werden. Im Beispiel der Expansion der Erdoberfläche entfernen sich New York, Austin und Los Angeles voneinander, alle behalten aber ihre Position auf der Erdoberfläche bei. Die Städte weichen auseinander, weil die Erdoberfläche anschwillt, nicht aber weil jemand sie ausgraben, auf einen Tieflader laden und an einen neuen Ort transportieren würde. Ähnlich sind die Verhältnisse bei den Galaxien: Sie weichen durch die kosmische Expansion auseinander, besetzen aber im Raum die gleiche Position wie immer. Man kann sich vorstellen, dass sie am Gewebe des Raumes festgeheftet sind. Wenn sich das Gewebe dehnt, weichen die Galaxien auseinander, bleiben dabei aber immer an der gleichen Stelle fixiert. Die zweite und dritte Antwort scheinen also nur auf den ersten Blick unterschiedlich zu sein – die zweite konzentriert sich auf die Entfernung zwischen uns und der Position, die eine entfernte Galaxie vor langer Zeit einnahm, als die Supernova das Licht aussandte, das wir jetzt sehen; die dritte bezieht sich auf die Distanz zwischen uns und der heutigen Position der Galaxie. Die weit entfernte Galaxie liegt jedoch heute und seit Milliarden Jahren immer an derselben Position im Raum. Ändern würde sich ihre Position nur dann, wenn sie nicht vom expandierenden Raum mitgezogen werden, sondern sich durch den Raum bewegen würde. So betrachtet, besagen die zweite und dritte Antwort also in Wirklichkeit das Gleiche.

7

Für Leser mit mathematischen Neigungen hier die Methode zur Berechnung der Entfernung  – jetzt, zum Zeitpunkt tjetzt –, die das Licht seit dem Zeitpunkt seiner Aussendung tauss zurückgelegt hat. Wir arbeiten mit einem Beispiel, in dem der räumliche Teil der Raumzeit flach ist. Dann kann man die Metrik schreiben als ds2 = c2dt2a2(t)dx2, wobei a(t) der Skalenfaktor des Universums zum Zeitpunkt t und c die Lichtgeschwindigkeit ist. Die hier verwendeten Koordinaten bezeichnet man als mitbewegt. In der in diesem Kapitel entwickelten Sprache kann man sich solche Koordinaten als Markierungspunkte auf der unveränderlichen Karte vorstellen; der Skalenfaktor liefert die Informationen zum Größenmaßstab, der in der Kartenlegende festgehalten ist. Der Weg des Lichtes hat das besondere Merkmal, dass entlang des Weges ds2 = 0 gilt (was übersetzt nichts anderes bedeutet, als das die Lichtgeschwindigkeit immer c ist); daraus folgt, dass e9783641082079_i0078.jpg, oder über einen endlichen Zeitraum wie den zwischen tauss und tjetzt integriert: e9783641082079_i0079.jpg

Die linke Seite dieser Gleichung gibt an, welche Strecke das Licht auf der unveränderlichen Karte zwischen der Aussendung und der Gegenwart zurückgelegt hat. Um daraus die Entfernung im wirklichen Raum zu berechnen, müssen wir die Formel mit dem heutigen Skalenfaktor multiplizieren; demnach ist die Gesamtstrecke, die das Licht zurückgelegt hat, e9783641082079_i0080.jpg Würde der Raum sich nicht ausdehnen, wäre die gesamte Wegstrecke erwartungsgemäß e9783641082079_i0081.jpg . Wenn wir die im wirklichen Universum zu rückgelegte Strecke berechnen, erkennen wir also, dass jeder Abschnitt des Lichtweges mit e9783641082079_i0082.jpg dem Faktor multipliziert wird, also mit dem Betrag, um den sich der Abschnitt von dem Augenblick, in dem ihn das Licht durchquert hat, bis jetzt gedehnt hat.

8

Genauer gesagt, sind es rund 7,12 × 10 – 30 Gramm je Kubikzentimeter.

9

Die Umrechnungsformel lautet 7,12 × 10 – 30 Gramm/Kubikzentimeter = (7,12 × 10 – 30 Gramm/Kubikzentimeter) × (4,6 × 104 Planck-Massen/Gramm) × (1,62 × 10 – 33 Zentimeter /Planck-Länge)3 = 1,38 × 10 – 123 Planck-Massen/Kubik-Planck-Längen.

10

Die abstoßende Gravitation, die wir im Zusammenhang mit der Inflation betrachtet haben, war heftig und kurz. Dies erklärt sich durch die gewaltige Energie und den negativen Druck, die vom Inflatonfeld geliefert werden. Wenn man die Potenzialkurve eines Quantenfelds aber geeignet abwandelt, dann kann man die Energiemenge und den negativen Druck so vermindern, dass sich eine mäßig stark beschleunigte Expansion ergibt. Auch die Dauer der Phase beschleunigter Expansion lässt sich durch eine geeignete Anpassung der Potenzialkurve verlängern. Eine verlängerte Phase mäßig stark beschleunigter Expansion ist notwendig, wenn man die Supernova-Daten erklären will. Dennoch bleibt der kleine, aber von null verschiedene Wert für die kosmologische Konstante die überzeugendste Erklärung, die sich in den mehr als zehn Jahren seit der ersten Beobachtung einer beschleunigten Expansion herauskristallisiert hat.

11

Leser mit mathematischen Neigungen sollten bemerkt haben, dass jede derartige Fluktuation eine Energie beiträgt, die umgekehrt proportional zu ihrer Wellenlänge ist. Damit ist gewährleistet, dass die Summe über alle möglichen Wellenlängen eine unendliche Energie ergibt.

12

Für Leser mit mathematischen Neigungen: Zu der Aufhebung kommt es, weil in einer supersymmetrischen Theorie je ein Boson (ein Teilchen mit einem ganzzahligen Wert für den Spin) und ein Fermion (ein Teilchen mit einem halbzahligen Spin-Wert [der Hälfte einer ungeraden ganzen Zahl]) zu einem Paar zusammengefasst werden. Dabei werden die Bosonen mit kommutierenden Variablen beschrieben, die Fermionen mit antikommutierenden, und daraus ergibt sich das relative Minuszeichen in ihren Quantenfluktuationen.

13

Während die Auffassung, Veränderungen in den physikalischen Eigenschaften unseres Universums seien mit der Existenz von Leben, wie wir es kennen, nicht vereinbar, in der wissenschaftlichen Welt zwar allgemein verbreitet ist, plädieren einige Wissenschaftler dafür, das Spektrum der mit dem Leben vereinbaren Eigenschaften des Universums zu erweitern. Zu diesem Thema gibt es umfangreiche Literatur, zum Beispiel Frank Tipler, The Anthropic Cosmological Principle, New York 1986; John Barrow, Das 1x1 des Universums, Frankfurt a.M. 2004; Paul Davies, Der kosmische Volltreffer, Frankfurt a.M. 2008; Victor Stenger, Has Science Found God? Amherst, N.Y. 2003; siehe auch die darin genannten Literaturhinweise.

14

Vor dem Hintergrund der früheren Kapitel denkt manch einer vielleicht sofort, die Antwort müsse ein eindeutiges Ja sein. Man sagt: Man braucht doch nur das Patchwork-Multiversum zu betrachten, das mit seiner unendlichen räumlichen Weite unendlich viele Universen enthält. Hier ist jedoch Vorsicht angebracht. Selbst wenn es unendlich viele Universen gibt, ist die Liste der unterschiedlichen kosmologischen Konstanten, die darin repräsentiert sind, möglicherweise nicht lang. Wenn beispielsweise die zugrunde liegenden Gesetze für die kosmologische Konstante nicht viele verschiedene Werte zulassen, wäre ungeachtet der Zahl der Universen nur die kleine Sammlung möglicher kosmologischer Konstanten verwirklicht. Die Frage lautet also: Gibt es (a) physikalische Gesetze, die ein Multiversum entstehen lassen könnten, das (b) weit mehr als 10124 verschiedene Universen enthält, und sorgen die Gesetze (c) dafür, dass der Wert der kosmologischen Konstante sich von einem Universum zum anderen unterscheidet?

15

Diese vier Autoren konnten als Erste umfassend zeigen, dass man durch bewusste Auswahl der Calabi-Yau-Räume und der durch ihre Löcher verlaufenden Flüsse Stringmodelle mit kleiner, positiver kosmologischer Konstante realisieren kann, wie man sie auch durch Beobachtungen findet. Zusammen mit Juan Maldacena und Liam McAllister schrieb die Arbeitsgruppe anschließend einen sehr einflussreichen Fachartikel über die Frage, wie man die kosmische Inflation mit der Stringtheorie verbinden kann.

16

Genauer gesagt, würde diese Gebirgslandschaft einen ungefähr 500-dimensionalen Raum ausfüllen, dessen unabhängige Richtungen – die Achsen – verschiedenen Sorten von Feldflüssen entsprechen würden. Abbildung 6.4 ist nur eine grobe bildliche Darstellung, sie vermittelt aber einen Eindruck von den Beziehungen zwischen den verschiedenen Formen der zusätzlichen Dimensionen. Außerdem stellen Physiker, die von der String-Landschaft sprechen, sich in der Regel vor, dass zu der Gebirgslandschaft neben den möglichen Werten für Flüsse auch alle möglichen Größen und Formen (Topologien und Geometrien) der zusätzlichen Dimensionen gehören. Die Täler in der String-Landschaft sind Orte (entsprechend bestimmten Formen für die Extradimensionen und Werten für die Flüsse darin), an denen ein Blasenuniversum von sich aus zur Ruhe kommt, ganz ähnlich wie ein Ball in einer echten Gebirgslandschaft an einer solchen Stelle liegen bleiben würde. In der mathematischen Beschreibung handelt es sich bei den Tälern um (lokale) Minima der potenziellen Energie, die sich mit den zusätzlichen Dimensionen verbindet. In der klassischen Beschreibung bleibt in einem Blasenuniversum, dessen Extradimensionen eine Form angenommen haben, die in unserer Gebirgslandschaft einem Ort in einem der Täler entspricht, alles, wie es ist. In der quantenmechanischen Betrachtung erkennt man jedoch, dass Tunnelereignisse auch später noch zu Formveränderungen der zusätzlichen Dimensionen führen können.

17

Das Quantentunneln zu einem höheren Gipfel ist prinzipiell möglich, den Quantenberechnungen zufolge aber deutlich weniger wahrscheinlich.

Kapitel 7: Naturwissenschaft und das Multiversum

1

Wie lange eine Blase vor der Kollision bereits expandiert ist, bestimmt darüber, welche Wirkungen und damit verbundene Zerstörungen der nachfolgende Zusammenstoß auslöst. Solche Kollisionen werfen auch eine interessante Frage im Zusammenhang mit der Zeit auf, die an das Beispiel mit Lisa und Bart in Kapitel 3 erinnert. Wenn zwei Blasen zusammenstoßen, kommen ihre äußeren Ränder – an denen das Inflatonfeld eine hohe Energie hat – in Kontakt. Aus der Perspektive eines Beobachters im Inneren einer der zusammenstoßenden Blasen entspricht ein hoher Wert der Inflatonenergie sehr frühen Zeitpunkten in der Nähe des Urknalls der betreffenden Blase. Blasenzusammenstöße ereigneten sich also zu Beginn jedes Universums, und deshalb können die dabei erzeugten Störungen sich auch auf einen anderen Prozess des frühen Universums auswirken, nämlich die Entstehung der kosmischen Hintergrundstrahlung.

2

Das Thema der Quantenmechanik werden wir in Kapitel 8 systematisch wieder aufgreifen. Wie wir dort genauer erfahren werden, kann man meine Aussage »liegen außerhalb des Bereichs unserer Alltagsrealität« auf mehreren Ebenen interpretieren. Ich habe dabei die begrifflich einfachste Version im Sinn: Die Gleichung der Quantenmechanik unterstellt, dass Wahrscheinlichkeitswellen in der Regel nicht die Raumdimensionen unserer normalen Erfahrungen bevölkern. Sie befinden sich vielmehr in einer anderen Umgebung, die nicht nur die alltäglichen Raumdimensionen berücksichtigt, sondern auch die Zahl der beschriebenen Teilchen. Dieser sogenannte Konfigurationsraum wird für Leser mit mathematischen Neigungen in der Anmerkung 4 zu Kapitel 8 genauer erläutert.

3

Wenn die beschleunigte Expansion des Raumes, die wir beobachtet haben, nicht von Dauer ist, wird sich die Expansion irgendwann in der Zukunft verlangsamen. Damit könnte dann auch Licht von Objekten, die heute jenseits unseres kosmischen Horizonts liegen, zu uns gelangen; unser kosmischer Horizont würde sich also erweitern. Dann wäre es noch eigenartiger, wenn man annimmt, dass Bereiche jenseits unseres derzeitigen Horizonts nicht real sind, denn in Zukunft würden genau diese Bereiche für uns zugänglich werden. (Erinnern wir uns: Gegen Ende des Kapitels 2 habe ich festgestellt, dass die in Abbildung 2.1 dargestellten kosmischen Horizonte im Laufe der Zeit größer werden. Das stimmt für ein Universum, in dem die Geschwindigkeit der kosmischen Expansion nicht zunimmt. Beschleunigt sich die Expansion jedoch, gibt es eine Entfernung, über die wir nie werden hinausblicken können, ganz gleich, wie lange wir warten. In einem Universum, das sich immer schneller ausdehnt, können kosmische Horizonte nicht über eine bestimmte Größe hinauswachsen, die mathematisch durch das Ausmaß der Beschleunigung festgelegt wird.)

4

Ich möchte ein konkretes Beispiel für eine Eigenschaft nennen, die allen Universen eines bestimmten Multiversums gemeinsam sein könnte. Wie wir in Kapitel 2 erfahren haben, deuten die derzeitigen Befunde nachdrücklich darauf hin, dass die Krümmung des Raumes null beträgt. Aus den mathematischen Eigenschaften der Inflationsmodelle heraus kann man allerdings argumentieren, dass alle Blasenuniversen im inflationären Multiversum eine negative Krümmung aufweisen sollten. Grob gesagt, ähneln die Formen des Raumes, die durch gleiche Inflatonwerte hervorgebracht werden – Formen, die man erhält, wenn man in Abbildung 3.8(b) gleiche Zahlen verbindet –, eher Kartoffelchips als flachen Tischplatten. Dennoch verträgt sich das inflationäre Multiversum nach wie vor mit den Beobachtungen, denn die Krümmung jeder Form nimmt ab, wenn die Form expandiert; die Krümmung einer Glasmurmel ist sofort zu erkennen, die der Erdoberfläche dagegen blieb über Jahrtausende hinweg unbemerkt. Wenn unser Blasenuniversum eine ausreichend starke Expansion durchgemacht hat, könnte seine Krümmung negativ sein, und gleichzeitig wäre sie so ungeheuer gering, dass sie mit heutigen Messverfahren nicht von null zu unterscheiden ist. Das legt ein potenzielles Verfahren zur Überprüfung nahe. Sollte man in Zukunft mit genaueren Beobachtungen feststellen, dass die Krümmung des Raumes sehr klein, aber positiv ist, würde dies gegen unsere Vermutung sprechen, dass wir Teil eines inflationären Multiversums sind; nach Ansicht von B. Freivogel, M. Kleban, M. Rodríguez Martínez und L. Susskind, (»Observational Consequences of a Landscape«, in: Journal of High Energy Physics 0603, 039 [2006]) würde die Messung einer positiven Krümmung von mehr als einem Hunderttausendstel stark gegen die Art von Quanten-Tunnelübergängen (Kapitel 6) sprechen, die nach den heutigen Vorstellungen diese String-Landschaft bevölkern.

5

Zu den vielen Kosmologen und Stringtheoretikern, die dieses Thema vorangebracht haben, gehören Alan Guth, Andrei Linde, Alexander Vilenkin, Jaume Garriga, Don Page, Sergei Winitzki, Richard Easther, Eugene Lim, Matthew Martin, Michael Douglas, Frederik Denef, Raphael Bousso, Ben Freivogel, I-Sheng Yang, Delia Schwartz-Perlov und viele andere.

6

Hier gibt es einen wichtigen Vorbehalt. Welche Auswirkungen geringfügige Veränderungen weniger Konstanten haben, kann man zuverlässig ableiten. Was stärkere Veränderungen bei einer größeren Zahl von Konstanten bewirken, ist jedoch äußerst schwer abzuschätzen. Es ist zumindest möglich, dass ganz bestimmte beträchtliche Veränderungen bei verschiedenen Naturkonstanten sich in ihren Wirkungen gegenseitig aufheben oder auf neue Art und Weise so zusammenwirken, dass sie doch mit Leben, wie wir es kennen, vereinbar sind.

7

Ein wenig genauer kann man sagen: Wenn die kosmologische Konstante negativ, aber hinreichend klein ist, würde der Kollaps so lange dauern, dass sich ebenfalls Galaxien bilden könnten. Der Einfachheit halber lasse ich diese Komplikation beiseite.

8

Ein weiterer Punkt ist erwähnenswert: Die hier beschriebenen Berechnungen wurden angestellt, ohne dass man in Bezug auf das Multiversum eine bestimmte Wahl getroffen hätte. Weinberg und seine Mitarbeiter postulierten vielmehr ganz allgemein ein Multiversum, dessen Eigenschaften variieren können, und berechneten die Häufigkeit der Galaxien in jedem der darin enthaltenen Universen. Je mehr Galaxien in einem Universum vorhanden waren, desto mehr Gewicht maßen Weinberg und seine Mitarbeiter den Eigenschaften dieses Universums in ihren Berechnungen der durchschnittlichen Merkmale bei, auf die ein typischer Beobachter stoßen würde. Da sie aber nicht von einer konkreten zugrunde liegenden Multiversums-Theorie ausgingen, konnten die Berechnungen zwangsläufig nichts darüber aussagen, mit welcher Wahrscheinlichkeit man ein Universum mit dieser oder jener Eigenschaft tatsächlich im Multiversum finden würde (dies sind die Wahrscheinlichkeiten, die wir im vorangegangenen Abschnitt erörtert haben). Universen, deren kosmologische Konstante und anfängliche Fluktuationen in bestimmten Bereichen liegen, mögen die Entstehung von Galaxien erlauben, aber wenn solche Universen in einem Multiversum nur selten entstehen, ist es dennoch höchst unwahrscheinlich, dass wir uns in einem davon befinden.

Um die Berechnungen handhaben zu können, gingen Weinberg und seine Mitarbeiter von folgender Argumentation aus: Da sie ein so schmales Spektrum von Werten für die kosmologische Konstante betrachteten (zwischen null und ungefähr 10 – 120), sollten sich die intrinsischen Wahrscheinlichkeiten, dass solche Universen in einem bestimmten Multiversum vorhanden sind, nicht allzu stark voneinander unterscheiden, ganz ähnlich wie die Wahrscheinlichkeiten, dass wir einem Hund von 29,99997 Kilo oder einem Hund von 29,99999 Kilo begegnen, sich nicht allzu stark unterscheiden sollten. Sie gingen also davon aus, dass jeder Wert für die kosmologische Konstante in dem kleinen Bereich, der sich mit der Bildung von Galaxien verträgt, für sich genommen ebenso wahrscheinlich ist wie jeder andere. Angesichts unserer bruchstückhaften Kenntnisse über die Entstehung von Multiversen scheint dies ein vernünftiger erster Ansatz zu sein. Spätere Arbeiten stellten die Gültigkeit der Annahme jedoch infrage, und andere Forscher haben darauf hingewiesen, dass eine vollständige Berechnung noch weiter gehen muss: durch Festlegung auf eine bestimmte Multiversums-Theorie und Ermittlung der tatsächlichen Verteilung von Universen mit verschiedenen Eigenschaften, die sich daraus ergibt. Ob solch ein Ansatz letztlich zu tragfähigen Erklärungen führen kann, lässt sich nur anhand einer in sich abgeschlossenen anthropischen Berechnung, die sich auf ein Minimum an Annahmen stützt, beurteilen.

9

Schon der Begriff »typisch« ist problematisch, denn er hängt davon ab, wie er definiert und gemessen wird. Wenn wir die Zahl der Kinder und Autos als Maßstab benutzen, gelangen wir zu einer Aussage über die »typische« amerikanische Familie. Legen wir andere Maßstäbe an, beispielsweise das Interesse an Physik, die Begeisterung für Opern oder politisches Engagement, ändert sich die Beschreibung einer »typischen« Familie. Und was für die »typische« amerikanische Familie gilt, gilt wahrscheinlich auch für »typische« Beobachter im Multiversum: Die Berücksichtigung von Eigenschaften, die über die reine Bevölkerungszahl hinausgehen, liefert eine andere Vorstellung davon, was »typisch« ist. Das wiederum hat Auswirkungen auf die Vorhersagen darüber, mit welcher Wahrscheinlichkeit wir in unserem Universum diese oder jene Eigenschaft beobachten werden. Damit eine anthropische Berechnung wirklich überzeugend wird, muss sie dieses Thema einbeziehen. Vermeiden lässt sich das Problem nur, wenn die Wahrscheinlichkeitsverteilung, wie im Haupttext erwähnt, so eindeutige Gipfel hat, dass von einem Leben begünstigenden Universum zum anderen nur geringfügige Abweichungen bestehen.

10

Die mathematischen Untersuchungsverfahren für Mengen mit einer unendlichen Zahl von Elementen sind umfangreich und gut entwickelt. Lesern mit mathematischen Neigungen dürfte die Tatsache vertraut sein, dass man mit Forschungsarbeiten, die bis ins neunzehnte Jahrhundert zurückreichen, den Nachweis von Unendlichkeiten unterschiedlicher »Kardinalitäten« oder »Mächtigkeiten« führen konnte. Oder, anders gesagt: Eine unendliche Größe kann größer sein als eine andere. Die sogenannte Kardinalzahl, welche die Größe beziehungsweise Mächtigkeit der Menge aller ganzen Zahlen angibt, wird e9783641082079_i0083.jpg0 genannt. Wie George Cantor zeigen konnte, ist diese Unendlichkeit weniger mächtig (»kleiner«) als die Menge der reellen Zahlen. Ganz grob kann man sagen: Wenn man ganze Zahlen und reelle Zahlen einander zuordnen will, ist die erste Menge früher erschöpft als die zweite. Und wenn man die Menge der Teilmengen aller reellen Zahlen betrachtet, gelangt man auf die nächste Stufe der Unendlichkeiten.

In allen Beispielen, die im Haupttext erörtert werden, ist e9783641082079_i0084.jpg0 die Unendlichkeit, auf die es ankommt, denn wir haben es mit unendlichen Ansammlungen trennbarer oder »abzählbarer« Objekte zu tun – das heißt, mit verschiedenen Mengen ganzer Zahlen. Im mathematischen Sinn haben also all unsere Beispiele die gleiche Größe; die Gesamtzahl ihrer Elemente hat die gleiche Mächtigkeit. Für die Physik aber wäre eine solche Schlussfolgerung, wie wir in Kürze erfahren werden, nicht sonderlich nützlich. Hier besteht das Ziel vielmehr darin, ein physikalisch begründetes Schema zum Vergleich unendlich großer Mengen von Universen zu finden, aus der sich eine feingliedrigere Ordnung ableiten lässt, eine Ordnung, in der sich die relative Häufigkeit eines Satzes physikalischer Merkmale im Vergleich zu einem anderen im gesamten Multiversum widerspiegelt. Ein typisch physikalischer Ansatz zur Lösung einer solchen Aufgabe besteht darin, dass man zunächst Vergleiche zwischen endlichen Teilmengen der einschlägigen unendlich großen Mengen anstellt (denn im Fall einer endlichen Menge lösen sich alle gerade behandelten Schwierigkeiten in Luft auf). Anschließend lässt man dann zu, dass die Teilmengen immer mehr Elemente umfassen, bis sie schließlich die gesamte unendliche Sammlung abdecken. Die Schwierigkeit besteht darin, eine physikalisch gerechtfertigte Methode zur Auswahl derjenigen endlichen Teilmengen zu finden, die man in den Vergleich einbezieht, und dann nachzuweisen, dass Vergleiche sinnvoll bleiben, selbst wenn die Teilmengen immer größer werden.

11

Den Inflationsmodellen wird das Verdienst für noch einige andere Erfolge zugeschrieben, darunter die Lösung des Monopolproblems. Bei ihren Versuchen, die drei Kräfte neben der Gravitation zu einer einheitlichen theoretischen Struktur zu verbinden (ein Vorhaben, das als große Vereinheitlichung bezeichnet wird), stießen die Wissenschaftler auf eine Folgerung, die sich direkt aus ihrem mathematischen Modell ableiten ließ: Kurz nach dem Urknall hätten sich ungeheuer viele sogenannte magnetische Monopole bilden sollen. Diese Teilchen wären im Wesentlichen der Nordpol eines Stabmagneten ohne den üblicherweise dazugehörigen Südpol (oder umgekehrt). Solche Teilchen hat man aber nie gefunden. Die kosmische Inflation erklärt das Fehlen der Monopole mit der Feststellung, dass ihre Dichte in unserem Universum durch die kurze, aber ungeheuer starke Expansion des Raumes direkt nach dem Urknall nahezu auf null verdünnt wurde.

12

Die Frage, wie groß diese Schwierigkeit ist, wird derzeit unterschiedlich beurteilt. Manche Fachleute halten das Maßproblem für eine schwierige technische Frage, deren Lösung die kosmische Inflation um ein wichtiges zusätzliches Detail bereichern wird. Andere (darunter Paul Steinhardt) haben ihre Überzeugung zum Ausdruck gebracht, dass man sich zur Lösung des Maßproblems sehr weit von der mathematischen Formulierung der jetzigen Inflationsmodelle wird entfernen müssen; dies hätte zur Folge, dass das dabei entstehende System als völlig neue kosmologische Theorie aufgefasst werden müsste. Meine Ansicht, die von einer kleinen, aber wachsenden Zahl von Wissenschaftlern geteilt wird, lautet: Mit dem Maßproblem rühren wir an eine Frage, welche an den Wurzeln der Physik ansetzt und möglicherweise eine beträchtliche Umgestaltung grundlegender Ideen erfordert.

Kapitel 8: Die vielen Welten der Quantentheorie

1

Sowohl Everetts ursprüngliche, 1956 verfasste Dissertation als auch die gekürzte Version von 1957 finden sich in: Bryce S. DeWitt und Neill Graham (Hg.), The Many-Worlds Interpretation of Quantum Mechanics, Princeton 1973.

2

Am 27. Januar 1998 unterhielt ich mich mit John Wheeler über verschiedene Aspekte von Quantenmechanik und Allgemeiner Relativitätstheorie, über die ich in meinem Buch Das elegante Universum schreiben wollte. Bevor wir auf die eigentliche Wissenschaft zu sprechen kamen, stellte Wheeler fest, wie wichtig es insbesondere für junge Theoretiker sei, die richtige Sprache zur Formulierung ihrer Befunde zu finden. Zu jener Zeit hielt ich das lediglich für einen klugen Rat, motiviert vielleicht durch sein Gespräch mit mir, einem »jungen Theoretiker«, der sein Interesse zum Ausdruck gebracht hatte, mathematische Erkenntnisse in Alltagssprache zu beschreiben. Als ich später die aufschlussreiche historische Darstellung von Peter Byrne, The Many Worlds of Hugh Everett III, Oxford 2010, las, war ich verblüfft, welch großen Wert Wheeler bereits vierzig Jahre zuvor in seinen Gesprächen mit Everett auf das gleiche Thema gelegt hatte, und zwar in einem Zusammenhang, in dem es um viel mehr ging. Nachdem Wheeler den ersten Entwurf von Everetts Dissertation gelesen hatte, erklärte er dem jungen Mann, er müsse »nicht Schnitzer im Formalismus, sondern in der Sprache ausbügeln«; gleichzeitig warnte er ihn vor der »Schwierigkeit, in alltäglichen Worten die Abläufe in einem mathematischen Schema zu erklären, das von einer alltäglichen Beschreibung ungefähr so weit entfernt ist, wie man es sich überhaupt nur vorstellen kann; es werden Widersprüche und Missverständnisse auftreten; und es ist für Sie eine schwere Bürde und Verantwortung, alles so auszudrücken, dass solche Missverständnisse nicht entstehen können.« Wie Byrne überzeugend darlegt, wandelte Wheeler auf einem schmalen Grat zwischen seiner Bewunderung für Everetts Arbeit und seinem Respekt vor dem System der Quantenmechanik, das Bohr und viele andere angesehene Physiker mit großer Mühe aufgebaut hatten. Einerseits wollte er nicht, dass die alte Garde Everetts Erkenntnisse kurzerhand abtat, nur weil die Darstellung für übertrieben gehalten wurde oder weil Worte darin vorkamen (zum Beispiel Universen, die sich »spalten«), die provokant oder zu fantasievoll wirken könnten. Andererseits wollte Wheeler vermeiden, dass das physikalische Establishment zu dem Schluss gelangte, er habe den nachweislich erfolgreichen Quanten-Formalismus aufgegeben und setze sich nun an die Spitze eines ungerechtfertigten Angriffs. Deshalb zwang Wheeler seinem Doktoranden einen Kompromiss auf: Everett sollte den von ihm entwickelten mathematischen Formalismus beibehalten, bei der Schilderung von dessen Bedeutung und Nutzen aber einen sanfteren, verbindlicheren Ton anschlagen. Außerdem redete Wheeler dem jungen Everett gut zu, Bohr aufzusuchen und seine Ansichten an der Wandtafel persönlich vorzutragen. Im Jahr 1959 tat Everett genau das, aber während er sich auf eine zweiwöchige, hitzige Diskussion vorbereitet hatte, kam es nur zu wenigen unproduktiven Unterhaltungen. Keiner der Beteiligten überlegte es sich anders; keiner änderte seine Meinung.

3

Eine Ungenauigkeit meiner Darstellung möchte ich hier näher erläutern. Schrödingers Gleichung zeigt, dass die Werte, die eine Quantenwelle (oder in der Sprache der Felder: die Wellenfunktion) annehmen kann, positiv oder negativ sein kann; allgemeiner gesagt handelt es sich bei den Werten um sogenannte komplexe Zahlen. Solche Werte lassen sich nicht unmittelbar als Wahrscheinlichkeiten interpretieren – was würde eine negative oder komplexe Wahrscheinlichkeit bedeuten? Die Wahrscheinlichkeiten ergeben sich vielmehr aus dem Betragsquadrat der Quantenwelle an der betreffenden Stelle. Mathematisch bedeutet das: Um die Wahrscheinlichkeit zu berechnen, dass man ein Teilchen an einer bestimmten Stelle findet, nimmt man das Produkt aus dem Wert der Welle an dieser Stelle und dem komplex Konjugierten des Wertes. Diese Klarstellung betrifft auch eine wichtige damit verbundene Frage: Die Auslöschung einander überlappender Wellen ist von entscheidender Bedeutung für die Entstehung eines Interferenzmusters. Wenn die Wellen selbst tatsächlich Wahrscheinlichkeitswellen wären, könnte es nicht zu einer solchen Auslöschung kommen, weil es sich bei Wahrscheinlichkeiten ja immer um positive Zahlen handelt. Wie wir jetzt gesehen haben, gehören zu den Quantenwellen aber nicht nur positive Werte; das erlaubt die Auslöschung zwischen positiven und negativen Werten beziehungsweise, allgemeiner ausgedrückt, zwischen komplexen Zahlen. Da wir im Haupttext nur die qualitativen Eigenschaften solcher Wellen brauchen, werde ich dort der Einfachheit halber nicht zwischen einer Quantenwelle und der mit ihr assoziierten Wahrscheinlichkeitswelle (die sich aus ihrem Betragsquadrat ergibt) unterscheiden.

4

Für Leser mit mathematischen Neigungen sollte ich anmerken, dass die Quantenwelle (die Wellenfunktion) zwar für ein einzelnes Teilchen mit großer Masse der im Haupttext gegebenen Beschreibung entsprechen würde. Sehr massereiche Objekte bestehen aber in der Regel nicht aus einem Teilchen, sondern aus vielen. In solchen Fällen ist die quantenmechanische Beschreibung verwickelter. Insbesondere glaubt manch einer vielleicht, man könne all die Teilchen mit einer Quantenwelle beschreiben, die in dem gleichen Koordinatensystem definiert sind wie jenem, in dem wir die Position eines einzelnen Teilchens angeben – mit den üblichen drei Achsen im Raum. Aber das stimmt nicht. Als Input für die Wahrscheinlichkeitswelle dienen die möglichen Positionen aller beteiligten Teilchen, und daraus folgt später dann die Wahrscheinlichkeit, dass die Teilchen eben diese Positionen einnehmen. Deshalb lebt die Wahrscheinlichkeitswelle in einem Raum, in dem es für jedes Teilchen drei Achsen gibt – insgesamt also drei Mal so viele Achsen wie Teilchen (sogar zehn Mal so viele, wenn man die zusätzlichen Raumdimensionen der Stringtheorie berücksichtigt). Die Wellenfunktion für ein zusammengesetztes System aus n Elementarteilchen ist also eine komplexe Funktion, deren Definitionsbereich nicht der gewöhnliche dreidimensionale Raum ist, sondern vielmehr ein 3n-dimensionaler Raum; wenn die Zahl der Raumdimensionen nicht 3, sondern m beträgt, tritt m in diesen Ausdrücken an die Stelle der 3. Einen solchen Raum bezeichnet man als Konfigurationsraum. Im allgemeinen Umfeld ist die Wellenfunktion also eine Abbildung ψ : ℝmn → ℂ.

Wenn wir davon sprechen, eine solche Wellenfunktion habe ein eng definiertes Maximum, so soll das heißen, dass diese Abbildung nur in einer kleinen mn-dimensionalen Kugel innerhalb ihres Definitionsbereiches von null abweicht. Insbesondere sollten wir festhalten, dass Wellenfunktionen in der Regel nicht in den Raumdimensionen unserer Alltagserfahrung angesiedelt sind. Nur im idealisierten Fall der Wellenfunktion für ein völlig isoliertes, einzelnes Teilchen fällt der Konfigurationsraum mit der vertrauten räumlichen Umgebung zusammen. Auch etwas anderes ist wichtig: Wenn ich sage, die Quantengesetze zeigten, dass die Wellenfunktion für ein massereiches Objekt mit ihrem eng definierten Maximum den gleichen Weg nachzeichnen, den Newtons Gleichungen für das Objekt selbst vorgeben, so kann man sich vorstellen, dass die Wellenfunktion die Bewegung des Objektschwerpunkts beschreibt.

5

Aus dieser Beschreibung könnte man den Schluss ziehen, dass man das Elektron an unendlich vielen verschiedenen Aufenthaltsorten finden kann: Um durch Aufsummieren die sanft geschwungene Quantenwelle zu erhalten, würde man eine unendliche Anzahl eng definierter Maxima brauchen, von denen jedes für einen der möglichen Aufenthaltsorte des Elektrons steht. Wie passt dies zu den Erläuterungen in Kapitel 2, wo davon die Rede war, dass es für Teilchen nur endlich viele verschiedene Konfigurationen gibt? Um ständige Einschränkungen zu vermeiden, die für meine wichtigsten Hauptaussagen in diesem Kapitel nur von untergeordneter Bedeutung sind, habe ich in meinen Ausführungen eine in Kapitel 2 erwähnte Tatsache heruntergespielt: Um die Position des Elektrons mit immer größerer Genauigkeit festzustellen, müsste das Messinstrument eine immer größere Energie aufwenden. Da die verfügbare Energiemenge in physikalisch realistischen Situationen begrenzt ist, bleibt die Auflösung also unvollkommen. Für die spitzen Quantenwellen bedeutet dies, dass die spitzen Maxima in Verbindung mit einer begrenzten Energie eine Breite ungleich null haben. Daraus wiederum folgt, dass es in einem begrenzten Bereich (beispielsweise innerhalb des kosmischen Horizonts) nur eine endliche Zahl messbar unterschiedlicher Elektronenpositionen gibt. Je dünner die Maxima sind (je genauer die Position des Teilchens also bestimmt werden kann), desto breiter sind die Quantenwellen, welche die Energie des Teilchens beschreiben – ein Beispiel für die Wirkung der Unschärferelation: Man kann nicht beide Größen genau bestimmen.

6

Für Leser mit philosophischen Neigungen möchte ich festhalten, dass die hier skizzierte zweistufige Geschichte wissenschaftlicher Erklärungen ihrerseits Gegenstand philosophischer Diskussionen ist. Damit zusammenhängende Gedanken und Erörterungen finden sich in: Frederick Suppe, The Semantic Conception of Theories and Scientific Realism, Chicago 1989, sowie in: James Ladyman, Don Ross, David Spurrett und John Collier, Every Thing Must Go, Oxford 2007.

7

Physiker sprechen oft salopp davon, dass mit dem Viele-Welten-Ansatz der Quantenmechanik die Existenz unendlich vieler Universen verbunden ist. Sicherlich ist es so, dass die Wahrscheinlichkeitswelle unendlich viele mögliche Formen annehmen kann. Selbst an einem einzigen Ort im Raum kann man den Wert der Wahrscheinlichkeitswelle schließlich kontinuierlich verändern, und das heißt ja bereits, dass es unendlich viele mögliche Werte gibt. Wahrscheinlichkeitswellen sind aber kein physikalisches Merkmal eines Systems, zu dem wir unmittelbaren Zugang hätten. Sie enthalten vielmehr Informationen über die verschiedenen möglichen Ergebnisse in einer bestimmten Situation, und deren Vielfalt muss keineswegs unendlich groß sein. Einige mathematisch vorbelastete Leser werden wissen, dass eine Quantenwelle (eine Wellenfunktion) ein Element eines Hilbert-Raums ist. Ist dieser Hilbert-Raum endlich-dimensional, dann können auch Messungen an dem physikalischem System, das durch die Wellenfunktion beschrieben wird, nur endlich viele verschiedene Ergebnisse haben (mit anderen Worten: jeder hermitesche Operator hat nur endlich viele verschiedene Eigenwerte). Dies würde endlich viele Welten bedeuten, entsprechend einer endlichen Anzahl möglicher Beobachtungen oder Messungen. Einer allgemeinen Auffassung zufolge ist der Hilbert-Raum, der zur Beschreibung physikalischer Vorgänge in einem begrenzten Raumvolumen dient und damit nur endlich viel Energie enthalten kann, zwangsläufig endlich-dimensional (ein Punkt, den wir in allgemeinerer Form in Kapitel 9 wieder aufgreifen werden); das legt nahe, dass die Zahl der verschiedenen Welten gleichfalls endlich ist.

8

Siehe Peter Byrne, The Many Worlds of Hugh Everett III, New York 2010, S. 177.

9

Im Laufe der Jahre stießen mehrere Wissenschaftler, darunter Neill Graham, Bryce DeWitt, James Hartle, Edward Farhi, Jeffrey Goldstone und Sam Gutmann, David Deutsch, Sidney Coleman, David Albert und andere einschließlich meiner selbst, unabhängig voneinander auf eine verblüffende mathematische Tatsache, die von entscheidender Bedeutung zu sein scheint, wenn man das Wesen der Wahrscheinlichkeiten in der Quantenmechanik verstehen will. Für Leser mit mathematischen Neigungen fasse ich sie hier zusammen: Sei e9783641082079_i0085.jpg die Wellenfunktion für ein quantenmechanisches System, ein Vektor, der ein Element des Hilbert-Raums H ist. Die Wellenfunktion für n identische Kopien des Systems lautet dann |ψ〉n. Sei A ein hermitescher Operator mit Eigenwerten αk und Eigenfunktionen |λk〉. Sei Fk(A) der »Häufigkeits«-Operator, der zählt, wie viele Male |λke9783641082079_i0086.jpg in einem gegebenen Zustand in Hn vorkommt. Das mathematische Ergebnis lautet limn→∞ [Fk(A)|ψ〉n] = |〈ψ|λk〉|2|ψ〉n. Das heißt, wenn die Zahl identischer Kopien des Systems unbegrenzt anwächst, nähert sich die Wellenfunktion des zusammengesetzten Systems immer stärker einer Eigenfunktion des Häufigkeitsoperators an, wobei der Eigenwert |〈ψ|λk〉|2 beträgt. Dies ist ein bemerkenswertes Ergebnis. Eine Eigenfunktion des Häufigkeitsoperators zu sein, bedeutet, dass der Bruchteil von Malen, bei denen ein Beobachter in dem genannten Grenzwert A misst und als Ergebnis αk findet, |〈ψ|λk〉|2 beträgt  – was wie die einfachste Ableitung der berühmten Bornschen Regel für die quantenmechanische Wahrscheinlichkeit aussieht. Aus Sicht des Viele-Welten-Ansatzes lässt es darauf schließen, dass diejenigen Welten, in denen der Bruchteil derjenigen Male, bei denen αk beobachtet wird, nicht mit der Born-Regel übereinstimmt, im Grenzwert eines beliebig großen n eine Hilbert-Raum-Norm von null haben. In diesem Sinn scheint es, als gebe es für die quantenmechanische Wahrscheinlichkeit eine direkte Interpretation im Viele-Welten-Ansatz. Alle Beobachter in den Vielen Welten werden Ergebnisse mit Häufigkeiten sehen, die zu denen der Standard-Quantenmechanik passen, mit Ausnahme einer Menge von Beobachtern, deren Hilbert-Raum-Norm verschwindend klein wird, wenn n gegen unendlich geht. Dies erscheint zunächst vielversprechend, ist aber bei näherem Nachdenken weniger überzeugend. In welchem Sinn können wir sagen, ein Beobachter aus einer Welt mit einer kleinen Hilbert-Raum-Norm oder mit einer Norm, die gegen null geht, wenn n gegen unendlich geht, sei unwichtig oder existiere nicht? Wir können sagen, solche Beobachter seien anormal oder »unwahrscheinlich«, aber wie sollen wir eine Verbindung zwischen der Hilbert-Raum-Norm eines Vektors und diesen Beschreibungen herstellen? Sehr deutlich wird das Thema an einem Beispiel. In einem zweidimensionalen Hilbert-Raum, beispielsweise mit den Zuständen Spin-Up (nach oben zeigender Spin) |↑e9783641082079_i0087.jpg und Spin-Down (nach unten zeigender Spin) |↓e9783641082079_i0088.jpg), betrachten wir einen Zustand |e9783641082079_i0089.jpg; = 0,99|↑e9783641082079_i0090.jpg + 0,14|↓e9783641082079_i0091.jpg. Dieser Zustand liefert eine Wahrscheinlichkeit von ungefähr 0,98, Spin-Up zu messen und eine Wahrscheinlichkeit von rund 0,02 für Spin-Down. Wenn wir n Kopien dieses Spinsystems, |ψ〉n, betrachten und wenn n gegen unendlich geht, enthält die große Mehrzahl der Terme nach dem Ausmultiplizieren ungefähr genauso viele Spin-Up- wie Spin-Down-Zustände. Die große Mehrzahl der Beobachter (also der Kopien des Versuchsleiters) sieht daher Spin-Ups und Spin-Downs in einem Verhältnis, das nicht mit den quantenmechanischen Vorhersagen übereinstimmt. Nur die wenigen Terme in der Erweiterung von |ψ〉n, die 98 Prozent Spin-Ups und 2 Prozent Spin-Downs enthalten, vertragen sich mit der quantenmechanischen Erwartung; das oben erwähnte Ergebnis besagt, dass diese Zustände die einzigen sind, deren Hilbert-Raum-Norm nicht null ist, wenn n gegen unendlich geht. In einem bestimmten Sinne muss man also der großen Mehrzahl der Terme in der Erweiterung von |ψ〉n (das heißt der großen Mehrzahl der Kopien des Versuchsleiters) die Existenz absprechen. Die schwierige Aufgabe liegt nun in der Klärung der Frage, ob dies etwas bedeutet und, wenn ja, was.

Ich bin unabhängig von den genannten Wissenschaftlern zu dem oben beschriebenen mathematischen Ergebnis gelangt, als ich meine Vorlesungen für einen Quantenmechanik-Kurs vorbereitete. Mir lief ein Schauer über den Rücken, als die wahrscheinlichkeitstheoretische Interpretation der Quantenmechanik unmittelbar aus dem mathematischen Formalismus herauskam – ich stelle mir vor, dass die zu Beginn dieser Anmerkung genannten Physiker, die vor mir zu diesem Ergebnis gelangten, die gleiche Erfahrung machten. Gleichzeitig bin ich überrascht darüber, wie wenig das Ergebnis unter der Mehrzahl der Physiker bekannt ist. So kenne ich beispielsweise kein Standardlehrbuch der Quantenphysik, in dem darüber berichtet würde. Nach meiner Ansicht ist dieses Ergebnis vor allem erstens eine starke mathematische Motivation für Borns Wahrscheinlichkeitsinterpretation der Wellenfunktion – hätte Born diese Interpretation nicht »erraten«, wäre irgendwann jemand auf mathematischen Wege darauf gestoßen – und zweitens ein Test auf innere Widerspruchsfreiheit für die wahrscheinlichkeitstheoretische Interpretation – wäre sie durch dieses mathematische Ergebnis nicht bestätigt worden, hätte dies die innere Plausibilität der wahrscheinlichkeitstheoretischen Interpretation der Wellenfunktion infrage gestellt.

10

Mit der Formulierung »Überlegungen wie die in meinem Zaxtarianer-Szenario« meine ich ein System, in dem Wahrscheinlichkeiten ins Spiel kommen, weil jeder einzelne Bewohner der vielen Welten nicht weiß, in welcher Welt er wohnt. Lev Vaidman machte den Vorschlag, sich auch andere Besonderheiten des Zaxtarianer-Szenarios zu Herzen zu nehmen. Nach seiner Ansicht kommen die Wahrscheinlichkeiten im Viele-Welten-Ansatz in dem Zeitraum zwischen dem Abschluss einer Messung durch den Versuchsleiter und dem Ablesen des Ergebnisses ins Spiel. Aber, so entgegen die Skeptiker, dann ist es zu spät: Es ist die Aufgabe der Quantenmechanik und der Naturwissenschaft im Allgemeinen, Vorhersagen darüber zu teffen, was in einem Experiment geschehen wird, nicht darüber, was geschehen ist. Außerdem scheint es, als gerieten die Fundamente der Quantenwahrscheinlichkeit ins Wanken, wenn sie sich auf eine möglicherweise vermeidbare zeitliche Verzögerung stützen: Hat der Wissenschaftler sofort Zugang zu den Ergebnissen eines Experiments, besteht möglicherweise die Gefahr, dass die Quantenwahrscheinlichkeit völlig aus dem Bild verdrängt wird. (Genauer wird das Thema erörtert in: David Albert, »Probability in the Everett Picture«, in: Many Worlds: Everett, Quantum Theory, and Reality, hg. von Simon Saunders, Jonathan Barrett, Adrian Kent und David Wallace Oxford 2010, und von Peter Lewis, »Uncertainty and Probability for Branching Selves«, philsciarchive.pitt.edu/archive/00002636). Und noch ein letztes Thema ist für Vaidmans Vorschlag und auch für diese Form der Wahrscheinlichkeit durch Unwissen von Bedeutung: Wenn ich eine nicht manipulierte Münze im vertrauten Umfeld eines einzigen Universums werfe, behaupte ich, die Münze werde mit einer Wahrscheinlichkeit von 50 Prozent mit dem Kopf nach oben landen, weil ich nur ein Ergebnis erlebe, aber zwei Ergebnisse hätte erleben können. Jetzt aber möchte ich die Augen schließen und mir vorstellen, ich hätte gerade die Position des tristen Elektrons gemessen. Ich weiß, dass die Anzeige meines Detektors entweder Strawberry Fields oder Grants Grab anzeigt, aber ich weiß nicht, welches von beiden. Dann stellen Sie mich zur Rede. »Brian«, sagen Sie, »wie groß ist die Wahrscheinlichkeit, dass Ihr Bildschirm ›Grants Grab‹ anzeigt?« Bevor ich antworte, denke ich noch einmal an den Münzwurf, und gerade als ich den gleichen Gedankengang verfolgen will, zögere ich. »Hmmmm«, denke ich. »Hätte ich wirklich zwei Ergebnisse erleben können? Das einzige Detail, das mich von dem anderen Brian unterscheidet, ist die Ablesung auf dem Bildschirm. Wenn ich mir vorstelle, mein Bildschirm könnte eine andere Anzeige geliefert haben, ist das gleichbedeutend mit der Vorstellung, dass ich nicht ich bin. Dann stelle ich mir also vor, dass ich der andere Brian bin.« Obwohl ich also nicht weiß, was mein Bildschirm anzeigt, hätte ich – der Typ, der gerade jetzt in meinem Kopf spricht – kein anderes Ergebnis erleben können; man kann also vermuten, dass mein Unwissen sich nicht für ein Denken in Wahrscheinlichkeiten eignet.

11

Wissenschaftler sollten in ihren Urteilen objektiv sein. Ich räume aber gern ein, dass es mir sowohl wegen des Umstandes, dass er ohne zusätzliche Mathematik auskommt, als auch wegen der weitreichenden Folgerungen, was das Wesen der Wirklichkeit angeht, lieb wäre, wenn der Viele-Welten-Ansatz richtig ist. Gleichzeitig bewahre ich mir eine gesunde Skepsis, die sich an den Schwierigkeiten festmacht, Wahrscheinlichkeiten in das System zu integrieren; ich stehe also auch allen anderen Angriffsversuchen aufgeschlossen gegenüber. Zwei davon sind für die Erörterung im Haupttext eine gute Ergänzung. Bei dem einen versucht man, die unvollständige Kopenhagener Deutung zu einer vollständigen Theorie weiterzuentwickeln; den anderen kann man als Viele-Welten-Ansatz ohne die vielen Welten betrachten.

Bei der ersten Denkrichtung, zu deren führenden Köpfen Giancarlo Ghirardi, Alberto Rimini und Tullio Weber zählen, geht es darum, die Kopenhagener Deutung plausibler zu machen; dazu werden Schrödingers mathematisches Verfahren so abgewandelt, dass sie einen Kollaps der Wahrscheinlichkeitswellen zulassen. Das ist einfacher gesagt als getan: Die Abwandlungen der mathematischen Formeln sollten die Wahrscheinlichkeitswellen für kleine Dinge wie einzelne Teilchen oder Atome kaum beeinflussen, denn die erfolgreichen Beschreibungen der Theorie in diesem Bereich wollen wir nicht verändern. Sie müssten sich aber mit Nachdruck bemerkbar machen, wenn es um große Objekte wie ein Stück Laborausrüstung geht, die dafür sorgen, dass die Wahrscheinlichkeitswellen, die mit ihnen in Kontakt kommen, kollabieren. Ghirardi, Rimini und Weber entwickelten Formeln, die genau das leisten. Unter dem Strich kann man sagen: Mit den abgewandelten Gleichungen lässt die Messung eine Wahrscheinlichkeitswelle tatsächlich kollabieren; sie setzt die in Abbildung 8.6 dargestellte Entwicklung in Gang.

Der zweite Ansatz wurde ursprünglich in den zwanziger Jahren von Prinz Louis de Broglie entwickelt und Jahrzehnte später von David Bohm vervollständigt. Er geht von einer mathematischen Voraussetzung aus, die gut zu Everetts Vorstellungen passt: Schrödingers Gleichung sollte immer und unter allen Umständen über die Entwicklung von Quantenwellen bestimmen. Deshalb entwickeln sich Quantenwellen in der De-Broglie-Bohm-Theorie genauso wie im Viele-Welten-Ansatz. Im weiteren Verlauf postuliert die De-Broglie-Bohm-Theorie aber gerade jene Vorstellung, die ich zuvor als irrig bezeichnet habe: Danach sind alle in der Wahrscheinlichkeitswelle enthaltenen Welten mit einer Ausnahme nur mögliche Welten; nur eine einzige wird als wirklich herausgegriffen.

Zu diesem Zweck wirft der Ansatz den traditionellen quantentheoretischen Lehrsatz von Welle oder Teilchen über Bord (ein Elektron ist eine Welle, bis es gemessen wird, und verwandelt sich dann wieder in ein Teilchen); stattdessen entwirft er ein Bild, das Wellen und Teilchen enthält. Entgegen der üblichen Lehre der Quantentheorie stellen de Broglie und Bohm sich Teilchen als winzige, lokalisierte Gebilde vor, die jeweils einen eindeutig definierten Weg entlangwandern und dabei ganz ähnlich wie in der klassischen Tradition eine gewöhnliche, eindeutige Wirklichkeit liefern. Die einzig »wirkliche« Welt ist diejenige, in der die Teilchen ihre einzigartigen, eindeutig definierten Aufenthaltsorte einnehmen. Quantenwellen spielen dabei eine ganz andere Rolle. Sie verkörpern nicht eine Vielzahl von Wirklichkeiten, sondern lenken die Bewegung der Teilchen. Die Quantenwelle drängt Teilchen an Stellen, an denen die Welle groß ist und macht es damit wahrscheinlich, dass man Teilchen an solchen Positionen findet; von Stellen, an denen die Welle klein ist, werden die Teilchen weggedrängt und finden sich dort demnach nur mit geringer Wahrscheinlichkeit. Zur Erklärung des Prozesses brauchen de Broglie und Bohm eine zusätzliche Gleichung, welche die Auswirkungen der Quantenwelle auf ein Teilchen beschreibt. Deshalb wird die Schrödinger-Gleichung in ihrem Ansatz zwar nicht verworfen, sie teilt sich die Bühne aber mit einem anderen mathematischen Mitspieler. (Leser mit mathematischen Neigungen finden diese Gleichungen weiter unten.)

Über viele Jahre hinweg galt allgemein die Ansicht, der Ansatz von de Broglie und Bohm sei keiner näheren Betrachtung wert, denn er sei mit unnötigem Ballast belastet – nicht nur mit einer zweiten Gleichung, sondern, da er sowohl Teilchen als auch Wellen umfasst, mit einer doppelt so langen Liste von Zutaten. In jüngerer Zeit jedoch wurde zunehmend anerkannt, dass diese Kritik nur in einem bestimmten Zusammenhang gilt. Wie die Arbeiten von Ghirardi, Rimini und Weber deutlich machen, erfordert auch eine sinnvolle Version der altbekannten Kopenhagener Deutung eine zweite Gleichung. Außerdem ist es außerordentlich nützlich, wenn man sowohl Wellen als auch Teilchen einschließt: Damit wird die Vorstellung von Objekten, die sich auf wohldefinierten Wegen von hier nach dort bewegen, wieder hergestellt – eine Rückkehr zu einem grundlegenden, vertrauten Aspekt der Wirklichkeit, den aufzugeben die Kopenhagen-Vertreter alle anderen vielleicht vorschnell veranlasst hatten. Eine fachspezifischere Kritik lautet, der Ansatz sei nichtlokal (die neue Gleichung zeigt, dass Einflüsse, die an einer Stelle ausgeübt werden, sich offenbar instantan auch an weit entfernten Stellen bemerkbar machen), und es sei schwierig, ihn mit der Speziellen Relativitätstheorie in Einklang zu bringen. Die Stichhaltigkeit des zuletzt genannten Kritikpunktes vermindert sich jedoch durch die Erkenntnis, dass es auch in der Kopenhagener Deutung nichtlokale Aspekte gibt, die sich zudem experimentell bestätigen lassen. Die Frage der Vereinbarkeit mit der Relativitätstheorie ist aber sicher wichtig und bisher nicht völlig geklärt.

Zum Teil erhob sich gegen die Theorie von de Broglie und Bohm sicher deshalb Widerstand, weil die mathematischen Formulierungen nicht immer in ihrer einfachsten Form dargestellt wurden. Für Leser mit mathematischen Neigungen führe ich hier die einfachste Ableitung der Theorie an.

Wir beginnen mit Schrödingers Gleichung für die Wellenfunktion eines Teilchens: e9783641082079_i0092.jpg; dabei wird die Wahrscheinlichkeitsdichte ρ(x) für das Teilchen, das sich an der Position x befindet, durch die übliche Gleichung ρ(x) = |ψ(x)|2 angegeben. Nun stellen wir uns vor, wir ordneten dem Teilchen eine bestimmte Bahn zu, auf der die Geschwindigkeit am Ort x durch die Funktion v(x) angegeben wird. Welche physikalische Bedingung sollte diese Geschwindigkeitsfunktion erfüllen? Sie sollte die Wahrung der Wahrscheinlichkeit gewährleisten: Wenn das Teilchen sich mit der Geschwindigkeit v(x) von einer Region in eine andere bewegt, sollte sich die Wahrscheinlichkeitsdichte ent sprechend anpassen: e9783641082079_i0093.jpg. Jetzt ist es einfach, nach v(x) aufzulösen, und man erhält e9783641082079_i0094.jpg Im e9783641082079_i0095.jpg, wobei m die Masse des Teilchens ist.

Diese letzte Gleichung definiert zusammen mit der Schrödinger-Gleichung die De-Broglie-Bohm-Theorie. Dabei gilt es zu beachten, dass diese letzte Gleichung nichtlinear ist, aber das hat auf die Schrödinger-Gleichung keine Auswirkungen – diese behält ihre Linearität vollständig bei. Die richtige Interpretation lautet also: Dieses Verfahren zum Ausfüllen der Lücken, die von der Kopenhagener Deutung gelassen wurden, führt eine neue Gleichung ein, die nichtlinear von der Wellenfunktion abhängt. Die gesamte Leistungsfähigkeit und Schönheit der zugrunde liegenden Wellengleichung von Schrödinger bleibt vollständig erhalten.

Ich sollte auch hinzufügen, dass sich sofort eine Verallgemeinerung auf viele Teilchen ergibt: Auf der rechten Seite der neuen Gleichung setzen wir die Wellenfunktion des Vielteilchensystems ein: ψ (x1, x2, x3, …, xn), und wenn wir dann die Geschwindigkeit des k-ten Teilchens berechnen wollen, nehmen wir die Ableitung nach der k-ten Koordinate (wobei wir hier der Einfachheit halber in einem eindimensionalen Raum arbeiten; für höherdimensionale Räume steigt die Anzahl der Koordinaten entsprechend). Diese verallgemeinerte Gleichung zeigt die Nichtlokalität des Verfahrens: Die Geschwindigkeit des k-ten Teilchens hängt instantan von den Positionen aller anderen Teilchen ab (da die Koordinaten der Teilchen die Argumente der Wellenfunktion sind).

12

Prinzipiell könnte man zwischen der Kopenhagener Deutung und dem Viele-Welten-Ansatz mit folgendem konkreten Experiment unterscheiden: Ein Elektron hat wie alle anderen Elementarteilchen eine Eigenschaft, die als Spin bezeichnet wird. Ähnlich einem Kreisel, der sich um eine Achse dreht, kann auch ein Elektron rotieren; ein wichtiger Unterschied besteht allerdings darin, dass die Drehgeschwindigkeit unabhängig von der Achsenrichtung immer den gleichen Betrag hat. Sie ist eine intrinsische Eigenschaft des Elektrons wie seine Masse oder seine elektrische Ladung. Die einzige Variable ist die Richtung des Spins, der um eine gegebene Achse entweder im oder gegen Uhrzeigersinn orientiert sein kann. Den Spin eines Elektrons, der gegen den Uhrzeigersinn orientiert ist, bezeichnen wir als Up; einen Spin im Uhrzeigersinn nennen wir Down. Wenn der Spin eines Elektrons in Bezug auf eine bestimmte Achse festgelegt ist – beispielsweise sei er bezüglich der z-Achse mit hundertprozentiger Sicherheit Up –, ist der Spin bezüglich der x- oder y- Achse aufgrund der quantenmechanischen Unschärfe unsicher: Bezüglich der x-Achse haben wir jeweils zu 50 Prozent Spinwerte Up und Down, Gleiches gilt für die y-Achse.

Stellen wir uns nun vor, wir gehen von einem Elektron aus, das bezüglich der z-Achse einen Spin von 100 Prozent Up hat, und messen den Spin bezüglich der x-Achse. Finden wir dort einen Down-Spin, bedeutet das nach der Kopenhagener Deutung, dass die Wahrscheinlichkeitswelle für den Spin des Elektrons kollabiert ist: Die Möglichkeit Spin-Up wurde aus der Wirklichkeit getilgt, so dass nur ein spitzes Maximum bei Spin-Down übrig bleibt. Im Viele-Welten-Ansatz dagegen kommen sowohl Spin-Up als auch Spin-Down als Ergebnis vor, das heißt insbesondere: Die Möglichkeit, dass wir es mit Spin-Up zu tun haben, bleibt uneingeschränkt erhalten.

Um zwischen diesen beiden Bildern zu entscheiden, können wir uns Folgendes vorstellen. Nachdem wir den Spin des Elektrons bezüglich der x-Achse gemessen haben, lassen wir jemanden die physikalische Entwicklung vollständig umkehren. (Die grundlegenden Gleichungen der Physik, auch die von Schrödinger, sind zeitumkehrinvariant, was insbesondere heißt, dass jede Entwicklung zumindest im Prinzip rückgängig gemacht werden kann. Genauer erörtere ich diesen Punkt in meinem Buch Der Stoff, aus dem der Kosmos ist.) Eine solche Zurückentwicklung müsste man natürlich auf alles anwenden: auf das Elektron, die Instrumente und alles andere, was zum Experiment gehört. Wenn der Viele-Welten-Ansatz stimmt, würde eine nachfolgende Messung des Elektronenspins an der z-Achse mit hundertprozentiger Sicherheit den Wert ergeben, von dem wir ausgegangen waren: Spin-Up. Ist dagegen die Kopenhagener Deutung richtig (womit ich eine mathematisch widerspruchsfreie Version davon meine, beispielsweise die Formulierung von Ghirardi, Rimini und Weber), würden wir auf eine andere Antwort stoßen. Die Kopenhagener Deutung besagt, dass die Möglichkeit Spin-Up bei der Messung des Elektronspins an der x-Achse, bei der wir Spin-Down gefunden hatten, vernichtet wurde. Sie wurde schlicht aus dem Bereich des Möglichen entfernt – ersatzlos gestrichen. Wenn wir anschließend die Messung umkehren, gelangen wir nicht mehr zum Ausgangspunkt zurück, weil wir einen Teil der Wahrscheinlichkeitswelle dauerhaft verloren haben. Bei der nachfolgenden Messung des Elektronenspins an der z-Achse besteht also keine hundertprozentige Sicherheit, dass wir die gleiche Antwort bekommen, von der wir ausgegangen waren. Stattdessen erhalten wir lediglich mit einer Wahrscheinlichkeit von 50 Prozent die gleiche Antwort. Ebenfalls mit einer Wahrscheinlichkeit von 50 Prozent aber auch nicht. Wenn wir das Experiment mehrfach wiederholen und wenn die Kopenhagener Deutung zutrifft, würden wir im Durchschnitt in der Hälfte der Fälle bei der Messung des Elektronenspins relativ zur z-Achse nicht die gleiche Antwort erhalten wie am Anfang. Die schwierige Aufgabe besteht natürlich darin, die physikalische Entwicklung vollständig umzukehren. Zumindest prinzipiell kann dieses Experiment aber Aufschlüsse darüber liefern, welche der beiden Theorien richtig ist.

Kapitel 9: Schwarze Löcher und Hologramme

1

Einstein versuchte mit Berechnungen im Rahmen der Allgemeinen Relativitätstheorie mathematisch zu beweisen, dass Schwarzschilds extreme Materiekonfigurationen – heute würden wir von Schwarzen Löchern sprechen – nicht existieren können. Die mathematischen Überlegungen hinter seinen Berechnungen waren stets korrekt. Er ging aber zusätzlich von Annahmen aus, die sich angesichts der starken Verzerrung von Raum und Zeit, wie sie von einem Schwarzen Loch verursacht werden, als zu eingeschränkt erwiesen; vereinfacht gesagt, kam die Möglichkeit, dass Materie komplett kollabieren kann, darin gar nicht vor. Wegen dieser Einschränkung gingen Einsteins mathematische Formulierungen nicht weit genug und konnten schon deshalb die Möglichkeit Schwarzer Löcher nicht aufzeigen – eine Folge von Einsteins Herangehensweise, die aber nichts darüber besagte, ob Schwarze Löcher sich tatsächlich bilden können. Nach unserem heutigen Kenntnisstand lässt die Allgemeine Relativitätstheorie Schwarze Löcher durchaus zu.

2

Hat ein System eine Konfiguration mit maximaler Entropie erreicht (hat sich Dampf beispielsweise bei einer festgelegten Temperatur gleichmäßig in einem Gefäß verteilt), sind die Möglichkeiten einer weiteren Entropiezunahme erschöpft. Die genaue Aussage lautet also: Die Entropie nimmt zu, bis sie den größten Wert erreicht hat, den das System zulässt.

3

Im Jahr 1972 arbeiteten James Bardeen, Brandon Carter und Stephen Hawking mathematische Gesetze aus, die grundlegende Eigenschaften der Zeitentwicklung Schwarzer Löcher festhalten. Wie sie dabei feststellten, sehen die Gleichungen aus wie die der Thermodynamik. Um von dem einen Satz Gleichungen zum anderen zu gelangen, braucht man nur »Fläche des Horizonts eines Schwarzen Lochs« an die Stelle von »Entropie« zu setzen, und »Temperatur« wird durch »Gravitation an der Oberfläche des Schwarzen Lochs« ersetzt – und umgekehrt funktioniert es genau so. Damit Bekensteins Idee Bestand hat – damit also diese Ähnlichkeit nicht nur ein Zufall ist, sondern die Tatsache widerspiegelt, dass Schwarze Löcher Entropie besitzen –, mussten Schwarze Löcher daher auch eine Temperatur oberhalb des absoluten Nullpunktes haben.

4

Der Grund für die scheinbare Veränderung der Energie ist alles andere als offensichtlich; er beruht auf einem engen Zusammenhang zwischen Energie und Zeit. Die Energie eines Teilchens ergibt sich, grob gesprochen, daraus, wie schnell sein Quantenfeld schwingt. Dass Schnelligkeit ein Begriff ist, der fundamental von der Zeit abhängt, deutet die Beziehung zwischen Energie und Zeit bereits an. Schwarze Löcher haben weitreichende Auswirkungen auf die Zeit. Aus der Ferne betrachtet, scheint sich die Zeit für ein Objekt, das sich dem Horizont des Schwarzen Lochs nähert, immer weiter zu verlangsamen, und am Horizont selbst kommt sie dann völlig zum Stillstand. Nach dem Überqueren des Horizonts tauschen Zeit und Raum die Rollen – im Schwarzen Loch wird die radiale Richtung zur Zeitrichtung. Positive Energie entspricht im Innern des Schwarzen Lochs einer Bewegung in der Radialrichtung hin zur Singularität des Schwarzen Lochs. Wenn das Mitglied eines Teilchenpaars, das negative Energie enthält, den Horizont überquert, fällt es aber tatsächlich in Richtung Zentrum des Schwarzen Lochs. Die negative Energie, die es aus Sicht eines weit entfernten Beobachters hat, wird so aus der Perspektive eines Beobachters, der sich im Innern des Schwarzen Lochs befindet, zu positiver Energie. Deshalb können solche Teilchen im Innern eines Schwarzen Lochs existieren.

5

Wenn ein Schwarzes Loch kleiner wird, schrumpft auch der Flächeninhalt seines Ereignishorizonts  – ein Widerspruch zu Hawkings Behauptung, der Gesamt-Flächeninhalt könne mit der Zeit nur immer weiter zunehmen. Man muss aber daran denken, dass Hawkings Flächensatz auf der klassischen Allgemeinen Relativitätstheorie basiert. Bei den Überlegungen zur Hawking-Strahlung beziehen wir Quantenprozesse mit ein und können so zu abweichenden Schlussfolgerungen gelangen.

6

Etwas genauer gesagt, handelt es sich um die Mindestzahl von Ja/Nein-Fragen, deren Antworten die mikroskopischen Einzelheiten des Systems eindeutig festlegen.

7

Nach Hawkings Befund ist die Entropie durch den Flächeninhalt des Ereignishorizonts in Planck-Einheiten, geteilt durch 4, gegeben.

8

Trotz aller Befunde, die im Verlaufe dieses Kapitels beschrieben werden, ist die Frage nach dem mikroskopischen Aufbau eines Schwarzen Lochs nicht abschließend geklärt. In Kapitel 4 hatte ich eine Entdeckung von Andrew Strominger und Cumrun Vafa aus dem Jahr 1996 erwähnt: Wenn man die Stärke der Gravitation (mathematisch) allmählich verringert, verwandeln sich bestimmte Schwarze Löcher in bestimmte Ansammlungen von Strings und Branen. Strominger und Vafa zählten die möglichen Anordnungen dieser Bestandteile und gelangten so auf eine zuvor nie erreichte explizite Weise wieder zu Hawkings berühmter Formel über die Entropie der Schwarzen Löcher. Sie konnten aber die Bestandteile nicht bei stärkerer Gravitation beschreiben, das heißt bei der Entstehung des eigentlichen Schwarzen Lochs. Andere Autoren, beispielsweise Samir Mathur und einige seiner Mitarbeiter, vertreten andere Ideen, darunter die Möglichkeit, dass Schwarze Löcher »Fusselkugeln« sind, »fuzz balls«, wie sie es nennen – Ansammlungen schwingender Strings, die sich über das gesamte Innere des Schwarzen Lochs verteilen. Das alles sind vorläufige Ideen. Einen der genauesten Einblicke in die Frage liefern Befunde, die später in diesem Kapitel (in dem Abschnitt »Stringtheorie und Holographie«) erörtert werden.

9

Genauer gesagt, kann man die Wirkung der Gravitation in einer Raumregion aufheben, indem man in den freien Fall übergeht. Die Größe der betreffenden Region hängt davon ab, auf welchen Größenskalen das Gravitationsfeld seine Stärke verändert. Verändert es sich nur auf großen Skalen (ist also im Kleinen konstant oder nahezu konstant), dann hebt der Übergang in den freien Fall die Gravitation in einer großen Raumregion auf. Variiert das Gravitationsfeld dagegen über kurze Distanzen (beispielsweise auf der Größenskala des menschlichen Körpers), kann die Gravitation an den Füßen aufgehoben sein, aber wir spüren sie noch am Kopf. Dies wird besonders im Spätstadium des Sturzes in ein Schwarzes Loch bedeutsam, denn das Gravitationsfeld wird immer stärker, je näher man der Singularität des Schwarzen Lochs kommt; wenn die Entfernung zur Singularität sehr klein ist, steigt die Feldstärke steil an. Aufgrund dieser schnellen Änderung gibt es keine Möglichkeit, die Wirkung der Singularität zu beseitigen: Diese wird den Körper am Ende so weit dehnen, bis er zerreißt, weil die Gravitationsanziehung an den Füßen – vorausgesetzt, man springt mit den Füßen zuerst – stets stärker sein wird als am Kopf.

10

Diese Beschreibung ist ein Beispiel für eine Entdeckung von William Unruh aus dem Jahr 1976, der damit eine Verbindung zwischen der eigenen Bewegung und den Teilchen, auf die man trifft, herstellt. Wenn man sich in einem ansonsten leeren Raum beschleunigt bewegt, so Unruhs Feststellung, trifft man auf ein Teilchenbad, dessen Temperatur direkt durch die eigene Bewegung bestimmt wird. Die Allgemeine Relativitätstheorie weist uns an, die eigene Beschleunigung durch Vergleich mit dem Maßstab eines im freien Fall befindlichen Beobachters festzustellen (siehe Der Stoff, aus dem der Kosmos ist, Kapitel 3). Deshalb sieht ein weit entfernter Beobachter, der sich nicht im freien Fall befindet, die von einem Schwarzen Loch ausgehende Strahlung; ein Beobachter im freien Fall sieht sie nicht.

11

Ein Schwarzes Loch bildet sich, wenn die Masse M in einer Kugel mit dem Radius R größer ist als c2R/2G; dabei ist c die Lichtgeschwindigkeit und G die Newtonsche Gravitationskonstante.

12

Wenn die Materie unter ihrem eigenen Gewicht kollabiert ist und ein Schwarzes Loch gebildet hat, liegt der Ereignishorizont in Wirklichkeit normalerweise ein wenig innerhalb der Grenze der Region, von der hier die Rede war. Demnach haben wir bisher die Entropie, die diese Region selbst enthalten könnte, nicht ganz ausgeschöpft. Das lässt sich aber leicht beheben: Wir werfen mehr Material in das Schwarze Loch, so dass der Ereignishorizont sich bis zur ursprünglichen Grenze der Region ausdehnt. Da die Entropie während dieses etwas komplizierteren Prozesses wiederum zunehmen würde, ist die Entropie des Materials, das wir in die Region einbringen, geringer als die des Schwarzen Lochs, das die Region ausfüllt, das heißt die Oberfläche der Region in Planck-Einheiten.

13

G. ’t Hooft, »Dimensional Reduction in Quantum Gravity«, in: Salam Festschrift, hg. von A. Ali, J. Ellis und S. Randjbar-Daemi, River Edge, N.J., 1993, S. 284–296.

14

Wie bereits erwähnt wurde, hat »ermüdetes« oder »erschöpftes« Licht eine gedehnte (rotverschobene) Wellenlänge und damit auch eine geringere Frequenz, weil es Energie verbraucht hat, um sich von einem Schwarzen Loch (oder einer beliebigen anderen Gravitationsquelle) zu entfernen. Wie bekanntere periodische Prozesse (zum Beispiel der Umlauf der Erde um die Sonne, die tägliche Rotation der Erde um ihre Achse und so weiter), so kann man auch die Schwingungen des Lichts nutzen, um zu definieren, wie viel Zeit verstreicht. In der Tat dienen die Schwingungen von Licht, das von angeregten Cäsium-133-Atomen ausgesandt wird, den Wissenschaftlern heutzutage sogar zur Definition der Sekunde. Die geringere Schwingungsfrequenz des erschöpften Lichts legt deswegen schon für sich allein genommen nahe, dass der Ablauf der Zeit in der Nähe des Schwarzen Lochs aus Sicht eines weit entfernten Beobachters ganz generell verlangsamt ist.

15

Bei den meisten wichtigen Entdeckungen in der Naturwissenschaft basiert der Höhepunkt der Ergebnisse auf einer ganzen Reihe früherer Arbeiten. So ist es auch hier. Zu den Wissenschaftlern, die neben ’t Hooft, Susskind und Maldacena den Weg zu diesen Befunden ebneten und ihre Folgerungen weiter entwickelten, gehören Steve Gubser, Joe Polchinski, Alexander Polyakov, Ashoke Sen, Andy Strominger, Cumrun Vafa, Edward Witten und viele andere.

Für Leser mit mathematischen Neigungen möchte ich die Aussage von Maldacenas Befund noch genauer formulieren. Sei N die Zahl der Drei-Branen im Branenstapel und g der Wert der Kopplungskonstante in der Stringtheorie des Typs IIB. Wenn gN eine (positive) Zahl deutlich kleiner als 1 ist, lassen sich die physikalischen Verhältnisse gut mit energiearmen Strings beschreiben, die sich auf dem Branenstapel bewegen. Solche Strings wiederum lassen sich gut durch eine bestimmte vierdimensionale supersymmetrische konforme Quantenfeldtheorie beschreiben. Ist gN jedoch eine große Zahl, ist diese Feldtheorie stark gekoppelt, was Untersuchungen und Berechnungen erschwert. Maldacenas Ergebnis besagt, dass wir unter diesen Verhältnissen alternativ eine Beschreibung durch Strings, die sich auf der Geometrie des nahen Horizonts des Branenstapels bewegen, nutzen können; diese Geometrie ist gegeben durch AdS5 × S5 (der fünfdimensionale Anti-de-Sitter-Raum mal die fünfdimensionale Kugelfläche). Der Radius dieser beiden Räume wird durch gN bestimmt (genauer ist der Radius proportional zu (gN)1/4), und deshalb ist die Krümmung von AdS5 × S5 für ein großes gN gering. Damit wiederum ist gewährleistet, dass die stringtheoretischen Berechnungen handhabbar sind (genauer lassen sie sich durch Berechnungen in einer besonderen Abwandlung der Einsteinschen Gravitationstheorie annähern). Wenn der Wert von gN sich von kleinen hin zu großen Werten verändert, gelangen wir von Physik, die durch eine vierdimensionale supersymmetrische konforme Quantenfeldtheorie beschrieben wird, zur Beschreibung durch eine zehndimensionale Stringtheorie auf AdS5 × S5. Dies ist die sogenannte AdS/CFT-Korrespondenz (Korrespondenz zwischen Anti-de-Sitter-Raum und konformer Feldtheorie, englisch »conformal field theory« oder eben CFT).

16

Ein vollständiger Beweis für Maldacenas Argumentation ist bisher nicht in Reichweite. In den letzten Jahren haben wir aber zumindest über die Zusammenhänge zwischen den Beschreibungen für Innenraum und Randtheorie deutlich mehr erfahren. So konnte man eine Klasse von Berechnungen identifizieren, deren Ergebnisse für jeden Wert der Kopplungskonstante genau stimmen. Auf diese Weise ist es möglich, bestimmte Ergebnisse explizit von kleinen bis zu großen Werten zu verfolgen. Damit lässt sich der »Umwandlungsprozess«, durch den sich eine Beschreibung der physikalischen Verhältnisse im Innenraum in eine Beschreibung in der Randtheorie verwandelt und umgekehrt, zumindest für diesen Spezialfall direkt nachvollziehen. Mit solchen Berechnungen konnte man beispielsweise zeigen, wie Ketten interagierender Teilchen in der Randtheorie sich in Strings im Innenraum verwandeln können – eine besonders überzeugende Verbindung zwischen den beiden Beschreibungen.

17

Genauer gesagt, handelt es sich um eine Abwandlung von Maldacenas Befunden. Sie besteht darin, dass die Rand-Quantenfeldtheorie nicht diejenige ist, die sich ursprünglich aus seinen Untersuchungen ergab; die abgewandelte Theorie ist so gewählt, dass sie der Quantenchromodynamik möglichst ähnlich sieht. Entsprechend umfasst die Variante auch eine abgewandelte Innenraum-Theorie. Eine Hochtemperatur-Randtheorie entspricht laut Wittens Arbeiten dem Vorhandensein eines Schwarzen Lochs im Innenraum. Das Wörterbuch für die Übersetzung zwischen den beiden Beschreibungen zeigt, dass die schwierigen Viskositätsberechnungen für das Quark-Gluon-Plasma sich in die Reaktion des Ereignishorizonts des Schwarzen Lochs auf bestimmte Verformungen verwandeln  – was eine zwar sehr spezielle, aber handhabbare Berechnung darstellt.

18

Ein anderer Ansatz zur Entwicklung einer vollständigen Definition der Stringtheorie erwuchs aus früheren Arbeiten auf einem Gebiet namens Matrixtheorie (auch dies eine mögliche Bedeutung des »M« in »M-Theorie«); er wurde von Tom Banks, Willy Fischler, Steve Shenker und Leonard Susskind entwickelt.

Kapitel 10: Universen, Computer und mathematische Wirklichkeit

1

Die hier genannte Zahl von 1055 Gramm gilt für den Inhalt des heute beobachtbaren Universums; zu immer früheren Zeiten wäre die Temperatur dieser Bestandteile höher gewesen, das heißt, sie hätten mehr Energie enthalten. Wenn Sie wissen möchten, wie viel Materie Sie in einem winzigen Klumpen versammeln müssten, um die Entwicklung unseres Universums seit der Zeit, als es ungefähr eine Sekunde alt war, nachzuspielen, sind 1065 Gramm ein realistischerer Schätzwert.

2

Da unsere Geschwindigkeit auf weniger als die Lichtgeschwindigkeit beschränkt ist, könnte man annehmen, dass für die kinetische Energie ebenfalls eine Beschränkung besteht. Aber das ist nicht der Fall. Wenn die Geschwindigkeit sich immer stärker der des Lichts annähert, wird die Energie größer und größer; nach der Speziellen Relativitätstheorie kann sie im Prinzip über alle Grenzen wachsen. Die mathematische Formel für die Energie lautet e9783641082079_i0096.jpg; dabei ist c die Lichtgeschwindigkeit, und v ist die Geschwindigkeit des bewegten Körpers. Wie man leicht erkennt, wird E beliebig groß, wenn v gegen c geht. Man sollte auch anmerken, dass diese Beschreibung die Sichtweise eines Beobachters wiedergibt, der sich beispielsweise unbeweglich auf der Erdoberfläche befindet und den Körper fallen sieht. Wenn Sie selbst sich im freien Fall befinden, dann stehen Sie aus Ihrer Sicht still, und die gesamte umgebende Materie gewinnt zunehmend an Geschwindigkeit.

3

Bei unserem heutigen Kenntnisstand beruhen solche Angaben noch auf sehr groben Abschätzungen. Die Zahl »zehn Gramm« ergibt sich aus folgender Überlegung: Die Energieskala, bei der die Inflation stattfindet, beträgt den Annahmen zufolge ungefähr das 10 – 5-Fache der Planck-Energie, und Letztere ist ungefähr das 1019-Fache der zur Masse eines Protons äquivalenten Energie. (Würde die Inflation sich bei höheren Energien abspielen, dann lassen die Modelle darauf schließen, dass man bereits Anhaltspunkte für die im frühen Universum erzeugten Gravitationswellen hätte finden müssen.) In konventionelleren Einheiten liegt die Planck-Masse bei ungefähr 10 – 5 Gramm (was für Alltagsverhältnisse wenig ist, aber ungeheuer viel nach den Maßstäben der Elementarteilchenphysik, in der es darum geht, wie viel Energie von einzelnen Teilchen transportiert wird). Die Energiedichte eines Inflatonfelds läge demnach bei ungefähr 10 – 5 Gramm in jedem Würfel Raum, dessen Seitenlänge das 105-Fache der Planck-Länge beträgt (wie gesagt: gemäß der Unschärferelation sind Energie- und Längenskalen umgekehrt proportional zueinander), was rund 10 – 28 Zentimetern entspricht. Die gesamte Masse-Energie, die ein solches Inflatonfeld in einem Volumen mit einer Kantenlänge von 10 – 26 Zentimetern enthält, beträgt also überschlägig 10 – 5 Gramm/(10 – 28 Zentimeter)3 × (10 – 26 Zentimeter)3; das sind zehn Gramm. Wer mein Buch Der Stoff, aus dem der Kosmos ist gelesen hat, erinnert sich vielleicht daran, dass ich dort einen etwas anderen Wert genannt habe. Dort war ich von einer etwas höheren Inflaton-Energieskala ausgegangen.

4

Hans Moravec, Computer übernehmen die Macht. Vom Siegeszug der künstlichen Intelligenz, Hamburg 1999. Siehe Ray Kurzweil, The Singularity Is Near: When Humans Transcend Biology, New York 2006.

5

Siehe zum Beispiel Robin Hanson, »How to Live in a Simulation«, in: Journal of Evolution and Technology 7,1 (2001).

6

Nach der Church-Turing-These kann jeder Computer, bei dem es sich um eine sogenannte universelle Turingmaschine handelt, die Tätigkeit jeder anderen derartigen Maschine simulieren; deshalb ist es völlig plausibel, dass ein Computer innerhalb der Simulation  – der also selbst von dem übergeordneten Computer, der die gesamte simulierte Welt laufen lässt, simuliert wird – bestimmte Aufgaben übernimmt, die denen, die der übergeordnete Computer ausführt, gleichwertig sind.

7

Eine ähnliche Idee entwickelte der Philosoph David Lewis in Form des modalen Realismus, wie er ihn nannte. Siehe On the Plurality of Worlds, Malden, Mass., 2001. Lewis führte die Gesamtheit der möglichen Universen jedoch aus anderen Motiven ein als Nozick. Lewis wollte einen Zusammenhang herstellen, in dem beispielsweise kontrafaktische Aussagen (wie »Wenn Hitler den Krieg gewonnen hätte, sähe die Welt heute ganz anders aus«) einen sinnvollen Rahmen finden.

8

Eine ähnliche Aussage traf John Barrow in seinem Buch Ein Himmel voller Zahlen. Auf den Spuren mathematischer Wahrheit, Heidelberg 1994.

9

Wie in der Anmerkung 10 zu Kapitel 7 erläutert wurde, geht die Größe dieser Unendlichkeit über die der unendlichen Menge ganzer Zahlen (1, 2, 3 und so weiter) hinaus.

10

Dies ist eine Abwandlung des berühmten Barbier-von-Sevilla-Paradoxons: Darin rasiert ein Barbier alle, die sich nicht selbst rasieren. Die Frage lautet: Wer rasiert den Barbier? (In der Regel wird dabei vorgegeben, dass der Barbier ein Mann sein möge; sonst wäre die Antwort zu einfach: Der Barbier ist eine Frau und muss sich nicht rasieren.) Ich möchte betonen, dass das Beispiel lediglich ein einfach verständliches Beispiel dafür liefern soll, wie ein Computer bei seinen Berechnungen »stecken bleiben« kann; es ist nicht als direktes Beispiel für eine nicht berechenbare Funktion gedacht. Vgl. auch Endnote 12.

11

Schmidhuber gibt dafür auch eine effiziente Strategie an: Man sorgt dafür, dass der Computer die simulierten Universen im Laufe der Zeit »verzahnt« simuliert: Das erste Universum wird bei jedem zweiten Arbeitsschritt des Computers weiterverfolgt, das zweite in jedem zweiten der verbliebenen Schritte, das dritte in jedem zweiten der Schritte, die nicht bereits von den beiden ersten Universen besetzt sind, und so weiter. Zu gegebener Zeit hätte man dann jedes berechenbare Universum mit einer beliebig großen Zahl von Zeitschritten simuliert.

12

Eine weitergehende Erörterung berechenbarer und nicht berechenbarer Funktionen müsste auch die approximativ berechenbaren Funktionen einschließen. Das sind Funktionen, die sich durch einen endlichen Algorithmus mit immer größerer Genauigkeit berechnen lassen. Dies gilt zum Beispiel für die Dezimalstellen von π: Ein Computer kann eine Dezimalstelle von π nach der anderen berechnen und wird doch nie ans Ende der Berechnung gelangen. Obwohl π also streng genommen nicht berechenbar ist, ist es doch approximativ berechenbar. Die meisten reellen Zahlen sind jedoch nicht wie π: Sie sind nicht nur nicht berechenbar, sondern auch nicht approximativ berechenbar.

Wenn wir »erfolgreiche« Simulationen betrachten, sollten wir auch solche einschließen, die auf approximativ berechenbaren Funktionen basieren. Im Prinzip könnte auch ein Computer, der approximativ berechenbare Funktionen berechnet, mit dem (zwangsläufig unvollständigen) Ergebnis eine überzeugende Wirklichkeit hervorbringen.

Damit die Gesetze der Physik berechenbar oder auch nur approximativ berechenbar sind, muss man die traditionelle Abhängigkeit von reellen Zahlen aufgeben. Das gilt nicht nur für Raum und Zeit, die in der Regel durch Koordinaten mit Werten im Bereich der reellen Zahlen beschrieben werden, sondern auch für alle anderen mathematischen Bestandteile, die in den Gesetzen zur Anwendung kommen. Die Stärke eines elektromagnetischen Feldes darf dann beispielsweise nicht mehr beliebige Werte aus dem Bereich der reellen Zahlen annehmen, sondern dürfte nur bestimmte diskrete Werte annehmen. Entsprechendes gilt für die Wahrscheinlichkeit, dass ein Elektron sich hier oder dort befindet. Schmidhuber wies darauf hin, dass alle Berechnungen, die jemals von Physikern ausgeführt wurden, in der Manipulation diskreter Symbole bestanden (die auf Papier oder eine Wandtafel geschrieben oder in einen Computer eingegeben wurden). Obwohl sich diese wissenschaftlichen Arbeiten also angeblich immer auf die reellen Zahlen bezogen haben, war das in der Praxis nicht der Fall. Ähnliches gilt für alle jemals gemessenen physikalischen Größen. Kein Instrument verfügt über eine unendliche Genauigkeit, das heißt, unsere Messungen ergeben immer diskrete Zahlenwerte als Ergebnis. In diesem Sinn kann man den Erfolg der Physik als Erfolg eines digitalen Systems betrachten. Vielleicht sind also die eigentlichen Gesetze selbst in Wirklichkeit berechenbar (oder approximativ berechenbar).

Auf die Möglichkeit einer »digitalen Physik« gibt es viele verschiedene Sichtweisen; siehe beispielsweise Stephen Wolfram, A New Kind of Science, Champaign, Ill., 2002, und Seth Lloyd, Programming the Universe, New York 2006. Nach Ansicht des Mathematikers Roger Penrose basiert der menschliche Geist auf nicht berechenbaren Prozessen, und demnach muss es auch in dem Universum, das wir bewohnen, nicht berechenbare mathematische Funktionen geben. Siehe zum Beispiel Computerdenken, Heidelberg 2002, und Schatten des Geistes. Wege zu einer neuen Physik des Bewusstseins, Heidelberg 1995.

Kapitel 11: Die Grenzen der Forschung

1

Steven Weinberg, Die ersten drei Minuten, München 1977, S. 184.