Acht Erben
1
John Bardeen (1908–1991)
Der Unbekannte mit zwei Nobelpreisen
John Bardeen ist der einzige Physiker, der zwei Nobelpreise für das von ihm vertretene Fach der Physik bekommen hat, und die erste Auszeichnung ist ihm 1956 für die Erfi ndung bzw. Entwicklung eines elektronischen Bauelements namens Transistor zuerkannt worden. Transistoren haben eine Revolution in der Kommunikation ausgelöst – zunächst in Form der kleinen Transistorradios, die sich jeder leisten und überallhin mitnehmen konnte. Transistoren können aber mehr, und sie werden inzwischen in unvorstellbaren Stückzahlen hergestellt und massenhaft in Computer eingebaut, und dabei übertreffen sie in dieser Hinsicht jede andere von Menschen produzierte Funktionseinheit bei Weitem. Doch trotz dieses unvergleichlichen Erfolges ist der aus Madison in Wisconsin stammenden Amerikaner außerhalb der wissenschaftlich orientierten Kreise kaum jemandem bekannt, selbst in seinem Heimatland gibt es da Schwierigkeiten. Denn als Bardeen 1972 zum zweiten Mal nach Stockholm eingeladen wurde, um vom schwedischen König nochmals die goldumrahmte Urkunde (und den Scheck) für die begehrteste Auszeichnung der Wissenschaft entgegenzunehmen – diesmal für seine grundlegenden Beiträge zu einer Theorie der Eigenschaft von leitfähigen Materialien, bei tiefen Temperaturen jeglichen elektrischen Widerstand aufzugeben und einen Strom endlos und ohne jeden Verlust fl ießen zu lassen (Supraleitung) –, stellte ihn eine Zeitung seines Landes mit der Überschrift »John Who?« vor.
Die Anfänge
Die Frage nach Bardeens Person darf man seit einigen Jahren nicht mehr stellen, denn im 21. Jahrhundert gibt es nunmehr eine Biografi e des True Genius der modernen Physik – also des Wahren Genies –, in der Lillian Hoddeson und Vicke Daitch Leben und Wissenschaft von John Bardeen beschreiben. Dieser wurde knapp einhundert Jahre vor dem Erscheinen des Buches als Sohn eines Anatomieprofessors und einer Lehrerin geboren und seine überragende Intelligenz machte sich schon früh in der Schule bemerkbar. Der junge John übersprang mehrere Klassen und wurde bereits mit 15 Jahren an der in seiner Geburtsstadt gelegenen Universität von Wisconsin zum Studium der Elektrotechnik zugelassen, das er mit Vorlesungen in Physik und Mathematik ergänzte.
Das anfängliche Interesse, das Bardeen am Technischen zeigte, ist verständlich, wenn man sich erinnert, dass es in der Mitte der 1920er-Jahre große Ölfirmen wie die 1907 gegründete Gulf Oil Company waren, die das Denken nicht nur der akademischen Jugend im Mittleren Westen beeinflussten. So träumte auch der Teenager John davon, ein Ingenieur zu werden – »to be an engineer«. Nachdem er seine ersten Studien 1929 als Master of Science abgeschlossen hatte, übernahm er folgerichtig von 1930 bis 1933 eine Stelle in den Forschungslaboratorien der genannten Ölfirma in Pittsburgh (Pennsylvania), um in dieser Position Methoden zu erarbeiten und geophysikalische Zusammenhänge zu erfassen, die dem Auffi nden und Ausnutzen von neuen Ölfeldern dienen sollten.
So gut dies auch funktionierte, da gab es noch etwas anderes. Denn während dieser praktischen Jahre hatte sich immer stärker die Kunde von der neuen Physik der Quantensprünge verbreitet, die vor Kurzem in Europa verstanden worden war und allmählich Bardeen lockte. Er wechselte nach Princeton in New Jersey, um an dem dortigen berühmten Institute for Advanced Studies, an dem bis zu seinem Tod auch Einstein tätig war, eine Doktorarbeit in theoretischer Physik anzufertigen. Sein Lehrer war der aus Budapest stammende, in Fachkreisen hochgeschätzte und 1963 mit dem Nobelpreis geehrte Eugene Wigner. Er lenkte Bardeens Interesse gezielt auf die Physik von Festkörpern (vor allem von Kristallen und Metallen), die man damals unter Berücksichtigung der Quantennatur von Elektronen und Energien vorsichtig zu entwickeln begann. Bardeen versuchte in seinem ersten eigenen Beitrag, die Leitfähigkeit von Metallen mit der Quantentheorie in den rechnerischen Griff zu bekommen, und er machte dabei erste Erfahrungen mit einem theoretischen Konzept, das bald allgemein und umfassend in der Physik fester Körper eine Rolle spielen sollte.
Gemeint ist die Idee, dass Elektronen in Kristallen sogenannten Bändern zugeordnet werden können. Das heißt, die Energie, über die Elektronen verfügen, sorgt dafür, dass sie entweder beweglich sind oder an bestimmten Atomen haften bleiben. Bei Letzteren handelt es sich um diejenigen Atome, die das Gitter bilden, welches dem Festkörper seine Form gibt (bzw. welches ihn erst im Unterschied von Pulvern oder etwa Flüssigkeiten zum Festkörper macht). Bekanntlich bedingt die Existenz von Quanten, dass nicht alle Zustände erlaubt sind, es also auf der Energieskala Bereiche gibt, in denen sich kein Elektron aufhalten und somit existieren kann. Bei einzelnen Atomen führt diese Quantenbedingung zu den getrennten Bahnen des Bohr’schen Modells bzw. zu den getrennten Aufenthaltswahrscheinlichkeiten, wenn man sich ein korrekteres Bild von der Situation im Atom macht. In einem Festkörper gibt es nun aber so viele Elektronen, dass sich ihre mit den Quantenbedingungen zu vereinbarenden Bereiche überlappen. Sie verschmieren und weiten sich zu einem Band aus, wie man sagt. Dabei lässt sich ein Band mit hoher von einem Band mit geringer Energie unterscheiden, sodass sie in der Fachwelt zwei verschiedene Namen tragen, nämlich »Leitungsband« bzw. »Valenzband«.
Der erste Name ist leicht verständlich. Denn wenn sich Elektronen im sogenannten Leitungsband befi nden, können sie sich bewegen, und somit leitet der Festkörper Strom, sonst nicht. Mit dem zweiten Namen hat es Folgendes auf sich: Ein Metall (wie Kupfer) ist aus der Sicht eines Quantenphysikers dadurch charakterisiert, dass Elektronen leicht aus dem Valenzband, das ihrem gebundenen Grundzustand entspricht, in das Leitungsband, welches ihrem beweglichen angeregten Zustand entspricht, springen können. Bei einem Isolator (wie Glas) ist die Lücke für den Sprung zu groß, um unter normalen Umständen überwunden zu werden, und so halten sich die Elektronen überwiegend im Valenzband auf. Mit seinem Namen will man andeuten, dass dort viele Elektronen bereitstehen, um eventuell auf die Reise zu gehen, die sich als elektrischen Strom zeigt. Zwischen diesen beiden genannten Festkörperarten stehen die sogenannten Halbleiter, deren Name korrekt ausdrückt, was sie können, nämlich manchmal einen Strom leiten und manchmal nicht. Bei ihnen hängt die Lücke – die Größe des Quantensprungs – zwischen Leitungs- und Valenzband stark von äußeren Bedingungen (etwa der Temperatur) ab. Das wirkte zunächst eher störend, bis man bemerkte, dass diese Flexibilität im Gegenteil einen Glücksfall darstellt, der bald genutzt werden konnte – vor allem in den Transistoren, für die Bardeen seinen ersten Nobelpreis erhalten hat.
Der Weg zu Bell
Nachdem Bardeen 1936 seinen Doktortitel erwerben konnte, nahm er einen (ziemlich ruhigen) Posten als Assistenzprofessor an der Universität von Minnesota an, dem er bis 1941 treu blieb, bevor er – wie viele andere Wissenschaftler auch – für kriegswichtige Vorhaben von der US Navy nach Washington beordert wurde. Hier beschäftigte er sich unter anderem mit der Entwicklung von Minensuchgeräten, und zwar als »ziviler Physiker« in militärischen Kreisen. Bardeen erfüllte diesen Job bis 1945, und nach dem Ende des Zweiten Weltkriegs suchte und fand er eine Stelle in den Forschungslaboratorien, die eine Telefongesellschaft, die Bell Telephone Company, in New Jersey errichtet hatte. In den heute legendären Bell Labs kümmerte sich eine engagierte Gruppe von Physikern um die Erforschung von Festkörpern, und ihr schloss sich Bardeen an. Der solid state und seine Möglichkeiten hatten es ihm angetan.
Während er mit der Anfertigung seiner in Princeton eingereichten Doktorarbeit beschäftigt war, konnte Bardeen einige Zeit an der Harvard Universität verbringen und dort den aus Deutschland bzw. aus Europa vertriebenen Physikern zuhören, die man auch als Hitlers Geschenk an die freie Welt bezeichnen kann. Diese bemühten sich unter anderem darum, den 1911 entdeckten Zustand von Metallen zu verstehen, den man Supraleitung nannte, weil in ihm jeder elektrische Widerstand verschwand. Supraleitung trat in kristallinen Materialien ein, wenn sie nur hinreichend tief abgekühlt wurden, und die Physiker bissen sich bei dem Versuch, diesen Zustand von Elektronen in einem Metall zu erklären, die Zähne aus. Der aus Leipzig gefl ohene Felix Bloch hat damals in Harvard das formuliert, was man manchmal ironisch das Erste Bloch’sche Theorem nennt. Es besagt: »Jede Theorie der Supraleitung kann widerlegt werden.« Das stimmte allerdings nur so lange, bis Bardeen sich in den 1950er-Jahren an das Thema wagte.
1933 hatten zwei ebenfalls vor Hitler gefl ohene Brüder, Fritz und Heinz London, eine klassische Theorie der Supraleitung entwickelt, die in Harvard stark erörtert wurde und Bardeen imponierte. Zur Erklärung des Phänomens nahmen die Brüder unter anderem an, dass in einem Supraleiter der Strom nicht mehr proportional zu einer elektrischen Spannung ansteigt, wie das sonst der Fall ist, sondern dass das entsprechende elektrische Feld für eine zeitliche Änderung des Stroms sorgt. Fehlt solch ein Feld, kann es auch keine Änderung mehr geben, und der Strom hört nicht mehr auf zu fließen, wie es im Experiment beobachtet wird.
Noch wusste niemand, wie diese klassischen Gedanken der Brüder London mit den neuen Quantenbedingungen zu kombinieren waren, aber Bardeen erfuhr bei den Diskussionen in Harvard aus erster Hand, dass das erwähnte Konzept einer Bandlücke wesentlich sein konnte oder gar musste, wenn er auch in den späten 1930er-Jahren selbst noch wenig damit anfangen konnte. In dieser Zeit – genauer 1938 – fing er dafür etwas anderes an, nämlich mit der Gründung einer Familie. Er heiratete seine große Liebe Jane Maxwell, und die Familie wuchs bald auf fünf Mitglieder an.
Halbleiter
Bardeen begann seine Tätigkeit bei den Bell Labs im Oktober 1945. An seinem ersten Arbeitstag traf er mit dem Experimentalphysiker Walter Brattain zusammen, der dort seit 1929 beschäftigt war. Die beiden teilten sich ein Büro und verstanden sich von Anfang an gut. Ihre gemeinsame Aufgabe bestand darin, mithilfe von Halbleitern die elektronischen Effekte zu erzielen, die bislang mit Röhren zustande kamen. Röhren – das meinte Vakuumröhren, in denen durch geeignete Elemente (Kathode, Anode, Gitter) Strom fließen konnte, und zwar steuerbar. Diesen Effekt nutzte man in der Praxis, um beispielsweise Verstärker, Empfänger und mit ihnen Radiogeräte zu bauen.
Immer schon haben Leute, Wissenschaftler wie Unternehmer, nach Wegen gesucht, elektrische Signale zu blockieren oder zu verstärken, um mit den entsprechenden Schaltungen Rechen- oder Sendeanlagen zu konstruieren. In den Kindertagen des elektronischen Zeitalters wurden schwache elektrische Ströme von solchen Vakuumröhren verstärkt, die aber nicht der Weisheit letzter Schluss sein konnten, da sie nur über eine begrenzte Lebensdauer verfügten. Sie gingen überhaupt leicht kaputt und brauchten überdies viel zu viel Platz. Die Suche nach Alternativen hatte also schon früh die Aufmerksamkeit der Forscher auf Halbleiter gelenkt, die zumindest so beeinfl usst werden konnten, dass sie etwa als Gleichrichter agierten und nur Strom in eine Richtung durchließen. Dies wusste man bereits seit dem Ende des 19. Jahrhunderts. In den folgenden Jahren lernte man dann, Halbleiter nach Wunsch herzustellen – und als Bardeen bei Bell anfing, konnte man endlich auch erklären, was dabei passierte. Man nutzte das erwähnte Bändermodell der Festkörperphysik und bemühte sich, mit seiner Hilfe Situationen auszudenken und herzustellen, in denen das Leitungsband eines Halbleiters leicht oder schwer zu füllen war.
Der Halbleiter, der in Bardeens Tagen bei Bell am meisten Interesse bei ihm fand, ist als Silizium (in den Chemiebüchern mit c als Silicium) bekannt. Es findet sich zum Beispiel im Sand, der chemisch vorwiegend aus dem Stoff Siliciumdioxid besteht, welchem man in reiner Form als Quarz begegnet. Das chemische Element heißt auf Englisch silicon, und das berühmte Silicon Valley, das bei San Francisco liegt und in den 1970er-Jahren die Wiege der amerikanischen Computerindustrie wurde, trägt seinen Namen (man muss sich allerdings davor hüten, aus dem amerikanischen silicon bei einer Übersetzung das deutsche Silikon zu machen).
Wenn man sich das Silizium als Atom vorstellt, um seine Bedeutung und Einsatzfähigkeit zu erklären, kommt es auf die vier Elektronen an, die seine äußere Schale ausmachen. In einem Gitter (Kristall) aus Silizium befinden sich diese Elektronen vornehmlich im Valenzband, das weit vom Leitungsband entfernt liegt. Deswegen kommt im Normalfall kein Stromfluss zustande. Dies kann man nun entscheidend ändern, indem ein Siliziumkristall gezielt mit einem Element ausgestattet (dotiert) wird, das über fünf Außenelektronen verfügt, zum Beispiel mit Phosphor. Jedes Phosphoratom, das in das ursprüngliche Gitter aus Silizium eingebaut wird, vermag ein Elektron freizugeben. Dieser Ladungsträger kann nun das Leitungsband des Kristalls leichter erreichen, der jetzt als dotiert bezeichnet wird – in dem Fall ist Silizium mit Phosphor dotiert. Umgekehrt lässt sich auch ein Element einfügen, dass statt der vier nur drei Außenelektronen hat wie etwa Aluminium. Das führt dann dazu, dass bei dieser Dotierung eine Art Loch entsteht, das sich aber auch bewegen kann. Es verschiebt sich so, wie dies ein leerer Platz in der Mitte einer Sitzreihe tut, wenn die Menschen von außen ein- bzw. nachrücken. Wenn ein Elektron zu viel vorhanden ist, sprechen die Physiker wegen dessen negativer Ladung von einem n-dotierten Halbleiter, und wenn ein Elektron zu wenig da ist und ein Loch entsteht, ist von einem p-dotierten Halbleiter die Rede. Und wenn auch jeder einzeln für sich nicht gerade als Wunderwerk anzusehen ist, so kann man mit einer geeigneten Kombination aus n- und p-Halbleitern – pnp oder npn zum Beispiel – die Welt verändern. Der Transistor ist nämlich eine solche Kombination. Der Weg zu ihm beginnt im Oktober 1947.
Der Transistor
In diesem Monat nahmen Bardeen und Brattain bei Bell Kontakt mit einem dritten Physiker auf, dem aus London stammenden William Shockley, an dem sich bis heute die Geister scheiden. Für viele gilt Shockley als der Moses von Silicon Valley, der durch seinen unternehmerischen Geist die Grundlagen der amerikanischen Computerindustrie legte. Andere erinnern sich an seine genetischen oder besser rassistischen Eskapaden, in denen er in den 1960er-Jahren beweisen wollte, dass Afroamerikaner statistisch minder intelligent sind als Amerikaner europäischen Ursprungs.
Auf jeden Fall war es Shockley, der die Zusammenarbeit des Trios aus Bardeen, Brattain und ihm selbst zuwege brachte, die noch im Dezember 1947 zur Erfi ndung des Transistors führte. Ihr sollte neun Jahre später die Verleihung des Nobelpreises an alle drei Wissenschaftler folgen. Zwar stammt der Gedanke, einen Verstärker mithilfe des Halbleiters Silizium zu konstruieren, von Shockley, aber in seinem 1950 erschienenen Buch Electrons and Holes in Semiconductors, Elektronen und Löcher in Halbleitern, hält er im Vorwort fest, dass die eigentliche Entdeckung ohne ihn zustande gekommen sei. Sie sei allein Bardeen und Brattain zu verdanken, wobei Bardeen die zündende Idee gehabt und Brattain über das Geschick verfügt habe, sie umzusetzen. Wir wollen die Bescheidenheit anerkennen, aber zugleich anmerken, dass es mindestens einen Beitrag von Shockley gab, nämlich seinen Anfang Dezember 1947 gemachten (und gut begründeten) Vorschlag, das Silicium durch einen anderen Halbleiter namens Germanium zu ersetzen. Mit diesem Material konnten etwas robustere Anordnungen hergestellt werden, die es ermöglichten, am 16. Dezember 1947 zum ersten Mal etwas zu präsentieren, das wir heute einen Transistor nennen.
Das 1948 geprägte Wort »Transistor« vereint die beiden englischen Begriffe transfer und resistor – Übertrag und Widerstand – und bezeichnet einen Widerstand, der durch einen Strom steuerbar ist. Die einzelnen Schritte, die Bardeen und Brattain im Dezember 1947 unternahmen, und das genaue Design ihres Prototyps, der fachlich korrekt als Spitzentransistor bezeichnet wird, müssen wir an dieser Stelle leider übergehen. Sie haben viel mit der Verteilung von Ladungen an Oberflächen und ihrem theoretischen Verständnis zu tun, sodass ihre Beschreibungen zu viel Platz erfordern würde. Entstanden ist bei allem zuletzt eine Anordnung von dotierten Halbleitern in drei Schichten mit unterschiedlich dotierten Nachbarn, was entweder die Kombination pnp oder die Folge npn ergibt. Wenn alle drei Schichten Anschlüsse für elektrischen Strom haben, kann man die Schaltungen so einrichten, dass ein Signal entweder gestoppt oder verstärkt wird. Das Unterbrechen des Stroms ist einfach zu verstehen und erfolgt dann, wenn die ihn ausmachenden Elektronen auf eine n-dotierte Schicht treffen. Spannender wird es, wenn die Gegenrichtung eingeschlagen wird, dabei Elektronen auf Löcher treffen und beide sich zusammenfinden (rekombinieren) können. Hierbei kann Energie frei werden, sogar als sichtbares Licht, was in Leuchtdioden ausgenutzt wird.
Seine eigentliche (verstärkende) Funktion bekommt der Transistor, wenn etwa in einer npn-Anordnung ein kleiner Strom auf die mittlere Schicht geleitet wird. Sie wird heute als Basis bezeichnet und verbindet die anderen Elemente, die Emitter bzw. Kollektor heißen. Ein in der Basis von außen eintreffender kleiner Strom sorgt im Inneren der Schicht für räumliche Veränderungen (Rekombinationen) der Ladungsträger. Diese Rekombinationen wiederum machen sich sogleich als großer Strom auf der Strecke zwischen Emitter und Kollektor bemerkbar. In der Physik und der Technik geht es genau um das auf diese Weise verstärkte Signal. Sein Auftauchen stellte das Ziel der Arbeiten am Transistor dar. Kurz vor Weihnachten 1947 wurde es erreicht.
Supraleitung
Den bahnbrechenden Erfolg des Transistors kann man so beschreiben, wie es Hans-Joachim Braun in seinem Buch Die 101 wichtigsten Erfi ndungen der Weltgeschichte getan hat: »Ab 1955 setzte die Anwendung von Transistoren in der Rechnertechnik ein; Transistorradios machten Furore. 1958 baute der amerikanische Elektroingenieur Jack Kilby aus Halbleiterelementen einen ersten integrierten Schaltkreis, der den Weg zur Entwicklung des Mikrochips wies. Im Jahre 2002 wurden etwa [sage und schreibe] eine Trillion Transistoren produziert«, nicht nur für Computer, sondern zum Beispiel auch für Hörgeräte, die ja akustische Signale verstärken sollen und vor der Erfindung des Transistors klobig und unzuverlässig waren.
Als der oben genannte Siegeszug des Transistors startete, hatte sich Bardeen bereits umorientiert. Die Erfi ndung des Trios hatte in den Bell-Laboratorien dazu geführt, dass ein umfassendes Halbleiterprogramm gestartet wurde, zu dem Bardeen seiner Ansicht nach nicht wesentlich beitragen konnte. Er fand es an der Zeit, sich endlich mehr dem Phänomen der Supraleitung zu widmen, und dafür schien ihm eine Universität besser geeignet. 1951 verließ er deshalb seinen alten Arbeitgeber und wechselte an die Universität von Illinois in Urbana, wo er sich erneut die Gleichungen und Theorien der Brüder London vornahm, die er bei seinem Aufenthalt in Harvard kennengelernt hatte. Zwei Jahre später übernahm er die Aufgabe, für das (immer noch in Deutschland herausgegebene) Handbuch der Physik einen Übersichtsartikel über den Wissensstand zur Supraleitung zu schreiben. Während er an diesem Projekt saß, meldete sich ein junger Student bei ihm, der von Harvard nach Urbana wechseln wollte und ein Thema für eine Dissertation suchte. Sein Name war J. Robert Schrieffer. Bardeen fragte, ob er sich für die Supraleitung erwärmen könne, und so kam es, dass Schrieffer im Jahre 1972 mit nach Stockholm fahren sollte. Bardeen durfte dort erneut als Mitglied eines Forschertrios, zu dem neben Schrieffer noch Leon Cooper gehörte, seinen zweiten Nobelpreis entgegennehmen. Cooper war Mitte der 1950er-Jahre aus New York nach Urbana gekommen.
Bardeen strukturierte das heute als BCS – Bardeen, Cooper, Schrieffer – bekannte Team wie eine Familie, in der er die Rolle des väterlichen Patriarchen übernahm, der seine Kinder ermutigte, ungewöhnliche Vorschläge zu unterbreiten. Dabei tat sich besonders Cooper hervor, der eines Tages überlegte, ob es eine Wechselwirkung geben kann, die in einem Gitter Elektronen dazu bringt, ihr Einzeldasein aufzugeben und sich in festen Paaren zusammenzuschließen. Man spricht heute von Cooper-Paaren. Diese waren zwar durch einen Quantensprung von dem normalen Grundzustand getrennt, konnten aber das kollektive Phänomen des widerstandslosen Strömens erklären, wenn sie erst einmal gebildet worden waren. (Wobei an dieser Stelle angefügt werden soll, dass die Paarbildung ein Beispiel für das bei Landau vorgestellte Konzept der Symmetriebrechung ist, da die geordnete und gerichtete Bewegung von Paaren weniger symmetrisch als die homogene Einzelbewegung ist.)
Mitten in die Arbeit an der Supraleitung platzte 1956 die Nachricht von der Verleihung des Transistor-Nobelpreises an Bardeen, was ihm wenig behagte. Zum einen musste er gerade jetzt viel Zeit für andere Aufgaben verwenden, und zum anderen fand er, dass eine solch hohe Auszeichnung für ein Verständnis der Supraleitung angemessener wäre – falls sie denn gelingen würde. Bardeen hatte immer mehr das Gefühl, dass sich das BCS-Trio einer Lösung näherte, was konkret bedeutete, dass man die Umrisse der Wellenfunktion für eine angemessene Schrödinger-Gleichung, die den Grundzustand eines Supraleiters erfassen konnte, zu erkennen schien.
Anfang 1957 spielte Schrieffer nach dem Besuch einiger wissenschaftlicher Tagungen mit mehreren mathematischen Möglichkeiten, bis es plötzlich Klick machte. Da stand sie auf einmal auf dem Papier, die ersehnte Gleichung. Endlich konnten die Theoretiker beschreiben, was in Supraleitern physikalisch passieren muss, um Elektronenpaare, erstens, entstehen zu lassen (mithilfe des Gitters, das bei tiefen Temperaturen eigene Kräfte entwickelt) und, zweitens, aufrechtzuerhalten (durch eine neue Art von Statistik, die kollektive Bewegungen ohne Abschwächung erlaubt). Als sich die fertige Theorie nach einigen arbeitsintensiven Monaten allen Zweifel gewachsen zeigte und sich zudem herausstellte, dass sie Vorhersagen gestattete, die im Experiment geprüft werden konnten – etwa über den Wärmetransport in Supraleitern –, fühlte sich Bardeen auf Wolke sieben und verkündete stolz auf dem Campus: »Wir wissen jetzt, wie Supraleitung funktioniert.«
Blochs Erstes Theorem war damit widerlegt. Bardeen konnte sich ganz entspannt seinem Lieblingssport widmen und Golf spielen – und auf den zweiten Anruf aus Stockholm warten. Der kam im Oktober 1972, Bardeen war noch zu Hause. Als er sodann sein Auto holen wollte, um die frohe Botschaft persönlich an der Universität zu verbreiten, funktionierte der Garagenöffner nicht. Gerüchten zufolge soll in der Elektronik ein Transistor versagt haben.
2
John A. Wheeler (1911–2008)
Der Vater der Schwarzen Löcher
Als John Archibald Wheeler hochbetagt – fast 100-jährig – im Jahre 2008 starb, ging der letzte Physiker von uns, der noch mit Albert Einstein und Niels Bohr persönlich die Frage nach der Bedeutung der Quanten und der Natur der physikalischen Wirklichkeit diskutieren konnte. Denn von 1938 an arbeitete er fast vier Jahrzehnte an dem legendären Institute for Advanced Studies in Princeton (New Jersey), an dem auch Einstein tätig war, und im dem Jahr, in dem der Zweite Weltkrieg begann, kam auch Bohr an diese Institution. Eigentlich hatte der Däne geplant, sich möglichst ausführlich mit Einstein zu unterhalten, aber er verbrachte dann zunächst viel mehr Zeit mit dem jungen Amerikaner Wheeler, der in Florida zur Welt gekommen war, in Baltimore studiert und in seiner Doktorarbeit eine neue mathematische Methode, die sogenannte S-Matrix, in die Kernphysik eingeführt hatte. Wheeler und Bohr erörterten immer wieder die gerade in Berlin gelungene Kernspaltung und ihre energetische Deutung durch Lise Meitner. Sie modellierten dabei den Atomkern wie eine Flüssigkeit, die in Tropfenform vorliegt und wie solch ein Gebilde platzen kann. Auf diese Weise konnten sie das geeignete Uranisotop identifizieren, mit dem nach Beschuss mit langsamen Neutronen eine Kettenreaktion in Gang kommen kann, in deren Verlauf eine gigantische Menge an Atomenergie freigesetzt wird.
Man spricht bei Atomen von Isotopen, wenn es verschiedene Formen eines Elements gibt, deren Kerne zwar die gleiche Anzahl an Protonen, aber verschieden viele Neutronen enthalten. Isotope reagieren dank ihrer Elektronen chemisch gleich, sie lassen sich aber physikalisch beispielsweise durch ihre Massen trennen. Mit ihrer gemeinsamen Analyse konnten Bohr und Wheeler 1939 die theoretischen Voraussetzungen liefern, die den Weg für das bald – nach Einsteins Empfehlung an den amerikanischen Präsidenten Franklin Roosevelt – in Auftrag gegebene Manhattan-Projekt bereiteten. An dessen raschem Ende war eine Atombombe einsatzfähig und wurde über Japan abgeworfen. Während viele Physiker nach dem Zweiten Weltkrieg ihren Beitrag zum Bau der »Super«, wie sie von ihren Entwicklern genannt wurde, rückwirkend in Zweifel zogen und sich moralisch erschüttert zeigten, bedauerte der Unitarier Wheeler, der sich zu einem liberalen Christentum bekannte, etwas ganz anderes. Ihn ärgerte, dass die Atombombe erst so spät zum Einsatz gekommen war. Hätte man den Kriegsgegnern ihre dramatische Wirkung ein Jahr früher demonstriert, wäre es seiner Ansicht nach möglich gewesen, den Krieg zeitiger zu beenden und auf diese Weise Millionen von Menschenleben zu retten. Dazu muss man wissen, dass Wheeler seinen Bruder Joe schmerzlich vermisste, der noch im letzten Kriegsjahr sein Leben verloren hatte.
Verrückt
1939 war bekanntlich für die Welt allgemein ein wichtiges (negatives) Datum. Das Jahr hat es aber speziell für John Wheeler (positiv) in sich, da er damals mit Bohr eine Person traf, die ihn ungeheuer beeindruckt haben muss, wie er einmal in einem Gespräch gestanden hat: »Man kann über Buddha, Jesus, Moses oder Konfuzius wie über Menschen sprechen«, so Wheeler, »aber was mich überzeugt hat, dass es solche Figuren als Menschen tatsächlich einmal gegeben haben kann, das waren meine Gespräche mit Bohr.« Es ist schade, dass es keine Aufzeichnungen von ihnen gibt. In diesen Diskussionen muss es um all die grandiosen Verrücktheiten gegangen sein, die mit den Quantensprüngen in die Welt der Physik gekommen waren: die Lücken im Ganzen der Welt, die Unbestimmtheit der Realität, die Doppelnatur der Dinge, der Spin als unverständliche Zweiwertigkeit, die Interferenz von Teilchen mit Massen, die komplexen Funktionen für die Zustände.
Es ist anzunehmen, dass Wheeler sich an dem großen Vorbild orientierte und bemüht war, nur hinreichend verrückte Ideen zu produzieren, um etwas von der Wahrheit erhaschen zu können. Man hat ihm dies tatsächlich vorgeworfen, nämlich crazy zu sein, wie das schöne Wort in Wheelers Muttersprache lautet – eine Eigenschaft, die einen echten Forschergeist ausmacht. Je älter Wheeler wurde, desto ausgefallener wurden seine Ideen, was zwar manche zuweilen an seinem Verstand zweifeln ließ, aber von einem seiner berühmten Schüler, dem genialen Richard P. Feynman, dem wir auf dieser Treppe noch begegnen werden, entschieden zurechtgerückt wurde. »Einige Leute denken«, so Feynman, »in seinen später Jahre sei Wheeler crazy geworden. Das stimmt aber nicht. Er war immer crazy«, und das war gut so. Denn wenn man die verschiedenen Schichten von Verrücktheit, die Wheeler angeblich repräsentierte, Stück für Stück abträgt und schaut, was darunterliegt, trifft man zuletzt auf einen Kern, der eine sehr tiefe Wahrheit erkennen lässt, zu der man sonst nicht gelangen könnte – eine Wahrheit, die natürlich ihr Mysterium bewahrt.
Zu Wheelers Verrücktheiten gehört etwa sein Vorschlag, dass in dem Urknall, den George Gamow plausibel gemacht hatte, nicht nur Raum, Zeit und Materie entstanden sind, sondern auch die Naturgesetzlichkeiten selbst, die deren Qualitäten und Relationen regeln. Wheeler hielt die Frage, nach welchen Prinzipien die Bestimmungsstücke hervorgebracht worden seien, für angemessen. Ebenso aus der Reihe tanzt sein Gedanke, das als negative Lösung aus Paul Diracs Gleichung hervortretende Antiteilchen zum Elektron, das positiv geladene Positron, als ein Elektron aufzufassen, das rückwärts in der Zeit läuft. Überhaupt wollte Wheeler Abläufe zulassen, für die eine andere Zeitrichtung galt und die deshalb zum Beispiel aus der Zukunft kommen konnten – in Form sogenannter avancierter Potenziale –, um uns die physikalischen Wege dorthin ein klein wenig zu erleichtern.
War dies auch Wahnsinn, so führte er dennoch zu einer Methode, nämlich dem heute unentbehrlichen Berechnungsverfahren, das Dick Feynman später als Diagramme in die Physik einführte. Mit ihnen können sämtliche Wechselwirkungen von Elementarteilchen systematisch und für ein menschliches Gehirn handhabbar erfasst werden. Wheeler ermutigte auch seine Studenten dazu, sich möglichst abgedrehte Deutungen einfallen zu lassen, und so verwundert es nicht, dass der bis heute am meisten erörterte Gegenvorschlag zur Kopenhagener Interpretation der Quantenmechanik mit ihrer Komplementarität von einem seiner Doktoranden stammt. Hugh Everett legte in 1950erJahren das vor, was als Many Worlds View, als Vielweltensicht, bekannt geworden ist. Jede Beobachtung, so Everett, schafft durch diesen Akt eine eigene Realität, die der vorher bestehenden Wirklichkeit oder den vorher bestehenden Wirklichkeiten an die Seite tritt. So leben wir in einem Universum, zu dem es sehr viele Parallelwelten gibt – Multiversen, wie es ein ungeschicktes Wort nennt. Diese Idee kann man natürlich immer noch für zu spekulativ oder eben verrückt halten, aber sie gewinnt an Anhängern und an Plausibilität im Rahmen der modernen String-Theorie, die mit einer ungeheuren Anzahl an möglichen Vakuumzuständen operiert, welche alle im Urknall enthalten waren und befreit werden können.
Das Schwarze Loch
Wer täglich solche Verrücktheiten ernsthaft und professionell durchdenken muss, wundert sich natürlich nicht mehr, wenn jemand anmerkt, dass die Gleichungen der Physik ein apokalyptisches Ende der Welt vorhersagen. Gemeint sind die Gleichungen, mit denen Einstein den Kosmos beschreibt. Sie ermöglichen den Kollaps des ganzen Weltalls aufgrund seiner Masse. Auf diesen Tatbestand hat als Erster Robert Oppenheimer hingewiesen, als er noch mit Wheeler (und Einstein) in Princeton zusammen war. Danach ging er in die Wüste von New Mexico, um für sein Land und sein Volk das Manhattan-Projekt zu leiten.
Bleiben wir bei der Physik, dann nimmt Oppenheimers Einsicht Bezug auf die in Einsteins kosmischer Physik enthaltene (mathematische) Möglichkeit, dass dann, wenn erst einmal genügend Masse in einem wahrhaft gigantischen Stern versammelt ist, sich diese Materiemenge nicht ruhig verhält und stabil bleibt. Sie agiert vielmehr auf die seltsamste Weise und rückt unter dem Einfluss ihrer eigenen Schwerkraft enger zusammen. Erst nimmt nur die Dichte zu, wie man es aus dem Alltag kennt, wenn wir etwa einen Schneeball formen und zusammendrücken. Dann greift die Schwerkraft die Atome selbst an und presst die Elektronen in den Kern hinein. In diesem entstehen dann Neutronen, die alleine übrig bleiben und eine neue Art von Materie entstehen lassen. Sie ist später tatsächlich gefunden worden, nämlich auf den Sternen, die folgerichtig als Neutronensterne bezeichnet werden. Auf ihnen ist eine Handvoll Materie so schwer wie ein Kreuzfahrtschiff oder ein Jumbojet. Damit ist die Entwicklung aber noch nicht zu Ende, die mit der ursprünglichen Massenversammlung begonnen hat. Die Neutronen selbst können nämlich in sich zusammenstürzen, und dieses Einbrechen setzt sich fort – so Oppenheimers Mitteilung an Wheeler 1939 –, bis alles auf einen Punkt zusammenstürzt. Theoretische Physiker sagen zu diesem Punkt »Singularität«. In ihr verschwindet die ganze Masse in einem apokalyptischen Akt.
Das war zwar verrückt, aber es hatte einen methodischen Rückhalt – erst in der Mathematik und nach dem Zweiten Weltkrieg auch mehr und mehr in kosmischen Beobachtungen. Und so wurde die gerade skizzierte »gravitationsbedingt instabile stellare Materie« ein Thema, das Kosmologen und Astrophysiker lockte, die das Weltall mit Quantensprüngen anreichern, ausmessen und erfassen wollten. Das heißt, bis in die 1960er-Jahre gab es nur die Fachwelt, die über die Problematik nachdachte, aber dieser Zustand änderte sich schlagartig 1968. In diesem Jahr hielt Wheeler einen Vortrag über die Konsequenzen, die Einsteins Theorien bezüglich des Kosmos mit sich brachten. Sein Bericht fing schon sprachlich wunderbar an, als er die Allgemeine Relativitätstheorie mit folgenden Worten zusammenfasste: »Die Materie sagt der Raumzeit, wie sie sich zu krümmen hat, und die Raumzeit sagt der Materie, wie sie sich zu bewegen hat.«
Die Materie – vorausgesetzt, sie ist in ausreichender Menge vorhanden – schien sich nun auf diesen einzelnen Punkt (Singularität) zubewegen zu können, um in ihm zu verschwinden. Wheeler störte etwas an dieser Prognose. Zu den ehernen Grundsätzen seiner Wissenschaft, an denen selbst die Quantensprünge nicht vorbeikamen, gehörte die Feststellung, dass so ohne Weiteres keine Ordnung aus Unordnung entsteht und dass nur die Unordnung (das Chaos) spontan zunimmt. An dieser Stelle operieren die Physiker, anbei bemerkt, mit dem Begriff »Entropie«. Angenommen, so Wheeler, irgendwo im Universum ist die Unordnung tatsächlich gewachsen (hat die Entropie zugenommen), wie gehen wir dann mit ihr um, wenn sie in dem oben genannten Punkt verschwindet und uns mit der Singularität alleinlässt? Wenn Unordnung aus der Welt verschwindet, dann muss die Ordnung in der Welt zugenommen haben. Damit wären aber die Gesetze der Physik verletzt, wobei noch erschwerend hinzukommt, dass der Grund des Übels zugleich mit abgehauen und verschwunden ist, nämlich in den apokalyptischen Punkt. Wheeler sprach elegant von der Vernichtung von Beweismaterial. Er befürchtete, die Singularität in Einsteins Theorie würde das »perfekte Verbrechen« erlauben, und rief seine Kollegen auf, sich mehr Gedanken über die »gravitationsbedingt instabile stellare Materie« zu machen. Und als er diese verflixten vier Worte zum x-ten Mal aussprach, war er sie plötzlich leid. Er schlug vor, sie ihrer Unaussprechlichkeit wegen zu ersetzen und stattdessen von einem »schwarzen Loch« zu reden, in dem zuletzt alles verschwindet. Einer der populärsten Begriffe, eine der ansprechendsten Metaphern nicht nur der modernen Physik, sondern auch der modernen Gesellschaft war damit geboren – das Schwarze Loch. Es findet sich täglich in allen möglichen Verbindungen in den Medien. Ob nun Steuergelder in Schwarzen Löchern verschwinden oder das Gedächtnis von Politikern Schwarze Löcher aufweist, wir alle kommen mit Wheelers Wort bestens zurecht und sollten ihm dankbar sein.
RBQs
Mit seiner Frage nach dem Schwarzen Loch hatte Wheeler wie so oft seinen Finger in eine schmerzende Wunde der Physik gelegt. Wenn es diese Gebilde am Himmel tatsächlich gibt – woran in diesen Tagen die Mehrheit der Physiker nicht zweifelt, die sogar ein Schwarzes Loch im Zentrum unserer Milchstraße ausgemacht haben –, dann gibt es noch eine Menge Arbeit, um sie zu verstehen. Was ist zum Beispiel mit der Information, die in einem Schwarzen Loch verschwindet?
Wheeler versuchte, den bekannten Erhaltungssätzen der Physik, die man etwa für die Energie und den Impuls formulieren kann, einen weiteren hinzuzufügen, der die Information betrifft. Vielleicht bleibt ja die Menge an Information, die in der Natur steckt, in jedem natürlich vorkommenden Prozess mit Quantensprüngen erhalten?
Um dies besser verstehen und formulieren zu können, müsste man genauer wissen, was Information meint. Es muss jedenfalls mehr als das sein, was in einer Zeitung steht. Bei Bohr hatte Wheeler gelernt, dass wir eigentlich nicht über die Natur bzw. die Wirklichkeit sprechen, sondern über unser Wissen davon. Dieses Wissen haben wir aus den Informationen gewonnen, die wir der Natur entnommen haben – und da ist das Rätsel: Wenn wir der Natur Information entnehmen können, muss sie in ihr enthalten sein. Dies ist in einer wissenschaftlichen Beschreibung aber nicht der Fall. Da hat die Natur Masse, Energie, Ladung und manches mehr, aber keine physikalische Eigenschaft, die an das Konzept der Information anzuschließen ist.
Wheeler nutzte dies zu einer tollkühnen Spekulation, indem er fragte, ob wir überhaupt sagen könnten, dass es erst die Welt (das Etwas, das englische it) gegeben habe, der man dann Informationen, die bekanntlich in Bits gemessen werden, entnehmen kann. Wir denken, erst war it und dann kommt ein Bit (womit nicht das Bier mit diesem Namen gemeint ist, auch wenn vielleicht der eine oder andere Leser an dieser Stelle genau das wünscht). Nun fragte Wheeler, ob nicht umgekehrt »It from Bit« kommen könne, ob nicht erst eine formbildende (informative) Bewegung da gewesen sei, die dann die Welt geschaffen habe. Selbst in der Bibel war am Anfang nicht ein Etwas, sondern eine Information, nämlich das Wort Gottes, mit dem das Nichts vertrieben wurde.
»It from Bit?« – dies ist eine gute Frage, und sie stellt nur eine der fünf großen Rätsel dar, die Wheeler als die »really big questions« (RBQs), die wirklich wichtigen Fragen, bezeichnete, denen sich die Menschen zu stellen haben und dies vermutlich am besten im Rahmen der exakten und experimentierfähigen Wissenschaften. Er formulierte jede von ihnen in drei knappen Worten, was wir im Deutschen zu imitieren versuchen:
It from Bit? (Sein aus Information?)
Why the Quantum? (Warum die Quantensprünge?)
A participatory Universe? (Ein partizipatorisches Universum?)
What makes Meaning? (Wie entsteht Bedeutung?)
What makes Existence? (Woher kommt Etwas?)
Ein großes Geschenk
Wheeler stellte und erörterte diese Fragen aus der Überzeugung heraus, dass Physik nicht nur physikalische Theorien hervorbringen soll, sondern zugleich den Versuch unternehmen muss, »die physikalische Welt in einem grundlegenden Sinn mit dem Menschen zu verknüpfen«. Er war der Ansicht, dass man von der Physik, die den Kosmos und die Atome berechnen konnte, auch etwas zum Verständnis unserer Existenz selbst beitragen müsse. Er wollte immer sehen, wie die Dinge zusammenhängen, und er lud seine Studenten ein, sich darüber auch Gedanken zu machen und sie mit ihm zu erörtern. Mehr als sechzig Doktoranden und noch mehr Assistenten sind bei ihm gewesen und voller Dankbarkeit geblieben.
Als Wheeler im Juli 2001 neunzig Jahre alt wurde – er war inzwischen von Princeton nach Austin in Texas gezogen, weil die dortige Universität ihm auch nach Überschreiten der Pensionsgrenze die Möglichkeit zur Weiterarbeit gab –, haben seine Schüler ihm das größte Geschenk gemacht, mit dem man jemanden wie ihn beglücken kann. Sie haben ihm ihre Zeit und Gespräche geschenkt – Gespräche über die Wissenschaft und das, was der Wirklichkeit zugrunde liegt, was ihr Sinn verleiht und uns Zufriedenheit gibt. Wheeler bekam bei dieser Gelegenheit natürlich den Auftrag, eine kleine Rede zu halten. Er wurde gebeten, einleitend etwas über seine fünf großen Fragen zu sagen, und er ging auf zwei von ihnen ein.
Wheeler erläuterte, was sein Ausdruck »partizipatorisches Universum« meint. Er soll vermitteln, dass das Universum – das da draußen – seine Gestalt (Form) erst durch unsere Fragen und die in den Antworten enthaltenen Informationen bekommt. Wheeler erläuterte diesen Gedanken durch das Handeln eines Schiedsrichters, der beim Baseball entscheiden muss, ob der Wurf eines Pitchers zulässig ist oder nicht. Was ist der geworfene Ball, bevor der Schiedsrichter sich und ihn festlegt? Er ist nur ein Etwas, das durch die Luft saust und zunächst ohne Belang bleibt. Das Ding bekommt seine Bedeutung erst, wenn der Schiedsrichter etwas entscheidet – gültig oder ungültig. Den physischen Ball gibt es ohne den Schiedsrichter. Aber er wird erst, was er (für uns) ist, durch ihn (einen von uns). Das Baseball-Universum ist in diesem Sinne partizipatorisch – und unser Kosmos auch.
Was das geheimnisvolle und poetische It from Bit angeht, so wollte Wheeler mit dieser Frage auf die Möglichkeit hinweisen, dass alles seine Existenz durch Ja-oder-Nein-Antworten – also aus binären Möglichkeiten – bekommt, also aus Bits. Und er fügte schmunzelnd hinzu: Die Bits sind genau wie die Quanten. Sie können springen – vom Nein zum Ja. Dazwischen gibt es nichts. Oder doch?
17 und 4 als Quantenspiel
Übrigens, zur Illustration seiner Idee, dass es die Informationen sind, die eine Welt entstehen lassen, hat Wheeler vorgeschlagen, einem klassischen Gesellschaftsspiel eine Quantenform zu geben. Gemeint ist das Spiel, das in Deutschland »17 und 4« heißt und bei dem ein aus einer Gruppe gewählter (freiwilliger) Teilnehmer entweder einen Begriff wie »Kaninchen« oder »Tannenbaum« oder eine Person wie den Bundeskanzler oder einen Musiker erraten muss, auf den sich die anderen Mitspieler in der Gruppe geeinigt haben. Der Kandidat hat »17 und 4« Fragen zur Verfügung, um mit den erhaltenen Antworten die Lösung zu fi nden, die nur »Ja« oder »Nein« lauten dürfen, was alles schön binär macht.
Anstelle dieser klassischen Form hat Wheeler nun empfohlen, eine Quantenversion zu spielen. Sie ist dadurch charakterisiert, dass am Anfang nicht feststeht, was der Kandidat zu erraten hat. Vielmehr ergibt sich die Lösung – das Gesuchte – erst durch die Antworten. Es entsteht im Spiel durch die Mitspieler. Der Kandidat (das Subjekt) erschafft durch seine Fragen (in Kombination mit den Antworten) erst das Objekt, das es zu erraten bzw. erkennen gilt.
Die Quantenversion ist natürlich anstrengender als die klassische Form. Aber auch spannender. Alle müssen alle Antworten mit bedenken. Subjekt und Objekt gehören zusammen. Sie sind nicht zu trennen, ganz so, wie es die Quantensprünge wollen.
3
Carl Friedrich von Weizsäcker (1912–2007)
Physiker, Philosoph, Friedensforscher
»Ich wollte erst Lokomotivführer, dann Astronom werden. Mit zwölf Jahren das Erlebnis der Nacht des 1. August 1924: In den Sternen des Himmels ist Gott gegenwärtig, und sie sind Gaskugeln; wie gehört das zusammen? Wissenschaft und Religion waren einander begegnet. Das Problem der theoretischen Philosophie war gestellt. Mit vierzehn brachte mich Heisenberg mühelos aus der Astronomie zur Physik als der eigentlichen philosophischen Wissenschaft.«
Es ist Carl Friedrich von Weizsäcker, der hier als bereits berühmter und erfahrener Mann aus seinem überreichen Leben erzählt, das 1912 in Kiel als Sohn von Ernst von Weizsäcker, des späteren Staatssekretärs im Auswärtigen Amt, begann. In der Familie Weizsäcker gab es insgesamt vier Kinder, zu denen auch Carl Friedrichs jüngerer Bruder Richard gehört, der als CDU-Politiker einmal Bundespräsident unseres Landes war – etwas, das Carl Friedrich vor ihm hätte werden können, als die SPD unter Willy Brandt ihn 1970 als Kandidaten für dieses Amt der Bundesversammlung vorschlagen wollte, was er aber dankend ablehnte.
Wir gehen an den Anfang zurück und lesen in dem biografischen Text weiter, in dem etwas später an anderer Stelle genauer zu erfahren ist, was es mit dem jugendlichen Erlebnis der Nacht auf sich hatte: »Zu meinem 12. Geburtstag, im Juni 1924, wünschte ich mir eine drehbare, also auf Tag und Stunde einstellbare Sternkarte. Mit meiner Karte entwich ich von den Menschen in die warme, wunderbare Sternennacht, ganz allein. Das Erlebnis einer solchen Nacht kann man in Worten nicht wiedergeben, wohl aber den Gedanken, der in mir aufstieg, als das Erlebnis abklang. In der unaussprechlichen Herrlichkeit des Sternenhimmels war irgendwie Gott gegenwärtig. Zugleich aber wusste ich, dass die Sterne Gaskugeln sind, aus Atomen bestehend, die den Gesetzen der Physik genügten. Die Spannung zwischen diesen beiden Wahrheiten kann nicht unauflöslich sein. Wie aber kann man sie lösen? Wäre es möglich, auch in den Gesetzen der Physik einen Abglanz Gottes zu fi nden?«
Der Physiker
Mit diesen Worten weist der 64-jährige Carl Friedrich von Weizsäcker im Jahre 1976 – also 51 Jahre nach dem geschilderten Festtag – in seinem Text Selbstdarstellung auf die beiden Pole der menschlichen Erfahrung hin, zwischen denen er sich im Denken orientiert: das religiöse Erleben, das dem Menschen etwas bedeutet, und das naturwissenschaftliche Fragen, das dem Menschen etwas mitteilt und über deren Beantwortung man sich einigen kann. Beide sind dabei mit einem ungeheuren Staunen verbunden. Die Spannung zwischen diesen beiden Eckpunkten hatte in der Mitte der 1920er-Jahre gerade eine völlig neue Dimension bekommen und ist vor allem mit dem Namen des Physikers Werner Heisenberg verbunden, bei dem von Weizsäcker 1933 an der Universität Leipzig promovieren konnte. Heisenberg hatte 1927 als gerade einmal 26-Jähriger die Eigenschaften der atomaren Wirklichkeit erkannt, die heute durch das Wort »Unbestimmtheit« zwar populär geworden, aber geheimnisvoll geblieben sind. Der noch nicht 15-jährige Teenager von Weizsäcker lebte damals in Berlin, als Heisenberg hier Station machte und dem Knaben Carl Friedrich (wahrscheinlich in kurzen Hosen) auf einer Taxifahrt die verrückt klingende Vermutung mitteilte: »Ich glaub’, ich hab’ das Kausalgesetz widerlegt.« Von Weizsäcker berichtet von dieser Begegnung in seinem Buch Wahrnehmung der Neuzeit und verrät auch, welche maßgebliche Empfehlung ihm Heisenberg mit auf den Lebensweg gegeben hat: »Physik ist ein ehrliches Handwerk; erst wenn du das gelernt hast, darfst du darüber philosophieren.«
Von Weizsäcker hat sich daran gehalten und nicht nur ordentlich zur Physik beigetragen, sondern sogar seinen Namen in ihren Annalen verewigen können, was im Anblick der Ungnade seiner späten Geburt erstaunlich ist. Mit dem Ausdruck »späte Geburt« meinte man damals, dass alle diejenigen Physiker, die ein paar Jahre oder gar ein ganzes Jahrzehnt nach Wolfgang Pauli oder Werner Heisenberg zur Welt gekommen sind, feststellen mussten, dass es am Ende ihrer Studien schon eine neue Physik gab, deren grundlegende Gesetze alle schon entdeckt oder erfunden worden waren – eben von den anderen, die das Glück hatten, etwas früher auf die Welt gekommen zu sein. Trotzdem ist dem jungen von Weizsäcker noch ein nobelpreisverdächtiger Beitrag zur Physik gelungen, und zwar zusammen mit dem Physiker Hans Bethe (der die begehrte Auszeichnung aus Stockholm später für andere Arbeiten bekommen hat). Die Fachwelt spricht heute vom Bethe-Weizsäcker-Zyklus und meint damit die von den beiden erkannte kreisförmig verlaufende Reaktion, in der die drei Elemente Kohlenstoff, Stickstoff und Sauerstoff (und ihre Isotope) ihre Bauteile immer wieder umlagern und sich so gegenseitig hervorbringen; dabei produzieren sie energiereiche Strahlung und geben zugleich auch Wasserstoffen die Gelegenheit, zum Element Helium zu fusionieren. Der Bethe-Weizsäcker-Zyklus erklärt auf diese Weise, woher zum Beispiel die Sonne ihre Energie bezieht – nämlich aus einer kontinuierlich betriebenen und schön rund laufenden Kernfusion.
Es gibt übrigens eine Anekdote, die von dem verliebten Carl Friedrich erzählt, der mit einem Mädchen an einem schönen Sommertag auf der Wiese sitzt. »Scheint die Sonne nicht herrlich?«, schwärmt sein Schatz. »Ja«, soll er schmunzelnd und stolz geantwortet haben, »und ich bin der Einzige, der weiß, wie sie das macht.«
Der Philosoph
Mitte der 1930er-Jahre arbeitet von Weizsäcker, nachdem er sich in Berlin als Physiker habilitiert hat, als Assistent bei Lise Meitner, die Uran mit Neutronen beschießt, ohne zunächst zu bemerken, was passiert, wenn Kerne dabei getroffen werden. 1937, noch vor dem Ereignis der Entdeckung der Kernspaltung, legt von Weizsäcker sein Buch Die Atomkerne vor. Dabei handelt es sich um sein erstes und letztes Buch über die Physik selbst, denn immer mehr bedrängen und beschäftigen ihn andere Fragen – politische und philosophische.
In den kommenden Jahren denkt er intensiv über die Deutung bzw. Bedeutung der Quantenmechanik nach, und mitten im Krieg (1943) publiziert er in einem Leipziger Verlag seine Überlegungen Zum Weltbild der Physik. Es beginnt mit folgenden Sätzen: »Vor einigen Jahrzehnten besaß die Physik ein geschlossenes Weltbild. Es bot einen Rahmen, in den alle bekannten physikalischen Erscheinungen passten. Es übte als Vorbild eines wissenschaftlichen Weltbildes einen entscheidenden Einfluss auf alle anderen Wissenschaften aus. Bis in die großen Fragen der Weltanschauung hinein erstreckten sich seine Wirkungen und halfen das geistige Gesicht der Zeit zu prägen. Heute besteht dieses Weltbild nicht mehr.« Um es genauer zu sagen, es besteht nicht mehr als die einheitliche Sicht, welche die alte klassische Physik zu bieten hatte und die zum Beispiel Immanuel Kant veranlasst hat, seine Kritik der reinen Vernunft zu schreiben. Von Weizsäckers Überlegungen Zum Weltbild der [neuen] Physik werden zum Glück bis heute aufgelegt. Wer sich für den Autor und sein verführerisches Vermögen, Physik und Philosophie zusammen zu denken und das Wissenschaftliche im menschlichen Streben nach Klarheit darzustellen, interessiert, der wird hier eine Goldgrube fi nden. Nie sind die beiden Geistesdisziplinen – nach dem Vorbild Bohrs betrachtet er sie als komplementär – so eng und authentisch miteinander verwoben worden wie in diesem Buch. Und nirgendwo zeigt sich besser, warum es berechtigt und notwendig ist, von Weizsäcker als Physiker und Philosophen vorzustellen. Das wunderbare Werk des gerade einmal 30-Jährigen endet mit der Erwartung, dass eines Tages »vielleicht ein neuer Mensch die Augen öffnen und sich mit Erstaunen einer neuen Natur gegenübersehen« wird, was wir nicht weiter kommentieren und nur als Angebot an unsere Zeit vorlegen wollen.
Dem Weltbild der Physik folgen nach dem Weltkrieg weitere große Werke. Gemeint sind Die Einheit der Natur von 1971 und der Aufbau der Physik von 1985. Im hohen Alter hat von Weizsäcker in einem abschließenden Spätwerk mit dem Titel Zeit und Wissen (1992) versucht, eine Rekonstruktion der Physik zu geben, die er – ganz im Sinne von Niels Bohr – nicht als Beschreibung der Natur auffasst, sondern als Beschreibung dessen, was Menschen von der Natur wissen. Der Bogen, den von Weizsäcker dabei zu schlagen versucht, reicht vom Anfang der abendländischen Metaphysik, der durch den Satz des Parmenides, demzufolge Wissen und Sein dasselbe sind, charakterisiert ist, bis zum gegenwärtigen Ende dieses Denkens, welches durch eine Frage von Martin Heidegger markiert wird: »Offenbart sich die Zeit selbst im Horizont des Seins?«
Man konnte und kann nur die Vielfalt der Themen bewundern, die von Weizsäcker etwa in Die Einheit der Natur nicht nur anspricht, sondern bereichert. Es geht ihm neben der Wissenschaft selbst um eine Philosophie der Sprache. Er entwickelt ein Verständnis der Zeit und ihrer Richtung und liefert eine Deutung der Information sowie eine Bewertung der neuen Wissenschaft namens Kybernetik. Und damit haben wir nur einige wenige Aspekte seines Gedankenreichtums genannt. Von Weizsäcker formuliert seine Einsichten stets elegant und einprägsam zugleich. Für das Verständnis der Information schlägt er zum Beispiel zwei grandiose, grundlegende Thesen vor, die ein langes Nachdenken lohnen und belohnen: »Information ist, was jemand versteht«, und diesem ersten fügt er einen zweiten Satz hinzu: »Information ist, was Information erzeugt.«
Von der Verantwortung
Mit solchen Arbeiten bewegt sich von Weizsäcker in der Bundesrepublik der Nachkriegsjahre immer weiter von der Naturwissenschaft Physik weg und auf die Geisteswissenschaft Philosophie zu. Auch wenn er nach 1945 zunächst noch eine Abteilung des Max-Planck-Instituts für Physik in Göttingen übernommen hat, besonders glücklich oder produktiv geworden ist er dabei nicht. Seine akademischen Ziele liegen woanders, und eines erreicht er 1957, als ihn die Universität Hamburg auf den Lehrstuhl für Philosophie beruft. Hier kann er sich nicht nur zahlreichen wissenschaftstheoretischen Fragen in Hinblick auf den Gang der Wissenschaft widmen. Er kann sich darüber hinaus als Philosoph den Fragen nach der Verantwortung des Forschers zuwenden, die ihn ganz sicher persönlich beschäftigen. Immerhin haben er und sein Lehrer Heisenberg während des Dritten Reichs in einem sogenannten Uranverein über die praktischen Folgen der von Otto Hahn in Berlin entdeckten Kernspaltung nachgedacht. Dabei ging es um den Bau von Kernwaffen, und zwar für Hitler.
Von Weizsäcker hat nach 1945 gerne die Formel benutzt, er sei »nur durch göttliche Gnade« vor der Versuchung bewahrt worden, eine deutsche Atombombe zu bauen. Viele Zeitgenossen haben ihm geglaubt und würden dies auch bereitwillig weiterhin tun. Aber es gibt inzwischen Hinweise, dass von Weizsäcker nicht so friedlich und harmlos gewesen ist, wie er es nach 1945 dargestellt – oder sollten wir sagen: uns weisgemacht – hat. Er scheint im Uranverein nicht nur physikalisch, sondern auch politisch gedacht und die illusionäre Hoffnung gehabt zu haben, mit der neuen Waffe den »Führer« zu führen. Er war es nämlich, der Heisenberg 1941 überredet hat, in das von deutschen Truppen besetzte Kopenhagen zu fahren, um mit Bohr über die Möglichkeit von Atomwaffen zu sprechen, wobei das ganze Unternehmen vermutlich von der Gestapo verfolgt wurde. Und im Sommer desselben Jahres, während deutsche Panzer Richtung Moskau rollten, hat von Weizsäcker ein unheilvolles Patent für ein »Verfahren zur explosiven Erzeugung von Energie und Neutronen, z.B. in einer Bombe« angemeldet, wie es inzwischen sogar im Nachrichtenmagazin Der Spiegel zu lesen war (Ausgabe 11/2010, S. 72). Leider haben wir von dieser 1990 in Moskau entdeckten Patentschrift zu allgemeinem großen Bedauern nicht von ihm selbst erfahren. Das legt die Vermutung nahe, dass der große Philosoph uns womöglich jahrzehntelang hinters Licht geführt hat.
Von Weizsäcker selbst hat 1980 in einem Vortrag versucht, »Rechenschaft über die eigene Rolle« abzugeben, die er bei der Entwicklung sowohl der Kernphysik als auch der Atombombe gespielt hat. Die zentralen Sätze lauten, dass er nur wegen einer Einsicht diese Rede halte, und dies sei »eine moralische Einsicht«, der er sich nicht habe entziehen können. Sie heißt: »Die Wissenschaft ist für ihre Folgen verantwortlich.« Vermutlich hat dieser Satz den Beifall des Publikums gefunden, aber es könnte sein, dass von Weizsäcker genau das wollte und kaum etwas anderes im Sinn hatte. Mit dem Satz entlässt er nämlich die Öffentlichkeit – also uns – aus der Verantwortung, und gaukelt uns vor, das ganze Problem alleine schultern zu können. Wir dürfen uns somit beruhigt zurücklehnen und auf die Wissenschaft schimpfen, schließlich war sie es (und nicht wir), die mit dem Feuer gespielt hat. Das Einzige, was uns zu tun bleibt, ist dem Philosophen zu applaudieren, dem wir spätestens seit diesen seinen Worten zutrauen, stets verantwortlich gehandelt zu haben. So möchte von Weizsäcker von uns gesehen werden, und so haben wir ihn jahrzehntelang gesehen. Aber hat er auch so gehandelt? Wir haben Zweifel, und sie wachsen.
Die Kernspaltung
Der junge von Weizsäcker verbrachte seine Tage in den Laboratorien in Berlin, in denen Otto Hahn 1938 die Urankerne gespalten hat. Die beiden haben sich laut von Weizsäcker unmittelbar nach dem wissenschaftlichen Erfolg unterhalten. Hahn befürchtete, dass seine Entdeckung »sehr bald weltweit bekannt sein würde«, was deshalb schlimm sei, weil dieser Vorgang zur »Freisetzung der Kernenergie« und deren »Verwendung als Waffe« führen kann – einer Waffe, »die allen bisherigen weit überlegen sein würde. Hahn erschrak zutiefst über die Gefahr, dass Hitler solche Waffen in die Hand bekäme«, wie von Weizsäcker schreibt und worüber man sich wundern darf. Und zwar deshalb, weil ohne die Erklärung, die Lise Meitner und ihr Neffe Otto Robert Frisch erst später in Schweden für Hahns Beobachtungen geliefert haben, nichts von einer »Freisetzung der Kernenergie« bekannt war. Hahn jedenfalls verstand nichts von alldem. Das musste sich somit der junge von Weizsäcker selbst ausgedacht haben, der 1938 gerade einmal 26 Jahre alt war. Und deshalb erstaunt umso mehr, was er nach der Berliner Begegnung mit Hahn zu Papier bringt und als Brief an den Philosophen Georg Picht schickt: »1. Wenn Atomwaffen möglich sind, wird es jemanden auf der Erde geben, der sie baut. 2. Wenn Atomwaffen gebaut sind, wird es jemanden auf der Erde geben, der sie kriegerisch einsetzt. 3. Also wird die Menschheit wohl nur die moderne Technik überleben können, wenn es gelingt, die Institution des Krieges zu überwinden.« Das heißt doch wohl, dass von Weizsäcker an den Experimenten mit Uran nicht weiter interessiert war, sofern sie auf ein tieferes physikalisches Verständnis der Struktur von Atomen hinausliefen. Sein Augenmerk lag, dem Schreiben nach zu urteilen, eindeutig auf dem politischen Aspekt.
Er sah sich auf dem Weg zur Atombombe, was er diplomatisch nutzen wollte – unabhängig von den Machtverhältnissen.
Der Friedensforscher
Konzentrieren wir uns auf den letzten Satz des obigen Zitats: »Die Institution des Krieges überwinden« – mit diesem Gedanken treffen wir schon früh auf ein Leitmotiv, das sich durch von Weizsäckers Leben zieht. Er benutzt die Wendung in seinen Briefen immer wieder – etwa wenn er im Sommer 1987 als »sehr ergebener« von Weizsäcker dem »sehr geehrten Herrn Staatsvorsitzenden« Erich Honecker erklärt, »dass bei der bestehenden Struktur der Menschheit« der Bau von Atomwaffen »praktisch nicht würde verhindert werden könne[n]« und »auf die Dauer die Überwindung der Institution des Krieges als die einzige Lösung zu sehen« sei. Das Thema bleibt uns bis zuletzt erhalten, wenn von Weizsäcker im Juli 1995 dem französischen Präsidenten Jacques Chirac nicht nur darlegt, warum sein Land auf die geplanten Atomwaffenversuche im Pazifi k verzichten solle, sondern auch, worum es allgemein geht: »1. Wenn Atombomben möglich sind, so wird es in der heutigen Menschheit jemanden geben, der sie herstellt. 2. Wenn Atombomben hergestellt sind, so wird es in der heutigen Menschheit jemanden geben, der sie militärisch einsetzt. 3. Die Atombombe ist ein Weckersignal; sie ist das deutlichste Beispiel moderner Waffentechnik. Der Menschheit wird damit auf die Dauer nur die Wahl bleiben, entweder die Institution des Kriegs zu überwinden oder sich selbst zugrunde zu richten.«
Leider erfahren wir nicht und nirgendwo im Ansatz, wie von Weizsäcker diese Institution überwinden will und wie sie überhaupt eingerichtet wurde. Und so wirkt von Weizsäckers dritte Karriere, die des Friedensforschers, eher schal, unehrlich und aufgesetzt.
Sie beginnt auf dem Hamburger Lehrstuhl für Philosophie, auf dem er 1957 die Göttinger Erklärung gegen die Ausrüstung der Bundeswehr mit taktischen Atomwaffen formuliert. 1961 initiiert er ein Tübinger Memorandum, das sich gegen die atomare Aufrüstung wendet und für eine Anerkennung der Oder-Neiße-Grenze plädiert. Seine Appelle finden vor allem Gehör, seit ihm 1963 der Friedenspreis des Deutschen Buchhandels verliehen worden ist und er in der Dankesrede eine Weltinnenpolitik fordert, um die es heute erneut geht – allerdings unter dem geschwollenen Namen »Global Governance«. Von Weizsäckers öffentlicher Ruhm steigt und steigt. Kein Hörsaal ist groß genug, um die Menschen zu fassen, die seine Vorlesungen hören wollen. Diese beinhalten vor einem philosophisch-physikalischen Hintergrund insbesondere Vorschläge für Friedensaktivitäten, durchleuchten die Ernährungslage der Welt, plädieren für die Gründung sowohl einer »Forschungsstelle für Kriegsverhütung« als auch einer »Forschungsstelle für westliche Wissenschaft und östliche Weisheit« und stimmen uns auf einen »Garten des Menschlichen« ein.
1970 richtet die Max-Planck-Gesellschaft am Starnberger See für von Weizsäcker ein Institut zur Erforschung der Lebensbedingungen in der technischwissenschaftlichen Welt ein, in dem er Themen wie die Gefahr von Atomkriegen, die Umweltzerstörung und den schwelenden Nord-Süd-Konfl ikt erkundet. 1980 tritt er in den Ruhestand, der bei ihm eher als Unruhestand zu bezeichnen ist, weil er sich nach der Emeritierung als Vertreter eines »radikalen Pazifi smus« präsentiert, was ihm als »das christlich einzig Mögliche« erscheint. So versucht er mit seiner Autorität in ungezählten Vorträgen und Aufsätzen bei den Menschen einen »Bewusstseinswandel« in die Wege zu leiten und unternimmt diese Anstrengung unter dem Motto: »Nicht Optimismus, aber Hoffnung habe ich zu bieten.«
Seine politischen Bücher zum Frieden werden vielfach Bestseller – etwa Der Weltfriede als Lebensbedingung des technischen Zeitalters (1969), Der ungesicherte Friede (1975) und Der bedrohte Friede (1981), um nur einige Titel zu nennen. Von Weizsäcker kommt in diesen Texten immer wieder auf die Institution des Krieges zu sprechen, die als unvermeidlich hinzunehmen, er sich weigert. Doch wie es den Menschen gelingen kann, diese elende Institution abzuschaffen, wissen wir, wie gesagt, bis heute nicht. Aber wir wissen vieles bis heute nicht – und vielleicht ist es besser so.
4
David Bohm (1917–1992)
Die implizite Ordnung des Ganzen
David Bohm wurde als Sohn eines jüdischen Möbelhändlers in einem kleinen Dorf in Pennsylvania geboren. Als Kind interessierte er sich sehr für die Sterne und als Jugendlicher hat er, wenn er gerade keine Science-Fiction-Bücher verschlang, eine Teekanne erfunden, die nicht tropft.
Als Bohm in den 1930er-Jahren unter anderem bei Robert Oppenheimer Physik studierte, engagierten sich dessen Studenten noch in pazifistischen und kommunistischen Zirkeln, was für Bohm mehrere Konsequenzen hatte. Zunächst verwehrten ihm die Behörden die Unbedenklichkeitseinstufung und damit die Beteiligung am Manhattan-Projekt, und nach 1950 bekam er Schwierigkeiten mit berüchtigten US-Politikern – allen voran Senator McCarthy –, die »unamerikanischen Umtrieben« auf der Spur waren, womit sie die Kommunisten oder deren Sympathisanten meinten. Bohm verweigerte jede Zusammenarbeit mit solchen Ideologen, was heißt, dass er es strikt ablehnte, über Kollegen zu sprechen, um sie möglicherweise zu denunzieren. Sein standhaftes Verhalten hatte zur Folge, dass er keine Anstellung in den USA fand. So ging er erst nach Brasilien, dann nach Israel (wo er in Haifa seine Frau Sara traf) und zuletzt nach England, wo er 1961 einen Arbeitsplatz am Birkbeck College in London fand, dem er bis zu seiner Emeritierung 1987 gedient hat. Bohm ist dann auch in London gestorben.
Die Teile und das Ganze
Dass Bohm alleine wegen seiner aufrechten politischen Haltung die USA verlassen musste, konnte auch sein berühmter Freund und Fürsprecher Albert Einstein nicht verhindern. Einstein hielt nicht nur aus politischen, sondern auch aus wissenschaftlichen Gründen zu (und viel von) Bohm. Beide bewerteten sie die traditionelle Deutung der Quantenmechanik, die Kopenhagener Interpretation, ähnlich skeptisch. So trafen sie sich viele Monate lang, um an ihrem eigenen Verständnis der Quantensprünge zu feilen. Als Folge dieser Dialoge bildete sich in Bohm immer deutlicher das Konzept heraus, das er in einem Buchtitel einmal als Die implizite Ordnung bezeichnet hat.
Bevor wir darauf eingehen können, muss noch erwähnt werden, was Bohm vor seiner Kooperation mit Einstein gemacht hat, nämlich Versuche unternommen, die Physik des Plasmas zu verstehen. Unter einem Plasma verstehen Physiker einen Zustand, in dem Materie so heiß wie eine leuchtende Flamme und so klebrig wie gekneteter Pizzateig ist und in dem es keine Atome, wohl aber die dazugehörigen geladenen Teilchen wie zum Beispiel die Elektronen gibt. Wer schon einmal unsere Sonne in Nahaufnahme gesehen und dabei die Bewegungen ihrer viele Tausend Grad heißen Oberfläche bemerkt hat, die an das Auf und Ab von Wellen auf einem Ozean erinnern, kann sich grob ein Plasma vorstellen. Bohm wollte wissen, was die Elektronen in solch einer Umgebung machen, und zu seiner Überraschung stellte er fest, dass sie dort aufhören, sich wie individuelle Teilchen zu benehmen. In seinen Experimenten gingen sie vielmehr dazu über, sich so verhalten, als ob sie so etwas wie ein großes Ganzes oder ein dicht vernetztes oder verwobenes Gemenge geworden wären. Technisch sagen die Physiker, dass Bohm mit seinen Überlegungen die sogenannte Vielkörpertheorie (Many Body Theory) auf den Weg gebracht hat. Und tatsächlich bedarf es eigener (statistischer) Methoden, um von dem einen Elektron, welches die Grundgleichungen der Quantenmechanik beschreiben, zu den vielen zu kommen, die im Plasma miteinander in Wechselwirkung treten. Sie tun dies aber nicht so, dass sie sich durch ihre Ladung abstoßen, sondern so, dass sie sich umgekehrt zu einem Verbund – zu einem verbundenen Ganzen – zusammenfinden. Dabei kam es Bohm, wie er einmal im Alter verraten hat, immer so vor, als ob der Elektronenschwarm, der dabei zustande kommt, etwas Lebendiges an sich habe. Ja, es schien ihm, als ob er so etwas wie ein sich in die Welt ausweitender Organismus sei, der eindeutig aus Teilen besteht – aus Händen, Füßen, Ohren und anderen Gebilden – und zweifellos nur als Ganzes agieren und sich bewegen kann.
Als theoretischer Physiker entdeckte Bohm zwei heute nach ihm benannte Effekte, die mit Magnetfeldern zusammenhängen. Erstens, es kommt zu einer Bewegung des Plasmas (Diffusion), wenn es sich in einem Magnetfeld befi ndet. Man spricht heute dabei von der Bohm-Diffusion, die keine konzeptionellen Folgen zeitigt. Zweitens, ein Magnetfeld kann den merkwürdigen (spezifi sch quantenmechanischen) Vorgang beeinflussen, bei dem Elektronen miteinander interferieren, wie Wellen es tun. Und das Verwunderliche an dieser in der Literatur als Aharonov-Bohm-Effekt bekannten Quantenbesonderheit besteht darin, dass sie nicht auf das (reale) Magnetfeld selbst zurückgeführt werden kann, sondern auf eine nicht messbare (unwirkliche) Größe, die Physiker in ihre Theorien eingeführt haben, um die mathematische Schreibweise zu vereinfachen. Sie nennen diesen irrealen Teil der Theorie »Vektorpotenzial« und leiten das (reale) Feld davon ab. Ein solcher Schritt in fast transzendente Sphären musste gedanklich deshalb unternommen werden, weil sich der Aharonov-Bohm-Effekt im konkreten Versuch auch dann noch zeigt, wenn das Magnetfeld längst verschwunden ist, das heißt, wenn seine Stärke den Wert null erreicht hat und auf den Messgeräten nichts mehr angezeigt wird (was aber nicht bedeutet, dass da nicht doch noch etwas sein könnte).
Auch wenn dies nur wie eine hilfl os wirkende Formulierung erscheint, hier zeigt die Natur offenbar, was Bohm einen »dynamischen Holismus« nennt. Die Natur agiert als ein Ganzes, bei dem auch Dimensionen mitspielen, die uns zwar physisch, aber nicht psychisch (spirituell) verschlossen bleiben. Diese Besonderheit begegnet uns bereits in der Urform der Quantenmechanik selbst, die ja imaginäre Größen benötigt, um formuliert werden zu können. Sie muss dadurch die Wirklichkeit verlassen und aus ihr heraustreten, um sie dann aus unwirklichen Dimensionen in den Blick oder den Griff zu bekommen.
Gegen die Orthodoxie
Je länger Bohm sich mit den Quanten beschäftigte, und je mehr er über ihre physikalischen Wirkungen und philosophischen Deutungen nachdachte, desto mehr faszinierte ihn das Thema. Zugleich aber wurde er immer unzufriedener mit den bisherigen Grundannahmen, zu denen etwa die Unbestimmtheit gehört, die auf Werner Heisenberg zurückgeht und mit der bestritten wird, dass es so etwas wie eine objektive Existenz von Elektronen oder Photonen gibt. Bohm wollte auch nichts davon hören, dass die Quantenphysiker Objektivität nur beim Zufall zulassen, nämlich dann, wenn sie zum Beispiel ein Photon auf einen halbversilberten Spiegel lenken, der es mit jeweils 50-prozentiger Wahrscheinlichkeit durchlässt oder reflektiert. Zwar kann und wird sich das Lichtteilchen in die eine oder andere Richtung bewegen, aber es gibt keine ersichtliche Ursache (Kausalität), die dies übernimmt und festlegt. »Es passiert einfach«, sagten die Vertreter der orthodoxen Quantenphysik, und Bohm hielt das wie Einstein für zu wenig, zu billig oder gar zu dumm. Er vermutete tiefere, vielleicht verborgene Ursachen hinter den Dingen, die es zu erkunden galt. Deshalb dachte er darüber nach, wie man sie zu fassen bekommen könnte.
Zunächst fragte sich Bohm, ob es überhaupt sinnvoll und womöglich sogar falsch sei, Elektronen als einfache (d.h. nicht zusammengesetzte) und strukturlose Gebilde zu betrachten. Er schlug stattdessen vor, die Träger der negativen Elementarladung als komplexe und dynamische Einheiten zu sehen, in denen ja immerhin Masse, Elektrizität, Spin und was sonst noch verpackt sein mussten – und zwar jede Eigenschaft schön einzeln und für sich. Und wenn sich solch ein kleines Ganzes in der Welt umherbewegt, dann bleibt nicht unbestimmt, was es tut. Es folgt vielmehr einer nachvollziehbaren »Bahn«, nur dass deren Aussehen nicht mehr nur – wie in der klassischen Physik – durch konventionelle Kräfte bestimmt wird. Jetzt wirken insbesondere »Quantenpotenziale« mit in den Ablauf hinein. Diese sind so angelegt, dass sie dem sich bewegenden Elektron, so Bohm, »aktive Informationen« über das Umfeld vermitteln, in dem es unterwegs ist.
Zur Erläuterung seiner Idee einer »aktiven Information« bietet Bohm die Analogie eines Schiffes, das durch Radarsignale gesteuert wird. Das Radar verfügt über alle relevanten Informationen aus der Umgebung und leitet das Schiff, indem es seiner Bewegung die geeignete Richtung und Schnelligkeit gibt. Das (rein physikalische) Vorwärtskommen selbst wird durch die Motoren im Maschinenraum ermöglicht, aber diese kausale Kraftquelle bleibt ohne Radar uninformiert. Sie allein erlaubt es einem außenstehenden Beobachter nicht, die Bahn des Schiffes nachzuvollziehen oder gar zu berechnen.
Bohms Überlegungen wurden lange Zeit als nicht uninteressant, aber letztlich ohne Belang verstanden. Sie schienen mehr von Metaphysik als von der Physik selbst zu handeln. Doch dies änderte sich in den 1980er-Jahren, als Experimente zeigten, dass es offenbar eine merkwürdige Verschränktheit der Quantenwelt gibt, die genau auf das Ganze hinweist, auf das Bohms Denken letztlich hinauswollte. Wir werden diese Entwicklung genauer kennenlernen, wenn wir den Schotten John Bell treffen, der mehr oder weniger direkt für diesen Aspekt der Quantenwirklichkeit und seine Aufdeckung zuständig ist. Auf jeden Fall hat Bohms Bemühen um eine zugleich ordentliche und unorthodoxe Deutung der Quantensprünge dadurch neuen Auftrieb erfahren.
Die implizite Ordnung
In den 1960er-Jahren dachte Bohm vermehrt über das Konzept nach, das wir gewöhnlich als Ordnung bezeichnen und an dem viele Teile beteiligt sind.
Eines Tages fiel ihm ein merkwürdiges Gerät auf. Es bestand aus zwei konzentrischen Glaszylindern, und der Raum zwischen ihnen war mit Glyzerin ausgefüllt, also mit einer hoch viskosen (zäh fließenden) Flüssigkeit. Wenn man nun einen Tintentropfen in das Glyzerin einbringt und den äußeren Zylinder umdreht, sorgen klassische physikalische Kräfte dafür, dass der ursprüngliche Tropfen in die Länge gezogen und zu einem Faden wird. Er wird lang und länger, bis man ihn nicht mehr sehen kann. Wird nun der Zylinder in die Gegenrichtung umgedreht, erscheint bald erneut ein sichtbarer Faden, der rasch an Dicke zunimmt und zuletzt wieder zu dem Tropfen wird, mit dem alles angefangen hat.
Bohm deutete dieses Geschehen dadurch, dass er sagte, der Tintentropfen, der ins Glyzerin gelangt ist und dort diffundiert, habe in seinen Teilen (den Tintenmolekülen) eine verborgene Ordnung behalten, die sich zwar nicht (so ohne Weiteres) sichtbar manifestiere, aber keinesfalls als ein Zustand von Unordnung oder Ordnungslosigkeit zu verstehen sei. Bohms Ansicht nach sind alle separaten Objekte, Strukturen, Gebilde und Ereignisse Auswirkungen einer tieferen und ungebrochenen Ganzheit, deren Ordnung er mit dem Attribut »implizit« charakterisierte (und die im Fall des Tintentropfens und seiner Moleküle auf physikalisch-chemischen Wechselwirkungen beruhen wird).
Um den Ausdruck »implizit« zu verstehen, empfi ehlt es sich an Sätze zu denken, die eine implizite und explizite Bedeutung haben. »Ich fahre gerade von Konstanz nach München« hat die explizite Bedeutung, dass ich irgendwo zwischen den beiden Städten bin. Die implizite Bedeutung erschließt sich aus dem Umfeld: Wenn der Satz etwa auf einem Bahnhof fällt, meint »fahren« nichts anderes als »mit dem Zug fahren«, an einer Tankstelle bedeutet es »mit dem Auto fahren« und so weiter. Eine implizite Ordnung operiert mit Informationen von außen und entsteht nur in einem Umfeld, das zu dem Ganzen dazugehört. Das Ganze selbst kann in diesem Rahmen nichts Starres sein, sondern befindet sich in Bewegung. Für Bohm ist deshalb das Universum ein ungeteiltes Ganzes in einem dahinströmenden Fluss: »In diesem Strömen kann man ein sich dauernd änderndes Muster an Wirbeln, Wellen, Blasen, Verwerfungen, Spritzern und anderen Verformungen sehen, die offenbar über keine unabhängige Existenz für sich verfügen. Sie sind vielmehr aus den fließenden Bewegungen hervorgegangen (abstrahiert), und sie tauchen auf und verschwinden in dem Prozess des gesamten Strömens. Vorübergehende Randerscheinungen (subsistence) dieser Art, die den genannten abstrakten Formen zukommen können, implizieren nur eine relative Unabhängigkeit oder Autonomie des Verhaltens und keine absolute Existenz als letzte Substanz.« So äußert sich Bohm in seinem 1980 publizierten Buch Wholeness and the Implicate Order, in dem er – sprachlich nicht gerade entgegenkommend – darlegt, dass wir lernen müssen, alles als Teil einer »ungeteilten Ganzheit« zu verstehen, die sich »in einer fl ießenden Bewegung« befi ndet.
Hologramme
Eine andere Metapher, die Bohm heranzieht, um die implizite, eher verborgen bleibende Ordnung der Welt, die seiner Ansicht nach durch die Quantensprünge geschaffen und uns zugänglich gemacht wird, zu veranschaulichen, kennen wir als Hologramm. Hologramme sind fl ache (zweidimensionale) Bilder, in denen wir aber die Gegenstände als das erkennen können, was sie sind, nämlich dreidimensionale Strukturen. Hologramme werden heute mithilfe von Laserstrahlen hergestellt und können mit bloßem Auge betrachtet werden. Als Bohm jedoch über sie schrieb, war die Technik der Hologrammerstellung noch nicht ausgereift. Es brauchte erst noch den Laserstrahl, um die gesamte im Hologramm enthaltene Information einem Betrachter zugänglich zu machen. Das heißt: Bevor der zuletzt erwähnte Strahl in Aktion tritt, erkennt das Auge fast nichts. Doch wie der Tintentropfen in den mit Glyzerin gefüllten Zylindern eine verborgene Ordnung besitzt, verfügt auch das Muster auf dem unbeleuchteten Hologramm über eine implizite Form, die sichtbar gemacht werden kann. Wenn ein Hologramm in Stücke geschnitten wird, kann aus jedem Fitzelchen das Objekt, das abgebildet worden ist, komplett rekonstruiert werden. Es ist als Ganzes im jedem Teil des Hologramms enthalten. Bohm schlug schließlich vor, sich das ganze Universum als eine Art gigantisches Hologramm zu denken, in dem die vollständige Ordnung auf implizite Weise in jedem Abschnitt der Raumzeit enthalten ist.
Die Kunst und die Menschen
Wer diesem Gedanken nicht vor vorneherein abgeneigt gegenübersteht, könnte sich fragen, ob es nicht für das von Bohm beabsichtigte Denken eine bessere Metapher als das Hologramm gibt. Und die gibt es. Sie entsteht mit Bohms Überzeugung, dass es der Wissenschaft nicht allein gelingen kann, das Wirkliche zu erkennen, und dass sie zu diesem Zweck Anleihen bei der Kunst machen sollte. Für ihn war die Trennung von Kunst und Wissenschaft nur etwas Vorläufiges, wobei man gerne gewusst hätte, ob ihm klar war, dass er sich da in wunderbarer Übereinstimmung mit Goethe befindet. Jener sah in seiner Farbenlehre eine Zeit kommen, in der sich Wissenschaft und Poesie wieder vereinen würden. Im Übrigen war Goethe auch der Meinung, dass man die Wissenschaft nur dann als Ganzes verstehen kann, wenn man sie als Kunst denkt.
Wissenschaft als Kunst denken – genau damit können wir die Metapher hervorbringen, die wir dem Hologramm vorziehen sollten, nämlich die Idee, das Ganze der Welt im Bild eines Bildes – quasi als Gemälde – zu sehen. Ein Gemälde entsteht anders als eine Fotografie, nämlich so, dass der Maler bei jedem Punkt oder Strich, den er aufträgt, an das Ganze denkt, das entstehen soll. In einem Kunstwerk ist deshalb in jedem Teil das Ganze enthalten – nicht als Substanz, aber als die Relation, die sich in der Form zu erkennen gibt, welche das fertige Bild letztlich anvisiert und annimmt.
Kunstwerke verbergen und offenbaren zugleich in jedem Punkt, an jeder Stelle eine implizite Ordnung, die zu dem Gesamtbild führt, um das es gerade auch in der Wissenschaft geht. Und um das Erfassen der gesamten uns umgebenen Wirklichkeit ging es Bohm stets. Er wollte die Natur der Realität und ihre Trennungen und Teilungen, die nicht nur in den Laborversuchen, sondern auch in unser aller Leben erkennbar werden, verstehen. Bohm bedauerte diesbezüglich die Tatsache, dass viele Menschen in diesem Separieren ihr Heil suchten und sich als Angehörige von Nationen, Kulturen, Religionen von anderen Menschen unterscheiden wollten. Ihm wäre lieber gewesen, die Menschen würden bei aller Individualität mehr Wert auf Zusammengehörigkeit und Gemeinschaftsbildung legen. Die Quantensprünge zeigen, dass die Welt nur so ganz ist und bleibt. Wir müssen sie lediglich ernst nehmen.
5
Richard P. Feynman (1918–1988)
Der klügste Mann der Welt
Richard Feynman stammte aus dem winzigen Far Rockaway auf Long Island im Staate New York. Er wurde von seinen Freunden stets »Dick« gerufen und starb als Physiklegende, und zwar im kalifornischen Pasadena, in dem es das weltberühmte California Institute of Technology, kurz Caltech, gibt, dem Feynman über Jahrzehnte als Professor für Physik angehörte und diente. Er trug bei der Arbeit stets weiße Hemden und graue Hosen und war zugleich als genialer Physiker und großer Kindskopf bekannt. Bei ihm trifft man auf höchste Originalität im Bereich der Physik und platteste Banalität in Fragen von Kunst und Philosophie. Während es sich lohnt, jedes Wort zu bewahren, das er zu seiner Wissenschaft sagte, ist es ebenso ratsam, nicht alles zu ernst zu nehmen, was er zu moralischen, ästhetischen und politischen Fragen von sich gab. Als seine Kollegen einmal voller Bewunderung bemerkten, Feynman sei doch wohl der klügste Mann der Welt, antwortete seine Frau: »Wenn dies der klügste Mann der Welt ist, dann helfe uns Gott.«
Forscher und Lehrer
Wie gesagt, in der Physik kannte sich Feynman aus wie kein anderer in seiner Zeit, und diese Wertschätzung bezieht sich nicht nur auf sein Spezialgebiet, das auf den leider etwas komplizierten Namen »Quantenelektrodynamik« hört und die nächst höhere Ebene der Quantenmechanik darstellt, auf der elektrische Ladungen und magnetische Momente anfangen, eine Rolle zu spielen. Sie bezieht sich auch auf die ganze Physik allgemein, auf das physikalische Denken, das Feynman in all seinen Nuancen meisterhaft beherrschte und immer wieder spannend präsentieren konnte.
Was die Forschung angeht, so stellt die von Feynman entwickelte QED, wie die Quantenelektrodynamik gerne abgekürzt wird, die genaueste physikalische Theorie dar, die uns zur Verfügung steht. Sie beschreibt, wie sich Licht und Materie begegnen und miteinander in Wechselwirkung treten, etwa wenn ein Sonnenstrahl von einem Spiegel reflektiert wird. Das heißt, Feynman hat herausgearbeitet, wie die Energie des Lichts mit der Energie der Elektronen zusammentrifft und dabei zum Beispiel Farben und Beugungsmuster entstehen. Und das Besondere daran steckt in der bildhaften Methode, die Feynman bereits 1949 als junger Mann gefunden hat. Sie vermag es, die in der QED rasch sehr kompliziert werdenden mathematischen Strukturen zu bändigen und in ansprechenden Schaubildern – den nobelpreisgekrönten Feynman-Diagrammen – einzufangen und auszuwerten.
Und was die Lehre anbelangt, so hat er in den 1960erJahren mit seinen längst legendären Feynman Lectures of Physics, die als drei leuchtend rote Bände in ungewöhnlichem Format erschienen sind, an Raffi nesse alle anderen Lehrer übertroffen und neue didaktische Maßstäbe für unsere Zeit gesetzt. Dass es Feynman in diesen Vorlesungen gelungen ist, nicht irgendeinen zufällig aktuellen Stand seiner Wissenschaft darzustellen, sondern sich in der Lage gezeigt hat, das Wesentliche seines Fachs und die Art seines Vorgehens plausibel vorzuführen, lässt sich unter anderem daran messen, dass seine »Lectures« seit ihrem Erscheinen im Jahre 1963 in unveränderter Form gedruckt und verwendet werden. In ihnen hat Feynman offengelegt, was Physik ist und wie sie arbeitet. Inzwischen gibt es Feynman-Fans, die seine Vorlesungen zitieren, als ob es um heilige Stellen aus der Bibel geht. »Buch III, Kapitel 12, Vers 26«, heißt es dann zum Beispiel, wobei statt des Verses natürlich eine Zeile gemeint ist.
Besonders gerühmt wird Buch I, Kapitel 37, das die Quanten in die Physik einführt. Feynman beginnt mit dem berühmten Experiment, in dem Elektronen eine Wand mit zwei benachbarten Öffnungen, einem Doppelspalt, durchlaufen und so interferieren wie Wellen, obwohl sie individuell als Teilchen registriert und gezählt werden. Feynman erklärt, wie Elektronen ihre Quantennatur offenbaren, indem sie selbst dann, wenn sie einzeln den Doppelspalt passieren und sich also durch eine der beiden Öffnungen bewegen, irgendwie doch die Möglichkeit behalten, gleichzeitig auch den anderen Weg zu wählen. Die paradoxe Erscheinung hat mit der Unbestimmtheit zu tun, die Werner Heisenberg entdeckt hat und die stets ein Unbehagen hinterlässt. So auch bei Feynman, der dieses Gefühl nicht versteckt, sondern – im Gegenteil – seiner anhaltenden Verwunderung wie folgt deutlich Ausdruck verleiht (wobei wir seiner ursprünglich prosaischen Schreibe, einem Vorschlag des Physikers David Mermin folgend, eine poetische Form geben):
Es war immer schwierig,
die Sicht der Dinge zu verstehen,
die sich in der Quantenmechanik zeigt.
Wenigstens für mich, denn ich bin gerade so
alt,
dass ich den Punkt noch nicht erreicht habe,
an dem alles für mich offensichtlich ist.
Ich werde immer noch nervös dabei.
Ihr wisst doch, wie das ist.
Jede neue Idee braucht eine Generation oder zwei,
bevor es offensichtlich wird,
dass eigentlich gar kein Problem vorliegt.
Ich kann das eigentliche Problem nicht defi
nieren,
also vermute ich, dass es so ein Problem nicht gibt.
Doch ich bin nicht sicher,
dass es kein wirkliches Problem gibt.
Der Spaß an den Dingen
An dem Tag, an dem Feynman starb, befestigten die Studenten des California Institute of Technology am höchsten Gebäude des Campus ein riesiges Banner mit der Inschrift »We love you, Dick«. Diese Geste zeigt, dass Feynman für Generationen von Physikstudenten mehr als nur ein großer Wissenschaftler und faszinierender Lehrer war. Sie liebten ihn als eine Person, die an allem Spaß zu fi nden schien, und fun könnte das Wort sein, das Feynman am besten charakterisiert. Schließlich war er es, der unübersehbar mit einem als Camper umgebauten Lieferwagen durch Pasadena bzw. Los Angeles kutschierte, auf dessen Nummernschild »Qantum« zu lesen war (mehr als sechs Zeichen waren damals nicht erlaubt und die Mehrzahl Quanta schon vergeben) und auf dessen Karosserie einige der Diagramme gemalt waren, die den Fahrer berühmt gemacht hatten.
Feynman hatte schlichtweg Spaß, wenn er Physik trieb, und er hatte Spaß, wenn er seine Bongo-Trommel bearbeitete. Er machte sich mit Begeisterung daran, die Hieroglyphen der Mayas zu entziffern, und es bereitete ihm großes Vergnügen, den »Safecracker« zu spielen, das heißt Kombinationen für einen Safe zu entschlüsseln, vor allem dann, wenn in dem Safe Geheimdokumente lagen (aus deren Inhalt er aber keinen Nutzen zog). Feynman amüsierte sich königlich, wenn er Sprachen der Welt imitierte – er konnte einen glauben machen, perfekt das Spanische oder Chinesische zu beherrschen, während er aber nur bedeutungslose Laute von sich gab, die so klangen, als ob. Und er ließ sich auch mit großer Freude auf seinen rau rollenden New Yorker Akzent ein, den er als junger Mann pflegte, damit ihn niemand mit den Snobs verwechselte, die aus Harvard oder Princeton kamen. Kurz, er hatte fun.
Der Ernst des Lebens
Bereits der Studienanfänger Feynman fiel durch seine mathematischen Fähigkeiten auf, die mit rechnerischem Vermögen und physikalischer Intuition verknüpft waren, und so holte ihn Robert Oppenheimer 1943 nach Los Alamos, damit er am Manhattan-Projekt mitwirken konnte. Bald leitete Feynman die Gruppe, die für die entscheidenden Berechnungen von Größe und Reichweite der Atombomben verantwortlich war. Dabei ist anzumerken, dass damals noch eine computerlose Zeit herrschte und der Umfang der Kalkulationen viel fantasievolle Kopf- und Handarbeit erforderte.
Als Feynman in Los Alamos lebte, kam es zu einer persönlichen Tragödie. Er hatte sehr früh geheiratet, und er liebte seine Frau Arlene sehr. Es war »a love like no other love«, wie er einmal geschrieben hat. Aber dann wurde Arlene krank, und niemand konnte ihr helfen. Feynman musste zusehen, wie seine junge Frau vergeblich gegen die Tuberkulose ankämpfte. In diesen schweren Tagen gab ihm die Physik Halt, und seitdem befand er, dass Wissen »der höchste Wert« sei, an dem sich ein Mensch orientieren kann. Dieser Erkenntnis folgend, lenkte er sich an Arlenes Sterbebett ab, indem er ihren stockenden Atem untersuchte und sich vorstellte, was im Gehirn alles vor sich gehen kann, wenn das Lebensende naht. Nach Arlenes Tod verließ Feynman sofort das Krankenhaus und ging in sein Büro. Er arbeitete und arbeitete, aber einige Tage später, als er bei einem Spaziergang durch die Stadt in einem Laden ein Kleid sah, das Arlene gefallen hätte, brach er zusammen.
Feynmans Umgang mit Frauen wurde in den folgenden Jahren seltsam. Er verbrachte viel Zeit in Bars, heiratete ein zweites Mal (mit unerfreulichem Ende) und fand erst spät in Gweneth die Frau, die ihn aushielt und bei ihm blieb.
QED
Als der Krieg zu Ende ging – ohne einen Kommentar des eher unpolitischen Feynman zum Abwurf der Atombombe –, folgte er seinem unmittelbaren Vorgesetzen aus dem Manhattan-Projekt, dem Physiker Hans Bethe, an die Cornell Universität im Staate New York. Dort blieb er bis zu seinem Wechsel nach Kalifornien. In Cornell versuchte Feynman von der bereits funktionierenden und erfolgreichen Quantenmechanik zu einer Quantenelektrodynamik zu kommen. Selbst wenn das einem Außenstehenden beim ersten Lesen nicht viel sagt, so reicht ein kurzer Blick in die Entwicklungsgeschichte der Physik, um zu sehen, dass Feynman sich keck an ein historisches Projekt wagte.
Der Triumphzug der klassischen Physik von Newton bis zum Ende des 19. Jahrhunderts war gelungen, weil ihre Vertreter nach einer Mechanik (mit den Gesetzen von Isaac Newton) eine Elektrodynamik (mit den Gesetzen von James Clerk Maxwell) gefunden hatten. So konnten sie sowohl die Bewegung von materiellen Körpern als auch die Dynamik von elektrischen und magnetischen Feldern berechnen und behandeln. Im 20. Jahrhundert war es – wie es sich historisch gehört – zuerst gelungen, eine Quantenmechanik aufzustellen, und nun wartete die Welt gespannt auf die Quantenelektrodynamik, und genau das wollte Feynman bewerkstelligen. Dieser Herkulesaufgabe standen – neben technischen und mathematischen Problemen – zwei Hindernisse im Weg: ein psychisches und ein physikalisches. Die psychische Hürde hatte Paul Dirac aufgebaut, weil der schweigsame Engländer sich schon einmal um dieses Thema gekümmert, dann aber aufgegeben hatte. Dirac sprach von einer allzu großen Herausforderung, die ganz besondere Ideen brauchte. Doch was andere abgeschreckt hatte, schien Feynman nur anzustacheln. Er fühlte sich stark genug, es seinem Helden der jüngeren Physikgeschichte zu zeigen.
Dirac hatte aber seine wissenschaftlichen Waffen nicht aus Langeweile gestreckt, sondern weil er ein physikalisches Problem nicht aus dem Weg räumen konnte, das mit der sogenannten Selbstenergie eines geladenen Teilchens, etwa eines Elektrons, zu tun hat. In der Theorie kam dafür immer wieder ein unendlicher Wert heraus, was physikalisch unsinnig war, und irgendwann hörte Dirac auf, sich darüber den Kopf zu zerbrechen.
Was Selbstenergie ist und warum sie Schwierigkeiten macht, lässt sich gut erklären, wenn man sich, ohne auf Ladungen achten zu müssen, einen Stein vorstellt, der sich in einem Schwerefeld wie beispielsweise der Erde befi ndet. Wer ausrechnen will, welche Energie solch ein Stein in einer gewissen Höhe über dem Boden hat, muss dazu auch die Theorie von Einstein mit in Rechnung stellen, in der Masse und Energie äquivalent sind. Und damit passiert die Katastrophe – in der Theorie: Da der Stein über eine Masse verfügt, bekommt er Energie. Diese Energie schlägt sich als mehr Masse nieder, was wiederum ihre Energie vermehrt. Dieser energetische Zugewinn muss erneut der Masse des Steins hinzugefügt werden, der dadurch seine Energie erhöht – und so geht es als Spirale bis in alle Ewigkeit weiter, bis also alles unendlich und somit physikalischer Unsinn ist.
Wie dem Stein in einem Schwerefeld ergeht es einem geladenen Elektron in einem elektrischen Feld, und deshalb klappte Dirac frustriert seine Hefte zu. Es war dann Feynman, der sie wieder öffnete und einen Ausweg fand, um die Unendlichkeiten zu vermeiden, die in Fachkreisen ganz behutsam als »Singularitäten« hofiert werden. Dazu musste unser Spaßvogel allerdings einen langen Umweg in Kauf nehmen, was heißt, dass er die Quantenmechanik, welche ihm überholt zu sein schien, neu erfinden und mit anderen Methoden rekreieren musste. Feynman entwickelte eine Sprache, in der es sogenannte Wegeintegrale (path integrals) gab, mit denen sich die Wege – genauer: die Bewegungen – der atomaren Realitäten darstellen ließen. Der Zauberer Feynman kramte aus seinem Zylinder zudem sogenannte Proagatoren heraus, die für diese Wege verantwortlich waren und mit denen er bald die Bildchen, seine berühmten Diagramme, malen konnte, die alles so einfach aussehen ließen.
Das mit dem Zaubern stimmt. Denn als Feynman seine Methode bei den Elektronen und dem Licht (seinen Photonen) einsetzte, verschwanden die Singularitäten – die hässlichen Unendlichkeiten – eine nach der anderen. Das ist genau so gemeint, wie es da steht: Jeder unendliche Wert, der in den (alten) Rechnungen auftrat, wurde von einem anderen unendlichen Wert kompensiert, der mit der (neuen) Methode sichtbar wurde. Die Unendlichkeiten hoben sich gegenseitig auf, und die Theorie konnte alles berechnen. Feynman triumphierte, das heißt, er triumphierte eigentlich nicht. Zwar jubelten seine Kollegen, aber einer schüttelte den Kopf: Paul Dirac. Er sah zwar, dass Feynman recht hatte, aber der Preis dafür war ihm zu hoch. Feynman hatte seiner Ansicht nach die Schönheit der Physik geopfert. Dabei hatte sich Dick Feynman bei seinem Suchen gerade auf sie verlassen. Denn als er seine Diagramme entwickelte und noch unsicher war, ob sie weiterhelfen konnten oder nicht, probierte er sie dadurch aus, dass er sie auf bereits verstandene Probleme anwandte. So musste zum Beispiel der Betazerfall, von dem schon mehrfach die Rede war, herhalten. Als er das Feynman-Diagramm dieser Umwandlung eines Neutrons in ein Teilchentrio aus Proton, Elektron und einem Neutrino skizzierte, stellte er fest, dass das Gebilde nicht nur »Eleganz und Schönheit« besaß, sondern ihn anstarrte. »Das verdammte Ding leuchtete«, erzählte er seinem Biografen James Gleick und fügte hinzu, dass er in jenem Augenblick wusste, wie die Natur in diesem Fall funktionierte und wie man ihr auch in anderen Fällen auf die Schliche kommen konnte.
Der andere Feynman
Feynman hat seinen Spaß an vielen Dingen gefunden, nicht nur am Karneval in Rio de Janeiro, an dem er aktiv mit seinen Trommeln teilnahm, sondern auch daran, seine Freunde und Kollegen mit provozierenden Vorschlägen herauszufordern. 1959 schlug er seine »Room-at-the-bottom«-Idee vor, als er Ingenieure aufforderte, das zu entwickeln, was heute Nanotechnologie heißt. Feynman fragte bei dieser Gelegenheit, ob nicht in den mikroskopischen Dimensionen der Dinge Platz genug sei, um etwa Motoren oder Suchgeräte zu konstruieren. Er forderte die Physiker zunächst auf, einen elektrischen Antrieb zu bauen, der kleiner als ein Prozent eines amerikanischen Zolls (inch) sein sollte, das etwas mehr als 2,5 cm umfasst. 1000 US-Dollar bot er dem Konstrukteur des ersten funktionierenden Mikrogeräts an, und kaum ein halbes Jahr später war Feynman sein Geld los. Einen Teil davon konnte er sich ein paar Jahre darauf zurückholen, als er eine andere Wette gewann, in der es um die Frage ging, ob Feynman es durchhalten würde, auch nach seinem Nobelpreis 1965 jede administrative Funktion auszuschlagen und sich trotz wachsender Popularität ganz seiner eher komplexer werdenden Wissenschaft zu widmen. Als Zeitraum des Durchhaltens waren zehn Jahre ausgemacht, und obwohl Feynman mit vielen lukrativen Angeboten bedacht wurde, lehnte er sie alle ab. Er sah nicht, wie er auf den möglichen Posten den Spaß bekommen könnte, der ihn mehr als alles Geld interessierte (den Scheck aus Stockholm ausgenommen).
Nicht ablehnen konnte Feynman gegen Ende seines Lebens die Bitte seines Präsidenten Ronald Reagan, in dem Untersuchungsausschuss mitzuwirken, der die Challenger-Katastrophe vom Januar 1986 untersuchen und die Sicherheitskonzeption der US-Behörde NASA analysieren sollte. Sieben Astronauten waren bei dem missglückten Start der Raumfähre ums Leben gekommen. Feynman wurde nach Washington eingeladen, um mitzuhelfen, die Ursachen des Unglücks zu finden. Schon damals lebte er mit geborgter Zeit, wie er es nannte, nachdem 1982 bei ihm Krebs diagnostiziert worden war, und zwar eine Form, die das Knochenmark befällt. Mehrere Operationen hatten ihm noch die Chance auf mehr Jahre im Leben gegeben, und als die Einladung bzw. Aufforderung aus Washington kam, wollte er das bisschen verbleibende Leben eigentlich anders nutzen. Aber er hatte Freunde, die an dem Shuttle-Programm arbeiteten, und er hielt viel von dem gesamten Projekt der Raumfahrt. Damit es weitergehen konnte, mussten dessen Schwachstellen erkannt werden. Und so konnte man eines Tages in der Zeitung lesen: »Mr. Feynman kommt nach Washington«.
Die erwähnten Freunde arbeiteten am sogenannten Jet Propulsion Laboratory (JPL), das in den Bergen vor Pasadena lag, nicht sehr weit von Feynmans Hochschule, dem Caltech. Hier erfuhr er, dass Techniker und Ingenieure schon einige Male auf Sicherheitsmängel verwiesen hatten – es gab zum Beispiel einige Schwierigkeiten mit Turbinenschaufeln. Doch was den meisten Bauchschmerzen bereitete und was Feynman sofort ins Auge fi el, das waren höchst raffinierte Konstruktionen, die als O-Ringe zwar anschaulich, aber unter ihrem Wert bezeichnet wurden. Auf den ersten Blick handelte es sich hierbei um gewöhnliche Gummiringe. Auf den zweiten Blick offenbarten sie jedoch ihre Besonderheit: Der Gummi war dünner als ein Bleistift, und bei einem Durchmesser von mehr als zehn Metern mussten die Ringe einen nahezu perfekten Kreis abgeben. Sie dienten in dieser Form dazu, die Segmente, aus denen eine Rakete gebaut ist, sorgfältig abzudichten. Meist taten sie dies so, wie man es erwartete. Aber ab und zu gab es ein Problem: »O-Ringe zeigen bei der Überprüfung der Segmentnut Spuren einer Versengung«, notierte Feynman nach seinem Besuch am JPL. Das gab Anlass zur Sorge. Denn »sobald ein kleines Loch durchgebrannt ist, entsteht augenblicklich ein großes Loch«, aus dem entzündbare Gase ausströmen können, und das hat »katastrophale Folgen in Sekunden«. Als Feynman dies verstanden hatte, buchte er das Ticket in die Hauptstadt.
Da er als einziges Mitglied des Untersuchungsausschuss nicht zur Raumfahrtbehörde NASA gehörte, galt ihm mehr öffentliche Aufmerksamkeit als allen anderen. Feynman konzentrierte sich auf die O-Ringe, und dabei wurde ihm bald klar, dass es weniger die Hitzebelastung war, der sie nicht standhalten konnten. Es war vielmehr das Gegenteil, nämlich Temperaturen unter dem Gefrierpunkt, wie es sie im Winter auch schon einmal in Florida, wo die Abschussrampe der Challenger Mission stand, geben kann. Tatsächlich hatte es einige sehr kalte Nächte vor dem fatalen Start gegeben, und das Material der O-Ringe könnte spröde und beim Flug löchrig geworden sein. Um seine Einsichten zu den O-Ringen vorzutragen und die Aufmerksamkeit des Publikums zu haben, führte Feynman eine kleine Show vor, die live im Fernsehen übertragen wurde. Er besorgte sich eine kleine Klammer sowie ein paar Zangen und bestellte eine Karaffe Wasser mit Eiswürfeln nebst Gläsern. Vor ihm lag ein Stück von einem O-Ring, das dem Ausschuss für Prüfzwecke zur Verfügung gestellt worden war. Während nun einige Zeugen ihre Aussagen machten, knipste Feynman mit der Zange eine Ecke des O-Rings ab, bog sie um, fixierte diesen Zustand mit einer Klammer und tauchte beides in das eiskalte Wasser. Er ließ das Gummi eine Weile darin baden, um sich dann zu Wort zu melden: »Ich habe ein Stück Gummi des O-Rings genommen und eine Zeit lang in Eiswasser gelegt. Wenn man nun die Klammer entfernt, schnellt das Gummi nicht mehr zurück. Mit anderen Worten, bei einer Temperatur von null Grad verliert der O-Ring seine Elastizität. Und das ist, so scheint mir, für unser Problem von Belang.« Damit war die grundlegende physikalische Ursache der Challenger-Katastrophe gefunden, wie wir inzwischen sagen können. Aber es sollten noch Monate vergehen, bevor alle organisatorischen, politischen und andere Mängel erkannt und korrigiert werden konnten. Als alles vorbei war – auch die Feier im Rosengarten des Präsidenten – flog Feynman zurück nach Kalifornien, wo er dann bald darauf starb. Sein persönlicher Bericht an den Präsidenten schließt mit den Worten: »Eine erfolgreiche Technik setzt voraus, dass der Realitätssinn Vorrang vor der Öffentlichkeitsarbeit hat, denn die Natur lässt sich nicht betrügen.« Oder in seiner eigenen Sprache, die so knapp und prägnant sein kann: »For a successful technology, reality must take precedence over public relations, for Nature cannot be fooled.« Feynman hat in diesem Satz »Natur« großgeschrieben – noch eine gute Idee von ihm.
6
John S. Bell (1928–1990)
Die Präzision einer Ungleichung
Am Ende seines Lebens hatte John Bell Pech. Kurz nachdem der aus dem irischen Belfast – und aus ärmlichen Verhältnissen – stammende Physiker für den Nobelpreis seiner Fachs nominiert worden war, starb er in seiner Heimatstadt an den Folgen einer Gehirnblutung. Seine große Zeit als Wissenschaftler konnte Bell an dem als CERN bekannten Zentrum für Kernphysik mit seinen riesigen Teilchenbeschleunigern in Genf erleben. Dort hielt er sich in den 1950er- und 1960er-Jahren auf, um über Reaktionen und Umwandlungen von Elementarteilchen zu grübeln, wie sie mithilfe von Quantensprüngen zu verstehen waren. In der Schweiz verlor Bell nach und nach sein Interesse an den Maschinen und ihren Möglichkeiten, und er dachte mehr und mehr über die Grundlagen der angewandten Physik nach. Dazu hatten ihn vor allem die Deutungen inspiriert, die David Bohm den Quantensprüngen gegeben hatte. Sie handelten von »verborgenen Parametern«, die es noch aufzuspüren galt und mit deren Hilfe »das präzise Verhalten eines individuellen Systems« bestimmt werden konnte, wie Bohm in seinem 1951 erschienenen Lehrbuch Quantentheorie betont hatte. Bell ärgerte, dass seine Kollegen Bohms Ideen lässig ablehnend gegenüberstanden – wenn sie sie überhaupt zur Kenntnis nahmen. So beantragte er 1964 ein Sabbatjahr, um für sich selbst zu klären, was die Existenz von Quanten für die Natur der Wirklichkeit, des Wirklichen, des Realen oder der Realität bedeutet. Können wir auf verborgene Elemente des Wirklichen hoffen oder zeigt sich hier eine andere Qualität der von uns Menschen erkundeten Welt? (Übrigens, das akademische Sabbatjahr hat seinen Namen aus der Bibel bekommen. Es bezeichnet hier eine Ruheperiode für das Ackerland, das nicht unentwegt produktiv sein kann und vielmehr nach sechs Jahren der Bebauung einmal brach liegen und sich erholen soll.)
Sabbatjahre sind guter akademischer Brauch, also nutze ihn Bell, um sich genauer mit Bohms Frage zu befassen, die zuerst Albert Einstein aufgeworfen hatte. Der große alte Mann der Physik wollte ehedem wissen, ob die gegebene Form der Quantenphysik vollständig sei oder ob es noch irgendwo – in der Wirklichkeit oder hinter ihr – verborgene Größen (hidden parameters) geben könne, die das vielfach zufällig bleibende oder zumindest unvorhersehbar erscheinende Quantengeschehen dann doch festlegen (determinieren) würden. Aus den frühen 1930er-Jahren gab es aber einen Beweis des großen ungarischen Barons und Mathematikers John von Neumann, der das Vorhandensein von noch unbekannten oder unzugänglichen Bestimmungsstücken als Teil der Quantenmechanik ausschloss. Dieser Beweis wurde von vielen Physikern bestenfalls oberfl ächlich gelesenen, aber vom Ergebnis her dankend zur Kenntnis genommen.
Doch als sich Bell das mit komplizierter Mathematik durchsetzte Beweisverfahren des berühmten Ungarn vornahm, stiegen leise Zweifel in ihm auf. Er fragte sich, ob das alles so stimmen könne. Seine Skepsis wurde befördert, als Bohm im Anschluss an sein Lehrbuch Quantentheorie neue Deutungen der alten Mathematik vorlegen konnte, die Bell ausgesprochen gut gefielen. Während die orthodoxen Wissenschaftler die Lösungen der Wellengleichung von Erwin Schrödinger so interpretierten, dass sich mit ihnen nur die Wahrscheinlichkeiten feststellen ließen, mit denen sich Partikel an gegebenen Orten aufhielten, sah Bohm in eben diesen Lösungen tatsächlich etwas Physikalisches (Reales), mit deren Hilfe die Quantenteilchen transportiert wurden. Bohm dachte an so etwas wie Zweige oder Blätter, die von Ozeanwellen getragen werden und mit ihnen vorankommen, während die Wellen selbst an ihrem Platz bleiben. Bell wollte diesem Konzept nachgehen und wissen, ob es in der Physik eine Möglichkeit, ein Experiment, geben könne, um die Stichhaltigkeit seiner Annahme zu prüfen.
Der rothaarige Ire
Wie es sich für einen Iren gehört, hatte John Bell rote Haare. In seiner Kindheit und Jugend musste er erst einige Jobs annehmen, um Schulen besuchen zu können. Seine glänzenden Noten erlaubten es ihm aber zum Glück bald, sich mit Stipendien über Wasser zu halten und weiterzukommen. Er studierte Physik an der Queen’s Universität in seiner Heimatstadt und erwarb erste Abschlüsse sowohl in experimenteller als auch in mathematischer Physik. Von Belfast wechselte er sodann an ein in Oxfordshire gelegenes Atomforschungszentrum. Dort lernte er nicht nur die Bohm’sche Deutung der Quantenphysik, sondern auch seine Frau Mary kennen. Das Paar zog über Birmingham nach Genf an das eingangs erwähnte europäische Kernforschungszentrum CERN, und Bell lieferte auf diesen Stationen Beiträge zur theoretischen Elementarteilchenphysik, die manchmal auch Hochenergiephysik genannt wird, weil man die kleinsten Bausteinchen der Wirklichkeit nur mit dem Einsatz von gigantischen Energiemengen produzieren und aus ihrem Verbund mit dem Rest der Welt lösen kann.
Während seiner Zeit am CERN fiel Bell unter anderem durch sein Motorrad auf, das er nicht nur gerne fuhr, sondern auch hin und wieder in seine Einzelteile zerlegte und dann erneut zusammensetzte. Wenn er damit beschäftigt war, erzählte er zum einen gern, dass er als Protestant von seinen (überwiegend katholischen) irischen Landsleuten eher als Eindringling betrachtet wurde, weshalb es ihm keine Schwierigkeiten bereitete, anderswo als in seiner Heimat zu leben. Zum anderen wies Bell bereitwillig darauf hin, dass einer der Höhepunkte seiner Studienzeit in der Lektüre einiger Texte von Max Born bestand, die unter dem englischen Titel Natural Philosophy of Cause and Chance veröffentlicht worden waren. In diesem Buch drückt Born zwar seine Bewunderung für den Beweis aus, mit dem John von Neumann das Kapitel über verborgene Parameter in der Quantenwelt abschließen will, aber Born stellt das Argument nicht vor. Bei Bell blieben folglich Fragen offen, und sie tauchten sofort wieder auf, als er Bohms Lehrbuch las und ihm intuitiv immer klarer wurde, dass in von Neumanns Beweis ein Fehler stecken konnte oder gar musste. Aber wo und wie? Bell nahm sich vor, erst einmal genau herauszufinden, »was von Neumann und seine Nachfolger tatsächlich gezeigt hätten«, wie es zu Beginn in seiner ersten Arbeit On the Problem of Hidden Variables in Quantum Mechanics (1966) heißt.
Was ist eine nicht-lokale Wechselwirkung?
Als Bell sich an das Thema wagte, das ihn berühmt machen sollte, lebten er und seine Frau vorübergehend im kalifornischen Stanford. Sie verbrachten hier das eingangs erwähnte Sabbatjahr, das in Bells Fall mit einer Erkenntnis begann.
Bell fällt auf, dass in den Theorien der Quanten etwas fehlt, nämlich eine Unterscheidung zwischen dem, was Bell bald eine lokale Wechselwirkung nennt, und ihrem Gegenstück, die daher nicht-lokal (nonlocal) zu nennen wäre. Eine lokale Wechselwirkung kennt jeder, der schon einmal eine Ohrfeige bekommen hat, bei der eine Hand eine Backe trifft, ohne dass zwischen beiden etwas vermittelt. Jeder Hammer, der einen Nagel einschlägt, jede Hand, die den Hammer fasst – sie alle liefern Beispiele für lokale Wechselwirkungen, von denen es in der Welt so sehr wimmelt, dass man sich rasch fragt, ob es die andere Form, die nicht-lokale Wechselwirkung, überhaupt gibt.
Man kann in einigen Bereichen humanen Treibens, wo sich Menschen wenig mit Physik beschäftigen und eher spirituell operieren, von solchen Ferneinflüssen hören: Gebete können bekanntlich Leuten helfen, die räumlich weit weg sind, Voodoo-Priester stecken Nadeln in Puppen und verwunden dadurch angeblich Menschen, die sich an einem entfernten Ort aufhalten – und so soll eine Aktion »hier« für eine Wirkung »dort« zuständig sein, ohne dass sich eine physikalische Wechselwirkung nachweisen oder vermessen ließe.
Nun sollte man meinen, nicht-lokaler Zinnober dieser Art habe nichts mit der strengen Wissenschaft zu tun, aber genau da tauchte Bell auf, der versuchte, mithilfe von lokalen Wechselwirkungen zu verstehen, wie es zum Beispiel zwei Elektronen schaffen, wieder in ihren Ausgangszustand zu gelangen, nachdem sie einmal zusammengestoßen und dabei energetisch angeregt worden waren. Er konzentrierte sich konkret auf eine physikalische Eigenschaft von Elektronen, die zwar einen einfachen Namen trägt, die aber alles andere als einfach ist. Wir kennen das vertrackte Ding schon. Denn Bell meinte den Parameter, den Wolfgang Pauli als vierte Quantenzahl eingeführt hatte und der in den Lehrbüchern als Spin bezeichnet wird. Ohne den Spin lässt sich weder verstehen, wie chemische Bindungen zustande kommen, noch lässt sich erläutern, warum die Gegenstände so viel Platz einnehmen, wie sie es tatsächlich tun.
Wir kennen das Wort »Spin« aus dem Alltag etwa vom Tennis, wenn ein Spieler einem Ball Spin verleiht und wir damit bezeichnen, dass sich das Spielgerät um seine eigene Achse dreht. Beim Spin der Elektronen können wir uns zwar auch anschaulich vorstellen, dass die Elementarteilchen rotieren, aber damit wird nicht die besondere Qualität erfasst, die Spin in der Quantenwelt hat. Sein Erfi nder Pauli versteht unter »Spin« vielmehr die Tatsache, dass Elektronen eine »klassisch unbegreifliche Zweiwertigkeit« besitzen, sie inhärent zweideutig sind. In der Tat beschreibt der Spin die Möglichkeit von Elektronen, einen Quantensprung der besonderen Art zur Verfügung zu haben, über den man sich ruhig wundern kann. Als sich Bell 1964 genauer um den merkwürdigen Spin kümmerte, bemerkte er zum einen, dass sich ein Elektron zweimal (!) um die eigene Achse drehen muss, um wieder zum Ausgangszustand zurückkehren zu können, und er fand zum zweiten keinen Weg, um die Wechselwirkung zwischen zwei derartig »spinnenden« Teilchen lokal erfassen zu können. Wie sollte man sich den genauen Ort dabei auch vorstellen? Denn Elektronen interagieren nur nicht-lokal – über räumliche Distanzen hinweg –, wie Bell bemerkte und was ihn zunächst ratlos machte (und uns jetzt mit). Wie sollte oder konnte das vor sich gehen? Wie sollte oder konnte eine physikalische Wirkung von einem Ort zu einem anderen gelangen, ohne dazwischen Spuren zu hinterlassen?
Die Bell’sche Ungleichung
Die große Leistung, die Bell in den folgenden Jahren vollbrachte, bestand darin, eine Ungleichung zu formulieren, mit deren Hilfe im Experiment geprüft werden kann, ob die Quantensphäre lokal ist – weil sie nur aus lokalen Wechselwirkungen besteht –, oder ob es in ihr nicht-lokal zugeht. Das heißt, man kann in konkreten Situationen nachmessen, ob die sogenannte Bell’sche Ungleichung Bestand hat oder verletzt ist, und wenn sie sich als verletzt erweist, wissen wir, dass die Realität, von der die Physik handelt, nicht-lokal ist. Verrückterweise ist genau dies der Fall. Mit anderen Worten: Dank Bells Beiträge zur Physik können wir nachweisen, dass es in der Quantenwirklichkeit so zugeht, als ob da Voo-doo-Priester zugange sind, die ein bestimmtes Elektron an seinem Ort anstechen, um ein anderes Elektron an einem anderen Ort aufheulen zu lassen; und zwischen den genannten Punkten ereignet sich auf keinen Fall etwas Physikalisches, also etwas, zu dem die Physiker etwas sagen können.
Bells Ungleichung kann mittels einer Idee getestet werden, die unter anderem auf Einstein zurückgeht. Bevor wir darauf eingehen, generell noch eine Bemerkung zu der ungewohnten Konzeption einer Ungleichung: Normalerweise handelt die Physik von Gleichungen – »Kraft gleich Masse mal Beschleunigung« heißt es etwa bei Newton, und von Einstein haben wir E=mc2 gelernt. Ungleichungen gehören aber auch zum Handwerk der Wissenschaft, und sie dienen oft dem Abschätzen von Quantitäten. Auch die berühmte Unbestimmtheit von Heisenberg kann als Ungleichung formuliert werden, indem man sagt, dass das Produkt aus der Orts- und Geschwindigkeitsmessung eines atomaren Bausteins (zum Beispiel eines Elektrons) größer als das Quantum der Wirkung sein muss, das wir Planck verdanken.
Bells Ungleichung ist sehr viel trickreicher, aber es gibt eine buchlange gute Hinführung zu ihr, nämlich Nick Herberts Quantenrealität aus den 1990er-Jahren. Es existieren auch Vorschläge, sie für eine alltägliche Situation zu formulieren. Hier ein Beispiel, über das man ein wenig nachdenken muss, um mit ihm klarzukommen: »Die Zahl der Frauen, die mit einem Auto fahren, ist kleiner (oder höchstens gleich) der Zahl der Frauen, die das Französische sprechen plus der Zahl der Autofahrer (beiderlei Geschlechts), die nicht Französisch können.«
Das EPR-Paradoxon
Zurück zur Physik und dem Vorschlag Einsteins, mit dem Bells Ungleichung bewiesen werden konnte. Wir erinnern uns, dass Einstein nicht behauptete, die Quantenmechanik sei falsch. Er bestritt aber, dass mit ihr das letzte Wort über die Atome gesprochen war. Um zu beweisen, dass die quantenmechanische Beschreibung der Wirklichkeit unvollständig sei, dachte sich Einstein mit seinen Kollegen Boris Podolsky und Nathan Rosen 1935 einen Versuch aus, in dem eine physikalische Größe auftauchte, die zwar offenbar in der Wirklichkeit bestimmt war und feststand, von der die Quantentheorie aber behauptete, dass sie unbestimmt sei.
Wir wollen hier nicht nochmals dieses Gedankenexperiment von Einstein, Podolsky und Rosen (EPR) beschreiben – siehe dazu das Kapitel zu Einstein –, sondern einen entsprechenden Versuch, der wirklich stattgefunden hat, um Bells Ungleichung dabei zu prüfen. Anfang der 1980er-Jahre gab es nämlich zum ersten Mal die technischen Möglichkeiten, den EPR-Vorschlag zu realisieren, und eine Gruppe von französischen Physikern unter der Leitung von Alain Aspect hat dies auch bewerkstelligt. Ihre kompliziert scheinende Apparatur sieht im Prinzip wie folgt aus: Aus Kalzium wird ein Gas bereitet, von dem aus sich einzelne Atome auf eine Kammer zu bewegen. Bevor die Kalziumatome die Kammer erreichen, werden sie von einem Laserstrahl getroffen, der seine Energie an die Atome abgibt und sie somit anregt. In diesem Zustand treffen sie in der Kammer ein. Hier verlieren die Kalziumatome diese Energie blitzartig wieder, indem sie zwei Lichtteilchen aussenden. Diese beiden Photonen verlassen den Kasten in entgegengesetzten Richtungen, sie treffen jeweils auf einen Filter und anschließend auf ein Messgerät.
Es spielt für die Diskussion im Augenblick keine Rolle, welche Eigenschaft die Filter analysieren, wichtig ist nur, dass sie die eintreffenden Photonen je nach Stellung aufhalten oder durchlassen können. Wenn ein Photon zum Beispiel den Filter auf Seite L passiert, wird es im Messgerät registriert, und seine vom Filter analysierte Eigenschaft ist dem Experimentator bekannt. Damit kennt er aber auch – und zwar aufgrund von physikalischen Erhaltungssätzen – den Zustand des Photons auf der Seite R, ohne auf ihn durch ein Messgerät Einfluss zu nehmen. Der Zustand des Teilchens bei R, so argumentierten Einstein, Podolsky und Rosen, ist also nicht unbestimmt, selbst wenn keine Beobachtung erfolgt. Vielmehr kann er sogar mit hundertprozentiger Wahrscheinlichkeit vorhergesagt werden und stellt folglich »ein Element der Wirklichkeit« dar. Diese Folgerung ist aber in der Quantenmechanik unzulässig, da die orthodoxen Vertreter der Quantentheorie behaupten, dass ein Zustand solange unbestimmt und damit kein Element der Wirklichkeit sei, solange er nicht registriert worden ist. Die Theorie der atomaren Wirklichkeit erweist sich offenbar als unvollständig – es sei denn, man lässt eine seltsame Korrelation zwischen den Zuständen bei L und R zu, die es im Experiment zu fi nden gilt.
Wir wollen nun erläutern, wie der wirklich durchgeführte Versuch gezeigt hat, dass eine solche Korrelation tatsächlich existiert und dass die Quantentheorie auf diese Weise eine Beschreibung der Wirklichkeit liefert, die so vollständig ist, wie Menschen es nur hoffen können. Dieses Experiment wurde möglich mit der Entdeckung, die Bell 1964 gelang, als er nach einer Möglichkeit suchte, Einsteins Problem durch eine Beobachtung zu entscheiden. Dies scheint auf den ersten Blick ausgeschlossen, denn im Mittelpunkt des EPR-Argumentes steht doch ein Teilchen, das gerade nicht beobachtet werden soll. Wie will man nun feststellen, ob sein Zustand dennoch bestimmt ist? (Dies erinnert an die alte Scherzfrage, wie man herausfinden will, ob das Licht im Kühlschrank noch an ist, wenn die Tür geschlossen ist.)
Natürlich gibt es keine Möglichkeit, ein isoliertes Teilchen unbeobachtet zu beobachten. Bell empfahl deswegen, sich nicht um ein einzelnes Photonenpaar zu kümmern, sondern die Korrelation zwischen vielen Paaren dieser Art zu untersuchen. Nehmen wir an, die beiden Filter der Versuchsanordnung sind gleich orientiert und so angeordnet, dass alle Photonen sie passieren. Dann haben wir eine hundertprozentige Korrelation. Drehen wir einen Filter (zum Beispiel den bei R) um 90 Grad, stellen wir fest, dass jede Korrelation zwischen beiden Seiten verschwindet. Dies ist zwar nicht verwunderlich, es hilft aber auch nicht weiter. Die Frage, ob Einstein oder seine Gegenspieler richtig liegen, kann entschieden werden, wenn die Filter weder parallel noch senkrecht zueinander angeordnet sind, sondern sich in einer Zwischensituation befinden. Dabei sollte sich eine Korrelation zeigen, die irgendwo zwischen hundert Prozent und null liegt.
Bell konnte nun zeigen, dass sich unter verschiedenen Voraussetzungen verschiedene Formen der Korrelationen ergeben sollten. Wenn man, erstens, wie Einstein annimmt, dass die Quantenobjekte wirklich zu jeder Zeit alle Eigenschaften in wohldefinierter Weise besitzen – dies nennt man die Realitätsannahme – und wenn man, zweitens, weiter annimmt, dass keine Information zwischen den Photonen schneller als mit Lichtgeschwindigkeit ausgetauscht wird, dann kann man eine Grenze angeben, die die Korrelation nicht überschreiten darf. Diese Schranke wird dabei in mathematischer Form festgelegt, und zwar durch die Bell’sche Ungleichung. Die zweite genannte Voraussetzung wird auch als Annahme der »Lokalität« bezeichnet, da sie einen unmittelbaren (zeitlosen, instantanen) physikalischen Einfl uss auf entfernte Objekte verbietet. Damit vermeidet man mögliche Verletzungen der speziellen Relativitätstheorie, mit der Einstein zeigen konnte, dass sich keine physikalische Wirkung schneller als Lichtgeschwindigkeit ausbreitet. Die Lokalität braucht nicht eigens aufgeführt zu werden, wenn die Quantenmechanik anstelle der Realitätsannahme verwendet wird, weil allgemein bewiesen werden kann, dass diese beiden großen Theorien der Physik, die unabhängig voneinander gefunden wurden, konsistent sind und sich nicht gegenseitig widersprechen.
Nun aber kommt der entscheidende Punkt: Wenn man annimmt, dass eine Quantenmechanik à la Bohr gilt, dann gibt es Orientierungen der Filter, bei denen die Bell’sche Ungleichung verletzt ist. Die Quantenmechanik prophezeit eine bessere Korrelation der Photonen als die Annahme einer lokalen Realität. Die klärenden Experimente dazu wurden zum ersten Mal zwischen 1982 und 1984 von Alain Aspect, Jean Dalibard und Gérard Roger ausgeführt und inzwischen vielfach wiederholt. Die von ihnen erzielten Ergebnisse lassen keine Zweifel zu. Die Korrelationen waren genau um den Teil höher, den die Quantentheorie vorausgesagt hat. Die Annahme einer lokalen Realität kann also in der Quantenwelt nicht zutreffen. Die atomare Wirklichkeit ist nicht-lokal, sie offenbart einen Zusammenhang zwischen einzelnen Objekten, der als Ganzheit beschrieben werden kann. Quantenteilchen wie etwa die Photonen im EPR-Versuch, die einmal in physikalischer Wechselwirkung gestanden haben, bleiben danach für immer verbunden, auch wenn keine direkte Verknüpfung mehr zwischen ihnen besteht.
Bohr hatte auf diese besondere Art des quantenhaften Zusammenhängens schon 1935 in seiner Antwort an Einstein hingewiesen. Erwin Schrödinger hat diesen Gedanken im selben Jahr aufgegriffen und vorgeschlagen, für solche korrelierten Zustände ohne Wechselwirkung den Begriff »Verschränkung« zu verwenden, der im Englischen entanglement heißt (und auf dieser Weise etwas an enlightment, dem englischen Wort für Aufklärung erinnert). Dies sei nämlich das eigentliche Charakteristikum der Quantentheorie. Sie zeigt uns eine verschränkte Welt, die in gewisser Weise am Grund unserer Wirklichkeit existiert. Was bedeutet das für unsere Wahrnehmung? Diese Verschränkung erlaubt uns, genau genommen, nicht mehr, von isolierten Teilchen, etwa von einzelnen Elektronen zu reden. So etwas gibt es nicht. Die klassische Zerlegung eines Ganzen in seine Teile ist, streng genommen, verboten. Denn alles steht mit allem irgendwie in Relation. Dennoch sind wir gezwungen, das Ganze in seine Einzelteile zu trennen, weil wir sonst über die verschränkte Welt gar nicht sprechen können. Und reden müssen wir schon miteinander, um uns unsere Erfahrungen (auch die experimenteller Art) mitteilen zu können.
Keine außersinnliche Wahrnehmung
Um jedem Missverständnis vorzubeugen: Aus der Tatsache, dass Photonen über große Entfernungen miteinander kommunizieren können, folgt nicht, dass der menschliche Geist dasselbe tun kann und es also eine Art Telepathie gibt. Denn in dem beschriebenen Experiment wird keinerlei Information zwischen den beiden Messapparaturen ausgetauscht. Jeder Experimentator erhält an seinem Detektor eine zufällige Zahlenreihe, aus der er nichts über die seines Kollegen erfahren kann. Die Korrelationen, die die Verschränkung der Quantenwelt zeigen, können erst erkannt werden, wenn die beiden Zahlenreihen nebeneinanderliegen. Die Quantentheorie kann ebenso wenig zur Erklärung sogenannter telekinetischer Fähigkeiten verwendet werden. Immer wieder liest man davon, dass es einem Menschen mit seinem Willen gelungen sein soll, den Zeitpunkt zu beeinflussen, zu dem ein radioaktives Element zerfällt. Zur Deutung dieser Leistung wird dann dunkel etwas über die Quantenwirklichkeit geraunt, die von der menschlichen Kenntnis über diese Vorgänge abhänge und demnach vom menschlichen Willen gesteuert werden könne. Tatsache ist, dass sich in allen Fällen, in denen der radioaktive Zerfall registriert worden ist, herausgestellt hat, dass die Statistik des Gesamtvorgangs unverändert geblieben ist. Dies hat auch der willensstärkste Beobachter bislang nicht ändern können. Sollte es eines Tages dennoch einmal durch »telekinetische Kräfte« gelingen, hierauf Einfluss zu nehmen, könnte man sich jedoch nicht auf die Quantenmechanik berufen, denn sie wäre gerade dann verletzt. Die Verschränkung der Quanten kann also nicht verwendet werden, um das angebliche Phänomen einer außersinnlichen Wahrnehmung wissenschaftlich aufzuwerten. Und falls es in ferner Zukunft einmal ein Experiment geben sollte, mit dem ESP-Korrelationen (ESP = extra sensory perception) genau so sicher festgestellt würden wie EPR-Korrelationen, dann wäre damit die ganze Physik (unabhängig von jeder Quantenannahme) herausgefordert. Solche Nachweise gibt es heute jedenfalls nicht, und ich rechne nicht damit, dass es sie jemals geben wird.
7
Murray Gell-Mann (*1929)
Das Quark und der Jaguar
Murray Gell-Mann stammt aus New York und hat eine dröhnende und durchdringende Stimme. Er ist überhaupt ein selbstbewusster Mann, was vielleicht mit seiner von ihm gern und stolz vorgeführten Fähigkeit zu tun hat, einfach alles zu wissen und zu können – so jedenfalls wirkt Gell-Mann gern auf andere, die mit ihm ins Gespräch kommen wollen. Im Bereich der Natur kennt er sich exzellent aus und in kulturellen Dingen weiß er das meiste schon, egal ob es um Details der Kirchengeschichte, architektonische Feinheiten von Barockgebäuden, Webmuster von Perserteppichen geht. Gell-Mann spricht mehrere Fremdsprachen, darunter so ungewöhnliche wie das Suaheli, und vermag darüber hinaus bei vielen Sprechern sogar deren regionale Eigenarten zu benennen und ihre Dialekte lokal zuzuordnen. Oft erklärt er Besuchern aus entlegenen Gebieten der Welt, wie ihre Namen eigentlich – also: korrekt den Regeln nach – auszusprechen seien. Der große deutsche Komiker Loriot würde in solchen Fällen vielleicht sagen: »Professor Gell-Mann, Sie haben ja recht, aber das macht Sie nicht sympathisch.«
Quark
Der Überflieger Gell-Mann begann am Ende des Zweiten Weltkriegs mit dem Studium der Physik an der Yale Universität und promovierte 1951 am Massachusetts Institute of Technology (MIT) in Boston, und zwar bei dem aus Österreich stammenden Physiker Viktor Weisskopf, der in seiner Autobiografi e Mein Leben davon erzählt, dass der Student Gell-Mann in den Vorlesungen nie mitschrieb, sondern besonders genau hinhörte, um den Lehrer bei einem Irrtum zu erwischen – was den aber nur anspornte. Mitte der 1950erJahre stieg Gell-Mann selbst zum Professor auf, und zwar wurde er als Kollege des bereits vorgestellten Richard Feynman an das California Institute of Technology in Pasadena berufen. Dieser liebevoll als »Caltech« bezeichneten Institution blieb er bis zu seiner Emeritierung im Jahre 1993 treu. Dazu sollte man wissen, dass Gell-Mann 1967 an seinem Arbeitsplatz eine hübsche Karriere machte, als seine normale Professur in eine verwandelt wurde, die einen berühmten Namen trägt. Gell-Mann wurde Robert-Millikan-Professor für Physik, wobei Millikan den mit Nobelehren versehenen Gründer des Caltech meint. Die amerikanischen Universitäten ehren mit diesen name professorships gerne ihre großen Forscher und binden sie an sich – nicht zuletzt, indem sie ihnen bessere Bezüge und Privilegien gewähren. Gell-Mann nutzte sie, um möglichst wenig Lehre zu betreiben. Seine Seminare handelten stets von aktuellen Problemen der Physik, also von dem, was ihm gerade durch den Kopf ging.
Am Caltech drang Gell-Manns Fantasie immer tiefer in die Materie, genauer gesagt, in die immer kleiner werdenden Teilchen der Atome ein, wobei seine grundlegenden und weiterführenden Beiträge vor allem aus den Jahren zwischen 1954 und 1964 stammen, also aus dem Zeitraum zwischen seinem 25. und seinem 35. Lebensjahr. Damals kam er zu der zunächst wenig akzeptierten Einsicht, dass die Vielfalt der atomaren Bausteine, die von der überwiegenden Zahl seiner Kollegen als elementar betrachtet wurden, erst dann zu verstehen und in eine Ordnung zu bringen ist, wenn man annimmt, dass sie eine innere Struktur aufweisen und insofern aus anderen, noch kleineren Teilchen aufgebaut sind. Es sind dann erst diese Gebilde, die es überhaupt verdienen, mit dem Attribut »elementar« ausgezeichnet zu werden. Gell-Mann kam in Kalifornien – unter anderem in Kooperation mit dem aus Moskau stammenden George Zweig – zunächst zu dem Schluss, dass genau drei solcher Grundbestandteile nötig sind, um zum Beispiel ein Proton zu formen, wie es aus Atomkernen bekannt ist. Diese Dreizahl inspirierte ihn zu einem seltsamen Namen, der ohne Rücksicht auf die Eigentümlichkeiten der deutschen Sprache eingeführt wurde und trotzdem auch hierzulande populär geworden ist. Immerhin gibt es eine Fernsehshow, die sich mit ihm schmückt (und die wir gleich nennen).
Als Gell-Mann über das Innenleben von Protonen und anderen Kernbausteinen grübelte, las er immer mal wieder zur Entspannung in dem Roman Finnegans Wake von James Joyce, der als ein Roman der Sprache selbst verstanden werden muss und keine Handlung von Personen im üblichen Sinne kennt. Gell-Mann gefielen die vielen Wortspiele, die Joyce unternahm, und er wurde besonders aufmerksam, als auf Seite 383 seiner Ausgabe zu lesen stand, wie ein Mann namens Mark etwas zum Trinken (Bier) bestellte, was im Englischen gewöhnlich in quarts geschieht, die »kworts« gesprochen werden. Aus dem Protagonisten Mister Mark machte Joyce einen »Muster Mark«, der statt eines Quarts merkwürdigerweise »three quarks« orderte, die »kworks« zu sprechen sind und genau das waren, was Gell-Mann suchte, nämlich drei Teilchen für ein Proton.[5]
Prompt nannte er seine elementaren Teilchen »Quarks«, offenbar ohne zu wissen, woher Joyce das Wort hatte: nämlich von Markgräfler Marktfrauen, die auf einem Bauernmarkt in Freiburg, den der durchreisende Dichter aufsuchte, Quark als ein bekanntes Milchprodukt feilboten. Zudem war sich Gell-Mann anscheinend nicht bewusst, dass das Wort in seinem Herkunftsland Deutschland außerhalb der Welt der Lebensmittel keinen besonders guten Ruf hat. Der große Goethe zum Beispiel hat sich seinen Spaß mit ihm gemacht, als er in seinem Faust dem Teufel die Chance gibt, den Forschergeist des Menschen mit den Satz zu charakterisieren: »In jeden Quark begräbt er seine Nase.« Und wenn sich eine Wissenschaftssendung Quarks & Co nennt, dann erkennt man leicht, dass die Verantwortlichen zeigen wollen, dass sie sich in der Physik auskennen. Aber wir se-hen zugleich auch, dass ihnen das nötige Sprachgefühl abgeht, wenn sie Quark der Art produzieren, den man nicht verspeisen kann.
Doch lassen wir das Milchprodukt, wo es hingehört, nämlich bei den Lebensmitteln. Hier geht es um Wissenschaft und die physikalische Mehrzahl Quarks (sprich: kworks). Ihr Schöpfer erhielt ihretwegen 1969 den Nobelpreis für Physik, wobei man genauer sagen muss, dass die Schwedische Akademie Gell-Mann insgesamt »für seine Beiträge und Entdeckungen betreffend der Klassifi zierung der Elementarteilchen und deren Wechselwirkungen« ausgezeichnet hat. Diese Begründung hat zwei Seiten. Auf der einen drückt sie aus, dass Gell-Mann mehr als die eben erwähnte ursprüngliche Idee von (drei) elementaren Bausteinen vorzuweisen hat, nämlich eine – gemeinsam mit Feynman im Jahre 1957 aufgestellte – Theorie des radioaktiven Betazerfalls und seiner Teilchen, die durch die schwache Wechselwirkung erzeugt werden. Auf der anderen Seite übergeht die schwedische Begründung eindeutig Gell-Manns Theorie zum Aufbau der Materie, die er im Anschluss an die erste Einführung seiner Quarks ausarbeiten konnte. Sein Vorschlag für eine Konstruktion der Welt von unten operiert nicht nur mit mehr als den drei frühen Quarks, er führt darüber hinaus noch weitere Eigenschaften (sogenannte Farbladungen) ein, um so in einem Standardmodell alle Merkmale der atomaren Materie zu liefern. Doch auf dieses Gedankenspiel geht die Schwedische Akademie nicht ein. Sie zeichnet nur aus, was der junge Gell-Mann geleistet hat, und hält sich ansonsten dezent zurück.
Der Jaguar
Es gibt viele Physiker, die ähnlicher Meinung sind, dass der späte Gell-Mann sich zwar bemüht, aber zugleich auch verirrt hat. Sein umfassendes Quarkmodell, das technisch Quantenchromodynamik (QCD) genannt wird und mit die-sem Namen an Feynmans funktionierende Quantenelektrodynamik (QED) erinnern soll, kennt nicht nur Befürworter, sondern auch Skeptiker in der Zunft. Und als Gell-Mann nach langer Dienstzeit das Caltech im Alter von 64 Jahren verließ, um sich einer völlig neuen Herausforderung zu stellen, nämlich nach dem Einfachen (der Teile) das Komplexe (des Ganzen) zu erforschen, verloren einige Kollegen jedes Interesse an seinem Tun. Tatsächlich ist es sehr ruhig um den sonst so lauten Mann geworden.
Dabei klingt höchst aufregend, was Gell-Mann nach seinem Abschied von Kalifornien unternahm. Er zog nach New Mexico, um an dem in Santa Fe eingerichteten Institut mitzuwirken, das seit den 1980er-Jahren konzipiert worden war, um eine Wissenschaft der Komplexität auf die Beine zu stellen, mit der man die bisherigen Grenzen des Wis-sens erweitern und sich den realen Problemen einer bekanntlich keinesfalls einfachen Welt stellen kann.
Seinen abenteuerlichen Versuch, dabei eine neue Erklärung für den Menschen betreffende physikalische Phänomene zu finden, hat Gell-Mann in seinem 1994 erschienenen Buch Das Quark und der Jaguar beschrieben. Der Titel geht auf ein Gedicht des chinesisch-amerikanischen Poeten Arthus Sze zurück, der mit einer Indianerin vom Stamm der Hopi verheiratet ist. Nachdem Sze von Gell-Mann nicht nur etwas über Quarks erfahren, sondern auch von dessen Zusammentreffen mit einem Jaguar im südamerikanischen Regenwald gehört hatte, brachte er den geheimnisvollen Satz zu Papier: »Das Reich des Quark gleicht einem Jaguar, der in der Nacht umherstreicht.« Physiker würden sich we-niger poetisch ausdrücken und einfach sagen, dass sie eine wunderbare Aufgabe gefunden haben, wenn sie erklären wollen, wie aus den elementaren Quarks komplexe Formen wie ein Jaguar möglich und wirklich werden.
Gell-Mann hoffte in Santa Fe wissenschaftlich nachweisen zu können, dass eine schichtweise entstehende Komplexität im Grunde simplen Regeln folgt, die uns zugänglich sind und ihrerseits zufällig zum Tragen kommen. Er führte das Konzept eines »komplexen adaptiven Systems« ein, das in der Lage ist, Informationen aus der Umwelt zu verarbeiten und dabei Regelmäßigkeiten zu erkennen. Letztere bringt das System sogleich in ein »Schema«, mit dem es anschließend in der realen Welt agieren kann. Gell-Mann will vor allem verstehen, wie beim Zusammenschluss einfacher Teile komplizierte Qualitäten entstehen – man spricht von »Emergenz«, etwa wenn Wassermoleküle zusammen das Phänomen der Flüssigkeit zeigen. Und er möchte emergente Erscheinungen durch simple Formeln und Regeln ausdrücken, um so wissenschaftliche Untersuchungen überhaupt erst zu ermöglichen. Noch arbeitet er an diesem Projekt, und wir nutzen die Zeit, um einen Blick auf die Quarks zu werfen, die Gell-Mann berühmt gemacht haben, und zwar weltweit.
Ordnung im Zoo der Elementarteilchen
Um zu verstehen, was Gell-Manns Quarks zu leisten imstande sind, muss man etwas in die Vergangenheit zurückgehen und sich vergegenwärtigen, was die Physiker zu erklären hatten, als die ersten Teilchenbeschleuniger gebaut waren und funktionierten. In der Frühzeit der Physik dachten die Experten, die Welt bestehe aus den wenigen Elementarbausteinen, die sie Elektron, Proton und Neutron nannten. Eines Tages gesellte sich ihnen noch ein kleines neutrales Teilchen hinzu, das Neutrino. Damit – mit der Vierzahl – glaubten sie, fertig zu sein. Doch die Natur tat ihnen den Gefallen nicht. Erst kam in den 1930er-Jahren als Gegenstück zum Elektron das Positron hinzu, danach entdeckten die Physiker Mesonen, die ihrer Masse nach zwischen den winzigen Elektronen und den größeren Protonen liegen, bald tauchten in den Experimenten exotisch wirkende Teilchen auf, die als Myonen und Kaonen bezeichnet werden und jeweils ihre charakteristischen Besonderheiten aufweisen, und irgendwann kam das Wort vom Elementarteilchenzoo auf, unter dessen zuletzt mehr als Hunderten von Mitgliedern es dringend Ordnung zu schaffen galt.
Zahlreiche Physiker verfielen auf die Idee, eine Anleihe bei dem griechischen Philosophen Platon zu machen, der im antiken Athen den Vorschlag unterbreitet hatte, sich die materielle Welt als eine aus fünf einfachen Körpern gezimmerte vorzustellen. Diese Körper wären laut Platon auf verschiedene Weise anzuordnen und in ihren Kombinationen erzeugten sie die beobachtete Vielfalt. Nun stellte sich die Frage: Konnte man die vielen Elementarteilchen ebenso ordnen und nach Verwandtschaftsbeziehungen einteilen oder Entwicklungslinien zwischen ihnen ziehen? Konnte man sich elementare Urformen der Materie vorstellen, die in geeigneter Gruppierung das ganze Spektrum der nachgewiesenen Teilchen hervorzubringen in der Lage waren?
Die Physiker suchen zu diesem Zweck nach Symmetrien, die mithilfe von besonderen mathematischen Strukturen (Gruppen) zu finden sind. Man hatte nun zu Beginn der 1960er-Jahre eine Gruppe gefunden, die nicht nur alle Teilchen, die durch einen regelmäßigen Aufbau entstanden waren, als Gebilde erkennen ließ, sondern die darüber hinaus noch die Existenz eines Elementarteilchens – mit dem zwar merkwürdigen, aber systematischen Namen »Omega Minus« – vorhersagte. Ebendieses Teilchen kannte man noch nicht, dafür aber entdeckte man es bald. Weil es genau mit den Eigenschaften ausgestattet war, die man aus der Theorie der Gruppen abgeleitet hatte, konnten die Forscher es gezielt suchen und zuletzt auch aufspüren.
Mit diesem Triumph rückte eine große Frage in das Zentrum der Physik, nämlich die Frage, ob sich unter den nachgewiesenen Teilchen eine grundlegendere Schicht der Materie finden lässt, deren Elemente durch Kombination konkret die Rekonstruktion der bekannten Elementarteilchen ermöglicht. So wie man Schneeflocken durch die ihnen zugrunde liegenden Wassermoleküle und ihre physikalischchemischen Eigenschaften erklären kann, wollte man auch den Zoo der Elementarteilchen auf einige ihren Formen zugrunde liegende Bausteine zurückführen. Es waren Gell-Mann und Zweig, die 1964 das Bauprinzip entdeckten, das heute mit dem Begriff »Quarks« operiert – wobei sie von Anfang an eine riskante oder mutige Annahme machen mussten, die gemeinhin als verrückt gelten musste.
Ausgangspunkt aller Überlegungen ist die Tatsache, dass die elektrische Ladung wie viele andere Eigenschaften der physikalischen Wirklichkeit Quantencharakter zeigt. Sie existiert nur als Vielfaches einer Elementarladung, die dem Elektron zukommt und die Robert Millikan entdeckt und ausgemessen hatte – also der Physiker, nach dem der Lehrstuhl benannt war, den Gell-Mann später besetzen sollte. Das heißt, man müsste eigentlich sagen, dass es Millikan war, der das Quantum der Ladung entdeckt hat, denn als Gell-Mann den Vorschlag machte, ein Proton aus Quarks aufzubauen, legte er seinen Kollegen die Existenz von Teilchen ans Herz, die nur ein oder zwei Drittel der Elementarladung tragen konnten. Da haben wir erneut das zugleich paradoxe und bewährte Hamlet-Prinzip der Physik – etwas ist Wahnsinn, aber es hat Methode. Und tatsächlich sind die Physiker heutzutage längst von der Existenz der Quarks und ihren Drittelladungen überzeugt, allerdings mit einem berühmten Twist: Quarks existieren nur im Verbund. Sie können nicht alleine (frei) umhereilen. Sie bleiben in den Teilchen eingesperrt, die aus ihnen bestehen. Dieses confi nement, wie es auf Englisch heißt, kann man sich veranschaulichen, wenn man annimmt, dass die Quarks durch eine Kraft zusammengehalten werden, die wie eine Kette wirkt, mit dem ein Hund an seine Hütte angebunden ist. Solange der Hund in ihrer Nähe bleibt, spürt er die Fessel kaum, die ihn bindet. Will er aber ausreißen, spannt die Kette an und hält ihn fest.
Die Vielfalt der Quarks
Quarks sind offenbar komisch, und wir brauchen inzwischen eine ganze Palette von ihnen, um die Materie – die Atome und ihre Bausteine – aus ihnen rekonstruieren zu können. Am Anfang war dies noch einfacher, da reichten ganze zwei Sorten aus, um etwa ein Proton zu bauen. Als wir oben erwähnt haben, dass solch ein Kernbaustein aus drei Quarks besteht, fiel unter den Tisch, dass sich in dem Trio zwei Arten unterscheiden lassen, die Physiker als Up- und Down-Quark bezeichnen. Diese Namen haben etwas mit einem besonderen Spin zu tun. Es reicht zu wissen, dass ein Up-Quark u zwei Drittel einer (positiven) Elementarladung und ein Down-Quark d ein Drittel einer (negativen) Elementarladung trägt, was der Kombination uud eine ganze (positive) Ladung verleiht: vier Drittel minus ein Drittel – also genau das, was ein Proton braucht.
Die Teilchen, aus denen die Welt besteht
Familie 1 | Familie 2 | Familie 3 |
---|---|---|
Elektron | Muon | Tau |
Elektron-Neutrino | Muon-Neutrino | Tau-Neutrino |
Up-Quark | Charm-Quark | Top-Quark |
Down-Quark | Strange-Quark | Bottom-Quark |
Die Tabelle zeigt, was die Physiker inzwischen Standardmodell der Welt nennen. Danach gibt es vier elementare Teilchen, die eine Familie bilden, und zwar neben dem Elektron ein so-genanntes Elektron-Neutrino, das fast unbemerkt den Kos-mos durcheilt, und zwei Quarks, die zu ihrer Unterscheidung Vornamen bekommen haben (up und down). Auf energetisch höheren Ebenen finden sich zwei weitere vierköpfi ge Familien, deren Mitglieder namentlich aufgeführt sind und im weiteren Text zu den Quarks erläutert werden. Alle genannten Partikel konnten in aufwendigen Experimenten nachgewiesen werden, was eine bewundernswerte Leistung darstellt. Offenbar ist die Welt im Innersten wohlgeordnet, wobei auffällt, dass die Moderne auf dieselbe Vierzahl kommt wie die Antike. (Die Vierzahl steckt merkwürdigerweise auch in der Erbsubstanz DNA mit ihren vier zentralen Bausteinen (Basen), die wiederum aus vier Atomen bestehen.)
Insgesamt konnte Gell-Mann alle bekannten atomaren Bausteine als Quarkkombination bestimmen, und als raffi nierte Messungen über eine »tief-inelastische Elektron-Nukleon-Streuung« den Nachweis erbrachten, dass es im Inneren von Protonen und Neutronen andere (kleinere) Strukturen ge-ben musste, galt die Existenz von Quarks als experimentell abgesicherter Tatbestand. Der konnte bald allgemeiner durch den Satz formuliert werden, dass sämtliche Teilchen, die der starken Wechselwirkung unterliegen, aus Quarks zusammengesetzt zu denken sind. Man nennt diese Bausteine der realen Welt Hadronen (nach dem griechischen Wort für »dicht«). Handelt es sich bei den Hadronen um Fermionen, also um Teilchen mit einem halbzahligen Spin, sprechen die Physiker von Baryonen (nach dem griechischen Wort für »schwer«). Diese setzen sich aus drei Quarks zusammen. Handelt es sich bei den Hadronen um Bosonen mit ganzzahligem Spin, sprechen die Physiker von Mesonen (nach dem griechischen Wort für »mittel«). Sie setzen sich aus zwei Quarks zusammen, wobei man eigentlich genauer von einem Quark und einem Antiquark sprechen müsste.
Niemand sollte sich durch die vielen Namen abschrecken lassen. Es ist eben unvermeidlich, dass viele Kinder viele Namen haben, was aber nicht den Blick auf die Attraktivität des Quarkmodells verstellen sollte. Tatsächlich schaffte Gell-Mann auf diese Weise eine erste Ordnung im anfänglich unübersichtlichen Teilchenzoo. Er fand dabei ein Gebilde, das auch Menschen lockte, die nichts oder wenig mit Physik im Sinn hatten. Gell-Mann bemerkte zudem, dass die zwei (ursprünglichen) Quarks auf acht verschiedene Weisen in Dreiergruppen kombiniert werden konnten, um Hadronen zu bilden. Damit gelang es, genauer gesagt, Mesonen und Baryonen in Form von Oktetten anzuordnen, und der nie um große Worte verlegene Gell-Mann nannte dies den »achtfachen Weg«, wohl wissend, dass er damit einen buddhistischen Begriff benutzte.[6] Tatsächlich löste Gell-Manns Vorschlag, in der Welt der Quarks einen achtfachen Weg einzuführen, eine Welle von Literatur über ein mögliches Tao der Physik und eine tiefe Verbindung zwischen östlicher Weisheit und westlicher Wissenschaft aus.
Bald jedoch merkten die Physiker, dass sie mit den Kombinationen aus zwei Quarksorten – up und down – nicht auskamen und dringend weitere Arten benötigten, die heute als quark-fl avours – also als Geschmacksrichtungen – unterschieden werden. Wem diese Sprache komisch vorkommt, dem stehen noch weitere Überraschungen ins Haus, denn die zusätzlichen Quarks heißen »charmant«, »seltsam«, »oben« und »unten«. Es gibt also neben den u- und d-Quarks noch c-, s-, t- und b-Quarks, wobei die Buchstaben englische Wörter abkürzen – charm, strange, top und bottom. Aber auch damit hat das grausame Spiel noch kein Ende, denn wie sich herausstellte, tragen die Quarks neben ihrer Masse nicht nur elektrische Ladungen mit sich herum. Sie zeichnen sich zudem noch durch eine andere Eigenschaft aus, der man den Namen »Farbladung« gegeben hat, obwohl es weder um Farbe noch um Ladung geht, wie wir sie kennen. Ein jedes Quark kann einen von drei Werten annehmen, die man als Rot, Grün und Blau bezeichnet. Und wenn das auch nichts mit den Farben unseres Alltags zu tun hat, so sind die Bezeichnungen doch so gewählt, dass wir damit etwas verstehen können. Denn wenn jemand mit einem Projektor rotes, grünes und blaues Licht auf eine Leinwand wirft, entsteht ein Fleck, den unser Auge als weiß empfindet. (Diese additive Farbmischung darf nicht mit der subtraktiven Mischung verwechselt werden, die bei Malfarben auftritt.) In der Physik kann man das Weiß als null deuten, und die Theorie, die das alles mathematisch sauber erfasst und deshalb Quantenfarbdynamik – oder Quantenchromodynamik – heißt, sagt voraus, dass Quarks nur farbneutral, also weiß, vorliegen können. Folglich ist es ihre Farbe, welche die Quarks an der Kette hält, um an das oben benutzte Bild anzuschließen, und so versteht man, wieso Quarks nicht einzeln in Erscheinung treten.
Die Konstruktion der Quarks
Nicht alle Physiker sind überzeugt, dass die Farben der Quarks wirklich vorhanden sind oder wirklich benötigt werden, um die Realität der atomaren Ebene zu erklären. Und die Quantenchromodynamik kämpft noch mit einer Menge Schwierigkeiten. Trotzdem faszinieren die Quarkteilchen. Sie haben auch Soziologen angelockt, die begreifen wollen, was es mit der Wirklichkeit von Objekten auf sich hat, die nicht als individuelle Teilchen fassbar sind. Sind die Quarks etwas, das es gibt und das entdeckt worden ist – durch Gell-Mann und andere? Oder sind die Quarks etwas, das erfunden worden ist – durch Gell-Mann und andere? Der Wissenschaftshistoriker Andrew Pickering hat dieser Frage in den 1980er-Jahren ein Buch mit dem Titel Constructing Quarks gewidmet, in dem er auf den allgemein gültigen, wenn auch oft übersehenen Tatbestand hinweist, dass Physiker kreative und damit aktiv konstruierende Menschen sind, die die Welt, welche real existiert, mit Din-gen verstehen, die es vielleicht nur in Lehrbüchern gibt. Tatsächlich hat Gell-Mann seine Quarks anfänglich als »rein mathematische Gebilde« betrachtet, wie Max Planck es bei seinem Quantum der Wirkung und den damit möglichen Quantensprüngen ebenfalls getan hat. Dann aber hat sich Gell-Mann entschlossen, sie als reale physikalische Teilchen zu deuten – eine Entscheidung, mit deren Folgen wir bis heute beschäftigt sind, auch wenn Gell-Mann selbst sich höheren Aufgaben zugewandt hat.
8
Anton Zeilinger (*1945)
Die Welt und unsere Informationen
»Ich bin nicht ein Anhänger des Konstruktivismus, sondern ein Anhänger der Kopenhagener Interpretation. Danach ist der quantenmechanische Zustand die Information, die wir über die Welt haben. Es stellt sich letztlich heraus, dass Information ein wesentlicher Grundbaustein der Welt ist. Wir müssen uns wohl von dem naiven Realismus, nach dem die Welt an sich existiert, ohne unser Zutun und unabhängig von unserer Beobachtung, irgendwann verabschieden.« So hat sich der aus Ried im Innkreis stammende Anton Zeilinger in den 1990er-Jahren in einem Interview geäußert, das im Internet zugänglich ist. Zeilinger arbeitet nach einigen Jahren in Innsbruck seit 1999 an der Universität Wien, und zwar als Universitätsprofessor für Physik wie es schön wuchtig in der Sprache seiner österreichischen Heimat heißt. Er kümmert sich sowohl um experimentelle als auch um theoretische Belange seines Fachs. Mit dem Gang in die Hauptstadt ist Zeilinger an den Ort zurückgekehrt, an dem er seine Studienzeit verbracht hat. Zuvor aber hat er noch im Januar des letzten Jahres vor Beginn des neuen Jahrhunderts einen fundamental wichtigen Artikel bei der Zeitung Foundations of Physics eingereicht. Zeilingers Aufsatz mit dem Titel »Ein Grundlagenprinzip für die Quantenmechanik« verspricht, ein ebensolches vorzustellen, und seine maßgebliche Idee klingt so schlicht und einfach wie überraschend. Sie verbindet die physikalische Welt mit einem alltäglichen Begriff und kommt in acht Worten daher. Zeilingers Prinzip lautet: »Ein elementares System trägt ein Bit an Information.«
Es gibt Kollegen, die meinen, dass die Forschungswelt mit diesem Vorschlag an die Wurzel der physikalischen Wirklichkeit gelangen und durch die unternommene Verknüpfung endlich verstehen kann, wieso es Quantensprünge gibt. Doch bevor wir uns darauf einlassen, soll es um andere Beiträge gehen, die Zeilinger zur Physik geliefert hat.
Bells Ungleichung – digital
Wenn oben von einem Bit die Rede war, dann ist damit die Einheit der Information gemeint, die der Amerikaner Claude Shannon 1948 in A Mathematical Theory of Communication einführte, wobei das Kunstwort »Bit« als eine Zusammenziehung von binary digit gebildet wurde. Shannon hatte erkannt, dass alle Nachrichten oder Informationen durch Systeme mit zwei Zeichen – eben durch binäre Systeme – ausgedrückt werden können, die am besten durch 0 und 1 zu realisieren sind, weil dabei in einer elektronischen Rechenmaschine entweder ein Strom fließt oder nicht oder ein Schalter ein- oder ausgeschaltet ist. Shannon läutete mit seinen Überlegungen unser digitales Zeitalter ein, das heute durch Computer repräsentiert wird. Jede Nachricht oder Information kann als Folge von Nullen und Einsen geschrieben werden, und das digitale Prinzip kann auch in der Wissenschaft helfen, wenn man Untersuchungen macht, bei denen nur 0 und 1 als Messergebnisse denkbar sind. Dann gibt es jedenfalls kaum Messfehler.
Zwar tauchen die Bits explizit erst 1999 auf, aber das digitale Denken beschäftigte Zeilinger von Anfang an. Wenn man es mit einem Satz sagen will, kann man Zeilingers ersten großen Auftritt in der Welt der Physik aus dem Jahre 1989 so formulieren: Er hat ein Gedankenexperiment ausgetüftelt, bei dem Bells Ungleichung digitalisiert wurde, das heißt, man konnte nun ihre Stimmigkeit durch Ereignisse prüfen, die entweder stattfanden oder nicht, die also entweder eine 1 oder eine 0 ergaben.
Der Grund, aus dem Zeilinger sich mit den Merkwürdigkeiten von Bells Ungleichung beschäftigte, fi ndet sich nicht zuletzt in seinen österreichischen Wurzeln. Sie hatten eine unvermeidliche Verehrung des großen Erwin Schrödinger zur Folge, dem wir den wunderbaren Vorschlag der Verschränktheit verdanken. Ebendiese Qualität der Quantenwelt wird, wie erwähnt, durch Bells Ungleichung überprüfbar. Das klingt im Prinzip gut, aber macht im Detail viel Mühe. Zeilinger kam nun Ende der 1980er-Jahre – in Kooperation mit Daniel Greenberger aus New York und Michael Horn aus Boston – auf die Idee, die Verschränktheit nicht mit den üblichen zwei, sondern mit drei Quantenteilchen zu erproben. Dabei stellte sich heraus, dass in dem Fall die relevanten Wahrscheinlichkeiten (Messergebnisse) nur Null oder Eins sein konnten. Was zunächst nur als Gedankenexperiment konzipiert war, konnte ein Jahrzehnt später durch David Mermin tatsächlich ausgeführt werden. Seitdem spricht die Fachwelt von dem GHZ-Experiment (Greenberger-Horn-Zeilinger-Experiment), mit dem sich das scheinbar Absurde der Quantenwelt als wirkliches Geschehen nachweisen lässt: Ihre Realität ist tatsächlich nichtlokal. Sie wirkt vielmehr weltumspannend, global. Das legt einen Gedanken nahe, der Zeilinger bald erfasste und erregte und um den es in den nächsten Abschnitten geht.
Wir wenden uns zunächst dem GHZ-Experiment zu, das so seine logischen Tücken aufweist. Zeilinger selbst hat in seinem lesenswerten Buch Einsteins Schleier, das die neue Welt der Quantenphysik aus seiner Sicht darstellt, das Vertrackte des Nachweises einer nicht-lokalen Quantenwelt, welcher mit dem GHZ-Vorschlag möglich wurde, in ein Märchen verpackt. Dieses spielt in einem fernen Königreich, in dem ein böser Tyrann regiert. Eines Tages erhält der Tyrann die Kunde, dass drei Magier unterwegs seien, um ihn zu töten. Um sie ausfindig zu machen, befragt der Tyrann ein Orakel, das ihm Folgendes sagt: Wenn einer aus der Gruppe der Magier ein Mann ist, dann hat von den beiden anderen einer helles und einer dunkles Haar. Wenn eine Magierin dabei ist, haben die anderen dieselbe Haarfarbe.
Die Frage stellt sich jetzt, wonach der Tyrann suchen lassen soll, und Zeilinger geht – mit freundlicher und logischer Hilfe eines Hofnarren – alle Möglichkeiten durch, was aber dem Tyrannen nichts nützt. Er wird trotzdem umgebracht, weil das Orakel, ohne explizit darauf hinzuweisen, keine klassischen, sondern drei Quantenmagier angekündigt hat, die miteinander verschränkt sind. Das bedeutet in Zeilingers Worten, »dass vor ihrer Beobachtung für keinen von ihnen festgelegt ist, ob sie Mann oder Frau sind und ob sie helles oder dunkles Haar besitzen. In diesem Fall gibt es tatsächlich quantenmechanische Zustände, die den beiden Vorhersagen des Orakels entsprechen, sollten die zugehörigen Beobachtungen durchgeführt werden. Gleichzeitig ist es aber auch möglich, dass in einem solchen quantenmechanischen Zustand eine andere Vorhersage, die das Orakel nicht ausgesprochen hat, ebenfalls richtig ist, nämlich: ›Entweder sind alle drei [Magier] Männer, oder es sind zwei Frauen und ein Mann.‹«
Damit ist charmant und treffend zugleich ein GHZ-Zustand beschrieben, wobei das physikalische Märchen nicht von Magiern, sondern von Teilchen handelt. Es operiert zudem mit dem ewig vertrackten Spin und erzählt von seiner in der klassischen Physik nicht erfassbaren Zweideutigkeit, die Teilchen der Quantensphäre fest miteinander verschränken kann.
Mr. Beam
Wenn man die Nichtlokalität der Wirklichkeit ernst nimmt und darüber ins Sinnieren gerät, taucht bald der Gedanke auf, dass sich verschränkte Quantenzustände übertragen lassen. Dies gelingt inzwischen tatsächlich und wird als Quantenteleportation oder kürzer als Teleportation bezeichnet. Als Pionier der Erkundung dieser metaphysischen Korrelationen hat sich kein anderer als Zeilinger hervorgetan. Ihm und seinen Leuten ist solch eine Quantenmagie im Jahre 1997 gelungen. Teleportation meint dabei eine Beeinfl ussung von atomaren Teilchen über eine räumliche Distanz hinweg, ohne dass dafür Zeit benötigt wird und ein physikalischer Übertrag stattfindet. Teleportation erfolgt also unphysikalisch, wie man auch sagen kann, und zwar durch etwas, das außerhalb der Physik liegt und somit im Wortsinne zur Metaphysik gehört. Und wenn sich Worte wie »Quantenmetaphysik« oder »Teilchenmetaphysik« auch beim ersten Hören unsinnig anhören oder esoterisch wirken, so kommt man an dem Tatbestand nicht vorbei, dass die Quantenwelt solche Verbindungen (Verschränkungen) auf seriöser wissenschaftlicher Basis zulässt.
Seit Zeilinger nachweisen konnte, dass die von Einstein etwas leichtfertig als »spukhafte Fernwirkung« verspottete Möglichkeit der physikalischen Realität zu unserer Welt gehört, wird er von Kollegen als »Mr. Beam« bezeichnet. Dieser Name verdankt sich dem merkwürdigen Umstand, dass es einmal in einer populären Science-Fiction-Fernsehserie namens Star Treck einen Commander Kirk gegeben hat, der ab und zu einmal gerne seinen Aufenthaltsort wechseln wollte, und zwar sofort und ohne Zeitverzug. Er gab dann seinem Chefingenieur Scott den längst legendären, im Original leichtverständlichen und unübersetzbaren Befehl: »Scotty, beam me up!« Und so hat erneut die poetische Fantasie eine wissenschaftlich erreichbare Möglichkeit vorweggenommen, nämlich den Wechsel von einem Ort zum anderen, ohne dass dabei Zeit vergeht, die eine Uhr messen kann. Das heißt, natürlich transportiert ein Experiment zur Teleportation weder Materie noch eine Information, da beide nicht schneller als die Lichtgeschwindigkeit unterwegs sein können und also immer Zeit brauchen, um an ein anderes räumlich getrenntes Ziel zu kommen, selbst wenn das noch so nahe liegt. Was bei der Teleportation übertragen wird, das sind vielmehr die messbaren Eigenschaften von Quantenobjekten – Atomen, Elektronen etc. –, also die Zustände, in die sie durch einen Beobachtungsvorgang gebracht worden sind. Wenn man also sagt, zwei Quantenobjekte sind verschränkt, dann meint man, dass die Messung eines von ihnen zugleich mit bestimmt, was die Messung des zweiten ergeben würde, falls man sie machen würde. Darin liegt auch die experimentelle Schwierigkeit beim Nachweis einer Verschränkung. Sie besteht in der Merkwürdigkeit, dass man zum einen den korrelierten Zustand, über den man etwas behauptet, ohne Messung nicht kennen kann, dass man ihn aber zum anderen im Falle einer Messung erneut verändert.
Trotzdem haben Physiker längst Teleportation über große Distanzen nachgewiesen, wobei man sich das Ergebnis so veranschaulichen kann, dass man zwei Würfel dazu bringt, bei jedem Wurf die gleiche Augenzahl anzuzeigen, ganz gleich, wo sie hinrollen. Zeilinger gelingt das spielend, und wenn man ihn fragt, was er damit anstrebt – neben dem Glücksgefühl, die seltsamen Quantensprünge verstehen zu können und der paradoxen Quantennatur näher zu kommen –, dann weist er unter anderem auf die Möglichkeit von abhörsicheren Kommunikationswegen hin. Denn wenn jemand in einen Quantenvorgang eingreift, ändert er dadurch die Zustände, die korreliert werden. Wenn es also Quantenkommunikation gibt, dann kann man immer wissen, ob jemand die Leitung angezapft hat oder nicht. Mit anderen Worten: schlechte Zeiten für Spione, die keine Quantensprünge kennen.
Quanten und Information
Zeilinger kann noch mehr. Er ist zum Beispiel in der Lage nachzuweisen, dass die Gegenstände dieser Welt auch dann eine Quantennatur zeigen, wenn sie größer, ja viel größer als Elektronen sind. Er hat sich an Neutronen und sogenannte Buckyballs gewagt, die aus rund 50 Kohlenstoffatomen bestehen, und er visiert nun biologische Strukturen wie Viren an. Natürlich kann es dabei nur um Dinge gehen, die wir nicht mit unserem bloßen Auge wahrnehmen können. Denn wenn etwas Sichtbares einen von zwei möglichen Wegen (Doppelspalt) nimmt, sehen wir ja, wo es langläuft, und mit dieser Beobachtung verändern wir das Betrachtete so, dass bei ihm der Quantenspuk vergeht und verpufft.
So spannend dies alles ist – was Zeilinger noch mehr antreibt und schon frühzeitig faszinierte, war der Gedanke des großen Niels Bohr, der darauf beharrte, dass es in der Physik gilt, einen verbreiteten Irrtum aufzugeben. Die Wissenschaft von der Physik, so Bohrs eigentlich banale Ansicht, beschreibt nicht die Natur, wie vielfach angenommen wird; die Physik beschreibt vielmehr das menschliche Wissen von der Natur. Wer diesen Satz ernst nimmt – und Zeilinger tut es –, kann daraus folgern, dass es eigentlich keinen Unterschied zwischen der Wirklichkeit und unserer Information über sie gibt. Realität und Wissen sind, so gesehen, nur zwei Seiten einer Medaille. Diesen Gedanken spricht Zeilinger knallhart aus: »Wirklichkeit und Information sind dasselbe.« Wenn man dies erst einmal geschluckt hat und sich daran erinnert, dass Information durch sogenannte Bits festgelegt und gemessen werden kann – in einem Computer ist das eine Folge aus Nullen und Einsen –, dann wird einem plötzlich etwas klar: Man weiß jetzt, warum die Welt im Bereich der Atome nicht kontinuierlich erscheint und stattdessen ihre Quantennatur offenbart. Unser Wissen über die Natur drücken wir durch die diskreten Einheiten aus, die oben als Bits eingeführt worden sind, und daher tritt uns auch die Welt in dieser Form entgegen. Es gibt in der Wirklichkeit Quanten und Quantensprünge, weil unser Wissen aus diskontinuierlichen (sprunghaften) Einheiten besteht.
Mit diesen Überlegungen sind wir tief in den Bereich der aktuellen Grundlagenforschung, wie sie in der modernen Physik betrieben wird, eingedrungen. Zeilingers Verdienst ist es, dass er schon länger versucht, zwei Einsichten angemessen zu berücksichtigen:
Zum einen weiß die Physik, dass Information etwas grundlegend Physikalisches ist. Sie weiß das, nachdem sie mehr als hundert Jahre gebraucht hat, um den Dämon zu vertreiben, den sich der schottische Physiker James Clerk Maxwell im 19. Jahrhundert ausgedacht hat. Maxwell wollte wissen, ob es einen apparativen Dämon geben kann, der verhindert, dass sich zwei Gefäße mit unterschiedlicher Temperatur angleichen, und statt dessen dafür sorgt, dass das warme heißer und das kühle kälter wird. Solch einen Dämon, so weiß man heute, kann es nur deshalb nicht geben, weil dieser über die Eigenschaften der in den Gefäßen zu sortierenden Moleküle, die er nicht alle speichern kann, informiert sein müsste. Es sind zu viele Informationen, die er aufnehmen und löschen muss, um zu funktionieren. Und wenn wir auch hier keine Details anführen können, so wird doch einsichtig, dass Information zwar genuin zur physikalischen Beschreibung von Wirklichkeit gehört, dort aber bis heute nicht vorkommt. Das möchte Zeilinger ändern.
Zum Zweiten versucht der scharfsinnige Österreicher konsequent den Gedanken in seine Forschungen einzubinden, dass unser gesamtes Wissen über die Natur aus (ihren und unseren) Informationen stammt. Wenn wir diese Größe unbeachtet lassen, dann muss etwas in unserem Weltbild fehlen. Um diesen Mangel aufzuheben, hat Zeilinger 1999 das eingangs genannte »Grundlagenprinzip für die Quantenmechanik« formuliert, das ganz einfach lautet: »Ein elementares System trägt ein Bit an Information.«
Das ist alles. Aber es ist viel. Es erklärt, warum es überhaupt Quantensprünge gibt (weil wir nur Informationen in dieser diskreten Form bekommen). Und es legt ferner dar, warum es in der atomaren Welt viel der Zufälligkeiten gibt, die Einstein und andere nicht leiden konnten (hier sei nur an Einsteins Worte »Gott würfelt nicht« erinnert.) Wenn wir nämlich ein elementares System, wie es ein Atom mit gegebenen Eigenschaften darstellt, vermessen, gibt es seine Information ab. Mehr geht nicht, denn mehr hat es nicht. Danach kann ihm nicht noch etwas anderes entlockt werden. Jede weitere Messung kann nur noch ein zufälliges Resultat produzieren, wie sich in eleganten Versuchen nachweisen lässt, die Zeilinger mit ersonnen hat.
Zeilinger knüpft mit seinem Prinzip an einen Gedanken des Amerikaners John Wheeler an, der einmal prophezeit hat, dass sich eines Tages die gesamte Physik in der Sprache der Information verstehen lässt. Wheeler hat dies unschlagbar kurz durch die Formel It from Bit ausgedrückt, die er so erläuterte: »It from Bit steht für die Idee, dass jeder Gegenstand der physikalischen Welt an seiner Basis eine nichtmaterielle Quelle und Erklärung besitzt. Was wir Realität nennen, entsteht letztendlich aus Ja-oder-Nein-Fragen und der Registrierung der entsprechenden Antworten. Kurz gesagt, alle physikalischen Dinge sind ihrem Ursprung nach informationstheoretisch, und das in einem ›partizipatorischen Universum.‹« Damit ist eine Welt gemeint, die nicht nur uns hervorbringt (formt), sondern die auch wir hervorbringen (mitgestalten).
In diesem Zusammenhang kann auch die bei den Quarks beschriebene Einsicht eine neue Bedeutung bekommen, der zufolge eine Wissenschaft die Welt nicht entdeckt, sondern so erfindet und hervorbringt, wie es einem Künstler gelingt. Wer dies sagt, wird oft gefragt, ob er damit bestreitet, dass es überhaupt eine Welt »da draußen« gibt. Die Antwort lautet natürlich Nein. Wir wissen sogar genau, dass es etwas »da draußen« gibt. Wir wissen dies durch den Zufall. Ihn können wir nicht erfi nden. Er findet ohne uns seinen Weg zur Wirklichkeit.
Quanteninformation
Zeilingers Prinzip hat Zukunft, obwohl er selbst noch nicht ganz glücklich mit seiner Formulierung ist. Wenn es nämlich heißt, »ein elementares System trägt ein Bit an Information«, was meint man dabei genau mit »trägt«? Zeilinger hat auch schon andere Ausdrucksvarianten probiert: »Der Informationsgehalt eines elementaren Systems ist ein Bit« oder »Ein elementares System entspricht dem Wahrheitswert einer einzelnen Proposition.« Wir wollen offenlassen, welche Formulierung besser passt, und stattdessen betonen, dass Zeilingers Prinzip auf jeden Fall die Möglichkeit bietet, Wheelers Idee und Bohrs Bestehen auf Informationen aus dem Bereich philosophischer Überlegungen in die Sphäre der Physik zu holen. Dabei hat sich ein neues Konzept als hilfreich erwiesen, mit dem die klassische Information ihre Quantenform bekommt. Tatsächlich geistert seit einigen Jahren neben dem Bit das Qubit (sprich: kjubit), das die Quantenversion eines Bits ist, durch die Welt der Wissenschaft. Während ein Bit nur Null oder Eins sein kann, besteht für ein Qubit die Möglichkeit, eine Superposition aus Null und Eins zu sein, etwa eine Eins zu 70 Prozent und eine Null zu 30 Prozent. Bits werden von klassischen Systemen realisiert und Qubits von Quantensystemen. Bits sind wahr (1) oder falsch (0), wie es die klassische Logik will, aber Qubits können alle Werte dazwischen annehmen. Klassisch geht man durch eine Wand mit zwei Schlitzen entweder durch den linken oder durch den rechten Spalt, quantenmechanisch stehen einem beide Möglichkeiten offen, solange niemand fragt, welchen Weg man gewählt hat. Mit Qubits können sehr viel mehr Informationen gespeichert werden, und diese Quanteneinheiten des Wissens können nicht kopiert werden, ohne den ursprünglichen Zustand zu zerstören, wie inzwischen nachgewiesen wurde. Das Qubit, so hat es der Physiker Hans Christian von Baeyer formuliert, »ist das quantenmechanische Werkzeug«, mit dem wir sowohl Wheelers »Gegenstand der physikalischen Welt« als auch Zeilingers »elementares System« beschreiben können. »Das Qubit ist weitaus reichhaltiger als das Bit. Die Stärke von Zeilingers Prinzip erwächst gerade aus der Konfrontation des Qubits – des irreduziblen Bausteins des Nichtmateriellen – mit dem Bit – dem fundamentalen Quantum menschlichen Wissens. Dass diese beiden in einer einfachen Beziehung zueinander stehen, ist vermutlich die einfachste Annahme und gleichzeitig eine tiefe Einsicht.«
Seit 2004 erkundet Zeilinger, der übrigens hervorragend Cello und Kontrabass spielt, verheiratet ist und drei Kinder hat, als Leiter eines Instituts für Quantenoptik und Quanteninformation, kurz IQOQI, was es mit den Qubits auf sich hat und wie wir mit ihnen die Welt schaffen. Wie eingangs zitiert, er ist kein »Anhänger des Konstruktivismus, sondern ein Anhänger der Kopenhagener Interpretation«, also der Denkweise, die die Pioniere eingeführt haben. Folgt man dieser Anschauung, stellt der quantenmechanische Zustand nichts anderes als die Information dar, die wir über die Welt haben. Nur von ihr ist folglich die Rede, wenn wir über die Welt sprechen. Die Welt selbst muss auf der Information aufgebaut sein. Das bedeutet in philosophischer Hinsicht, dass die Welt dann nicht mehr alles ist, was der Fall ist, wie der berühmte Wiener Philosoph Ludwig Wittgenstein in der Mitte der 1920er-Jahre geschrieben hat. Zeilinger hat den besseren Satz formuliert: »Die Welt ist alles, was der Fall ist, und auch alles, was der Fall sein könnte.« Die Welt ist also voller Möglichkeiten. Es liegt an uns, sie zu nutzen und sie offen zu halten für diejenigen, die nach uns kommen.