GRUNDRISS

EIN HÜBSCHES WORT

Wer die Geschichte des Gens schreiben will, sollte gleich zu Beginn genau angeben, welche Geschichte er damit meint. Das Gen in den Zellen trägt die Geschichte mit sich herum, die wir als Evolution kennen und die zuletzt auch uns hervorgebracht hat. Das Gen als Konzept der Wissenschaften unterliegt der Geschichte, in deren Verlauf die moderne und sich vornehmlich molekular orientierende Wissenschaft vom Leben entstanden ist. Der mit ihrer Hilfe gelingende Blick auf die Gene hat noch nicht die Grenze seiner Auflösung erreicht und entdeckt immer neue Möglichkeiten des Einteilens und Eingreifens.

Thema dieses Buches sind vor allem die historisch sich wandelnden Einsichten in die Faktoren der Vererbung und die dabei zustande kommenden Ansichten über die Erbelemente. Sie sind zwar zum ersten Mal im 19. Jahrhundert in den Blick der Naturwissenschaft gekommen - in dem berühmten Klostergarten in Brunn, in dem Gregor Mendel (1822-1884) Erbsen gekreuzt und ihre sichtbaren Eigenschaften statistisch ausgewertet hat -, den heute so populären Namen »Gene« haben sie aber erst zu Beginn des 20. Jahrhunderts bekommen.

Das ebenso beliebte wie hübsche kleine Wort geht auf den dänischen Botaniker Wilhelm Johannsen (1857-1927) zurück. Er orientierte sich am griechischen Begriff genos für Geschlecht und wollte mit seinem »Gen« die Objekte charakterisieren, mit denen sich die Wissenschaft von der Vererbung beschäftigen sollte, die bereits drei Jahre zuvor - nämlich 1906 - ihren bis heute verwendeten Namen »Genetik« bekommen hatte. Dieser Ausdruck war von dem Briten William Bateson (1861-1926) nach dem griechischen Vorbild genetikos - das Hervorgebrachte - gebildet worden, was an dieser Stelle einen ersten Hinweis darauf erlaubt, wie wenig gradlinig es in der Wissenschaftsgeschichte oft zugeht. Es ist nämlich nicht so, dass Wissenschaftler erst Gene entdecken, dann eine dazugehörige Disziplin namens Genetik etablieren und anschließend nach Eigenschaften suchen, denen man das Attribut »genetisch« beimessen kann. Tatsächlich ist die Entwicklung genau umgekehrt verlaufen. Ohne an Gene zu denken, haben Menschen genetische Erscheinungen bemerkt und erkundet - etwa die Gestaltbildungen der Lebensformen, die das Auge erkennen kann und die sich unter der Bezeichnung Morphogenese erforschen lassen. Und schon am Ende des 18. Jahrhunderts ist »die Notwendigkeit der genetischen Methode für alle Naturwissenschaft« gefordert worden, nämlich von Johann Wolfgang von Goethe (1749-1832), der sich im Anschluss an seine Italienische Reise - ab 1795 -für die Metamorphose der Pflanzen interessierte und dabei Fragen nach einem universalen Bauplan formulierte, wie sie die moderne Vererbungsforschung seit einigen Jahren wieder intensiv beschäftigt und wie am Ende des Grundrisses zur Sprache kommen wird.

»Genetisch« meint insofern mehr als »von Genen bedingt« zu sein, und das Attribut hat folglich eine andere Geschichte als das Substantiv »Gen«. Dabei ist nicht auszuschließen, dass beide Entwicklungslinien wieder aufeinander zulaufen, wenn wir ihnen von den genannten Anfängen bis zur Gegenwart folgen, in der eine moderne Molekulargenetik bekanntlich mit Hilfe der Gentechnik Erbmoleküle erst aus Gewebe herausfischen, dann im Reagenzglas zerlegen, anschließend neu zusammensetzen (Rekombination) und sie zuletzt erneut in Zellen einfügen kann, wo sie offenbar wieder ihre Funktion erfüllen. Diese Technologie, mit der seit einigen Jahrzehnten die politische Öffentlichkeit aus ihrem wissenschaftlichen Dornröschenschlaf geweckt wurde, sei bereits hier genannt, weil es mit ihrer Hilfe möglich wird, neben den beiden bereits erwähnten Geschichten des Gens noch eine dritte zu erzählen, die davon berichten könnte, wie ein Gen in einen Organismus und seine Zellen gekommen ist. Bislang sind Gene auf natürlichem Wege durch Vermehrungen und Zellteilungen an den Ort gelangt, an dem sie die moderne Forschung heute findet. In Zukunft werden sich mit technischer Hilfe neue Möglichkeiten öffnen, Gene zu platzieren. Längst finden sich Gene aus menschlichen Bauchspeicheldrüsenzellen in Bakterien und Gene aus Mäusen in Fliegen, um nur einige Beispiele zu nennen. Aus ihnen kann man vor allem lernen, dass es tatsächlich Sinn macht, von Genen allgemein zu sprechen, und es nicht immer nötig ist, den Organismus zu nennen, aus dessen Zellen sie stammen.

Erste exakte Erblichkeitslehren

Als Wilhelm Johannsen 1909 seine »Elemente der exakten Erblichkeitslehre« veröffentlichte, waren ihm die nach Gregor Mendel benannten Regeln der Vererbung (Erbgesetze) bestens vertraut. Sie lassen sich am leichtesten verstehen, wenn man sich vorstellt, dass es in den Zellen partikuläre Elemente -oder elementare Partikel -gibt, die sie verwirklichen. Der Ausdruck »Elemente« stammt noch von Mendel selbst, der diesen Gebilden eine »lebendige Wechselwirkung« zubilligte, in deren Verlauf die vielfältigen Unterschiede hervortreten, die individuelles Leben ausmachen. Johannsen wollte Mendels Entdeckung durch einen wissenschaftlich fundierten Namen auszeichnen, was konkret bedeutete, dass er ein griechisch klingendes Wort für die Elemente suchte, und so trat das »Gen« auf den Plan, wobei sein Schöpfer festhielt:

»Das Wort ›Gen‹ ist völlig frei von jeder Hypothese; es drückt nur die sichergestellte Tatsache aus, daß ...viele Eigenschaften des Organismus durch besondere, trennbare und somit selbständige ›Zustände‹, ›Grundlagen‹, ›Anlagen‹ - kurz, was wir eben Gene nennen wollen - bedingt sind.« Johannsen betonte ausdrücklich: »Zur Zeit ist keine Vorstellung über die Natur der ›Gene‹ genügend begründet.« Er bestand darauf, das Gen »nur als eine Art Rechnungseinheit zu verwenden«, und fügte hinzu, niemand habe »das Recht, das Gen als morphologisches Gebilde zu bezeichnen.«

Das derart postulierte Gen sollte die Grundlage für eine exakte Wissenschaft ergeben, wie der Titel seines Buches nahe legt - das Prädikat »exakt« war bis dahin nur der Physik und der Chemie vorbehalten. Diese beiden Disziplinen gingen nämlich mathematisch vor und operierten mit Zahlenwerten, die aus Messergebnissen stammten. Um ebenso »exakt« werden zu können, benötigte die Genetik ihre eigene »Rechnungseinheit« - eben das Gen -, das man sich unabhängig von den Grundgrößen vorstellte, mit denen etwa die Physik arbeitete. Johannsen und seine Mitstreiter träumten von einer eigenständigen exakten Erblichkeitslehre mit unabhängigen Maßsystemen, die konkurrenzfähig und gleichberechtigt neben Physik und Chemie gestellt werden konnte, ohne jemals in ihr aufzugehen. Anders ausgedrückt: Physiker und Chemiker hatten zunächst nichts auf dem Terrain der Genetik verloren.

So weit sich die Nachwelt inzwischen von den ursprünglichen Definitionen des Gens entfernt hat, so eng ist sie bei einer Gewohnheit geblieben, die ebenfalls Johannsen einführte: »Wenn wir an eine bestimmte Eigenschaft denken, welche durch ein bestimmtes ›Gen‹ bedingt ist, können wir am leichtesten ›Gen der Eigenschaft‹ sagen, statt umständlichere Phrasen wie ›das Gen, welches die Eigenschaft bedingt‹ zu benutzen.«

Die schlechte Gewohnheit, die aus dieser guten Absicht erwachsen ist, lässt sich leicht an der Inflation der Begriffskonstruktionen mit einem »für« in der Mitte ablesen - es gibt inzwischen nicht nur Gene für Augenfarben und Körpergröße, es gibt auch Gene für Untreue, für Neugierverhalten, für das Böse und die Lust auf Kartoffelchips. Es gibt - einigen Zeitungen zufolge - Gene für das Leben und das Sterben, und wer will, kann jeden Tag in den Medien neue Zusammenstellungen dieser Art finden, die meist ohne Sinn sind und sich dem öffentlichen Verständnis dessen in den Weg stellen, was die Genetik über den Menschen sagen kann.

Johannsens heute allen geläufige Bezeichnung für eine Erbanlage greift auf den älteren Ausdruck »Pangen« zurück, der schon im i9.Jahrhundert zirkulierte und einen Gedanken Charles Darwins (1809-1882) aufnahm. Darwins Idee von der verbesserten Anpassung von Lebensformen (Arten) an ihre Umwelt konnte nur funktionieren, wenn die Eigenschaften der Organismen irgendwie von den Zellen abhingen, aus denen sie bestanden (eine Tatsache, die man in den ersten Jahrzehnten des 19. Jahrhunderts nachgewiesen hatte). Die an die Nachkommen zu übertragenden Qualitäten mussten irgendwie aus sämtlichen Regionen des Körpers in das Samenmaterial gelangen, und um auszudrücken, dass wirklich alle Teile des Organismus an der Hervorbringung beteiligt sind, sprach man von einer Pangenese. Für Darwin und seine Zeitgenossen war die Idee der Pangenese selbstverständlich, der zufolge die Zellen eines Organismus kleine Einheiten abgeben, die Darwin 1868 »Gemmulae« -lateinisch für »Keimchen« -nannte und »welche durch den Körper frei circulieren und welche, wenn sie mit gehöriger Nahrung versorgt werden, durch Theilung sich vervielfältigen und später zu Zellen entwickelt werden könnten, gleich denen, von welchen sie herrühren.«

Die von Darwin postulierten Gemmulae gibt es nicht; dies ist heute ebenso bekannt wie die Tatsache, dass die Körperzellen nur wenig mit der Fortpflanzung zu tun haben. Sie gelingt den Organismen mit Hilfe so genannter Keimzellen, die wir auch als Ei- und Samenzelle kennen. Die Entdeckung, dass diese Keimzellen ihren besonderen Lebensweg haben, geht auf den Freiburger Biologen August Weismann (1843-1914) zurück, der sie in seinen berühmten »Vorträgen zur Deszendenztheorie« im Jahre 1904 zum ersten Mal öffentlich vorgestellt hat. Weismann entwickelte darin auch eine Theorie der Vererbung, die von einer »Vererbungssubstanz« in den Keimzellen ausging. Sie sollte sich aus einzelnen »Elementen« zusammensetzen, die als unsichtbare »Determinanten« für die sichtbaren Erscheinungen sorgten, etwa als Determinanten von Gliedmaßen.

So neu Weismanns Unterscheidung von Körper- und Keimzellen war, so alt blieb seine Idee einzelner wirksamer Elemente, die sich schon bei Mendel findet und so etwas wie das damalige Denken widerspiegelt. Sie findet sich in aller Klarheit bei dem holländischen Botaniker Hugo de Vries formuliert, der bereits 1889 in seinem Buch Intracellular Pangenesis erklärte, wie die Eigenschaften des Lebendigen seiner Ansicht nach zustande kommen, nämlich als »das Ergebnis unzähliger verschiedener Kombinationen und Permutationen von relativ wenigen Faktoren«. Damit lag de Vries zufolge die Aufgabe der künftigen Forschung fest. Denn »diese Faktoren sind Einheiten, welche die Wissenschaft zu erforschen hat. Wie die Physik und die Chemie auf die Moleküle und Atome zurückgehen, so haben die biologischen Wissenschaften zu diesen Einheiten durchzudringen, um aus ihren Verbindungen die Erscheinungen der lebenden Welt zu erklären.«

Als de Vries diese Sätze schrieb, kannte er die Arbeiten Mendels noch nicht, obwohl der Augustinermönch seine heute legendären »Versuche über Pflanzen-Hybriden« mehr als dreißig Jahre zuvor vorgestellt und publiziert hatte. Es sollte noch bis zur Jahrhundertwende dauern, bis die Zunft der Vererbungsforscher erneut entdeckte, was Mendel schon 1865 bemerkt hatte: Dass es quantifizierbare Regeln gibt, mit denen die Faktoren (die noch nicht Gene hießen und statt dessen Namen wie Biophoren, Pangene und Gemmulae hatten) von einer Generation zur nächsten weitergegeben werden. Es war dann tatsächlich das Jahr 1900, in dem gleich drei Wissenschaftler das zustande brachten, was gerne als die Wiederentdeckung der Mendel'schen Gesetze gefeiert wird. Die drei Herren heißen Hugo de Vries, Carl Correns und Erich Tschermak. Es war der Tübinger Botaniker Correns, der am besten verstand, was an den Vererbungsregeln entscheidend war, nämlich das zufällige Zustandekommen von Kombinationen aus Erbanlagen im Zellinneren. Von ihm stammt auch die verständnisvolle und eingängige Wortprägung einer »Anlage« oder »Erbanlage«, die später vom »Gen« verdrängt wurde.

Mehr als hundert Jahre nach der Wiederentdeckung der Mendel-'schen Gesetze fällt es ziemlich leicht, von zufälligen Kombinationen zu reden, die Erbelemente (Gene) eingehen, wenn sie weitergegeben werden. Wir sind so sehr an statistische Gesetzmäßigkeiten gewöhnt, dass kaum noch vorzustellen ist, wie schwer es einmal gewesen sein muss, solche Zusammenhänge zu akzeptieren. Das Vorbild aller Wissenschaft war (und ist vielfach noch) die Newton'sche Physik, die Naturgesetze der deterministischen Art vorlegt, mit denen alles berechnet werden kann -etwa die Flugbahn der Rakete, die eine Mondfähre punktgenau auf dem Erdtrabanten absetzen soll. Wenn Gesetze dieser Art wirken, entsteht eine Sicherheit, wie sie selbst Darwin begeistert hat, der annahm, dass die »in so verzwickter Weise voneinander abhängigen Geschöpfe durch Gesetze erzeugt worden sind, die noch rings um uns wirken.« Diese Gesetze sorgen für eine natürliche Zuchtwahl, aus der »unmittelbar das Höchste hervorgeht, das wir uns vorstellen können: die Erzeugung immer höherer und vollkommener Wesen«. Allerdings ist heute klar, dass Darwins Gedanke der Evolution vor allem ein statistisches Gesetz ist, das nicht sagen kann, was die Wirkung der natürlichen Selektion in irgendeinem Einzelfall sein wird, wohl aber, dass sich Organismen, auf lange Sicht gesehen, ihren Lebensumständen anpassen werden und angepasst haben.

Mit Darwins Evolution tritt also in der zweiten Hälfte des 19. Jahrhunderts neben das deterministische eine neue Art von Naturgesetz, nämlich die statistische Art, auf die auch Mendel etwa zur gleichen Zeit stößt, wobei er noch auf eine weitere Komplikation trifft, nämlich die Beobachtung, dass Vererbung nicht kontinuierlich abläuft, sondern diskret (diskontinuierlich) vor sich geht. Dies widersprach dem allgemeinen Vertrauen in Zell- und Lebenssäfte, die auch im medizinischen Denken eine große Rolle spielten. Der feste Glaube, dass die Natur keine Sprünge macht und durchgängig fließend angelegt ist, behauptete lange das Feld. Er wurde durch Beobachtungen von Mischvererbung (blending inheritance) verteidigt - etwa wenn die roten und weißen Blüten der Elternpflanzen bei den Nachkommen rosa wurden - und ließ sich auch nicht erschüttern, als die vermischten Qualitäten eine Generation später wieder einzeln (separiert oder segregiert) auftraten.

Mendel hatte bei dem Schritt zum Unstetigen wohl deshalb keine Probleme, weil er Physik studiert hatte und mit atomistischen Konzepten vertraut war. Mendels Elemente - unsere heutigen Gene -können als Atome des Organischen verstanden werden, deren Wechselwirkungen das Leben und seine Qualitäten so hervorbringen, wie die Atome eines Gases die Eigenschaften dieser flüchtigen Stoffe bedingen. Mendel setzte seine Kenntnisse als Physiker weiterhin ein, als er von der Gewohnheit seiner Zeitgenossen abwich, die an einer Pflanze viele Eigenschaften studierten. Er tat das Gegenteil und studierte jeweils nur eine Eigenschaft - etwa die Stellung der Blüten, die Form der Hülse oder die Färbung der Samenschale - an vielen Exemplaren. So konnte er die statistischen Gesetzmäßigkeiten entdecken, die heute seinen Namen tragen. In Mendels Originalarbeit findet sich allerdings kein Hinweis auf Erbgesetze. Das Wort »vererben« kommt bei ihm so gut wie nicht vor, wodurch die Frage unvermeidlich wird, was Mendel wollte. Wir wissen, was er gefunden hat. Aber wonach er gesucht hat, ist schwieriger zu sagen.

Die Nachwelt lernte aus seiner Arbeit, dass die Vorstellung von kontinuierlicher Vererbung nicht zu halten und statt dessen nach den physikalischchemischen Gebilden in der Zelle zu fragen war, die als Träger der Erbanlagen in Frage kamen. Am deutlichsten hat dies der Engländer William Bateson formuliert, der 1902 in einer Art Verteidigungsschrift Mendel's Principles of Heredity gegen die Vertreter der Kontinuitätsthese verteidigte. Bateson forderte auch, Mendels Einsicht ernst zu nehmen, dass es zwei Varianten der Erbfaktoren in jeder Zelle gibt. Bateson nannte das zweite Element nach dem griechischen Wort für »andere« (»allelen«) Allelomorph, was im heutigen Sprachgebrauch zu Allel verkürzt worden ist. Ein Gen gibt es in zwei allelen Formen, eine Zelle verfügt über zwei Allele, die meistens verschieden sind, aber auch gleich sein können. Im ersten Fall - so schlug erneut Bateson vor - sind die Zellen (und damit der aus ihnen bestehende Organismus) heterozygot, und im zweiten Fall sind sie homozygot. Die beiden Nachsilben sind natürlich ebenfalls eine griechische Neubildung. Das Wort »Zygote« führte Bateson für die befruchtete Eizelle ein, weil er sich vorstellte, sie sei wie eine Kutsche »zum Losfahren angespannt«, wie das Wort übersetzt werden kann. Zwar hat Mendel selbst nur mit Erbsen experimentiert, und auch seine Wiederentdecker waren mit der Vererbung von Pflanzen beschäftigt, aber es gab auch Wissenschaftler - wie den britischen Arzt Archibald Garrod -, die sofort erkannten, dass die Erbgesetze auch bei Menschen gültig waren. Garrod hatte sich in den Jahren vor der Wende zum 20. Jahrhundert mit Erkrankungen des Stoffwechsels beschäftigt und bemerkt, dass sie in Familien von Generation zu Generation weitergegeben wurden. Nun glaubte er von den Gesetzen zu lesen, die dahinter steckten, und er interessierte sich sofort für die Elemente, die ihrerseits wiederum dahinter steckten. In ihnen - so vermutete Garrod - muss die wissenschaftliche Basis für das stecken, was er als »chemische Individualität« beziehungsweise als »organische Individualität« bemerkt und bezeichnet hatte: Menschen reagierten individuell verschieden, wenn es etwa um die Anfälligkeit für Infektionen oder um die Wirksamkeit von verfügbaren Medikamenten ging. Diese chemische Individualität müsse in den Genen stecken, und an die gelte es heranzukommen, und zwar weil es für die Medizin wichtig und für die Patienten nützlich sei. Was Garrod wollte, ist inzwischen gelungen, und zwar im Rahmen des Humanen Genomprojektes, das aber erst über die zahlreichen Umwege erreicht wurde, die es noch zu beschreiben gilt. Mit dem Wort Genom bezeichnen die Molekularbiologen die Gesamtheit des genetischen Materials, das sie in einer Zelle antreffen. Sie hoffen, damit den Organismus charakterisieren zu können, der aus diesen Zellen besteht. Deshalb wird auch von einem Bakteriengenom, von einem Fliegengenom oder vom Humangenom gesprochen. Das Fliegengenom gehört an den Anfang der Geschichte, die vom Aufstieg der Genetik zu erzählen ist.

Die Leichtigkeit von Fliegen

Mendel hat mit Erbsen, de Vries mit der Nachtkerze, Johannsen mit Prinzess-Bohnen und die ersten amerikanischen Genetiker haben mit Mais experimentiert, um Wirkungsweise und Wanderungen der Erbelemente zu erkunden und ihr Wechselspiel mit Umweltfaktoren zu analysieren. Johannsen kam dabei als einer der ersten auf die Idee, dass es hier zu folgender Arbeitsteilung kommen könnte: Die Gene legen den Mittelwert einer Größe - etwa des Bohnengewichtes - fest, während die Umweltbedingungen für die Streuung der Einzelwerte zuständig sind, die sich beobachten und messen lassen. Sukzessive nahmen sich die Genetiker nach den pflanzlichen Organismen Schmetterlinge, Heuschrecken, verschiedene Insekten und schließlich auch Vögel vor. Die Arbeiten aus den ersten Jahren des 20. Jahrhunderts scheinen im Rückblick aber alle auf ein und dasselbe zuzulaufen: auf eine Chromosomentheorie der Vererbung. Dieser Begriff wurde zum ersten Mal 1910 gebraucht, und er drückte die Beobachtung aus, dass die Chromosomen sich mit den Zellen teilten und als Träger der Erbanlagen in Frage kamen.

Die Chromosomen waren durch verbesserte Färbemethoden und Fortschritte beim Bau von Mikroskopen gegen Ende des 19. Jahrhunderts immer besser sichtbar geworden. 1888 hatten sie ihren Namen bekommen, und kurz danach war deutlich geworden, dass die Teilung einer Zelle erst die Verdopplung und dann die Trennung von Chromosomen voraussetzte. Jede Tochterzelle bekam die gleiche Anzahl von Chromosomen, die halbiert wurde, wenn als Folge einer so genannten Reifeteilung (Meiose) Samen und Ei für die Keimbahn bereitet wurden. Bei der Verschmelzung von Samen und Ei zur befruchteten Zygote paarten sich die Chromosomen, die vom Vater beziehungsweise von der Mutter kamen, wie die damals neue Wissenschaft der Zytologie berichten konnte. Es waren stets baugleiche Chromosomen, die zueinander fanden und daher als homolog bezeichnet wurden. Man nannte die Körperzellen mit den homologen Chromosomenpaaren diploid (doppelt), und die Keimbahnzellen mit nur dem halben Chromosomensatz haploid (einfach). Man entdeckte sehr viele Merkwürdigkeiten - die Biologie steckt im Gegensatz zur Physik voller Ausnahmen -, zum Beispiel Insektenarten, bei denen Weibchen und Männchen nicht die gleiche Anzahl von Chromosomen lieferten. Die Männchen verfügten über eine ungerade und die Weibchen über eine gerade Zahl, wodurch dann schon früh die Idee aufkam, dass Chromosomen sich nicht nur teilen, sondern auch etwas bestimmen können, nämlich das Geschlecht.

Die mikroskopisch sichtbaren Chromosomen waren somit als eine Art Erbpartikel erkannt worden, ohne allerdings mit den Genen identifizierbar zu sein, die nach wie vor unsichtbar im Zellinneren ruhen mussten. Es gab ja auch viel mehr vererbbare Eigenschaften als Chromosomen, woraus zu schließen war, dass die Gene etwas anderes sein mussten als die Strukturen, die unter dem Mikroskop zu sehen waren. Die naheliegende Aufgabe, nach einer Verbindung von Genen und Chromosomen zu suchen, gingen viele Genetiker damals eher zögernd an, weil einige von ihnen überhaupt nichts von dem »Physikalismus« wissen wollten, den Mendels Erbelemente mit sich gebracht hatten. Diese eher als Schimpfwort verstandene Bezeichnung kam zusammen mit dem gleichbedeutenden Vorwurf des »Mendelismus« auf, und mit beiden Ausdrücken sollte ein Denken charakterisiert werden, das sich gegen Johannsens ursprüngliche Intention durchzusetzen begann und in Mendels Elementen konkret vorhandene Gebilde mit materieller Basis sah. Gene waren für die »Physikalisten« keine abstrakten Rechnungseinheiten, sondern konkrete Bestandteile von Chromosomen, wie 1910 zum ersten Mal behauptet wurde.

Doch in dem genannten Jahr trat ein amerikanischer Wissenschaftler auf die Bühne der Genetik, der das bald änderte. Er hatte bis dahin Erfahrungen als Embryologe gesammelt und bei seinen zahlreichen Beobachtungen der Formenvielfalt, die von der Natur dabei hervorgebracht wird, die Überzeugung gewonnen, dass es nie und nimmer physikalische Partikel sein konnten, denen wir diese Vielfalt des Lebens verdanken. Gemeint ist Thomas Hunt Morgan (1866-1945), der zunächst an der Columbia Universität in New York versuchte, den Mendelismus zu widerlegen, und dazu einen geeigneten Organismus brauchte. Er sah sich ausführlich im Reich der Biologie um und entschied sich nach langem Suchen für ein winzig wirkendes Insekt, das in den darauf folgenden Jahren zum Star der Genetik wurde und es bis heute geblieben ist. Gemeint ist die Fliege Drosophila melanogaster, die Taufliege oder Fruchtfliege, wie sie auch heißt. Die Liebhaberin des Taus - so die Übersetzung des griechischen Wortes Drosophila - ist nur etwa drei Millimeter lang, und sie verfügt über vier Chromosomen, an denen sich sofort das Geschlecht erkennen lässt, wie in Abbildung 1 gezeigt wird.

Es kostet wenig Geld und Aufwand, die Fliege Drosophila im Laboratorium in den Mengen zu halten, die für genetische Experimente nötig sind. Dazu reichen Gläser, deren Boden mit einer Schicht aus Maismehl, Hefeextrakt und Zucker gefüllt und durch ein so genanntes Agargel gefestigt wird. Zum Glück kann man Drosophila leicht untersuchen - nach einer Äthernarkose platziert man ein Exemplar unter dem Präpariermikroskop und hat dann einige Minuten Zeit, bevor die Beinchen wieder zu zappeln beginnen. Was aber vor allem wichtig ist: Drosophila verfügt über eine sehr kurze Generationszeit; sie schafft es in zwei Wochen, die Stufen vom befruchteten Eizurgeschlechtsreifen Fliege zu absolvieren. Ein einzelnes Weibchen kann mehrere hundert Nachkommen in die Welt setzen.

Von 1911 an sammelte Morgan eine Mannschaft zur Erforschung der Fliege um sich, die 1928 von New York an die amerikanische Westküste zog und dort im kalifornischen Pasadena am California Institute of Technology den legendären Fliegenraum einrichtete, den es bis heute gibt (und aus dem bis heute Nobelpreisträger hervorgehen). Zu Morgans ersten Mitarbeitern zählten Calvin Bridges, Alfred Sturtevandt und Hermann Muller, und alle zusammen brachten in den folgenden Jahren das Bild von den Genen zustande, das bis weit nach dem Zweiten Weltkrieg Bestand hatte. Gemeint ist das Bild, in dem die Gene den Perlen auf einer Kette gleichen. Gene, so stellten Morgan und sein Team eher gegen ihren Willen fest, liegen auf den Chromosomen so hintereinander wie aufgereihte Perlen. Wichtig war nicht zuletzt die Einsicht, dass immer ein Gen hinter dem anderen liegt und keine Verzweigung erschließbar ist. Trotz nahezu unendlich vieler Kreuzungen kam jedes Gen, dessen Position man in Relation zu anderen bestimmen wollte, immer eindeutig zwischen zwei Genen zu liegen, und niemals tauchten widersprüchliche Kombinationen auf, die eine zusätzliche Dimension zur Erklärung nötig machten. Gene waren linear angeordnet wie die Buchstaben in Wörtern und die Wörter in Sätzen.

Zwar sagte das aufgereihte Perlenspiel mit den Genen nichts über deren chemische Natur aus, aber trotzdem war klar, dass eine Diskrepanz zwischen diesem Ergebnis und Morgans ursprünglicher Zielsetzung bestand. Tatsächlich wurde das Fliegenteam gegen seine Absicht im Verlauf seiner Experimente immer deutlicher darauf gestoßen, dass Mendel Recht und ein Gen eine physikalische Basis im Zellkern haben muss. Johannsens Idee einer reinen Rechnungseinheit machte zwar auch Sinn -aber zu wenig. Die Entdeckung, die Morgan und sein Team machten, bestand im Detail darin, dass sie Genen einen (ihren) Ort in der Zelle zuweisen konnten, wobei sie für den deutschen Ort vornehmer das lateinische locus mit dem Plural loci verwendeten und somit in die Wissenschaftssprache einführten.

Den ersten Genort - Genlocus - ermittelte Morgan selbst, und zwar mit Hilfe eines Fliegenmännchens, das weiße Augen statt der üblicherweise rot gefärbten hatte. Das auffällige weißäugige Männchen war eines Tages - als Mutante, wie man auch damals schon gesagt hat - in den Gläsern aufgetaucht. Da es sich zunächst um ein einzelnes Exemplar handelte, soll Morgan - so das Gerücht - das Albinowesen wie seinen Augapfel gehütet und sogar mit nach Hause genommen haben. Es gelang ihm zwar bald, das weißäugige Männchen mit einem normalen Weibchen zu paaren, aber da in der ersten Generation (Fi) nur Fliegen mit roten Augen auftauchten, konnte er zunächst nicht sicher über den Paarungserfolg sein (rotäugige Männchen schwirrten nun mal die ganze Zeit mit herum). Eine Mutante musste wenigstens noch ein paar Wochen am Leben bleiben, damit Morgan die Ergebnisse der nächsten Generation (F2) anschauen und die Mutante gegebenenfalls noch einmal zur Sache bitten könnte.

Das Fehlen von Weiß in der F1-Generation konnte erwartet werden, wenn die Genvariante, die das Ausbleiben von Rot nach sich zieht, in der Mendel'schen Terminologie der Genetik ein rezessives Allel (und die normale Version seine dominante Form) war. Als Resultat einer ersten Kreuzung kommen nur Kombinationen der beiden Allele in Frage - und damit das Erscheinen von roten Augen. Mit großer Spannung kreuzte man nun die Fliegen der F1-Generation und wartete darauf, welche Gen-Kombination sich jetzt zeigen würde. Das Warten lohnte sich: Die weißen Augen tauchten tatsächlich wieder aufaber ausschließlich bei Männchen, und zwar genau bei der Hälfte von ihnen. Alle Weibchen zeigten die normale Augenfarbe Rot.

Abb.1: Drosophila mit Chromosomen. Man erkennt oben links das Wildtyp-Weibchen und seine Chromosomen und daneben (oben rechts) das Wildtyp-Männchen mit seinen Chromosomen. Darunter sind drei spontan auftretende Varianten mit Mutationen zu sehen, die zu veränderten Flügeln führen.

Erst als man die weißäugigen Männchen der F2-Generation mit den rot-äugigen Weibchen kreuzte, erschienen unter den nächsten Nachkommen (F3) auch weißäugige Weibchen.

Die Deutung dieses Befundes ist für diejenigen, die nur wenig mit den Tänzen der Chromosomen vertraut sind, eher verwirrend. Sie ist trotzdem eindeutig und wichtig: Die Augenfarbe wird geschlechts-gebunden übertragen, was konkret heißt, dass man grob den Ort kennt, den das Gen für die Augenfarbe einnimmt: Es ist das Chromosom, das dafür sorgt, dass ein Männchen entsteht. Die Eigenschaften »männlich« und »rote Augen« müssen von ein und demselben Chromosom ausgehen, und es lohnt sich, ganz allgemein von dem Gedanken auszugehen - so meinte Morgan bald -, dass jedes Gen seinen spezifischen Locus auf einem Chromosom hat. Statt sich mit der alten Streitfrage abzugeben, ob es Mendels Gene in einem materiellen Sinn des Wortes in den Zellen gibt, sollte man besser versuchen, ihre Ort zu bestimmen. Könnte die Aufgabe eines Genetikers nicht darin bestehen, dies zu tun und mit Hilfe der Ergebnisse eine genetische Karte anzufertigen?

Die Antwort hieß natürlich »Ja«, und um ihre praktische Beantwortung kümmerte sich bereits seit 1913 der bereits erwähnte Alfred Sturtevandt. Er brauchte dazu zunächst eine Menge an veränderten (mutierten) Fliegen, die tatsächlich im Laboratorium in großer Zahl ohne besonderes Zutun auftauchten - es gab Mutanten mit kleineren Flügeln, veränderten Körperformen, merkwürdigen Antennen und kurzen Borsten, um nur einige Beispiele zu nennen. Kreuzte man sie in geeigneter Weise, konnte man beobachten, welche Eigenschaften zusammenblieben (welche also gekoppelt vererbt wurden), welche sich trennten und bei welchen neue Kombinationen (»Rekombinationen«) zustande kamen. In einer exakten Wissenschaft will man etwas zu zählen haben, und was die Genetiker in den folgenden Jahrzehnten so genau und so vielfältig wie möglich bestimmten, waren Rekombinationshäufigkeiten oder Rekombinationsfrequenzen, wie es auch heißt. Mit ihrer Hilfe lassen sich genetische Karten dadurch anfertigen, dass man die Position eines ersten Gens willkürlich festsetzt und in seiner Nähe das Gen platziert, das am seltensten mit ihm rekombiniert, das also am engsten mit ihm gekoppelt ist. Das Anfertigen genetischer Karten erfolgt - grob gesagt -dadurch, dass man Gene, die sehr häufig getrennt und rekombiniert werden, weit auseinander aufträgt, und Gene, bei denen dies sehr selten geschieht, nah beisammen legt. Es wäre natürlich hilfreich, wenn man das Gen, von dessen Ort man ausgeht, so auswählt, dass es am Ende eines Chromosoms liegt. Dies ist bald möglich geworden, und nach kurzer Zeit ließen sich sehr viele Orte auf den vier Chromosomen von Drosophila angeben. Die meisten Schwierigkeiten bereitete, geeignete Namen für die Mutanten zu finden. Bald tauchten in den Genetikbüchern Darstellungen der Art auf, wie sie Abbildung 2 zeigt. Sie wurden von Morgan, Bridges und Sturtevandt in den zwanziger Jahren des zwanzigsten Jahrhunderts vorgelegt und später immer wieder ergänzt und verfeinert.

Der Ansatz bei den Rekombinationsfrequenzen funktionierte, weil sich im Lichtmikroskop längst auch der dazugehörige Mechanismus zu erkennen gegeben hatte. Schon 1895 - im Jahr, in dem auch die Röntgenstrahlen entdeckt wurden - bemerkte man, dass die Chromosomen, die 1888 ihren Namen bekommen hatten, ihre Identität während einer Zellteilung behielten. Man konnte ab 1904 genau verfolgen, wie sich Chromosomen paarweise nebeneinander legen, sich überkreuzen (Crossing-over) und ganze Abschnitte austauschen. Nun können Überkreuzungen dieser Art an zwei oder mehreren Stellen innerhalb ein und desselben Chromosoms auftreten, was rasch un-übersichtliche Resultate zur Folge hat. Tatsächlich ist das Kreuzen und Analysieren von rekombinanten Lebensformen und das damit mögliche Aufstellen von Genkarten ein höchst schwieriger Prozess, der viel Geduld und Geschicklichkeit verlangt. Aber hier geht es nur um das Prinzip des Vorgangs, bei dem Gene in Relation zueinander gebracht und ihr Abstand voneinander bestimmt werden sollten. Dies ist in Abbildung 3 dargestellt. Die Einheit, in der genetische Karten heute angelegt sind, wird zu Ehren von Morgan als »Zentimorgan« bezeichnet. Die Wahrscheinlichkeit der Rekombination von einem Prozent (1% Crossing-over) wird als Abstand von einem Zentimorgan aufgetragen.

Als Sturtevandt und die anderen Mitarbeiter von Morgan in ihrem Fliegenraum mit dem Anfertigen von Genkarten begannen, konnte niemand ahnen, dass die Gene alle perfekt hintereinander liegen und auch nicht die kleinste Abweichung oder Verzweigung zu finden ist. Dank dieser glücklichen Fügung kamen die Genetiker mit der von ihnen angewandten Methode sehr gut und rasch voran, und bald kannten Morgan und sein Team nahezu sämtliche Gene und deren Positionen, die sich auf diese Weise ermitteln ließen. Je besser sie dabei zurechtkamen, desto deutlicher wurde, dass ihnen eine Sache nicht nur verborgen, sondern völlig schleierhaft blieb - wie Morgan selbst zugab, als ihm 1933 der Nobelpreis Medizin (Physiologie) verliehen wurde: Es war die Natur des Gens oder »die Natur des Prozesses, der zu Mutationen führt.« Er sah es als Aufgabe für die Zukunft an, die physikalischen und physiologischen Vorgänge, die zum Wachstum der Gene und zu ihrer Verdopplung gehören, zu verstehen. Er verlangte nach einer »physikalischen Deutung dessen, was mit den Chromosomen passiert, wenn es zur Rekombination kommt.«

Um diese Aufgaben zu lösen, mussten sich andere Wissenschaftler mit den Genen befassen als die klassischen Genetiker, die mit dem Auge erkennbare Mutanten suchten und sie kreuzten, um Genpositionen zu bestimmen.

Abb. 2: Eine genetische Karte von Drosophila aus dem Jahre 1922 mit den dazugehörigen Chromosomen. Es ist gar nicht nötig, alle Bezeichnungen der genetischen Karte im Detail zu erläutern: Sie macht sofort deutlich, dass zur Genetik eine gute Buchhaltung gehört und diese Wissenschaft es folglich von Anfang an mit Organisationsaufgaben zu tun hatte.

Abb. 3: Rekombination und Abstandsbestimmung. Zunächst wird gezeigt, wie es durch das Crossing-over zu einer Rekombination von Chromosomenstücken kommen kann (a, links oben).Weiter wird an einem Beispiel demonstriert, wie sich in einem Kreuzungsexperiment die Rekombinationshäufigkeit zweier Loci und damit deren Entfernung voneinander ermitteln lässt (b, links unten). Zuletzt ist erkennbar, wie dasselbe bei drei Genloci gelingen kann, deren Reihenfolge und Abstände durch Rekombination feststellbar sind (c, oben).

 

Sie kamen an dem von Morgan bezeichneten Punkt nicht weiter. Für sie war ein Gen ein Ort auf (ein Teil von) einem Chromosom, das sich sowohl bei der Vererbung (Kreuzung) als auch bei der Mutation und erst recht bei der Rekombination (Crossing-over) als Einheit verhielt. Mehr konnten sie allerdings nicht herausfinden. Um weiterzukommen, brauchten sie die Hilfe der Physiker und Chemiker, die dann bald auch kam - und zwar zunächst aus Morgans eigenem Team.

EIN HERRLICHES MOLEKÜL

Auf dem internationalen Genetikerkongress, der im Jahr 1927 in Berlin stattfand, teilte Hermann J. Muller aus dem Kreis der Genetiker um T. H. Morgan mit, dass ihm gelungen sei, mit Hilfe von Röntgenstrahlen Mutationen bei der Taufliege Drosophila auszulösen. Dabei war ihm nicht nur aufgefallen, dass die spontane Rate an vererbbaren Änderungen um das 1000fache erhöht werden konnte, sondern auch, dass die Häufigkeit vieler Mutationen in dem Maße zunahm, in dem er die Dosis der Strahlung erhöhte.

So selbstverständlich uns dieser Befund aus heutiger Sicht erscheint, so sensationell wirkte er damals. Was bisher unsichtbar und ungreifbar war, konnte auf einmal von außen erreicht werden. Mullers Beobachtung verwandelte die Gene schlagartig in physikalische Objekte, die sich von Röntgenstrahlen treffen und bei dieser Wechselwirkung stabil verändern ließen, denn mit den Mutationen meinte Muller Varianten im Erbgut, die von einer Fliegengeneration an die nächste weitergegeben wurden. Gene (und Genmutationen) gehörten von nun an in den Einzugsbereich der Physik, und es dauerte dann auch nicht mehr lange, bis die ersten Vertreter aus dieser Disziplin begannen, sich mit diesen Gebilden zu beschäftigen, die bis dahin den Genetikern vorbehalten waren.

Der Einzug der exakten Wissenschaften

Das oben genannte Jahr 1927 markiert nicht nur einen entscheidenden Zeitpunkt für die Genetik - nämlich den ihrer Öffnung zu den etablierten exakten Wissenschaften -, es markiert auch einen entscheidenden Zeitpunkt für die Physik, nämlich den Abschluss ihres Wandels von der klassischen Form zur Quantenmechanik. Begonnen hatte der Wandel in demselben Jahr, in das Historiker die Wiederentdeckung der Mendel'schen Gesetze datieren - also im Jahre 1900. Entscheidend dafür war die Beobachtung von Max Planck, dass sich die Wechselwirkung von Licht und Materie nur durch die Annahme erklären ließ, dass die Übertragung der Energie dabei nicht kontinuierlich, sondern unstetig und sprunghaft vor sich ging. Als Planck versuchte, das Lichtkonkreter: das Farbenspiel - zu erklären, das ein Festkörper (wie etwa Stahl) aussendet, wenn er immer stärker erhitzt wird, bis er nach rötlichen Anfängen weißglühend schmilzt, führte er nach vielen vergeblichen Bemühungen »in einem Akt der Verzweiflung« die Annahme ein, dass die Strahlungsenergie in diskreten Einheiten, eben den Quanten, vorliege. Plancks Wirkungsquantum erwies sich aber in den kommenden Jahrzehnten als unentbehrliches Hilfsmittel, um die Stabilität der Atome zu verstehen. In ihren ersten Versuchen, konkrete Modelle dieser grundlegenden Bausteine der Materie vorzulegen, präsentierten die Physiker das Atom als ein Miniaturplanetensystem mit negativ geladenen Elektronen, die um einen positiven Kern kreisten. Im Rahmen der klassischen Physik kann solch eine Konstellation allerdings nicht stabil sein, denn aufgrund seiner Ladung strahlt das bewegte Elektron Energie ab, wodurch es zuletzt in den Kern stürzen würde. Mit den Quanten ergab sich nun die Möglichkeit, dieses Zusammenfallen zu verhindern, denn wenn sich die Energie nur sprunghaft ändern kann, braucht sie dazu einen Anlass von außen. Das von Planck eingeführte Quantum stellt eine Art Schwelle dar, über die Elektronen in einem Atom normalerweise nicht kommen, womit - etwas ungewohnt, aber nachvollziehbar -die Stabilität der Materie erklärbar wird.

Und was hat das nun mit den Genen zu tun? Da ist zunächst die Beobachtung, dass die Physiker das Wechselspiel von Licht und Atomen untersuchten, während die Genetiker nach Mullers Entdeckung das Wechselspiel von Licht und Genen untersuchen konnten. Die Physiker wollten die Stabilität der Atome verstehen, die Genetiker die Stabilität der Gene respektive der Mutationen begreifen. Die Physiker hatten verstanden, dass sie nur Erfolg haben konnten, wenn sie diskrete Quantensprünge - von einem stabilen Zustand in einen anderen - zuließen. Die Genetiker hatten längst gesehen, dass es solche Sprünge im Leben natürlich auch gab, nämlich in Form der sichtbaren Mutationen, die sich ja nicht als kontinuierlicher, sondern als abrupter Wandel etwa in der Augenfarbe oder der Flügelform bei Drosophila zeigten.

Aus alledem konnte der Schluss gezogen werden, dass sich die Biologie im Allgemeinen und die Genetik im Besonderen dann ähnlich erfolgreich wie die Physik entwickeln könnten, wenn es gelingen würde, das Wechselspiel von »Licht und Leben« so zu verstehen, wie Max Planck und seine Nachfolger das Wechselspiel von »Licht und Materie«. So wie man das Licht benutzt hatte, um eine Theorie der Materie aufzustellen, sollte man die Strahlung benutzen, um eine Theorie der Vererbung - als Teil des Lebens - aufzustellen.

Diese Perspektive, die durch Mullers Entdeckung der Induzierbarkeit von Mutationen möglich wurde, hat als erster in konkreter Form der große dänische Physiker Niels Bohr in einem Vortrag mit dem Titel »Licht und Leben« entwickelnden er 1932 in Kopenhagen hielt. In den fünf Jahren zwischen Mullers Entdeckung und Bohrs Vortrag waren viele Bemühungen unternommen worden, um die Rolle der Röntgenstrahlung, die man sich als Licht mit besonders hohen Energien vorstellen kann, genauer zu verstehen und zum Beispiel herauszufinden, was konkret mit den Energiequanten passiert, wenn sie als Strahlung auf lebendiges Gewebe treffen. Mit welchem Stoff beziehungsweise mit welchen Molekülen kommen sie dabei in Kontakt? Wo genau und wie treffen sie auf einer Zelle auf?

Das Interesse an Auswirkungen der Röntgenstrahlen war allein deshalb groß, weil die Möglichkeit bestand, dass Mullers Entdekkung zum Verständnis der Evolution beitragen konnte, etwa indem sie Auskunft über die Mutationsraten von Genen gab, die zum Wandel des Lebens notwendig waren. Außerdem war der Gedanke naheliegend - und er wurde auch in vielen Laboratorien bestätigt -, dass nicht nur die Röntgenstrahlen, sondern zum Beispiel auch ultraviolettes Licht mutagene Effekte haben und Genvariationen bewirken können. Doch trotz all der zunehmenden Detailkenntnisse im Experiment dauerte es noch einige Jahre, bis die richtigen theoretischen Konsequenzen gezogen wurden, die sich bis heute als maßgeblich und relevant erwiesen haben. Sie stammen im Wesentlichen von einem jungen Physiker namens Max Delbrück, der bei dem oben erwähnten Vortrag »Licht und Leben« zuhörte, Bohrs Aufforderung ernst nahm und sich konkret an die Arbeit machte. Delbrück stammte aus Berlin, wo er sich seit den frühen dreißiger Jahren mit Genetikern wie Nicolai Timoféef-Ressovsky zusammentun konnte, die angefangen hatten, neben dem Aussehen der Fliege Drosophila auch deren Verhalten zu erkunden. Im Detail wollte man in Berlin Aufbau und Arbeitsweise des Gehirns mit genetischen Mitteln erkunden, und dabei war es tatsächlich gelungen, erste Mutationen aufzuspü-ren, die Störungen bei der Entwicklung oder dem Funktionieren des Nervensystems nach sich zogen. Timoféef-Ressovskys Grundidee bestand darin, dass man komplizierte Systeme vorsichtig zerlegen muss, um sie aus ihren Bestandteilen heraus erkennen zu können. Und er stellte sich vor, dass es kein Messer gibt, das feiner schneidet als eine genetische Mutation, die jetzt ihrerseits durch Röntgenstrahlen induziert werden konnte.

Delbrück bewunderte dieses Konzept, legte seinen Bemühungen aber einen einfacheren Ansatz zugrunde. Er nahm an, dass die Röntgenstrahlen direkt auf Gene treffen und fragte sich, ob er unter dieser Vorgabe etwas über ihre Größe erfahren könnte. Physiker kennen solche Ansätze unter dem Stichwort »Streuquerschnitt«, und mit dem Rüstzeug seines Faches machte sich Delbrück daran, das zu entwerfen, was damals in Wissenschaftskreisen unter dem Titel »Target Theory« oder »Treffertheorie« bekannt und von vielen umzusetzen versucht wurde. Gene wurden als Targets - als physikalische Zielobjekte - für Röntgenstrahlen verstanden, und die Bemühungen der Physiker drehten sich darum, aus der Wirksamkeit von Strahlungsdosen etwas über die Ausmaße und die Dimensionen der Gene zu erfahren, die zwar nach wie vor unerkannte Gebilde in den Zellen waren, die aber jetzt gezielt in Angriff genommen und auch erreicht werden konnten.

Mit diesem Ansatz konnte man sich den Genen zwar zum Ersten im Rahmen einer exakten Wissenschaft - der Physik - nähern, doch dieses Bemühen scheiterte, weil damals nur direkte Treffer berücksichtigt wurden, während man heute weiß, dass die Strahlen die Gene mehr indirekt über Veränderungen im Zellmilieu beeinflussen. Geblieben ist von all diesen Bemühungen weniger eine quantitative als vielmehr eine qualitative Auskunft über Gene. Gemeint ist dabei vor allem ein Satz, den Delbrück zusammen mit zwei Kollegen in einer Arbeit aus dem Jahre 1935 publizierte, die unter dem Titel Über die Natur der Genstruktur und der Genmutation erschienen ist. Der Satz lautet: »Ein Gen ist ein Atomverband, der als Einheit unterhalb der Ebene der Zelle existiert.« In dieser Formulierung stecken zwei Erkenntnisse. Zum einen bestehen Gene aus Atomen, sie sind also Moleküle und somit einer physikalisch-chemischen Analyse zugänglich (ohne dass bislang etwas über deren Größe gesagt worden ist). Zum anderen stellen Gene eine eigene Einheit des Lebens dar, die selbständig neben die der Zelle tritt und damit - wie sie - besondere Aufmerksamkeit verdient.

An dieser Stelle muss darauf hingewiesen werden, dass es im frü-hen 19. Jahrhundert lange gedauert hat, bis die Biologen der Ansicht waren, dass sowohl alle Pflanzen als auch alle Tiere aus Zellen bestehen. Und im frühen 20. Jahrhundert war keineswegs klar, dass alle Organismen über Gene verfügten, so wie es Delbrück universal behauptete. Dass er im Rückblick Recht gehabt hat, macht es für seine Zeitgenossen nicht leichter, den Satz als gültig und richtungsweisend anzusehen, und durchgesetzt hat sich Delbrücks Gedanke zunächst vor allem deshalb, weil er von einem berühmten Physiker aufgenommen und propagiert worden ist.

Gemeint ist Erwin Schrödinger, der an der Formulierung der Quantenmechanik maßgeblich beteiligt war und dafür mit dem Nobelpreis ausgezeichnet worden ist. In seinem Buch mit dem Titel Was ist Leben? bezeichnet Schrödinger den eben zitierten Sachverhalt als »Delbrücks Modell« des Gens und legt es all den Wissenschaftlern ans Herz, die versuchen wollten, das Rätsel des Lebens zu lösen. Schrödingers Buch ist in den Jahren des Zweiten Weltkriegs entstanden und hat einen ungewöhnlichen Einfluss auf die Entwicklung der Molekularbiologie ausgeübt, die in den 1950er Jahren entstand.

Zur selben Zeit, da Schrödinger Delbrücks Atomverband als Ausgangspunkt für weitere Erkundungen in der Genetik empfiehlt, identifiziert ein Team von Medizinern und Biochemikern an der Rockefeiler Universität in New York die molekulare Basis der Gene. Oswald Avery und seine Mitarbeiter melden im Jahr 1944, dass sie einer chemischen Substanz genetische Relevanz zuordnen können. Die Substanz gehört zu der Gruppe der Nukleinsäuren, weil sie in chemischen Versuchen als (milde) Säure reagiert und im Kern (lateinisch: nucleus) von Zellen vorhanden ist, und sie heißt konkret Desoxyribonukleinsäure - abgekürzt im Englischen als DNA -, weil die Chemiker ihren Zuckeranteil Desoxyribose nennen.

Der Stoff namens DNA war den Chemikern schon länger bekannt, ohne dass sie ihm eine Aufgabe im Zellgeschehen geben konnten. Die Substanz wirkte eher unwichtig und reaktionsträge, und wenn man überhaupt Vermutungen über den chemischen Aufbau der Gene anstellte, dachte man an die Moleküle, die wir noch als Proteine kennen lernen werden. Auch Avery und sein Team hätten auf diese Stoffklasse gewettet, als sie nach dem Faktor suchten, von dem sie wussten, dass er in der Lage war, Bakterien eine neue Eigenschaft zu geben, die auch vererbt wurde. Die Wissenschaftler sprachen konkret von einem »Transformationsprinzip«, dem sie auf der Spur waren und dessen materielle Basis sie suchten, wobei die Verwandlung (Transformation) darin bestand, dass aus eher harmlosen Bakterien durch Zugabe einer äußerst stabilen chemischen Substanz gefährliche Krankheitserreger geworden waren, die diese gefährliche Qualität an nachfolgende Generationen weiterreichten. Durch traditionelle chemische Trennverfahren gelang es dem Team der Rockefeller Universität, das Transformationsprinzip aus den Bakterien zu isolieren und seine Zusammensetzung zu analysieren. Die Antwort überraschte damals alle, nicht zuletzt Avery selbst, denn sie lautete DNA.

DNA - das war damals eine Abkürzung unter vielen, und damit wurde ein Stoff bezeichnet, von dem man die genaue Zusammensetzung nicht kannte. Außerdem gab es Zweifel am Ergebnis von Averys Gruppe: Konnte es nicht sein, dass sie irgendwelche Stoffe übersehen hatten? Überhaupt: Konnte man bei Bakterien eigentlich von Genen reden? Die Genetiker hatten sich doch bislang nur um Lebensformen gekümmert, die sich auf geschlechtliche Weise vermehrten, und alles, was man damals von Bakterien kannte, wies darauf hin, dass sie sich einfach nur teilten, ohne etwas anderes zu tun und etwa genetisches Material auszutauschen. Und selbst wenn alles seine Richtigkeit hatte - Averys Experimente zeigten doch bestenfalls, dass die DNA eine Komponente der Erbsubstanz bildete. Sie zeigten keinesfalls, dass die DNA die einzige Molekülsorte war, aus der die Gene bestanden.

Das letzte Problem wurde im Jahre 1952 gelöst, und zwar von den beiden amerikanischen Genetikern Martha Chase und Alfred Hershey. Sie arbeiteten mit Viren, die Bakterien zerstören können und deshalb auch Bakteriophagen (»Bakterienfresser«) oder kurz Phagen hießen. Doch bevor wir ihr Experiment schildern, mit dem die große Entdeckung des Jahres 1953 vorbereitet wurde - die Entdeckung der Doppelhelix als Struktur der DNA -, müssen wir erläutern, wie es dazu gekommen ist, dass in den fünfziger Jahren unter Genetikern immer weniger von Fliegen und Pflanzen, und immer mehr von Bakterien und Viren die Rede war. Es waren nämlich diese kleinen Lebensformen, mit denen die großen Fortschritte der Genetik in Gang kamen, die uns heute beschäftigen.

Große Fortschritte mit kleinen Lebensformen

Als in den dreißiger Jahren des 20. Jahrhunderts T. H. Morgan von Kalifornien aus die Vertreter der Physik und Chemie einlud, den Genetikern zu helfen, die Frage nach der Natur der Gene zu beantworten, und als zur gleichen Zeit Delbrück in Berlin von den Genen als Atomverbänden sprach - da überlegten sich an der amerikanischen Ostküste einige Wissenschaftsfunktionäre der Rockefeller Stiftung unter Leitung von Warren Weaver, ob es nicht möglich sei, aus der bisher eher deskriptiven und wenig theoretischen Biologie eine mathematisch fundiertere und somit exaktere Wissenschaft zu machen. Sie träumten von einer präzisen und wirksamen »Science of Man«; und es ist oft spekuliert worden, dass im Hintergrund solcher Überlegungen die Hoffnung stand, gesellschaftliche Probleme - wie etwa Alkoholismus oder hohe Scheidungsraten -technisch (biologisch) zu lösen. Eine wichtige Entscheidung bestand darin, die (in Amerika betriebene) Wissenschaft der Genetik dadurch voranzubringen, dass man theoretisch ausgebildete und mathematisch versierte Forscher einlud, in die USA zu kommen, wobei die Bereitschaft der europäischen Forschender, Ruf von Rockefeller zu folgen, weniger durch das amerikanische Geld als vielmehr durch die Angst vor dem Krieg erhöht wurde, der in den späten dreißiger Jahren immer wahrscheinlicher wurde. Mit der Kriegsbereitschaft der Nazis argumentierten auch die Beauftragten der Rockefeller Stiftung, die eines Tages bei Delbrück in Berlin anklopften, der sich auf ihr Werben einließ und bald die Reise nach Kalifornien antrat, um an Morgans Institut seine biophysikalischen Arbeiten fortzusetzen und dort die Natur des Gens zu erkunden.

Das Programm, unter dem die Rockefeller Stiftung solche interdisziplinären Kooperationen finanzierte, lief zwar zuerst noch unter dem Titel »Mathematische Biologie«, bekam aber im Jahre 1938 den maß-geblichen, heute weitverbreiteten und wie selbstverständlich gebrauchten Namen der »Molekularbiologie«. Als dieser Ausdruck zum ersten Mal vorgeschlagen wurde, hatte Delbrück gerade sein Interesse an Drosophila verloren und begonnen, die oben erwähnten Bakteriophagen zu untersuchen, und zwar unmittelbar unter den Augen des skeptisch bleibenden Morgan und seines Teams. Der Wechsel von der Fliege zu den Phagen brachte erneut Delbrücks Hintergrund der Physik zum Vorschein, und er folgte dabei wieder einem Ratschlag von Bohr. Bohr hat in vielen Gesprächen immer wieder daran erinnert, dass die ersten Erfolge der neuen Physik im 20. Jahrhundert nach der Entdeckung der Quantensprünge nur möglich geworden sind, weil man ein einfaches Gebilde wie das Wasserstoffatom zur Verfügung hatte, das nur aus einem Proton und einem Elektron besteht. Man konnte versuchen, die richtigen Gesetze für diesen Fall zu raten, um sie anschließend auf kompliziertere Atome (Helium, Lithium) anzuwenden und zu prüfen, ob sie hier noch funktionieren.

Delbrück hielt also seine Augen offen, ob es irgendwo ein Wasserstoffatom der Genetik gab, also eine Lebensform, die nichts tat, außer vielleicht da zu sein und sich zu vermehren, und 1938 wurde er mit den Phagen fündig. Die Existenz solcher Lebensmöglichkeiten, von denen man zunächst nur wusste, dass sie kleiner als Bakterien waren, war seit etwa 1915 bekannt, und es gab auch Verfahren, um ihr Wirken zu beobachten. Die Biologen ließen zu diesem Zweck Bakterien auf einem Nährboden wachsen, um sie anschließend mit einer phagenhaltigen Lösung zu begießen. Über Nacht bildeten sich Löcher in dem Bakterienrasen, die man Plaques nannte und quantitativ auswerten konnte (Abbildung 4).

So einfach diese Versuche waren und so klare Ergebnisse sie in quantitativer Hinsicht zeitigten, etwa indem sie zu bestimmen erlaubten, wie viele Phagen in ein einzelnes Bakterium eindringen und aus ihm hervortreten können - noch war das alles sehr weit weg von den Genen, die Mendel entdeckt und Morgan lokalisiert hatte. Die beiden Genetiker hatten schließlich mit Organismen gearbeitet, die sich geschlechtlich vermehrten und also kreuzen ließen. Ein Gen war etwas, dessen Wirkung man bei solchen Versuchen beobachten konnte, und noch konnte niemand sehen, wie Delbrück von Löchern im Bakterienrasen zu Orten auf Chromosomen kommen wollte.

Abb. 4: Das Entstehen von Plaques auf einem Bakterienrasen

 

Sein Ansatz funktionierte aber nicht nur nach dem Prinzip Hoffnung, sondern darüber hinaus nach dem Grundsatz, dass selbst derjenige, der nicht viel über Gene weiß, immer noch annehmen kann, dass sie über eine grundlegende Eigenschaft allen Lebens verfügen müssen, nämlich die, sich verdoppeln zu können. Diese Eigenschaft stellte Delbrück in den Mittelpunkt seiner Überlegungen, und mit den Phagen hatte er etwas aus dem Bereich der Biologie gefunden, das nichts anderes konnte, als sich zu verdoppeln und zu vermehren.

Möglicherweise waren die Phagen, die Löcher im Bakterienrasen hinterließen, nichts anderes als frei zirkulierende Gene, wie Delbrück spekulierte, deren Wirkung sich präzise ermitteln ließ. Und wenn er damit auch nicht völlig ins Schwarze getroffen hat, sehr weit daneben hat er nicht gelegen.

Man könnte sagen, dass sich Morgan und andere klassische Genetiker dem Gen von oben her näherten, während Delbrück und andere Molekularbiologen ihm von unten her auf die Spur kamen. Die entscheidende Beobachtung gelang dem deutschen Biophysiker in Zusammenarbeit mit dem italienischen Arzt Salvatore Luria, als die beiden sich mit einem seltsamen Phänomen beschäftigten, das sie als »sekundäres Wachstum« bezeichneten. Mit dem Begriff ist das Wachsen von Bakterien gemeint, das sich in einem Laboratorium beziehungsweise in den dazugehörigen Behältern gewöhnlich dadurch zeigt, dass eine Nährlösung erst trübe und dann undurchsichtig wird. Gibt man solch einer Bakterienlösung passende Phagen hinzu, kann man deren Wirkung - die Zerstörung der Bakterien - nach einiger Zeit dadurch mit dem unbewaffneten Auge erkennen, dass die Lösung wieder durchsichtig wird. Normalerweise werden die jetzt zerstörten Bakterienkulturen entsorgt und die Gefäße für neue Versuche präpariert. Doch im Verlaufe ihrer zahlreichen Versuche kamen Delbrück und Luria dieser Pflicht nicht immer sofort nach, und dabei fiel ihnen auf, dass einige Behälter wieder trübe wurden. Die Bakterien hatten zu einem zweiten (sekundären) Wachstum angesetzt, und darüber konnte man sich wundern. Der Grund für dieses Wundern lag darin, dass die primär gewachsene Bakterienkultur nur mit Zellen angelegt worden war, die von den Phagen angegriffen und aufgelöst werden konnten, während die jetzt nachgewachsenen Bakterien sich sämtlich als widerstandsfähig (resistent) gegenüber dem Angriff der Phagen erwiesen. Wie war der Wechsel von anfälligen (»suszeptiblen«) zu abwehrfähigen Bakterien vonstatten gegangen? Woher kam die Resistenz gegenüber den Phagen?

Die kurz darauf gemachte Beobachtung, dass die Bakterien die neuerworbene Widerstandsfähigkeit an ihre Nachkommen weitergeben, dass Resistenz also eine genetische Eigenschaft sein musste, legte die Vermutung nah, dass die Phagenresistenz in den Genen steckte. Dieser Gedanke erwies sich als richtig. Es musste also zu einer Mutation in den bakteriellen Zellen gekommen sein. Die entscheidende Frage lautete jetzt, wie diese Variante in die Bakterien gekommen war. Folgende Alternative war denkbar:

Entweder war die Mutation durch das Auftreten der Phagen bewirkt (induziert) worden, oder sie war durch Zufall (spontan) entstanden. Wenn sich das Zufällige der Mutation nachweisen ließe -so räsonierten Delbrück und Luria -, dann wüsste man erstens, dass Bakterien ebenso Gene haben wie die Organismen, mit denen Mendel, Morgan und andere gearbeitet hatten, und man wüsste zweitens, dass Darwins Vermutung von spontan auftretenden Variationen als Grundlage der biologischen Evolution keine schlechten Chancen hatte, die Wirklichkeit zu erfassen - eine bessere jedenfalls, als die immer noch in vielen Kreisen verbreitete Ansicht, dass sich auch erworbene Eigenschaften vererben ließen. Aber wie - so lautete nun die entscheidende Frage - kann man zeigen, dass die Phagenresistenz der Bakterien nicht induziert wird, sondern spontan in ihnen auftritt?

Die Antwort darauf gibt die berühmte »Fluktuationsanalyse« (Abbildung 5), die Delbrück und Luria zum Jahreswechsel 1943/44 vorlegten und für die sie 1969 mit dem Nobelpreis für Medizin ausgezeichnet wurden (gemeinsam mit dem bereits erwähnten Hershey, dessen wichtigstes Experiment noch vorgestellt wird).

Der Grundgedanke der Schwankungsanalyse besteht darin, dass induzierte Mutationen erst auftreten können, wenn die Phagen den Bakterien zugesetzt werden, während spontane Mutationen immer möglich sind und in jeder Bakteriengeneration erscheinen können. Wer nun zahlreiche Bakterienkulturen heranzieht, die immer mit einer einzigen oder einigen wenigen Zellen beginnen, und dann ermittelt, wie viele resistente Stämme sich in ihnen befinden, wird keine identischen Resultate bekommen, sondern zwischen den Einzelergebnissen Schwankungen (Fluktuationen) finden, die bei allen Experimenten auftauchen. Nun kann man entweder aus vielen Kulturen je eine Probe oder aus einer Kultur viele Proben nehmen. Wenn die Mutation induziert ist, sollten die unvermeidlichen Schwankungen sich etwa die Waage halten. Wenn hingegen die Mutation spontan ist, sollten viel größere Fluktuationen für den Fall erwartet werden, dass aus vielen Kulturen eine Probe genommen worden ist. Genau dies wurde beobachtet. Die quantitative Durchführung der Experimente brachte noch den wunderbaren zusätzlichen Bonus, dass man lernte, wie die Häufigkeit der Mutation - die Mutationsrate - abgeschätzt werden konnte.

Mit einem Schlag war Bakterien- beziehungsweise Phagengenetik nicht nur möglich, sondern zu einer Wissenschaft mit quantitativen Ergebnissen geworden. Mit der Fluktuationsanalyse rückten die Mikroorganismen in das Zentrum der Genetik, und die Fliegen und Pflanzen traten etwas in den Hintergrund. Kurz nach dem Zweiten Weltkrieg konnte dann die Existenz von Genen in Bakterien und Phagen endgültig durch die Beobachtung bewiesen werden, dass auch diese Lebensformen Rekombinationen aufweisen, und damit waren die Tore zum neuen Gebiet der Molekulargenetik aufgestoßen.

Mit der Rekombination ließen sich genetische Karten von Phagen und Bakterien anfertigen -wie man es bei den Fliegen Jahrzehnte vorher begonnen hatte -, und hier wie schon zuvor entdeckte man dabei, dass Gene hintereinander angeordnet sind und eines nach dem anderen folgt. Es war offensichtlich, dass die Molekularbiologen bei der Suche nach der Natur der Gene auf dem richtigen Weg waren, und inzwischen war auch - wie oben beschrieben - wenigstens einer der Stoffe identifiziert worden, aus denen die Gene bestehen mussten, nämlich die DNA.

Abb. 5: Die Fluktuationsanalyse. Die Mutationen sind schwarz gezeichnet.

 

Die DNA als Nukleinsäure gehört zu der Klasse der Makromoleküle; es sind also Gebilde in der Zelle, die viel größer als etwa Wasser- und Alkoholmoleküle sind. Wasser besteht bekanntlich aus H2O-Molekü-len, und der Alkohol mit dem chemischen Namen Äthanol kann durch die Summenformel C2H5OH beschrieben werden. Wasser hat also drei und der Alkohol neun Atome, und ihre feste Verbindung ergibt ein Molekül. Makromoleküle setzen sich so aus Molekülen zusammen wie Moleküle aus Atomen. In der DNA findet man drei Sorten von ihnen, nämlich den bereits erwähnten Zucker (Desoxyribose), eine so genannte Phosphatgruppe (ein Phosphoratom mit vier Sauerstoffatomen) und eine Substanz, die Chemiker als organische Base bezeichnen. Da es insgesamt vier verschiedene Basen gibt (Abbildung 6), die in natürlicher DNA gefunden werden, müsste man vielleicht genauer sagen, dass diese Nukleinsäure aus sechs Molekü-len besteht, aber auf Details dieser Art kommt es erst später an. An diese Stelle gehört der Hinweis, dass die Idee von Makromolekülen keineswegs banal ist und Wissenschaftler erst einmal die Idee haben und den Nachweis führen mussten, dass es Gebilde dieser Art gibt. Diesen Fortschritt verdanken wir der Biochemie, die sich vom Ende des 19. Jahrhunderts an entwickelt hat und ohne deren Vorarbeiten Morgans Frage nach der Natur der Gene trotz aller physikalischen Hilfe nicht recht vom Fleck gekommen wäre.

Die Biochemie untersucht -wie es der Name sagt - mit chemischen Methoden Fragestellungen der biologischen Wissenschaften. Historisch erkundete sie zunächst und vor allem das, was man den Stoffwechsel der Zellen - ihren Metabolismus - nennt. Sie war dabei bald auf eine besondere Klasse von Makromolekülen gestoßen, der sie zutraute, die erste Geige im Zellgeschehen zu spielen. Aus diesem Grunde gab man dieser molekularen Stoffklasse den Namen Proteine, und zu den großen Aufgaben eines Biochemikers der Zeit vor dem Zweiten Weltkrieg gehörte es, mehr über Struktur und Wirkungsweise von Proteinen herauszufinden. Was die Struktur angeht, so wurde in den ersten Jahrzehnten des 2O.Jahrhunderts nach und nach in mühevoller Kleinarbeit unter Einsatz aller möglichen Trennverfahren ermittelt, dass die kleinen Moleküle, aus denen das Protein als Makromolekül bestand, sämtlich der Klasse angehörten, die Chemiker als Aminosäuren kannten. Das Besondere dieser Bausteine besteht darin, dass sie alle miteinander zu langen Ketten verbunden werden können, und zwar immer über dieselbe Verbindung, die Chemiker als Peptidbindung bezeichnen. 

Abb. 6: In der natürlichen DNA kommen vier Basen vor, die Adenin, Thymin, Guanin und Cytosin heißen.

 

Ihrem Aufbau nach waren Proteine also Polypeptide, und die ersten Einblicke in die Funktionen dieser Makromoleküle zeigten, dass es sie in ähnlich großer Zahl wie die chemischen Reaktionen gab, die in einer Zelle ablaufen müssen, um deren Leben zu garantieren. Proteine konnten und können viele Aufgaben erledigen. Sie treten als Hormone auf, sie wirken als Enzyme, was heißt, sie katalysieren chemische Reaktionen und Umwandlungsprozesse, die ohne ihre Anwesenheit nicht oder nur langsam abgelaufen wären, sie helfen als so genannte Antikörper bei der Immunabwehr, sie geben den Zellen ihre Form, sie empfangen das Licht in den Zellen der Netzhaut im Auge und leiten die Information dar-über weiter in das Gehirn, indem sie die Erregung von Nervenzellen vermitteln, und sie tun vieles mehr. Bei jeder zellulären Aufgabe finden sich Proteine, die sie übernehmen und erledigen; und weil sich diese Einsicht schon vor dem Zweiten Weltkrieg durchsetzte, schien allen klar zu sein, dass die Proteine auch den Job übernehmen konnten, der von Genen erfüllt werden musste, um die Merkmale eines Organismus hervorbringen und an die nächste Generation weitergeben zu können.

Aus diesem Grunde reagierten viele Biochemiker höchst überrascht und skeptisch, als Avery und sein Team berichteten, dass es die Molekülsorte DNA war, die sie als transformierende Erbsubstanz in Bakterien nachweisen konnten. Diese Rolle hätte man allein deshalb eher den Proteinen zugemutet, da zwanzig Aminosäuren bekannt waren, aus denen die Proteine bestanden. Das waren mehr Einzelteile, als man bei der DNA gefunden hatte. Proteine konnten also wesentlich vielfältiger gebaut sein, und das Mindeste, das man von Genen erwartete, war eine Bauweise, die der Komplexität der Organismen angemessen war.

Trotzdem: Averys Ergebnis musste ernst genommen werden; die DNA gehört zur Erbsubstanz, aber was noch? Konnte es nicht sein, dass einige Proteine übersehen wurden? Um die Frage zu klären, wendeten einige Genetiker ihre Aufmerksamkeit erneut den Mikroorganismen zu, die auch chemisch einfacher zusammengesetzt sein sollten als die Zellen, die zu pflanzlichen oder tierischen Organismen gehören und sicher noch voller Fette (Lipide), Zucker, Mineralien, Kohlenwasserstoffe und anderer organischer Substanzen steckten. Und mit dem Phagen hatte man Glück. Die biochemische Analyse zeigte um 1950, dass ein Phage oder bakterielles Virus aus genau zwei Komponenten besteht, nämlich aus den beiden Konkurrenten um den Status als genetisches Material: DNA und Protein. Im Verlauf der 1940er Jahre war zudem - unter anderem mit Hilfe der damals aufkommenden Elektronenmikroskopieklar geworden, dass ein Phage aus einer Hülle und einem darin verpackten Stoff besteht. Die Bilder zeigten deutlich, dass die Hülle außen auf den infizierten Bakterien sitzen blieb (Abbildung 7). Nur was in ihr verpackt war, gelangte in das Bakterium, aus dem aber zuletzt wieder ganze Phagen austraten. Konnte man bei diesem Prozess identifizieren, wo sich die bekannten biochemischen Substanzen befanden?

Abb.7: Der Lebenszyklus eines typischen Phagen

 

Beantwortet wurde diese Frage 1952 von Hershey und Chase. Sie konnten zeigen, dass ein Phage, der aus DNA und Proteinen bestand, nur seine DNA in die Bakterien einschleuste, während die Proteinhülle außen blieb. Die DNA sorgte in den Bakterien dann dafür - auf zunächst unbekannte und unerkannte Weise -, dass erneut Hüllprotein angefertigt wurde und somit ganze Phagen entstehen konnten, die zuletzt das befallene Bakterium sprengten und ausschwärmten (Abbildung 7). Im Lebenszyklus des Phagen gab es also ein Stadium, in dem er ausschließlich aus DNA bestand. Mit erneut anderen Worten: Die DNA war nicht nur eine Komponente der Erbsubstanz (was Averys Gruppe gezeigt hatte), die Erbsubstanz des Phagen bestand ausschließlich aus DNA. Diese Nukleinsäure ist also der Stoff, aus dem die Gene sind. Dies wusste man 1952. Aber das war zunächst auch alles.

Wer in die Originalarbeit von Hershey und Chase hineinschaut, wird finden, dass das entscheidende Ergebnis über die DNA zwar deutlich erwähnt wird, aber den Messdaten nicht so leicht und klar zu entnehmen ist, wie behauptet wird. Die Vorbereitung des technisch keineswegs simplen Nachweises bestand darin, Phagen radioaktiv zu markieren, die bakteriellen Viren also so zu züchten, dass sie radioaktive Atome in ihre Moleküle einbauen. Der Trick des ganzen Versuchs beruht darauf, dass Schwefel zwar in Proteinen, nicht aber in der DNA vorkommt, und dass umgekehrt Phosphor zwar in der DNA, nicht aber in einem Protein zu finden ist. Im konkreten Experiment schaut man für verschiedene Phasen im Leben eines Phagen nach, wo sich der radioaktive Schwefel oder der entsprechende Phosphor befindet; dabei kommt es darauf an, das, was im Bakterium innen ist, von dem zu trennen, was außen bleibt.

Tatsächlich sind die technischen Details sehr verwickelt, und sie hätten mehr Anlass zur Skepsis geben können als Averys Daten von 1944. Wer es auf den Punkt bringen will, kann sagen, dass Averys Nachweis von DNA als Erbsubstanz sauberer und überzeugender ist als der von Hershey und Chase. Doch während Avery noch auf das Vorurteil seiner Kollegen traf, die in den Proteinen das genetische Material vermuteten, hatte sich bis 1952 unter den Molekularbiologen die Stimmung geändert, also bis zu der Zeit, als das Experiment mit den Phagen gemacht wurde. Während vorher alle nur an Proteine dachten, nahm im Laufe der Zeit - aus bislang weder unmittelbar einsichtigen noch ausführlich recherchierten Gründen - die Popularität der DNA zu. Die Auswirkung einer wissenschaftlichen Feststellung hängt eben nicht nur von der Qualität ihrer Ermittlung, sondern stark von den Erwartungen der Kollegen und von vielen anderen Faktoren ab.

Die Doppelhelix

Im Rückblick lautet im Jahr 1952 die nächste offensichtliche Frage natürlich, wie denn die DNA aufgebaut ist und wie das Makromolekül aussieht, aus dem die Gene bestehen müssen. Doch zunächst waren es nicht gerade viele Genetiker, die sie konkret gestellt haben. Dafür gibt es mehrere Gründe. Einer ist die Schwerfälligkeit der Forschung, die der eines Tankers ähnelt. Wenn in einem Laboratorium seit Jahren an einem Thema gearbeitet wird, wenn alle entsprechenden Kenntnisse und Gerätschaften vorhanden sind und man für die Lösung einer bestimmten Aufgabe finanziert wird, dann wird oft erst einmal auf gewohnten Bahnen weitergemacht, statt neue Forschungsprogramme zu entwerfen.

Ein weiterer Grund bestand darin, dass die DNA trotz allem immer noch »ein dummes Molekül« zu sein schien, wie Delbrück meinte, nachdem er sich erkundigt hatte, aus welchen Bausteinen die Nukleinsäure bestand. Da gab es vier Basen, da gab es eine Phosphatgruppe und da gab es einen Zucker. Die Chemiker wussten zudem, dass je eine Base mit den beiden anderen Molekülen eine besondere Untereinheit bildete, die man Nukleotid nennt. Aus den vier Basen können vier Nukleotide entstehen, und unter diesem Aspekt ist die DNA ein Tetranukleotid, und das schien Delbrück ziemlich wenig »a stupid molecule«, wie er urteilte, um sich anderen Aufgaben zuzuwenden.

Gar nicht dumm kam die DNA dem jungen James D. Watson aus Chicago vor, der bei Luria promoviert hatte und sich 1952 in Europa aufhielt, um mehr Biochemie zu lernen. Watson warfest von Qualität und Bedeutung des Versuchs überzeugt, mit dem Hershey und Chase die Rolle der DNA nachgewiesen hatten, und er war zudem instinktiv sicher, dass die Erbmoleküle von Phagen und Menschen irgendwie verwandt sein müssen, denn schließlich gilt es in beiden Fällen, dieselbe Aufgabe zu lösen: sich zu verdoppeln. Wenn der Phage DNA als Erbsubstanz besitzt, die Bakterien ebenso, dann gibt es eine gewisse Wahrscheinlichkeit, dass die Natur immer zu diesem Mittel greift. Die DNA soll ja nicht das ganze Leben erklären, sondern nur dessen Fähigkeit, sich verdoppeln zu können. Gene besitzen diese Qualität. Sie wird ihnen von der Substanz verliehen, aus der sie bestehen - also von der DNA -, und um das zu verstehen, muss man wissen, wie DNA aussieht. So dachte Watson und fragte sich, wo sich das herausfinden lässt. Wo gibt es ein Laboratorium oder eine Institution, in deren Räumen man dieser Frage nachgehen kann?

Bei seinen dazugehörigen Erkundigungen fiel sein Blick auf die britische Universitätsstadt Cambridge, in der man nach dem Krieg begonnen hatte, ein Laboratorium für die Strukturbestimmung von Makromolekülen einzurichten. Grundlage all der Arbeiten war die physikalische Technik der Röntgenstrukturanalyse, die in den frühen Jahrzehnten des 20. Jahrhunderts entwickelt worden war. Sie erlaubte es im strengen Sinn nur, die Struktur von Kristallen zu erkunden, aber nachdem die Biochemiker Wege gefunden hatten, nicht nur winzige Moleküle wie Kochsalz, sondern auch Makromoleküle wie DNA zu kristallisieren, stand dieser Weg zur Strukturbestimmung der Erbsubstanz plötzlich offen, und Watson wollte versuchen, ihn in Cambridge zu gehen. Ein mutiger Schritt, denn der junge Amerikaner hatte keine Ahnung, wie man DNA erst aus Zellen und Gewebe isolierte und dann in Kristalle verwandelte. Watson wusste zwar, dass man einen Röntgenstrahl durch diesen Kristall schickte und dessen vielfache Ablenkungen aufzeichnete, aber er hatte keine Ahnung, wie man mit den dann gewonnenen Daten weiter vorgeht, um Modellvorstellungen zu entwickeln. Er wusste nur, was er suchte, nämlich eine Molekülstruktur, die sich verdoppeln konnte, und er hatte den Eindruck, dass die anderen Wissenschaftler, die fleißig und sorgfältig isolierten, kristallisierten und kalkulierten, diesen biologischen Aspekt aus den Augen verloren hatten.

In Cambridge traf er mit Francis Crick zusammen, der ihm half, einige grundlegende Kenntnisse der Röntgenstrukturanalyse zu verstehen. Zusammen betrachteten die beiden die immer besser werdenden Aufnahmen, die vor allem aus dem Laboratorium von Rosalind Franklin kamen und die nach und nach deutlich eine Struktur erkennen ließen, die wie ein Kreuz aussah. Crick bewies und erklärte Watson, dass ein solches Kreuz mit seinen zwei Linien auf eine Struktur schließen ließ, die erstens aus zwei Teilen bestehen und zweitens schraubenförmig gebaut sein müsse. Es musste also eine Doppelhelix sein, wie Crick bemerkte, ohne zu wissen, dass Watson genau so etwas mit seinem Blick auf die Biologie suchte.

Der Weg, der von der allgemeinen Idee einer Doppelhelix zu ihrer konkreten Umsetzung und einer molekularen Vorstellung führt, war damit noch nicht zurückgelegt. Er war auch nicht leicht zu gehen und benötigt eine Menge Informationen, die viele andere Wissenschaftler beigetragen haben. Aber er ist von Watson und Crick in Angriff genommen und bis zum Frühjahr 1953 durchlaufen worden. Die wesentliche Eigenschaft des Duos scheint der Mut zur Interdisziplinarität gewesen zu sein. Während sich ihre Kollegen auf ihre jeweilige Spezialität konzentrierten und alle Details der Biochemie, der Kristallographie, der Bakteriologie und vieler anderer Disziplinen kannten, versuchten Watson und Crick zusammenzuklauben, was am Baum der Erkenntnis in den verschiedenen Gebieten gewachsen und verfügbar war. Sie hielten sich nicht mit der Lektüre von Lehrbü-chern auf und beschlossen eines Tages auch, nicht allen Tatsachen zugleich Rechnung zu tragen, die von Experimenten gemeldet wurden. Solch ein Verfahren riskiert den völligen Flop, wie ihn Watson und Crick auch mit einem ersten Modell erlebten, doch das Glück war dem Duo hold und im Februar 1953 stießen sie auf die Lösung. Bereits im April desselben Jahres erschien in der britischen Zeitschrift Nature ihr berühmt gewordener Vorschlag für die Struktur der DNA, und mit ihm tritt die elegante Doppelhelix eine erstaunliche Karriere an und wird zu dem, was man zweifellos eine Ikone unseres Zeitalters nennen könnte. Die Doppelhelix gibt es in vielen Darstellungen (Abbildung 8), von denen hier zwei gezeigt werden.

Die wissenschaftliche Bedeutung der Doppelhelix liegt darin, dass die Struktur unmittelbar erkennen lässt, welche Funktionen die DNA übernehmen kann - die beiden Stränge scheinen einem die Möglichkeit der Verdopplung geradezu aufzudrängen, und die lineare Anordnung der Basenpaare im Zentrum stellt die genetische Information dar (Replikation). Zudem können wir nun genau sagen, was ein Gen ist, nämlich ein Stück DNA.

EIN KLARES BILD

Viele Wege führen zu den Genen, und einen haben wir bislang unbeachtet gelassen, nämlich den biochemischen Pfad. Neben der traditionellen Route des Fliegenteams mit seinen klassischen Kreuzungsexperimenten, dem biophysikalischen Zugang über die Einwirkung von Strahlung und dem mit statistischen Analysen operierenden Ansatz der Mikrobiologie gab es bereits in den frühen vierziger Jahren einen biochemischen Weg zum Gen. Er wurde als die »Ein-Genein-Enzym-Hypothese« berühmt und sagte konkret, worin die Funktion eines Gens besteht: Ein Gen sorgt (auf eine vorläufig noch unbekannte Weise) für ein Enzym. Der Ausdruck »Enzym« steht für die Gebilde einer Zelle, die von der Struktur her gesehen Proteine sind und deren Aufgabe darin besteht, chemische Reaktionen zu ermöglichen (zu katalysieren), die sonst viel zu langsam oder überhaupt nicht ablaufen würden. »Enzyme« heißt wörtlich »in Hefe«, und mit diesem Ausdruck wollten die frühen Biochemiker auf ihre schon vor 1900 gemachte Entdeckung hinweisen, dass es nicht die intakten Hefezellen selbst sind, die für die Gärung sorgen, bei der zum Beispiel Bier produziert wird, sondern dass dieser Prozess von kleineren Einheiten »in der Hefe« übernommen werden konnte, eben den Enzymen.

Abb.8: Die Doppelhelix in zwei von vielen möglichen Darstellungen. In der linken Darstellung werden die einzelnen Atome betont (H für Wasserstoff, O für Sauerstoff, C für Kohlenstoff, N für Stickstoff und P für Phosphor), in der rechten Graphik lassen sich die Abstände (in Nanometem, nm) und die einzelnen Basenpaare besser erkennen (vgl. Abbildung 6). Entscheidend für die Konstruktion des Modells war die Einsicht, dass die Paare AT und GC gleich viel Raum einnehmen.

 

Es brauchte die ersten Jahrzehnte des 2O.Jahrhunderts, bis verstanden wurde, dass Enzyme erstens Makromoleküle sind und dass sie zweitens als Proteine gebaut werden und sich somit als Ketten aus Aminosäuren präsentieren. Klar war nur seit dem Beginn des 20. Jahrhunderts, dass Enzyme alle möglichen Reaktionen in den Zellen und Körpern bewerkstelligen und vor allem an jedem einzelnen Schritt des Stoffwechsels beteiligt sind. Jedenfalls glaubten die Biochemiker dies sagen zu können, nachdem sie erste Einblicke in die Stoffumsätze lebendiger Zellen bekommen hatten. So hielt zum Beispiel schon der erwähnte Archibald Garrod im Jahre 1908 in seinem Buch über angeborene Fehler beim Stoffwechsel {Inborn Errors of Metabolism) ausdrücklich daran fest, dass die nachweisbar vorkommende Abspaltung wohldefinierter Strukturen wie etwa eines Benzolrings von einem Molekül »die Arbeit eines speziellen Enzyms ist«. Der britische Arzt ging in seiner Spekulation sogar noch einen Schritt weiter und vermutete, dass angeborene Stoffwechselstörungen dadurch bedingt sind, dass die betroffenen Patienten ohne das speziel-1e Enzym auskommen müssen, das die unterbleibende chemische Umformung (Reaktion) katalysiert.

Abb. 9: Die »Ein-Gen-ein-Enzym-Hypothese«

 

Damit nimmt er schon im ersten Jahrzehnt des 20. Jahrhunderts die »Ein-Genein-Enzym-Hypothese« vorweg, die der offiziellen Geschichtsschreibung zufolge auf das Jahr 1941 datiert und den beiden Genetikern George Beadle und Earl Tatum zugeschrieben wird (Abbildung 9). Ihrer Ansicht nach wird beim Stoffwechsel ein Ausgangsstoff (A) über mehrere Zwischenprodukte (B, C, D) in ein Endprodukt

(E) umgewandelt. Dabei wird jede Reaktion durch ein Enzym bewirkt, das eine Zelle mit Hilfe des dazugehörigen Gens anfertigt.

Der Triumph der Moleküle

Beadle und Tatum arbeiteten weder mit Fliegen noch mit Bakterien oder Phagen, sondern mit einem Pilz, genauer mit Neurospom crassa, der für Genetiker den Vorteil bietet, im Verlauf seines reproduktiven Zyklus eine haploide Phase zu durchlaufen, in der durch Röntgenstrahlen leicht Mutationen ausgelöst werden können. So einfach sich dies zunächst anhört, so schwer ist die Suche nach Varianten dann durchzuführen, wenn man nicht irgendwelche Veränderungen sucht, sondern solche Mutationen, mit denen man eine wissenschaftliche Fragestellung in Angriff nehmen kann. Die beiden Genetiker wollten den Stoffwechsel untersuchen, und sie entschieden sich für den Teil, der mit Vitaminen zu tun hat. Neurospora kann als Wildtyp ohne Vitamine leben, da er über den biochemischen Apparat - über die Enzyme - verfügt, mit denen sich diese lebenswichtigen Stoffe herstellen lassen. Die Aufgabe bestand nun darin, Mutanten des Pilzes zu finden, die nicht alle Vitamine bilden konnten. Dies geschieht dadurch, dass man die den mutagenen Strahlen ausgesetzten Sporen auf zwei Nährmedien wachsen lässt, von denen eines das anvisierte Vitamin enthält und das andere nicht. Wiederholt man dieses Verfahren mit vielen Vitaminen und noch mehr Sporen, verfügt man erstens über eine Reihe von Neurospora-Stämmen, deren Vitaminsynthese blockiert ist, und zweitens über die Möglichkeit, diese Stämme miteinander zu kreuzen.

Dabei entsteht folgende Alternative: Entweder zeigen sich in der Nachkommenschaft zweier Mutanten Pilze, die das fehlende Vitamin wieder herstellen (wie der Wildtyp), oder es treten Pilze auf, die wie ihre Eltern auf Zufuhr von außen angewiesen bleiben. Die Wissenschaftler sprechen dabei von einem »Cistrans-Test«, der ihnen sagt, ob in den beiden gekreuzten Mutanten ein und dasselbe Gen betroffen ist - ausgedrückt durch das lateinische Wort eis für diesseits - oder ob in den zwei Mutanten zwei verschiedene Gene ver-ändert sind, ob also die eine Variation jenseits - trans - der anderen liegt. Wenn die Kreuzung zweier Varianten den Wildtyp zurückbringt, konnten sich die veränderten Gene gegenseitig ersetzen - damit waren zwei Gene mutiert-, wenn dies nicht der Fall ist, war kein Ausgleich möglich und also in beiden Organismen ein und dasselbe Gen außer Gefecht gesetzt. In den Lehrbüchern findet man dieses Verfahren auch unter dem Stichwort der Komplementationsanalyse beschrieben, weil im Experiment danach gefragt wird, ob sich Mutationen gegenseitig ergänzen oder nicht.

Klar ist, dass Beadle und Tatum mit ihren Versuchen auf dem Weg waren, die Wissenschaften der Biochemie und der Genetik zu vereinen, und sie waren erfolgreich, weil sie viele Mutanten finden konnten, die in einem Gen defekt waren -festgestellt durch eine genetische Kreuzung mit zugehöriger Komplementationsanalyse - und deren Stoffwechsel an genau einer Stelle steckenblieb - festgestellt durch eine biochemische Analyse. Aus einem Gen also musste - und konnte vor allem - ein Enzym entstehen, wie man zwar spätestens 1941 wusste, aber erst nach 1953 weidlich nutzen konnte.

Das Ergebnis von Beadle und Tatum bringt mindestens drei dramatische Konsequenzen mit sich, die wir im Folgenden schildern wollen, aber nicht ohne vorher sachte und nachdrücklich zugleich auf die Tatsache hinzuweisen, dass in vielen Fällen nicht stimmt, was die Hypothese ausdrückt. Der Grund dafür steckt in den Proteinen, die man sich damals als einheitliche Gebilde, das heißt als eine Kette von Aminosäuren vorgestellt hat. Heute weiß man, dass sich viele Proteine aus zwei, drei oder vier Ketten von Aminosäuren zusammensetzen, weshalb man genauer sagen müsste, dass ein Gen für eine Kette von Aminosäuren sorgt. Das Experiment von Beadle und Tatum hat trotzdem funktioniert, weil ein defektes Teilstück eines Enzyms die Wirksamkeit des ganzen Moleküls in Mitleidenschaft zieht. Mit dieser Einschränkung stimmt dann immer noch cum grano salis, dass ein Gen etwas mit einem Enzym zu tun hat.

Beadle und Tatum haben mit ihrem Pilz für die Vitaminsynthese erkundet, was Garrod Jahrzehnte zuvor für den Metabolismus des Menschen vermutet hatte. Anders ausgedrückt, die Genetik scheint universell gültig zu sein. Wenn man zum Beispiel in unseren Zellen den Stoffwechsel betrachtet, an dem die Aminosäuren mit Namen Phenylalanin und Tyrosin beteiligt sind (Abbildung 10), dann lassen sich inzwischen die Stellen angeben, deren Blockierung zu Erbkrankheiten bei Menschen führt. Die Blockierung bei 1 führt zu einer Erkrankung namens Phenylketonurie, die Unterbrechung bei 2 führt zum Albinismus, ein Defekt bei 3 führt zur Tyrosinämie und ein Hängenbleiben bei 4 führt zu der Alkaptonurie, die Garrod schon um 1900 untersucht hat. In allen Fällen ist ein einziges verändertes Gen die Ursache.

Die Einsicht von Beadle und Tatum verband aber nicht nur Gene und Proteine auf der einen und Pilze und Menschen auf der anderen Seite. Sie schuf auch die Möglichkeit, Wissenschaft und Wirtschaft zu verbinden, und hier ergab sich bald eine weitere Konsequenz. Denn was die beiden Biologen als reine genetisch und biochemisch orientierte Grundlagenforschung begonnen hatten, zeigte sehr bald konkrete Auswirkungen und praktische Anwendungsmöglichkeiten. Die von ihnen isolierten Mutanten konnten zum Beispiel genutzt werden, um den Vitamingehalt von Nahrung zu prüfen und zu bestimmen. Tatsächlich wurde dieser Test bald in der Lebensmittelproduktion verwendet, mit dem nicht unwesentlichen Nebenergebnis, dass die biochemisch orientierte Genetik sehr bald und sehr reichlich von der »Nutrition Foundation« und der dahinterstehenden Nahrungsmittelindustrie gefördert wurde.

Die für uns wichtigste Konsequenz aus der Verknüpfung von Genen und Enzymen ergab sich 1953 in der Universitätsstadt Cambridge, in deren Laboratorien nicht nur die Struktur der DNA, sondern auch die eines Proteins ermittelt wurde, und beide Ergebnisse passten plötzlich auf wunderbare Weise zusammen. Als Watson und Crick mit der DNA beschäftigt waren, um ihre Struktur zu erkunden, kümmerte sich der Biochemiker Fred Sanger am gleichen Ort um den Aufbau des Insulins, das chemisch betrachtet ein Protein war und physiologisch gesehen als Hormon funktionierte, was heißt, dass es als körpereigene Wirksubstanz durch die Blutbahn zu einem Organ - in dem Fall die Bauchspeicheldrüsetransportiert wird, um hier Signale für weitere biochemische Reaktionen zu geben - in dem Fall für den Stoffwechsel von Zucker. Bevor sich Sanger an die Arbeit machte, waren nicht alle Biochemiker sicher, dass sich hinter der Wirkung, die man mit einem Agens namens »Insulin« verband und messen konnte, ein konkretes Molekül verbarg. Damals zirkulierte in Kreisen der Wissenschaft noch die Vermutung, dass es statt einer makromolekularen Einheit viele kleinere Gebilde gab, die sich je nach zellulärer Umgebung verschieden gruppierten und ihre Aktivität entfalteten. Erst Sanger machte diesem Glauben ein Ende, indem er anfing, die Reihenfolge von Bausteinen (Aminosäuren) im Insulin zu ermitteln. Dafür stand ihm ein Verfahren zur Verfügung, das es erlaubte, eine Kette von Aminosäuren Schritt für Schritt um ein Glied zu verkürzen, das selbst von dem schrumpfenden Protein entfernt und identifiziert wurde. So schlicht sich dieser Vorgang im Prinzip schildern lässt, so verzwickt ist seine praktische Umsetzung, die unter anderem höchste Präzision und perfekte Reinheit voraussetzt. Sanger erwies sich als Meister der Methode und mit ihr konnte er nachweisen, dass die Sequenz des Insulins keine zufällige Erscheinung, sondern eine Messgröße war, die das Hormon charakterisierte und ihm seine besondere Wirkung verlieh. Bald setzte sich der Gedanke allgemein durch, dass Proteine kettenförmig aus Aminosäuren aufgebaut sind.

Abb. 10: Teil des Stoffwechselweges von Phenylalanin und Tyrosin mit möglichen Unterbrechungen

 

Die entscheidende Qualität von Proteinen wie Hormonen und Enzymen heißt bei den Biochemikern Spezifität, womit ausgedrückt wird, was Enzyme oder Hormone tun, nämlich sehr spezifisch zu wirken, indem sie nur genau eine chemische Reaktion katalysieren oder genau eine physiologische Antwort an genau einer Stelle im Körper auslösen. Sanger konnte mit seiner Analyse des Insulins zum ersten Mal zeigen, wo die Spezifität eines Proteins steckte, nämlich in der Reihenfolge seiner Bausteine. Und nachdem die Doppelhelix als Modell des Gens vorgelegt wurde, brauchte man nur eins und eins zusammenzuzählen, um einem großen Geheimnis der Natur auf die Spur zu kommen.

Die beiden maßgeblichen Moleküle des Lebens - die Erbsubstanz DNA und ihre Produkte, die Proteine - wirkten spezifisch, weil sie völlig gleichartig gebaut waren, nämlich als lineare Ketten von Bausteinen - Nukleotide beziehungsweise Basen bei der DNA und Aminosäuren bei den Proteinen. Wenn ein Gen für ein Protein sorgte, dann hieß das, dass die Zelle einen Weg haben musste, um die Reihenfolge der DNA-Bausteine in die Reihenfolge der Proteinbausteine zu übertragen. Und dafür musste es einen genetischen Code geben, wie zwar schon vermutet worden war, wie man aber jetzt erst konkret zu sehen meinte. Und damit ließ sich unter Zuhilfenahme der damals aufkommenden und erste Erfolge verbuchenden Informationstheorie erneut definieren, was ein Gen ist: Ein Gen enthält die Information für ein Protein, es liefert die Anleitung, nach der in einer Zelle ein Protein angefertigt wird.

Der eben in aller Kürze vollzogene Schritt von der Spezifität zur Information überspringt sehr schnell eine Phase der Molekularbiologie, deren wissenschaftliche Dramatik offenbar nicht unabhängig von dem politischen Hintergrund gesehen werden kann, vor dem sich die Aufdeckung des genetischen Codes in den fünfziger und sechziger Jahren vollzog. Gemeint sind der Kalte Krieg und die Tatsache, dass die finanzielle Förderung der biologischen Wissenschaften in den Jahren nach 1950 vor allem aus dem amerikanischen Verteidigungsministerium kam und hier besonders durch die militärisch kontrollierte Atomenergiekommission vergeben wurde. Für die Wissenschaftshistorikerin Uly Kay kann »der genetische Code als Teil der kulturellen Erfahrung des Kalten Krieges angesehen werden, insofern er ein Leitsymbol biologischer Befehls- und Kontrollgewalt darstellte«.

Es sollte nicht übersehen werden, dass der zentrale Begriff des genetischen Codes ein deutliches Relikt der Zeit darstellt, in der an seiner Aufklärung gearbeitet wurde. Bei einem Code denkt man zunächst an eine Geheimschrift, die von einem Gegner benutzt wurde und die es zu entschlüsseln galt, um seine Macht zu brechen. Militä-rische Codes waren selbstverständlich Transformationsregeln (Verschlüsselungen), die von konkreten Menschen mit einem konkreten Ziel gemacht worden waren. Der genetische Code ist dies zwar gerade nicht, er wird aber bis heute von der Wissenschaft und der öffentlichkeit so behandelt, weshalb es uns immer noch leicht von den Lippen geht, von der Entschlüsselung irgendeiner genetischen Information zu sprechen (was sinnlos ist). Vielleicht schleppen wir da tatsächlich ein merkwürdiges Erbe des Kalten Krieges mit uns herum, das wahrscheinlich auf absehbare Zeit wenig Chancen hat, aus den Köpfen zu verschwinden.

Das Konzept der genetischen Information und der Erfolg, der mit der Aufdeckung des genetischen Codes gefeiert werden konnte, haben in den folgenden Jahrzehnten das Denken vieler Molekularbiologen dominiert, und nicht wenige sehen bis heute damit das Rätsel der Gene gelöst: Gene kodieren Proteine, und Proteine gehen ausreichende Wechselwirkungen miteinander ein, um so die Organismen aufbauen zu können. Allerdings werden Proteine gebraucht, damit ein Gen überhaupt ein Protein produzieren kann, und somit verdunkelt die berühmte Frage nach Henne oder Ei das scheinbar so helle biochemische Bild des genetischen Spiels (Irrtümer).

Zu den uralten Weisheitslehren Chinas gehört die Einsicht, dass eine Sache dann einfach erscheint, wenn man weit genug von ihr entfernt ist. Oder anders formuliert: Je näher man der Wirklichkeit kommt, desto weniger sichtbar wird sie. Die Ein-Gen-ein-Enzym-Hypothese ist ein Blick aus der Ferne, der tatsächlich an Klarheit einbüßte, als man den Genen immer näher kam, und zwar so nah, dass man einzelne Bausteine unterscheiden konnte. Dies gelang dem amerikanischen Genetiker Seymor Benzer in der Mitte der fünfziger Jahre mit Versuchen an Bakteriophagen. Sie zeigten, dass die biochemisch gedachte Einheit der Mutation und Rekombination sehr viel kleiner war als die genetisch konzipierte Einheit der Vererbung. Diese Unterscheidungsmöglichkeit verleitete Benzer zu dem Vorschlag, den Begriff des Gens aufzugeben und durch die korrekter fassbaren Ausdrücke Cistron (als Einheit der Vererbung gemessen in einem Cistrans-Test), Recon (als Einheit der Rekombination) und Muton (als Einheit der Mutation) zu ersetzen.

Es braucht nicht betont zu werden, dass Benzers Bemühen um wissenschaftliche Präzision die Gefolgschaft verweigert wurde. Es sollte allerdings gefragt werden, warum sein Vorstoß überhaupt keine Akzeptanz gefunden hat. Dies ist deshalb von Interesse, weil sich der Vorgang ein halbes Jahrhundert später wiederholte, als Stephen J. Gould und Jürgen Brosius versuchten, das »Gen« durch den Begriff »Nuon« zu ersetzen. Diese Wortschöpfung geht von der konkret fassbareh Tatsache aus, dass Gene aus Nukleinsäuren bestehen, und seine Schöpfer wollten von dieser Basis aus gewisse Unterscheidungen einführen. So sollten zum Beispiel DNA-Sequenzen, die eine evolutionäre Geschichte hinter sich haben, anders bezeichnet werden als DNA-Sequenzen, für die dies nicht der Fall war. Auch dieser Versuch, das Gen zu ersetzen, ist kaum beachtet worden, obwohl er ähnlich gut auf experimenteller Evidenz basierte wie seinerzeit Benzers Aufteilung in die drei genetischen Einheiten Cistron, Recon und Muton.

Zur der Zeit, in der Benzer mit seinen genetischen Experimenten klären wollte, was ein Gen ist und kann, machten sich die Biochemiker an die Aufgabe, die einzelnen Schritte zu erkunden, mit denen eine Zelle den Weg von einem Gen - verstanden als DNA-Molekül -zu einem Protein zurücklegt. Alle gingen dabei von der klaren Vorstellung aus, dass die Reihenfolge der DNA-Bausteine sowohl die Art der Aminosäuren festlegt, die in einem Protein vorhanden sind, als auch deren Reihenfolge. Wie erwähnt, wurde bereits 1953 vorgeschlagen, dass es dazu eines Zwischenträgers der Information bedarf, und als Kandidat für diese Aufgabe wurde die der DNA verwandte Substanz mit Namen RNA ins Spiel gebracht: Alexander Dounce machte den damals noch nicht experimentell abgesicherten Vorschlag, dass die DNA zur Herstellung von RNA verwendet wird, die ihrerseits als Vorlage oder Schablone (template) für die Anfertigung von Proteinen dient. Dieses im Grundsatz heute als richtig erkannte Schema stieß zunächst auf wenig Widerhall, weil viele Bio-Chemiker der Überzeugung waren, dass raffinierte und kompliziertere Wechselwirkungen nötig seien, um die Proteine in all ihrer Spezifität synthetisieren zu können. Außerdem gab es keine Methode, um den Vorschlag mit der RNA zu prüfen.

Dies änderte sich aber im Jahre 1954, als Paul Zamecnik den Wissenschaftlern die Möglichkeit lieferte, die Synthese von Proteinen im Reagenzglas (in vitro) zu studieren. Mit diesem »Invitro-System«, das man sich wie ein bei aller Reproduzierbarkeit geheimnisvoll bleibendes Kochrezept vorstellen kann, konnte im Verlauf der fünfziger Jahre gezeigt werden, dass es nicht eine, sondern mehrere Sorten von RNA gab, die auf dem Weg zum Protein nötig wurden, ja dass es sogar für jede Aminosäure eine eigene RNA geben musste, mit deren Hilfe sie verknüpft wurden.

Das Verständnis der Proteinsynthese ist dem Zusammenwirken von vielen Wissenschaftlern zu verdanken, die ihrerseits in Gruppen arbeiteten, die als interdisziplinäre Teams agierten - eine Praxis, die heute selbstverständlich ist, die sich damals aber erst entwickeln musste. Die Molekularbiologie erlebte mit ihrem Aufstieg auch eine Umwandlung des gesamten Wissenschaftsbetriebs. Während früher hervorstechende Persönlichkeiten den Ton angaben und die Forschung mehr oder weniger aristokratisch funktionierte, übernahmen nun Teams und Kooperationen die bestimmende Rolle.

Natürlich lebt die Wissenschaft trotz der zunehmenden sozialen Komponente von den Ideen individueller Köpfe, und wenn man gefragt wird, wer die herausragende Rolle in den Jahren gespielt hat, als es um das Verstehen der Proteinsynthese ging, kann man nur auf Francis Crick hinweisen, den Mitentdecker der Doppelhelix. 1957 erschien Cricks legendäre Arbeit On Protein Synthesis, in der ihm die entscheidende Einsicht durch den Begriff der Primärstruktur eines Proteins gelingt. Damit meinte er nichts anderes als die Reihenfolge der Aminosäuren in einem Protein, die er direkt mit der Reihenfolge in einem DNA-Molekül verknüpfte und als von ihr bestimmt ansah.

Dies ist der Inhalt seiner berühmten Sequenzhypothese, die sich bald als richtig herausstellte und durch die Entschlüsselung des genetischen Codes im Verlauf der sechziger Jahre so eindeutig bewiesen und fest zementiert wurde wie ein Naturgesetz. Die Spezifität der DNA steckt in der Sequenz ihrer Bausteine, und diese Hypothese besagt zusammen mit dem genetischen Code, dass nicht die fertige Gestalt, sondern nur die Primärstruktur eines Proteins genetisch festliegt. Was die fertige Gestalt angeht, so machte Crick - auf der Basis vieler physikalischchemischer und biologischgenetischer Kenntnisse - den Vorschlag, dass Proteine ihre eigentliche (dreidimensionale) Konfiguration aus der Primärstruktur spontan annehmen, und zwar tun sie dies durch die Wechselwirkung mit dem Zellmilieu, in dem sie hergestellt werden und auftreten.

Crick ging noch einen Schritt weiter und verkündete das bis heute eindrucksvoll klingende Dogma der Molekularbiologie, das den Weg festlegt, den die Information in einer Zelle nehmen kann. Sie fließt von der DNA des Gens über einen Zwischenträger, die RNA, in ein Protein - und von hier gibt es für die Information keinen Weg zurück. Das Gen ist in dieser Perspektive leicht als der Informationsträger der Zelle zu identifizieren, und das Bild macht einsichtig, warum die alte Einheit der Vererbung mit der Einheit der Mutation nicht mehr übereinstimmt. Für eine Variation reicht nämlich ein einzelner Gen-Baustein aus, durch den die Spezifität der DNA verändert wird (ähnliches trifft für die Rekombination zu), während die Vererbung auf ganze Gene (und damit auf längere DNA-Stücke) zielt.

Als Cricks Ideen über die Proteinsynthese publiziert und experimentell abgesichert werden, wird tatsächlich entdeckt, dass ein einzelner mutierter Genbaustein in einem Protein vererbbare Auswirkungen nach sich ziehen kann. Das Protein heißt Globin; allerdings wird die Kette von Aminosäuren, die Biochemiker mit diesem Namen bezeichnen, nicht für sich allein, sondern nur im Verbund mit drei anderen ähnlichen Kettenmolekülen wirksam. Nur beim Zusammenfinden von vier Polypeptiden entsteht ein funktionierendes Protein, in diesem Fall das Hämoglobin, das als roter Blutfarbstoff bekannt ist und für die Verteilung von Sauerstoff in den Geweben des Körpers sorgt. Für jede der vier Ketten, die das Hämoglobin formen, gibt es ein Stück DNA, das die Information für die dazugehörige Primärstruktur enthält, wodurch die alte »Ein-Gen-ein-Protein-Hypothese« mehr oder weniger widerlegt wird. Beim Hämoglobin gibt es ja nicht ein, sondern offenbar vier Gene für ein Protein, und da damit nur das erste Beispiel von vielen, die noch entdeckt werden sollten, bezeichnet ist, verändert sich die biochemische Festlegung vom Gen notwendigerweise erneut, diesmal zu der »Ein-Gen-ein-Polypeptid-Hy-pothese.«

Unabhängig von Details dieser Formulierungen behauptete Cricks Dogma, dass es eine Molekülsorte gibt, die zwischen dem Gen und dem Protein vermittelt. Sie galt es zu finden. Der Nachweis der heute in den Lehrbüchern als Boten-RNA oder mRNA bezeichneten Molekülsorte stellte sich deshalb als äußerst schwierig heraus, weil dieser Zwischenträger der genetischen Information nur vorübergehend existiert und instabil ist.

Das Wort »Bote« (messenger) war um 1960 aufgekommen, als auch die chemische Natur der Molekülsorte feststand, nämlich RNA. Die Molekularbiologen - unter ihnen der aus Südafrika stammende Sydney Brenner und die Franzosen Francois Jacob und Jacques Monod -arbeiteten damals mit mutierten Bakterien, die unentwegt ein Protein herstellten, das der Wildtyp nur bei Bedarf anfertigte. In der Sprache der Wissenschaft sagt man, der Wildtyp ist induzierbar, während die Mutante konstitutiv ist. Bei ihren Vorarbeiten hatten die genannten Genetiker entdeckt, dass auch Bakterien sexuell aktiv sein können, was heißt: Sie sind in der Lage, genetisches Material (DNA) auszutauschen, also von einer Zelle in eine andere zu befördern. Es gab Spender- und Empfängerzellen (Donor und Rezipient), so wie es Männchen und Weibchen gibt, und damit ließ sich folgende Beobachtung machen: Wenn man dafür sorgte, dass ein induzierbares Weibchen das konstitutive Gen erhielt, begann dort ohne die kleinste Verzögerung (und ohne sonstige Zugabe) die Synthese des Proteins. Die Idee lag nahe - und hat sich auch als richtig erwiesendass mit dem Gen auch der Zwischenträger der genetischen Information in das »Weibchen« geschleust wird. In solch einem Fall muss er auch biochemisch fassbar sein, was am Ende der fünfziger Jahre des 20. Jahrhunderts nach einigen dramatischen Versuchen gelang und sich in den Jahren danach als allgemeine Kenntnis durchsetzte. Damit konnten sich die ersten Biologen an die Arbeit des Lehrbuchschreibens machen, und in den sechziger Jahren kamen die ersten von ihnen auf den Markt - etwa die Klassische und molekulare Genetik von Carsten Bresch, die 1964 erschien, oder The Molecular Biology of the Gene von James Watson, die 1965 auf den Markt kam. Beide legen in etwa gleicher Weise fest, was ein Gen ist, nämlich der aus DNA bestehende Abschnitt auf einem Chromosom, der zur Ausü-bung einer Funktion erforderlich ist (die selbst merkwürdig offen bleibt). Seit der Zeit gibt es so etwas wie ein Paradigma der Genetik, das erst zu einer »Molekularbiologie des Gens« und dann zu einer »Molekularbiologie der Zelle« führte. Es ist natürlich keine Frage, dass die Zunft der Biologen allen Grund hat, stolz auf das Erreichte zu sein. Trotzdem scheint es, dass sich heute nach und nach berechtigte Zweifel am Standardmodell des genetischen Denkens bemerkbar machen, die zum Ersten mit Einsichten in die Stabilität der Gene und zum Zweiten mit immer mehr Funktionen zu tun haben, die der bisher eher stiefmütterlich behandelten RNA zugewiesen werden können.

Die genetische Regulation

Bisher konnte man den Eindruck gewinnen, dass Gene genau die eine Aufgabe haben, die Information für ein Protein zu liefern genauer: für die Polypeptidketten, die ein Protein ausmachen. Genau dies dachten die Genetiker bis zum Ende der fünfziger Jahre. Doch nach und nach tauchten Beobachtungen auf, die ein erweitertes Verständnis verlangten; eine davon haben wir schon kennengelernt. Sie stammt von Mitgliedern der so genannten »französischen Schule« der Molekularbiologie, zu der neben den beiden schon erwähnten Franzosen Monod und Jacob auch André Lwoff (und noch einige andere) gehörte. Die drei hatten etwas beobachtet, was sie als »Diauxy-Phänomen« bezeichneten. Hinter dem merkwürdig klingenden Wort, das auf zwei Sorten Nahrung hinweist, verbirgt sich die Fähigkeit von Bakterien, zwischen zwei angebotenen Sorten von Zucker im Nährmedium zu unterscheiden. Sie nehmen nicht beide zugleich auf, sondern verzehren erst eine Form und greifen zur zweiten nur dann, wenn die erste verbraucht ist. In den ersten Versuchen setzten die Molekularbiologen Glukose und Laktose ein, und immer verschwand zuerst die (kleinere) Glukose aus dem Nährmedium, bevor die Bakterien sich der (größeren) Laktose zuwandten. Wenn sie dies taten, so zeigte die biochemische Analyse, dann setzten die Zellen ein Enzym ein, das aus historischen Gründen Beta-Galaktosidase heißt. Es diente der Zerlegung des Zuckers, der natürlich zunächst einmal in das Innere der Bakterien geholt werden musste.

Von den vielen Problemen, die in diesem Zusammenhang auftauchten, nahmen sich Lwoff, Jacob und Monod die Frage nach der Herkunft des Enzyms vor. Als Grundlage ihrer Arbeiten diente die so genannte Adaptor-Hypothese, der zufolge die Beta-Galaktosidase den Zellen zuerst in einer inaktiven Form zur Verfügung steht, bevor sie durch ein Signal von außen den neuen Bedingungen angepasst (adaptiert) wird. Das Signal könnte das Verschwinden des anfänglich in den Stoffwechsel eingeführten (»metabolisierten«) Zuckers sein oder eine andere Form haben, die es noch zu ermitteln galt.

Als Genetiker wollten die Mitglieder des Pariser Trios ihre Hypothese mit Hilfe von Mutanten testen, die vor allem dadurch aufgespürt werden konnten, dass es chemische Substanzen gab, die zwar sehr ähnlich gebaut waren wie die Laktose, aber nicht von den Bakterien verdaut werden konnten. Man spricht in diesem Fall von analogen Verbindungen (Analoga), und ihre Anwendung erlaubte es bald, die Grenzen der Adaptor-Hypothese zu erkennen und sie durch eine andere Annahme zu ersetzen, die man inducer-hypothesis nannte. Wie sich herausstellte, agierte die Laktose als inducer, womit gemeint ist, dass der Zucker nicht eine vormals inaktive Form der Beta-Galaktosidase in eine aktive umwandelte, sondern überhaupt erst einmal für die Synthese des Enzyms sorgte. Laktose induzierte die Anfertigung der Beta-Galaktosidase, die deshalb als ein steuerbares Protein anzusehen war.

Mit anderen Worten: Gene konnten reguliert werden. Gene sind nicht immer und zu allen Zeiten in Funktion, das heißt sie werden nicht immer »exprimiert«: Die Expression von Genen kann je nach Bedürfnis und Bedingung ein- oder ausgeschaltet werden, wie sich bald im Anschluss an die Arbeiten der französischen Schule herausstellte. Ein großes und faszinierendes Rätsel war, wie die genetische Regulation der Gene in einer Zelle vor sich geht.

Die Lösung verdanken wir vor allem Jacob und Monod, und sie lässt sich in sehr einfacher Weise formulieren: Es gibt nicht nur Strukturgene, in denen die Informationen für den Bau eines Proteins (einer Polypeptidkette) angelegt sind, sondern es gibt auch Regulatorgene, die steuern, unter welchen Umständen Strukturgene exprimiert werden oder nicht.

Für diese Regulatorgene hat sich heute die mechanisch klingende Redeweise von Genschaltern eingebürgert, die nicht nur unglücklich ist, weil sie ein Maschinenbild des Lebens suggeriert, sondern weil sie nicht deutlich macht, dass es sich bei den regulierenden Elementen um Gene handelt - eben um Gene mit einer Kontrollfunktion, die sich von der bis dahin einzig bekannten Funktion der Informationsspeicherung unterschied.

Insgesamt konnten Jacob, Monod und viele andere mehrere Elemente der Regulation ausmachen, die unter den Namen Repressor, Operator und Promotor bekannt geworden sind. Das klassische Beispiel, an dem die Funktionen der entsprechenden DNA-Sequenzen erkannt worden sind, beruht auf den Einsichten, die beim Studium der Einbringung von Laktose in den Stoffwechsel gelungen sind, nachdem die Bakterien den einfacheren Zucker Glukose verbraucht hatten. In der Literatur spricht man in diesem Zusammenhang vom Lac-Operon. Mit dem Begriff des Operons ist eine zusammenhängende Gruppe von Genen gemeint, die einer gemeinsamen Regulation unterliegen. Im Fall des Lac-Operons funktioniert die Sache wie in Abbildung 11 dargestellt.

Die Zelle stellt im Normalfall ausreichender Versorgung mit einem leicht verdaulichen Zucker (Glukose) sicher, dass die Beta-Galaktosidase nicht synthetisiert wird, und sie tut dies, indem sie ein anderes Protein den Repressor anfertigt, der das Lac-Operon blockiert, und zwar einfach dadurch, dass er ein DNA-Stück besetzt, das auf diese Weise die Funktion eines Operators bekommt, wie man sagt. Wenn es nun der Laktose gelingt, zu dem Repressor vorzudringen, klammert sich der Zucker fest an das Protein, das durch dieses Anbinden so umgeformt wird, dass es nicht weiter an der DNA haften bleiben kann. Die Unterdrückung des Lac-Operons ist aufgehoben, und die Anfertigung der Beta-Galaktosidase und der anderen Enzyme, die für das Heranholen und Verspeisen der Laktose benötigt werden, kann beginnen. Dies geschieht dadurch, dass ein anderes Enzym an ein anderes Stück DNA bindet und mit der Umschreibung (Transkription) der DNA-Sequenz für die Beta-Galaktosidase in ein RNA-Molekül beginnt. Dieses Enzym nennen die Biochemiker Polymerase

- genauer DNA-RNA-Polymerase -, und die Stelle, an der es das genetische Material bindet, heißt Promotor.

Von den drei Stukturgenen, die in dem Laktose-Operon eine Einheit bilden, kennt man trotz jahrzehntelanger Bemühungen noch nicht alle Raffinessen. Zwar ist klar, dass das erste Enzym die Laktose in den Stoffwechsel einfügt, und man hat auch verstanden, dass das zweite Enzym, dessen Tätigkeit durch den Begriff der Permease beschrieben wird, für den Transport des Zuckers aus dem Medium in die Zelle zuständig ist. Aber wozu genau das dritte Enzym, dessen sehr komplizierter Name sein biochemisches Tun im Detail beschreibt, von den Bakterien benötigt wird, muss nach wie vor erforscht werden.

Abb.11: Das Lac-Operon

 

Es ist wichtig zu betonen, dass Operator und Promotor nicht einfach nur DNA-Sequenzen sind, sondern wirklich und wahrhaftig als Gene bezeichnet werden müssen, da Mutationen in ihnen Auswirkungen auf die Erscheinungsform der Bakterien haben und auf die Nachkommen vererbt werden.

Das Lac-Operon stellt ein Beispiel für die Art der Regulation dar, die in der Sprache der Techniker negative feedback (negative Rückkopplung) heißt, womit das Aufheben einer Repression gemeint ist. Wer diesen Ausdruck hört, wird sofort schließen, dass es auch die entsprechende positive Rückkopplung im Zellgeschehen gibt, und sie wurde bald auch gefunden. Wichtig an diesen - immer bei einzelligen Bakterien gemachten -Entdeckungen war vor allem, dass sie den Weg für ein Forschungsprogramm aufzeigten, mit dem man das genetische Geschehen in Zellen von komplexeren, »höheren« Organismen erkunden wollte. Die Aufgabe bestand offenbar darin, ihre Regulatorgene zu identifizieren und zu charakterisieren, um zu verstehen, wie diese DNA-Sequenzen und die dazugehörigen Strukturgene interagierten und möglicherweise Netzwerke bildeten.

Natürlich stand man am Ende der sechziger Jahre erst am Beginn dieser Aufgabe, aber trotzdem wähnten sich viele führende Molekularbiologen dieser Zeit schon kurz vor dem Ziel eines genetischen Verständnisses des Lebens. Sie erwarteten jedenfalls in Zukunft keine wesentlichen gedanklichen Neuerungen mehr. Mit dem Dogma der Molekularbiologie, dem genetischen Code und dem Mechanismus der Genregulation schien »die fundamentale Basis der Biologie« bekannt zu sein, wie Monod 1972 in seinem Bestseller Zufall und Notwendigkeit schrieb: Diese Basis - DNA, Code, Dogma, Regulation -werde »zwar niemals in der Lage sein, das Ganze der Biosphäre vorzuführen und vorherzusagen, sie stellt trotzdem aber eine allgemeine Theorie der lebenden Systeme dar«, mit der man sicher zufrieden sein konnte.

That was the Molecular Biology that was hieß 1968 der erste Rückblick, der Entstehung und Höhepunkt der Molekulargenetik schilderte und dessen Verfasser, Günther Stent, offenbar meinte, es wäre schon möglich, ihre endgültige Geschichte zu schreiben. Das optimistische Motto hatte Crick 1962 ausgegeben, als ihm zusammen mit Watson der Nobelpreis übergeben wurde. In seiner Dankesrede sagte er: »Wir kommen an das Ende eines Zeitalters in der Molekularbiologie. Wenn die Entdeckung der DNA-Struktur das Ende des Anfangs war, dann ist die Entdeckung des genetischen Codes der Anfang des Endes.«

Zehn Jahre später schien auch dieser Anfang zu Ende, die Molekularbiologie hatte offenbar ihre Schuldigkeit getan. Doch nur ein Jahr später - im November 1973- sah alles schon wieder ganz anders aus. Die Gentechnik nahm einen neuen Anfang, der bis heute kein Ende erkennen lässt.

EIN DYNAMISCHES MOSAIK

Als am Ende der 1960er die politisch-gesellschaftliche Welt aus den Fugen zu geraten schien, wurde die Genetik offenkundig langweilig

- kurzfristig jedenfalls. Ihre führenden Vertreter schrieben Biographien (wie Watson) und Geschichtsbücher (wie Jacob) oder wanderten in andere Bereiche der Wissenschaft ab (Crick etwa kümmerte sich von nun an um Neurobiologie). Man meinte, das Leben molekular zu verstehen, bis man verstehen musste, dass man die Moleküle unterschätzt und noch nichts von ihnen verstanden hatte. Auslöser einer neuen Genetik war die 1973 publizierte Beschreibung einer Methode, die im Volksmund unter dem Namen »Gentechnik« sehr populär werden sollte.

Die Gentechnik stellte ein Verfahren zur Neukombination und Vermehrung - Rekombination und Klonierung - von DNA-Molekülen dar und hatte daher zunächst weniger mit funktionellen Genen und mehr mit materiellen Molekülen zu tun. Für das Verständnis der Genetik und ihrer Objekte wäre es deshalb besser gewesen, wenn sich die sachlich korrekte Bezeichnung »Technik der DNA-Rekombination« oder eine ahn liehe Wendung nach dem amerikanischen Vorbild der »Recombinant DNA technology« sowohl im fachlichen Gespräch als auch in der öffentlichen Diskussion durchgesetzt hätte. So reden wir heute von Gentechnik, ohne zu wissen, ob das anvisierte DNA-Stück, mit dem wir handwerklich (»manipulierend«) umgehen und das wir zwischen Reagenzgläsern einerseits und Zellen andererseits hin- und herbewegen, ein Gen ist oder nicht. Denn so klares ist, dass Gene aus DNA bestehen, so klar ist auch, dass nicht alle DNA in einer Zelle die Qualifizierung als Gen verdient. Im Schatten der Aufdeckung des genetischen Codes und leider auch mit weniger Aufmerksamkeit bedacht als die Einführung der Gentechnik hatten zahlreiche wissenschaftliche Bemühungen um die Erbsubstanz Hinweise darauf gebracht, dass es eine Menge DNA in den Chromosomen gab, die weder zu einem Protein führte noch für die Regulierung seines Auftretens zuständig war.

DNA, der man keine Funktion zuweisen kann, nennen die Genetiker gerne »überflüssig«, wenn ihnen keine schlimmeren Worte wie »Schrott« einfallen. Die zu der Einsicht von genetisch nicht unbedingt erforderlichen DNA-Mengen führenden Untersuchungen wurden nicht mit Bakterien, sondern mit Zellen gemacht, die über einen Zellkern verfügen und deshalb als eukaryontisch bezeichnet werden. Die meisten Organismen, die im Kontext der Evolution als die höheren bezeichnet werden, sind Eukaryonten, wie es heißt, und Menschen, Mäuse, Fliegen und Würmer zählen dazu. Der Fachbegriff ist nötig, weil es auch Lebensformen ohne Zellkern gibt. In diesem Fall ist von Prokaryonten die Rede, und die bekanntesten Vertreter dieser Gruppe sind die vielfach erwähnten Bakterien, die allerdings in der Genetik eine prominente Rolle gespielt haben. Das Wissen, das die heutige Molekularbiologie angehäuft hat, konnte sie vornehmlich mit Hilfe von Bakterien gewinnen. Wer in den sechziger und siebziger Jahren Genetik trieb, experimentierte zumeist mit Bakterien und dabei vor allem mit dem beliebten »Haustierchen« der Molekularbiologen, das friedlich in der menschlichen Darmflora leben kann und daher Colibakterium heißt. Ganz korrekt ist von Escherichia coli (E. coli) die Rede.

Der genetische Code, die Genregulation, die Mechanismen der Proteinsynthese und die Rekombination von DNA im Reagenzglas - all dies war mit f. coli oder anderen prokaryontischen Lebensformen untersucht worden, deren Genesich mehr oder weniger frei im Zellsaft bewegen, ohne von einer Kernhülle umschlossen zu werden. Doch nach und nach kehrten die Genetiker zu den Organismen zurück, mit deren Erkundung ihre Wissenschaft begonnen hatte, das heißt vor allem zur Fliege und zur Hefe, und dabei entdeckte man, dass zwar viele Einsichten aus der Welt der Bakterien auch hier Geltung hatten, dass es aber trotzdem galt, höchste Vorsicht walten zu lassen, bevor man eine Verallgemeinerung riskierte.

Zuerst fiel auf, dass in eukaryontischen Zellen nicht Gen hinter Gen lag, sondern es eine Menge DNA gab, die einfach zwischen zwei kodierenden DNA-Sequenzen lag und sie auf Abstand hielt - »intergenic DNA«, die als spacer funktionierte. Es gab weiter DNA, die aus vielfach wiederholten (repetitiven) Sequenzen bestand und über deren Funktion man zunächst nur negative Aussagen machen konnte, zum Beispiel dass sie nicht als Gen dienen. Mit anderen Worten: Sobald man über den bakteriellen Zaun hinweg blickte, zeigte sich, dass DNA und Gene auf keinen Fall verschiedene Ausdrücke für dieselbe Sache sind. Das leuchtet allein deshalb von Grund aus ein, weil DNA als chemische Substanz ausschließlich etwas Materielles meint, während Gen als biologischer Begriff darüber hinausgehen und zum Verständnis von Leben beitragen muss.

Gentechnik spielt sich strikt im Bereich der Moleküle ab, und so ist und bleibt sie das Rekombinieren von DNA-Fragmenten. Nicht mehr und nicht weniger, was allerdings auch genug ist. 1973 entdeckte man die Möglichkeit, DNA-Moleküle aus verschiedenen Zellen erst zu isolieren, dann im Reagenzglas zu zerlegen, danach die Fragmente neu anzuordnen und abschließend die auf diese Weise neu zusammengestellte (rekombinierte) DNA in die Zellen zurückzubringen, wo sie biologisch wirksam werden können. Dadurch ergaben sich zwar zunächst keine neuen Einsichten in das, was unter einem Gen zu verstehen ist. Die Gentechnik hat aber trotzdem - und zwar vor allem indirekt - geholfen, das Verständnis für das Gen zu verändern und voran zu bringen, weil sich mit ihrer Hilfe DNA-Abschnitte solange gezielt vermehren ließen, bis ihre Menge für eine biochemisehe Analyse ausreichte. Die Gentechnik stellt so etwas wie ein hochauflösendes Mikroskop dar, mit dem sich Gene in den Blick nehmen lassen. Was dabei dann sichtbar wird, überrascht und verblüfft die Genetiker bis heute und lässt einige ihrer Vertreter ernsthaft über die Frage nachdenken, ob das »Gen« - gemeint ist das Wort -überhaupt eine Zukunft hat. Wie sich nämlich in Experimenten, die im nächsten Abschnitt näher beschrieben werden, herausstellte, unterscheiden sich die genetischen Ordnungen in Zellen mit und in Zellen ohne Zellkern nicht nur durch die oben erwähnten DNA-Mengen außerhalb der Gene (also zwischen ihnen). Sie unterscheiden sich vor allem durch DNA innerhalb der Gene. Während einzelne prokaryontische Gene am Stück-oder einige von ihnen als durchgängige Gruppe ohne Zwischenraum - vorhanden sind, liegen eukaryontische Gene in Stücken vor. Gene in den Zellen höher entwickelter Organismen lassen nicht nur eine zusammenhängende Struktur vermissen, sie verfügen auch nicht über einen festen Platz in der Zelle, und das Einzige, auf das sich ein Genetiker zur Zeit verlassen kann, ist die gesamte Menge an DNA, über die eine Zelle verfügt und die Genom heißt. Damit ist vielleicht der Begriff gefallen, der in Zukunft besser geeignet ist, die Vererbungsabläufe zu fassen. Sicher ist dies auf keinen Fall, unter anderem auch deshalb, weil das hübsche kleine Wort (Gen) besser klingt als das längere.

Das Ende der Einfachheit

Den ersten Schritt zu der angedeuteten neuen Einsicht in die Struktur der Gene verdankt die Wissenschaft der Entdeckung von Viren, die sich nicht an das Dogma der Molekularbiologie hielten und ein Mittelgenauer ein Enzym - gefunden hatten, um den Weg von der DNA zur RNA auch in Gegenrichtung von der RNA zur DNA gehen zu können. Nachgewiesen hatten einige Molekularbiologen diese umgekehrte Umschreibung in den frühen siebziger Jahren des 2O.Jahrhunderts. Der Vorgang heißt auf Amerikanisch reverse transcription und ist einem Enzym mit dem einleuchtenden Namen »Reverse Transcriptase« zu verdanken.

Am Anfang dieser unerwarteten Entdeckung stand die Beobachtung, dass es Viren gibt, deren Erbmaterial nicht aus DNA, sondern aus RNA zusammengesetzt ist. Nun hätte es sein können, dass diese Viren ihre RNA unmittelbar als mRNA nutzen und auf diese Weise direkt in die Proteine umsetzen lassen, die sie wie alles Lebendige brauchen. Doch die Nachprüfung ergab, dass das kleine Leben den molekularen Dienstweg einhält und die Schleife über die DNA nimmt, um an seine Proteine zu kommen. Die Viren stellen also nach der Vorgabe durch ein RNA-Molekül ein Stück DNA her, und da sie also zu einer reversen Transkription fähig sind, heißen sie aus nachvollziehbaren Gründen Retroviren. Ihr antidogmatisches Enzym, die Reverse Transkriptase, zog natürlich das allergrößte Interesse der Wissenschaft mit der Konsequenz auf sich, dass das Protein bald in reiner Form gewonnen und in biochemischen Experimenten eingesetzt werden konnte. Und dabei kam es zu einer großen Überraschung.

Um zu verstehen, wie das völlig Unerwartete in der Genetik eingetreten ist, muss man sich vor Augen halten, dass es dank einer Reversen Transkriptase zwei Wege gibt, um ein Gen - verstanden als ein Stück DNA - zu isolieren und zu gewinnen: einen direkten und einen indirekten. Die direkte Möglichkeit besteht darin, die zu dem Gen gehörende Doppelhelix aus der Zelle abzutrennen und anzureichern (mit gentechnischer Hilfe), und die indirekte Möglichkeit besteht darin, erst die mRNA des Gens zu isolieren, um aus ihm anschließend mit dem Umkehrenzym das dazugehörige DNA-Molekül anzufertigen. Die auf die zweite (enzymatische) Weise angefertigte DNA nennen die Genetiker cDNA; das c steht für copy und soll ausdrücken, dass es sich nicht um einen natürlichen DNA-Abschnitt handelt, sondern um ein Fragment, das kopiert worden ist nach der Vorgabe der mRNA, in der die Information für ein Protein steckt.

Nun klingt das alles bisher wie eine Menge technischer Details ohne wissenschaftlichen Nährwert. Doch kamen einige Biochemiker auf die Idee, einmal nachzusehen, ob die direkt und die indirekt gewonnene DNA eines Gens - also die DNA aus der Zelle und die cDNA aus dem Reagenzglas - übereinstimmen oder ob sich da Unterschiede ausmachen lassen. Und es zeigte sich: Die cDNA war zum Teil erheblich kürzer als die direkt aus den Zellen isolierte DNA. Diese Unterschiede konnten im Elektronenmikroskop unmittelbar sichtbar gemacht werden. In Abbildung 12 werde sie am Beispiel des Gens gezeigt, das die Information für ein Protein namens Ovalbumin trägt - im Alltag besser als Hühnereiweiß bekannt. Die elektronenmikroskopische Aufnahme, für deren Herstellung DNA isoliert, auf einer Oberfläche ausgebreitet und in diesem Zustand so präpariert wird, dass sie mit einem Elektronenstrahl abgetastet werden kann, lässt den Fachmann erkennen, was zur Veranschaulichung in der Skizze darunter gezeichnet ist. In dem Bild lassen sich ein- und doppelsträngige Bereiche von DNA unterscheiden und so ist zu erkennen, dass die Sequenzen in der cDNA beziehungsweise mRNA wesentlich kürzer sind und die natürliche DNA aus der Zelle viel Material zwischen jenen DNA-Abschnitten hat, die das Ovalbumin kodieren. Insgesamt ergibt sich daraus die zerstückelte Genstruktur, die als Hell-Dunkel-Muster dargestellt ist, die Ziffern gehen die Positionen von Basen in der DNA an.

Wie ist die Aufnahme zustande gekommen? Um dies zu erklären, muss ein wenig ausgeholt werden. Bekanntlich besteht ein DNA-Molekül als Doppelhelix, das heißt es gibt zwei Stränge, die sich umeinander winden. Schon seit vielen Jahren ist bekannt, dass diese Ordnung durch eine Erhöhung der Temperatur gestört werden kann. Bei einer bestimmten Temperatur lösen sich die Stränge voneinander, und aus einer DNA-Doppelhelix werden zwei1 Einzelstränge, die sich erneut zusammen legen, wenn die Temperatur gesenkt wird. Wenn nun in einem Reagenzglas verschiedene DNA-Moleküle zu sammengebracht werden und dafür gesorgt wird, dass sich die Doppelstränge erst auflösen und anschließend wieder bilden, dann können auch so genannte hybride Moleküle entstehen.

Abb.12: Der Nachweis von Mosaikgenen am Beispiel des Gens für Ovalbumin (Hühnereiweiß). Die Beobachtung von split genes ist ursprünglich mit cDNA gelungen; zur Demonstration des überraschenden Befundes ist in der Abbildung mit der mRNA selbst gearbeitet worden.

 

Bei ihnen versuchen zwei Stränge eine Doppelhelix zu bilden, die vorher nicht zusammen waren/Sie können sich natürlich nur dort aneinander binden, wo sie mit den gleichen Sequenzen von Basen ausgestattet sind.

Man spricht bei diesem Vorgehen von DNA-Hybridisierung, und als es in einer Lösung durchgespielt wurde, in der die zu einem Gen gehörende DNA, die direkt aus der Zelle kam, mit der entsprechenden cDNA gemischt war, die man mit Hilfe einer Reversen Transkriptase angefertigt hatte, da zeigte das hybride Molekül, dass die zelluläre DNA zwar alle Abschnitte der cDNA erfassen und binden konnte, dass sie darüber hinaus aber noch viel mehr Sequenzen umfasste und sehr viel länger war. Nur an einem ihrer Enden ist die mRNA beziehungsweise die damit herstellbare cDNA länger als das zelluläre Original. Sie trägt einen in der Abbildung 13 sichtbaren Schwanz mit sich herum, der nur aus den Basen mit Namen Adenin besteht. Man spricht vom Poly-A-Schwanz, der natürlich ebenfalls seine Funktion hat, auch wenn niemand so recht anzugeben weiß, welches Signal mit ihm gegeben wird.

Die Beobachtung mit der geschrumpften mRNA und ihrem zerschnipselten Ursprung ist Ende der siebziger Jahre des 20. Jahrhunderts wahrscheinlich in vielen Laboratorien gleichzeitig gemacht worden, ohne dass die Experimentatoren ihren Augen trauten. Die Techniken standen überall zur Verfügung. Man sah die überstehenden einzelsträngigen DNA-Stücke und erkannte sie nicht. Man sah nicht, was sie bedeuteten, und dachte eher daran, dass etwas mit dem Experiment nicht funktioniert hat. Es dauerte einige Zeit, bevor sich die ersten Molekulargenetiker mit ihrer schon angekündigten Entdeckung von Genstücken an die Öffentlichkeit wagten: In einem Strukturgen - so der damals umwerfende wissenschaftliche Befund, der heute längst zum Lehrbuchwissen geworden ist und sich für nahezu alle (eukaryontischen) Gene in mehrzelligen (»höheren«) Lebewesen als gültig erwiesen hat -werden Abschnitte, in denen die Informationen über die Reihenfolge der Aminosäuren eines Proteins stecken, von Abschnitten unterbrochen, die keine solche Information enthalten (Abbildung 13). In der Zwischenzeit hat sich der Sprachgebrauch eingebürgert, die informativen DNA-Abschnitte als »kodierende DNA« zu bezeichnen. So lässt sich sagen, dass Gene in höheren Organismen aus kodierenden und nichtkodierenden Stücken bestehen. Zur allgemeinen Überraschung der Fachwelt wurde entdeckt, dass die kodierenden Abschnitte zum Teil sehr viel kürzer als die nichtkodierenden waren, was die (nach wie vor unbeantwortete) Frage nach ihrer Funktion nur dringender macht.

Abb.13: Ein typisches Gen in der Zelle eines eukaryontischen Organismus

  

Wer heute ein typisches Gen zeichnen will, wie es in der Zelle eines eukaryontischen Organismus zu finden ist, muss neben dem Mosaik mit all seinen genetischen Steinchen noch andere Elemente berücksichtigen, die der Regulation dienen. Einige von ihnen sind in der Abbildung enthalten, ohne dass sie hier näher beschrieben werden. Darüber hinaus gibt es noch mehr DNA-Elemente, die sich auf ein Gen auswirken und daher vielleicht zu ihm gehören. Ein Beispiel stellen so genannte Enhancer oder Verstärker dar. Die damit bezeichneten DNA-Sequenzen sorgen für die vermehrte Expression eines Gens, das gar nicht in der Nähe seines Enhancers zu liegen braucht. Dabei ist anzunehmen, dass die Natur über die hier geschilderten Regulationsmöglichkeiten noch andere erfunden hat, die von der Wissenschaft erst noch entdeckt werden müssen.

Kurz nach der Einsicht in die zerstückelte Seinsweise der Gene bekamen die beobachteten Tatbestände zugleich wissenschaftlich klingende und einprägsame Namen: Eine kodierende Sequenz, die exprimiert wird, heißt aus diesem Grunde Exon, und eine nicht-kodierende Sequenz heißt Intron, und das Gen, das sich als Exon-Intron-Folge darstellt, nennt man Mosaikgen.

Für den Weg von einem Mosaikgen zum Protein respektive zu der dazugehörigen Polypeptidkette reichten jetzt nicht mehr die beiden Stufen der Transkription und Translation. Es gilt nun darüber hinaus, die Intronsequenzen zu entfernen, und dies geschieht nach Anfertigung eines primären Transkripts auf der Ebene der RNA-Moleküle in einem Vorgang, den die Biochemiker nach einer Vorgabe aus der Technik Spleißen nennen. Damit ist das Ausschneiden von Teilstü-cken gemeint, dem ein Zusammenschweißen der Teile zu einem Ganzen folgt. Dieses Ganze ist im Fall der Proteinsynthese die mRNA, die jetzt viel weniger Bausteine umfasst als die DNA, von der aus das Botenmolekül angefertigt worden ist.

Mit den neuen Einsichten kamen neue Unklarheiten: Warum gibt es Gene in Stücken? Warum tragen die Zellen höherer Organismen Mosaikgene? Gab es im Verlauf der Evolution zuerst Gene mit einer Exon-Intron-Struktur, die dann im Laufe der Zeit verschwunden ist? Oder gab es sie zunächst ohne diese Aufteilung, wie sie bis heute etwa in Bakterien zu finden sind, um dann im Laufe der Evolution all die Zwischenräume anzuschaffen, die jetzt mit Hilfe der Gentechnik erkennbar werden?

Fragen über Fragen stürzten nach der Entdeckung dieser merkwürdigen Zergliederung auf die Biowissenschaftler ein, und viele von ihnen sind nach wie vor offen. Dies gilt auch für eine Frage, die beim ersten Hören sehr ketzerisch klingt, die aber trotzdem ihre Berechtigung hat. Die Frage lautet, ob überhaupt noch von einem Gen oder von Genen die Rede sein kann, wenn sich in einer Zelle nur die Stü-cke finden lassen, die wir Exon und Intron nennen. Wie weit können wir noch gehen, um die alte »Ein-Gen-ein-Enzym-ldee« zu retten, die jetzt selbst als »Ein-Gen-ein-Polypeptid-Hypothese« nicht mehr taugt, weil es das eine Gen gar nicht gibt, das am Anfang steht?

Die Antwort auf die Fragen konnte durch die Untersuchung der genetischen Grundlage der Proteine gefunden werden, über deren Struktur die Biowissenschaftler zur damaligen Zeit am besten und genauesten informiert waren. Die Proteine, um die es in der Forschung dabei konkret ging, heißen Antikörper. Sie tragen zur Immunreaktion des Körpers bei und haben diesen Namen, weil sie gegen die Fremdstoffe gebildet werden, die in einen Körper eindringen und ihm Schaden zufügen können. Eines der zahlreichen Rätsel in der Biologie bestand darin, wie es ein Organismus im Rahmen seiner Immunabwehr schaffen kann, der ungeheuren Vielfalt der möglichen Fremdkörper, die unglücklicherweise Antigene heißen (und nichts mit Genen zu tun haben),zu begegnen. Es ließ sich zum einen leicht abschätzen, wieviel Antigene die Umwelt verfügbar hat, und es ließ sich ebenso leicht ausrechnen, wieviel Gene, wieviel genetisches Material benötigt wurde, um für jedes Antigen einen Antikörper als Abwehrprotein herzustellen. Die Rechnung ergab, dass die vorhandene Menge an DNA in einer Zelle des Immunsystems nicht ausreichte, um seine Reaktionsvielfalt zu erklären. Deshalb machten sich schon in den sechziger Jahren im Hintergrund aller genetischen und molekularbiologischen Fortschritte Zweifel an der Hypothese breit, dass es für jedes Protein (beziehungsweise für jede Polypeptidkette) ein Gen geben musste - zumindest beim Immunsystem konnte dies nicht der Fall sein.

Solange es die Gentechnik noch nicht gab und somit kein direkter Zugriff auf die Gene selbst möglich war, konzentrierten sich viele Biochemiker auf die Proteine selbst, und so kam nach und nach immer deutlicher deren Struktur zum Vorschein (Abbildung 14). Ganz allgemein zeigt sich ein Gebilde, das wie ein Y aussieht. Es lassen sich vier Polypeptidketten ausmachen, zwei kurze und zwei lange, die von den Immunologen als leichte und schwere Ketten bezeichnet wurden. Wenn wir uns für diesen Augenblick auf die leichten Ketten konzentrieren, finden wir erneut zwei Teile. Da gibt es einen, der konstant ist, was heißt, dass er in allen Antikörpern zu finden ist und keine Besonderheit erkennen lässt, die mit dem Fremdkörper (Antigen) zu tun hat, der eingefangen werden soll. Und da gibt es einen zweiten, der variabel ist, was heißt, dass seine Zusammensetzung von Antikörper zu Antikörper variiert; dadurch ist ihm die Spezifität verliehen, die er benötigt, um das anvisierte Antigen zu binden und damit unschädlich zu machen.

Der entscheidende Punkt besteht nun darin, dass die beiden funktionell verschiedenen Teile einer leichten Kette eine durchgängige Struktur bilden. Das ist so wie bei einem Messer, das am Stück vorliegt und bei dem man trotzdem die Klinge vom Griff unterscheiden kann. Die funktionell unterscheidbaren Teile nennt man nun die Domänen der leichten Kette. Und wie sich im Rahmen der genauen genetischen Analyse herausstellte, wird die Information für den Bau einer Domäne von einem Exon geliefert. Mit anderen Worten: Aus dem ursprünglich so schönen und übersichtlichen Grundgedanken, dass ein Gen ein Protein macht, ist heute die feinere und detailliertere Einsicht geworden, dass ein Genstück ein Proteinteil macht. Im Fachjargon: Ein Exon kodiert eine Domäne.

Ein Exon - eine Domäne. Und was tut ein Intron? Auf diese Frage gibt es bislang keine allgemein befriedigende Antwort. Diese stummen Zwischenstücke müssen aber auf jeden Fall mit zum Gen gerechnet werden, das wir uns als funktionierende Einheit in dem jetzt gar nicht mehr so einfachen Zellgeschehen denken, denn wie sich bald herausstellte, führen auch Mutationen in Intronsequenzen zu mangelhaft operierenden oder fehlenden Proteinen. Sie werden also nicht nur ausgeschnitten und weggeworfen.

Abb. 14: Der Bau eines Antikörpers mit leichten und schweren Ketten und die gene-tische Herkunft seiner Teile

  

Die Entdeckung der Mosaikstruktur von Genen lenkte die Aufmerksamkeit der Immunbiologen erneut auf die Frage, wie es die Zellen schaffen, mit ihrem genetischen Material der Vielfalt der Antigene zu begegnen, die aus Natur und Umwelt in einen Organismus eindringen können. Es war klar, dass es nicht für jedes der Antikörperproteine ein Gen geben konnte - dazu gab es zu wenig DNA -, aber nun bestand die Möglichkeit, dass aus einem Gen mehrere Proteine - genauer: mehrere Polypeptidketten - angefertigt werden konnten. Und genau dies konnte man bei den Antikörpern nachweisen. In einfachster Form lässt sich dieser Vorgang, der zum ersten Mal 1965 vorgeschlagen, aber erst zehn Jahre später überprüfbar und dann als korrekt nachgewiesen wurde, so ausdrücken, dass es getrennte Gene für die variablen (V) und die konstanten (C) Regionen der Antikörper gibt. Während die Information für die C-Regionen in einem Gen (Exon) steckt, finden sich für die V-Regionen viele tausend Genstücke, die im Verlauf der Entwicklung oder Reifung zusammengebracht und kombiniert werden.

In diesem Satz steckt die zusätzliche Erkenntnis, dass Genstücke wenigstens einigermaßen räumlich benachbart sein müssen, um ihre Information auf der Ebene der Proteine zusammenbringen zu können. Tatsächlich ließ sich bald zeigen, dass die Gene für die variablen und die konstanten Regionen in Zellen aus dem embryonalen Gewebe noch sehr weit voneinander entfernt sind. Sie kommen erst später im Verlauf der Entwicklung in einer Zelle nebeneinander zu liegen und können erst dann auch Antikörper produzieren. Bevor die beiden Genstücke durch eine geeignete Rekombination in eine funktionale Nachbarschaft gebracht werden - also im Zustand des Embryos-, können gar keine Abwehrproteine hergestellt werden (Abbildung 15), was man auch so ausdrücken kann, dass es vorher keine Gene für sie gibt.

Die eben geschilderte Beobachtung hat Konsequenzen für die Frage, inwieweit das genetische Material von Zellen eines Körpers identisch ist. Offenbar unterscheidet sich die Anlage der Genstücke - und damit die Qualität der DNA - in embryonalen Zellen von denen in erwachsenen Zellen, die zum Immunsystem gehören, und wer weiß denn, welche Umgruppierungen erfolgen müssen, um etwa Herzmuskelzellen oder gar die vielen Nervenzellen herzustellen, die das Gehirn ausmachen und funktionieren lassen. Der Nachweis von beweglichen und verschiebbaren Genstücken bei Antikörperketten zeigt aber vor allem, dass ein Embryo noch nicht über alle Gene verfügt. Anders ausgedrückt: Gene sind keine Einheiten, die fix und fertig mit der Geburt geliefert werden. Sie sind nicht notwendigerweise etwas wirklich Vorhandenes in einer Zelle, vielmehr sind sie etwas Mögliches, das im Verlauf des Lebens werden - und vielleicht auch vergehen - kann.

Abb. 15: Umgruppierung von Antikörpergenen während der Entwicklung von Em-bryonalzellen zu Zellen des Immunsystems

 

Die Beobachtungen von Umgruppierungen und Neuarrangements von Genstücken machte es bereits ab Mitte der sechziger Jahre immer schwieriger, das traditionelle Bild des Gens aufrechtzuerhalten. Die Vielzahl an leichten Ketten für einen Antikörper wird nicht nur dadurch möglich, dass C-Regionen und V-Regionen zusammengebracht werden, sie wird dadurch zusätzlich erhöht, dass vor jeder C-Region ein Haufen (cluster) von so genannten J-Regionen liegt, die nicht identisch sind. Das J steht dabei als Abkürzung für joining, was soviel wie »sich anschließen« heißt. Ein V-Gen (wenn dieser Ausdruck einmal erlaubt ist) kann sich über ein J-Gen an ein C-Gen anschließen (lassen), und es hat dabei eine große Auswahl (ziemlich schleierhaft bleibt, von wo aus und wie dies alles gesteuert und koordiniert werden kann).

J-Regionen der beschriebenen Art finden sich auch vor den Genen für die konstanten Abschnitte der schweren Ketten, für deren Herstellung aber noch ein weiteres Element benutzt wird, wie weitere Experimente zeigten. Es läuft unter der Bezeichnung D, was für diversity, also Vielfalt, steht. Das Vorhandensein mehrerer D-Elemente, von denen jedes in das funktionsfähige Gen für eine schwere Kette eingebaut werden kann, vergrößert die Zahl der möglichen Ketten mit unterschiedlicher Spezifität. Die mit ihrer Hilfe produzierbare Vielfalt macht biologisch Sinn, weshalb man dann nicht weiter überrascht war, als sich herausstellte, dass sowohl die von J-Elementen als auch die von D-Regionen kodierten Aminosäuren in dem jeweiligen Antikörper zu der Struktur der Stelle beitragen, mit deren Hilfe ein Antigen gebunden wird.

Neben dem jetzt gelösten Rätsel, wie mit so wenigen Genen so viele verschiedene Antikörper mit all den variablen Sequenzen hergestellt werden, stellte sich noch die Frage, wie eine Zelle zugleich zwei unterschiedlich schwere Ketten mit gleichen variablen Regionen herstellen kann. Die Antwort steckt in dem Vorgang, der Splei-ßen genannt worden ist und der auf alternative Weisen erfolgen kann, wie bald nachgewiesen werden konnte. Nachdem eine Immunzelle die V-Region, die J-Region und zwei verschiedene C-Regionen so zusammengestellt hat, dass sie hintereinander liegen, kann sie bei der Herstellung der mRNA für die schwere Kette das primär transkribierte RNA-Molekül unterschiedlich spleißen, und zwar wird entweder die eine oder die zweite C-Region entfernt. Durch den an diesem Beispiel entdeckten Vorgang des alternativen Spleißens können zwei verschiedene reife - in ein Protein überführbare - mRNA-Moleküle entstehen; die Zelle trifft dabei ihre Wahl sicher in Abhängigkeit von äußeren Signalen (aus dem Milieu des Körpers).

inzwischen hat sich gezeigt, dass dieser Mechanismus zur Erzeugung von Vielfalt nicht auf das Immunsystem beschränkt bleibt, sondern im Leben der Zellen komplexer Organismen weit verbreitet ist. Dabei wandelt sich das alte, eher stabile Gen zu einer dynamischen Einheit. Aus dem ursprünglich festen Stück DNA ist ein dynamisches Mosaik geworden, das sich in immer neuen Kombinationen zeigt, wenn wir hinschauen. Die Frage, was ein Gen ist - im Sinne des unveränderlichen Vorhandenseins eines greifbaren Objektes in einer Zelle -, muss erneut von Grund auf bedacht werden, und dabei ist es nötig, wirklich alle Bewegungs- und Veränderungsmöglichkeiten einzubeziehen.

Die Beweglichkeit der Elemente

Die Entwicklung der Gentechnik - sprich: die Möglichkeit, DNA zu rekombinieren und zu klonieren - verwandelte die stabilen Gene der klassischen Vererbungsforschung, die von Perlen auf einer Kette sprach, in die beweglichen Elemente der modernen Genomforschung. Die Beweglichkeit hat dabei mindestens zwei Dimensionen. Da ist zum einen die natürliche Dynamik, die in der Entwicklung eines Organismus zum Tragen kommt und zuerst an den Genen für Antikörper entdeckt wurde. Sie gibt es im Embryo noch gar nicht, denn sie werden in den ausgewachsenen (erwachsenen) Zellen erst durch Umgruppierungen und Neuverknüpfungen von Genelementen geschaffen. Da ist zum anderen die von Menschenhand erzeugbare Dynamik, wobei diese Menschenhand mit den Werkzeugen der Gentechnik ausgestattet ist. Sie erlauben das Übertragen von Genen - verstanden als DNA-Moleküle von nicht zu geringer Länge - von einer Zelle in eine andere. Dabei wird das anvisierte DNA-Fragment erst aus seinem alten Verband gelöst (ausgeschnitten) und danach in einen neuen Kontext eingefügt. Schon in den siebziger Jahren konnten Gene aus höheren Organismen - etwa Gene, die über Wachstumsfaktoren oder Hormone (Insulin, Somastotatin) informierten - in Bakterien überführt werden, und 1980 klappte auch der umgekehrte Vorgang, indem ein Gen aus einem Bakterium in eine Pflanze eingeschleust wurde, die danach als transgener Organismus bezeichnet wurde. Wichtig in allen Fällen war, dass die übertragene genetische Information erstens ihre biologische Funktion erfüllte und zweitens an die nächste Generation weitergegeben - also vererbt -wurde. In den folgenden Jahren wurde es dank verbesserter Details in der biochemischen Handhabung der genetischen Moleküle und Zellen immer leichter, transgene Lebensformen -zumeist Mäuse - zu generieren, was nicht nur nützliche Anwendungen etwa bei der Suche nach Medikamenten nach sich zog, sondern auch eine neue Sicht auf das Gen ermöglichte. Hatten sich die Genetiker in den letzten Jahren auch nach und nach angewöhnt, von Mäusegenen oder von Pflanzengenen zu sprechen, so stellte sich nun mit den Erkenntnissen aus Versuchen mittransgenen Lebensformen heraus, dass Gene in ihrer Wirksamkeit nicht auf einen Organismus beschränkt bleiben, sondern eine Grundlage allen Lebens darstellen. Dies macht natürlich sofort Sinn, wenn man sich die Sichtweise der Evolution zu eigen macht, die eine weitere Dimension - die historische - anzeigt, in der die Gene ihre Beweglichkeit unter Beweis stellen müssen.

Was immer Gene in einem jetzt, hier und heute lebenden Organismus sind, müssen sie im Laufe der Evolution geworden sein. »Wir sind, was wir geworden sind«, wie die Zunft der Historiker betont, wenn sie versucht, die politische Gegenwart eines Landes oder einer Gesellschaft zu erklären. Und Gene sind ebenfalls, was sie geworden sind, wie die Biologen verstehen sollten, wenn sie versuchen, die aktuellen Lebensformen zu erklären. So diskret und klar umrissen Gene für einen Molekularbiologen sind, der wohl definierte DNA-Fragmente meint und mit ihnen arbeitet, so durchgängig und kontinuierlich ist die Evolution mit ihnen umgegangen. Und vielleicht versteht derjenige am besten, was ein Gen ist, der es als ein molekulares Werkzeug der Evolution betrachtet, das sich selbst in dem Vorgang verändert, den es zu bewirken hilft. Gene sind ganz sicher aus der Evolution hervorgegangen. Gene tragen aber ebenso sicher zur Evolution bei.

Einen systematischen Versuch zum Verständnis des Gens mit dem Rückgriff auf die Evolution hat vor kurzem der Historiker Peter J. Beurton mit dem erklärten Ziel unternommen, rein biochemische Festlegungen dieser Grundgröße des Lebens zu überwinden, um so zu einem einheitlichen Konzept zu gelangen. Beurton schlägt vor, ein Gen dadurch zu verstehen, dass man es als die Grundlage des kleinstmöglichen Unterschieds für die Anpassung von Organismen ansieht, mit dem die natürliche Selektion etwas anfangen kann. Dem Historiker geht es dabei ganz konkret um DNA-Abschnitte, deren Reproduktion einheitlich durch Adaptationen beeinflusst wird, und zwar so, dass dies in der natürlichen Selektion eine Rolle spielt. Die anvisierten DNA-Sequenzen müssen nicht an einem Platz zusammenhängen und können ohne festen Ort sein (nonlocalized DNA variations), sie müssen sich nur als Einheit für die Evolution bemerkbar machen.

Die eben vorgestellten -und keineswegs endgültigen - Überlegungen versuchen sowohl die evolutionäre (langsame) als auch die zelluläre (rasche) Beweglichkeit der DNA-Moleküle beziehungsweise der damit verbundenen Gene zu erfassen. Beide hängen sicher zusammen, wie sich unter anderem an der Tatsache ablesen lässt, dass sich besonders viele Mutationen von Genen an den Exon-Intron-Schnittstellen finden lassen. Dieser Trick gibt einer Zelle auf jeden Fall die Chance, neue Formen von Proteinen generieren zu können, ohne die alten Funktionen aufgeben zu müssen.

In der Literatur sind inzwischen eine Vielzahl von frei beweglichen DNA-Stücken bekannt, die als springende Gene geführt werden. Hingewiesen auf solche sich im Genom tummelnden Elemente hatte Barbara McCIintock bereits in den fünfziger Jahren des 20. Jahrhunderts, als sie Kontrollelemente untersuchte, mit deren Hilfe Maispflanzen die Expression einiger ihrer Gene verhinderten. Diese Kontrollgene schienen keinen festen Platz auf den Chromosomen der Pflanze einzunehmen und vielmehr im Genom umherspringen zu können. McCIintock ist es übrigens auf ungewöhnlichem Wege gelungen, diese Beweglichkeit zu erkunden. Sie hat sich nicht mit biochemischen Methoden befasst, sondern sich auf ihre Beobachtung der Genaktivitäten verlassen, bei denen eine Zelle gewinnen konnte, was eine andere verloren hatte, wie die Genetikerin bemerkte.

Ihre Einsichten fanden zunächst wenig Beachtung in einer eher männlich dominierten Wissenschaft, und es dauerte bis in die Jahre nach dem Aufkommen der Gentechnik, bis durch Analyse von konkreten DNA-Abschnitten nachgewiesen wurde, dass Gene in ihrem Genom einen Ortswechsel vollziehen und springen können. Für die beweglichen Elemente benötigte man eine Menge neuer Namen. Das ganze Stück wurde Insertionssequenz getauft, zu der ein so genanntes Transposon gehört, das von kurzen, gegenläufig wiederholten Basenfolgen flankiert wird, die allgemein mit den Buchstaben IR für inverted repeats abgekürzt werden. Bald stellte sich heraus, dass die Transposons nicht unbedingt nur springen, sondern oft auch verdoppelt und an anderer Stelle wieder eingebaut werden. Sie geben also ihren alten Platz nicht auf, sondern behalten ihn bei und nehmen zusätzlich einen neuen ein. Damit wurde eine Eigenschaft von genetischen Sequenzen entdeckt, die offenbar wesentlich zu der Ausgestaltung heutiger Genome beigetragen hat, nämlich die leichte Duplizierbarkeit. Immer wieder trifft man auf Genverdopplungen, was im Übrigen einer Zelle offenbar die Möglichkeit gibt, eine Kopie nicht aktiv zu verwenden und nur als Reserve zu halten und mit in die nächste Generation zu nehmen. Für solche DNA-Abschnitte hat sich inzwischen der Ausdruck Pseudogene eingebürgert, und sie finden sich in allen Formen des Lebens.

Dies gilt erst recht für die beweglichen Genelemente, für die sich auch die Bezeichnung der transponierbaren DNA eingebürgert hat. Sie gelten als Hauptmerkmal jedes Genoms, kommen in unterschiedlichen Formen und meist in zahlreichen Kopien vor.

Mit all diesen Entdeckungen verschwindet ein Grundgedanke aus der Genetik und ihrer Ansicht von den Genen, der am Anfang der Wissenschaft gestanden hat und den man mit dem Ausdruck »Stabilität« bezeichnen kann. Das so überzeugende Modell der Doppelhelix führt jedem Betrachter diesen Gedanken unmittelbar vor Augen. Es suggeriert eine Festigkeit, die als Ausgangsbasis der Dynamik des Lebens dient, ohne selbst daran teilzunehmen. Doch die Idee des stabilen Gens, das durch eine Mutation in eine andere stabile Konfiguration springen kann, analog zu den Quantensprüngen in den Atomen, löst sich nach und nach auf, und es sind vor allem grundlegende biochemische Analysen, die hier eine Rolle spielen. Der dabei untersuchte Vorgang heißt Reparatur, und dieser Ausdruck erfasst das Bemühen einer Zelle, seine DNA intakt zu halten beziehungsweise möglichst korrekt zu verdoppeln. Niemand kann erwarten, dass die zelluläre Maschinerie bei der Neuanfertigung des genetischen Materials völlig fehlerfrei operiert, und so war es keine Überraschung, dass es eine eigene Gruppe von Enzymen gab, die in den replizierten DNA-Molekülen nach Unebenheiten suchten und sie ausbügelten. Weiter konnte man sich leicht denken, dass die DNA (und ihre Gene) hin und wieder Schäden durch Umweltbedingungen erleiden würde - etwa durch UV-Licht oder Röntgenstrahlen

- und dass auch sie repariert werden müssen. Bei all den entsprechenden Untersuchungen galt aber als ausgemacht, dass Gene grundsätzlich stabil sind und ihre Festigkeit als Ausgangsbasis aller biochemischen Dynamik dient.

Genau dies denkt man inzwischen immer weniger. Die Stabilität des genetischen Materials ist weniger der Anfang des zellulären Treibens und mehr sein Ende im Sinne eines Zielpunktes. Es gibt offenbar sogar Gene, deren Aufgabe es ist, für die genetische Instabilität zu sorgen. Fallen sie durch Mutationen aus, nimmt die Zahl der Variationen im übrigen Genom zu. Man hat diese »reflexiven« Elemente etwas missverständlich als »Mutatorgene« bezeichnet, so als ob sie aktiv Mutationen bewirkten. Dabei steigt deren Rate nur, wenn die sie sonst schützenden DNA-Elemente ausfallen.

Nicht nur nebenbei entsteht mit diesen Einsichten der Eindruck, als ob das, was früher als Reparaturmechanismus angesehen wurde, weniger Schaden abwendet und mehr Nutzen bringt. Es geht nicht um Reparieren, sondern um Regulieren, und zwar um die Gewährleistung der inhärenten Dynamik des Stoffes, aus dem die Gene bestehen. Gene sind vielleicht weniger für ihre Überlebens- und mehr für ihre Entwicklungsfähigkeit ausgewählt worden. Gene haben eine materielle Basis, die DNA, aber sie erschöpfen sich weder darin noch in der chromosomalen Verpackung. Wahrscheinlich kann nicht mehr gesagt werden, als dass Gene ein Teil des Lebens sind. Sie gehen aus ihm hervor, so wie es aus ihnen hervorgeht, und zwar immer wieder neu.

Immerhin hat sich ein Vertreter der Zunft, der Franzose Michel Morange, dazu durchgerungen, im Jahre 2000 ein Buch mit dem Titel Das mißverstandene Gen (The misunderstood Gene) zu schreiben. Morange konzentriert sich darin auf die Rolle, die Gene in der Entwicklung von Organismen spielen. In der Fachliteratur wurde dafür nach dem englischen Wort development für Entwicklung der Ausdruck developmental gene eingeführt, den man dann am besten mit Entwicklungsgen übersetzt. Dabei wird - wie schon früher - versucht, die beiden Bewegungen der Stammesgeschichte (Evolution) und der Individualentwicklung (development) zusammenzubringen und unter einem Dach zu betrachten. Dabei ist eine Denkrichtung entstanden, die sich mit dem Signet Evo-Devo bezeichnet, worunter eine evolutionäre Entwicklungsbiologie verstanden wird (evolutionary developmental biology).

Die Gene, die an dem individuellen Heranbilden eines Lebewesens beteiligt sind, kodieren natürlich auch »nur« für Proteine in dem erweiterten Sinne, allerdings sind dies nicht die Proteine, die ein klassisches Gen in die Welt, sprich: in die Zelle setzt, wo sie anschließend ihren Weg gehen und zum Beispiel den Stoffwechsel einer Zelle befördern. Entwicklungsgene sorgen für Proteine, die zur DNA zurückkommen und hier vor allem mit der Aktivierung - allgemeiner: mit der Regulierung -weiterer Gene beschäftigt sind. Man redet von Mastergenen, Schaltergenen, Kontrollgenen und führt andere Begriffsbildungen ein, wobei sich hier eine gedankliche Verbindung zu dem Gen herstellen lässt, das in Bakterien das Repressor-Protein herstellt, mit dessen Hilfe das Lac-Operon kontrolliert wird.

Die Analogie zum Lac-Operon mit seinem Gentrio geht sogar noch einen Schritt weiter. Die Entwicklungsgene liegen nämlich nicht isoliert vor, sie bilden vielmehr einen Verbund. Und unter diesem Blickwinkel erwartet man schon fast, was den Entdeckern dieser Zusammenhänge höchst überraschend vorgekommen ist, die Tatsache nämlich, dass die strukturelle Organisation dieses Genkomplexes evolutionär gesehen sehr stabil ist (Abbildung 16). Von der Fliege bis zum Menschen ist die Position eines Gens innerhalb dieses Genverbundes fixiert. In Fachkreisen werden die Gene mit dem Ausdruck »homeotisch« bedacht und das in ihnen auffindbare Strukturmerkmal als Homeo-Box bezeichnet.

Abb.16: Homeo-Gene bei Fliege, Maus und Mensch

  

Es ist in dem dazugehörigen Protein als Homeodomäne nachzuweisen (Abbildung 17). Der Ausdruck ist im Anschluss an einen Vorschlag des gebildeten Namengebers der Genetik, William Bateson, entstanden, der viele Jahrzehnte vor dem Aufkommen der Molekularbiologie bei Insekten und Krebstieren spontane Umwandlungen beobachtet hat, bei denen Hinterbeine zu Flügeln, Augen zu Antennen und Antennen zu Beinen wurden. Bateson sprach von der »Veränderung einer Struktur zur Ähnlichkeit mit einer anderen Struktur« und schlug dafür als Fachausdruck das griechische homeosis vor, das auf die Ähnlichkeit hinweist. Als dann bei den Fruchtfliegen Exemplare auftauchten, bei denen aus dem Kopf keine Antennen, sondern Beine herausragten, führte man diese Variation auf besonders raffiniert agierende Gene zurück, die den Beinamen homeotisch bekamen. Einige von ihnen konnten bald lokalisiert, isoliert und analysiert werden, und das Ergebnis zeigte eine Exon-Intron-Struktur mit einer charakteristischen Beigabe, der Homeo-Box.

Das Wunderbare an der Organisation homeotischer Gene besteht darin, dass der Ort des Gens mit der Menge und der Zeit korreliert ist, mit und zu der das Genprodukt im Laufe der Embryonalentwicklung seinen Dienst tun muss. Die hier versammelten Gene funktionieren nicht einzeln, sondern nur als größere Einheit, wie sie bereits als Operon in den Bakterien gefunden worden ist. Und dies erlaubt die Frage, ob es also gar nicht auf ein Gen, sondern nur auf seine Integration in eine größere Einheit ankommt.

Abb. 17: Die Homeo-Box am Beispiel des Antennapedia-Gens, das, wie der Name ausdrückt, mit dem Wechsel von den Antennen zu den Beinen zu tun hat

  

Wahrscheinlich trifft beides zu, und vor allem muss verstanden werden, wie Gene die Doppelrolle ausfüllen, auf die mehrfach hingewiesen worden ist. Gene machen immer dasselbe (nämlich erst Proteine und mit ihrer Hilfe Organismen), und sie machen es immer anders (nämlich individuell verschieden). Gene treten allein in Erscheinung, und sie fügen sich in eine Organisation ein.

Die Menge an Informationen, die im Rahmen der modernen Genetik geliefert werden, übersteigt schon lange das Fassungsvermögen eines einzelnen Menschen. In der Tat: »Heute kennt kein Molekularbiologe mehr alle wichtigen Fakten über das Gen.« So heißt der erste Satz des Vorwortes, das James Watson, der Mitentdecker der Doppelhelix, für die vierte Auflage seines Lehrbuchs Molecular Biology of the Gene geschrieben hat, die bereits 1987 erschienen ist. Watson hat das von ihm charakterisierte Dilemma gelöst, indem er sich der Mithilfe einer ausreichenden Zahl von Koautoren bedient hat. Die Frage an dieser Stelle lautet für uns, ob wir in der Überfülle der Entdeckungen einen Grundzug des Gens ausmachen können, der unabhängig von den von der jeweils aktuellen Forschung immer neu ermittelten Tatbeständen gültig bleibt und Auskunft über das Leben gibt, das man verstehen will.

Unbedingt nötig ist in diesem Fall der Hinweis, dass »Gen« auf keinen Fall ein höchst präzise definierter Begriff ist, sondern dass unser Zauberwort seine wissenschaftliche Karriere eher dem Umstand verdankt, unscharf zu bleiben und vielfältig eingesetzt werden zu können. Viele Wissenschaften wollen und sollen Zugriff auf das Gen haben, das dabei nur als flexibles Konzept überleben kann. Wenn Molekularbiologen von Genen reden, meinen sie etwas anderes, als wenn Evolutionsforscher den Ausdruck benutzen. Im ersten Fall sind vornehmlich DNA-Stücke und deren Zusammensetzung gemeint, und im zweiten Fall hat man vor allem Zellstrukturen im Visier, die lange genug verbunden bleiben, um als Basis des großen Mechanismus zu dienen, der das Leben hervorgebracht hat und weiter entwickelt.