2 PROGNOSEN

2.1 Warum sind Technologieprognosen so schwierig?


Die unverändert rasche Weiterentwicklung in vielen Bereichen der Technologie – von der Informationstechnologie zur Medizin, von der Gentechnologie zur Chemie – wird dafür verantwortlich sein, dass die Menschheit in Zukunft zunehmend anders leben wird als heute. Viele der eintretenden Veränderungen werden von der Mehrheit der Menschen als positiv gesehen werden, andere aber werden negativ zu werten sein: durch eine noch größere Belastung der Umwelt, durch Beschränkungen unserer Freiheiten, ganz allgemein durch eine vermutlich ursprünglich unbeabsichtigte Verringerung der Lebensqualität.

Der Wunsch, dass wir uns von wissenschaftlich-technischen Entwicklungen nicht überrollen lassen sollten, wird verständlicherweise immer lauter; immer mehr Organisationen werden gegründet bzw. beauftragt, sich mit Technologiefolgen-Forschung zu beschäftigen.

Leider ist Technologiefolgen-Forschung eine äußerst schwierige Aufgabe. Schon in einem chinesischen Sprichwort heißt es sarkastisch: »Vorhersagen sind sehr schwierig, vor allem, wenn sie die Zukunft betreffen.« Die Geschichte falscher Prognosen in der Vergangenheit (dass zum Beispiel etwas, das schwerer ist als Luft, sicher nicht fliegen kann, oder dass Menschen eine Geschwindigkeit von mehr als 60 km/h prinzipiell nicht überleben können), aber auch von wissenschaftlichen Teams der letzten Jahre (vom Pessimismus des Club of Rome bis hin zu den Hochrechnungen, dass die Erdölvorräte der Welt 1990 verbraucht sein würden) ist so lange, dass man heute ernsthaften Wissenschaftlern (wenn sie sich nicht blamieren wollen) nur empfehlen kann, möglichst langfristige Vorhersagen (über Zeiträume von 50 Jahren oder mehr) zu treffen, denn dann kann man sie wenigstens für alle nicht eingetroffenen Prognosen nicht mehr zur Verantwortung ziehen.

Was wir freilich gerade brauchen würden, sind einigermaßen verlässliche Vorhersagen darüber, wie sich manche Entwicklungen in fünf, zehn, zwanzig, fünfzig, ja vielleicht auch hundert Jahren auswirken werden. Warum solche Aussagen eigentlich unmöglich sind, aber überraschenderweise dennoch einige wichtige Aspekte zukünftiger Entwicklungen fundiert abgehandelt werden können, werde ich in diesem und weiteren Beiträgen besprechen.

Ein großes Problem liegt naturgemäß in der Geschwindigkeit der technisch-wissenschaftlichen Entwicklung. In der Informationsverarbeitung beträgt die so genannte »Halbwertzeit des Wissens« nur mehr zirka sechs Jahre. Kein Wunder also, dass zum Beispiel J. Hebenstreit schreibt, dass Prognosen in der Informationsverarbeitung »mit einem Zeithorizont von 20 oder mehr Jahren nur noch Science-Fiction« sein können! Und eine Ergänzung zu den berühmten »Murphy’s Laws« (Alles, was schief gehen kann, geht auch schief«) ist daher der »3. Satz der Computerwissenschaften« von mir: »Jede Computertechnologie, die man verstanden hat, ist veraltet!«

Nach diesen »Vorbereitungen« erläutere ich zunächst einige der wesentlichsten Argumente, warum Prognosen so schwierig sind. Dann diskutiere ich eine weitere Ursache, deren Bedeutung oft übersehen wird. Und schließlich  erkläre ich, warum es trotzdem gelingt, in der Technologiefolgen-Forschung vertrauenswürdige Aussagen zu machen.


Wissenschaftlich-technische Entwicklungen verlaufen nicht kontinuierlich, sondern in Sprüngen. Diese Sprünge (Erfindungen, Entdeckungen) sind fast nicht vorhersehbar (wären sie es, dann wären sie ja keine echten Erfindungen und Entdeckungen mehr!). Wie soll man aber zum Beispiel vor der Erfindung des Flugzeugs dessen spätere Auswirkungen oder vor der Entdeckung der Kernenergie deren Gefahren und Vorteile vorhersagen? Die Liste solcher Beispiele ist beliebig lang.

Aber nicht nur Erfindungen als solche sind kaum (nicht?) vorhersehbar, auch ihre Akzeptanz, ja selbst ihre wahre Bedeutung ist häufig nicht abschätzbar. Ein klassisches Beispiel dafür, wie man sich bei der Einschätzung der Bedeutung einer Erfindung irren kann, liefert Edison mit seinem Aufsatz, den er verfasste, nachdem der von ihm erfundene Phonograph (= Plattenspieler) in Produktion gegangen war. (Dieses Beispiel ist darum besonders interessant, weil Edison nicht ein »Wissenschaftler in einem Elfenbeinturm« war, sondern ein Mensch, der mit beiden Beinen in der Realität der Wirtschaft stand). In diesem Aufsatz beschreibt Edison brillant, wie durch den Plattenspieler Konzerte und Stimmen für alle Zeiten konserviert und bis in die entlegensten Gegenden der Welt gebracht werden können. Auch andere wichtige Anwendungen erkennt und beschreibt Edison kristallklar: zum Beispiel die Vorteile der Wiederholbarkeit, d. h., dass eine einmal erworbene Musik immer wieder gespielt werden kann. »Vor allem aber«, schreibt Edison, »ist der Phonograph darum so wichtig, weil er es gestattet, ein Musikstück auch schneller oder langsamer abzuspielen.« Es ist doch erstaunlich, dass Edison diese Möglichkeit der Geschwindigkeitsveränderung für eine der wichtigsten Eigenschaften seiner Erfindung hielt, ein Aspekt, von dem wir heute wissen, dass er zur Verbreitung des Plattenspielers in keiner Weise beigetragen hat!

Die Geschichte von Fehleinschätzungen von Erfindungen bzw. ihrer Akzeptanz ist voll von kuriosen Beispielen, in der Vergangenheit genau wie in der Gegenwart. Dem Telefon wurde seinerzeit nur eine ganz beschränkte Verbreitung zugesagt, »weil es keinen Sinn hat, ein solches Gerät zu haben, wenn alle Leute, die man anrufen will, auch keines besitzen«. Diese zugegeben hinderliche »Henne-Ei-Problematik« wurde und wird bedenkenlos immer wieder verwendet. Der von vielen Experten prophezeite Siegeszug der Videodisk blieb genauso aus wie die Akzeptanz von überschallschnellen Passagierflugzeugen. Und während sich die friedliche Nutzung der Kernenergie langsamer als erwartet entwickelt, ja in einigen Ländern sogar rückläufig ist (weniger aus technischen Gründen als aus irrationalen Emotionen) und sich elektronische Lexika und Zeitschriften aus urheberrechtlichen Gründen nur zögernd durchsetzen, werden manche Entwicklungen bei Datennetzen mit Recht als potenziell missbrauchbar bekämpft und werden daher nicht in ihrer ursprünglich beabsichtigten Ausprägung zum Tragen kommen. Die angeführten Beispiele zeigen, wie viele komplexe Faktoren die Auswirkungen von technologischen Entwicklungen beeinflussen und verlässliche Aussagen unmöglich machen, selbst wenn man Erfindungen und Entwicklungen vorhersehen könnte. Und da haben wir globale Einflüsse wie Kriege, Weltwirtschaftskrisen, Umweltkatastrophen durch Überbevölkerung oder Naturzerstörung noch gar nicht berücksichtigt!

  Als wenn das nicht genug wäre, gibt es neben vielen anderen kleineren Argumenten noch ein weiteres, oft zu wenig beachtetes Phänomen, das jede Technikfolgen-Prognose ad absurdum zu führen scheint: der durch große Quantitäten eintretende Qualitätssprung.

   Genauer, ein Sprung in der Quantität bringt häufig nicht nur »mehr vom Selben«, sondern ganz neue Eigenschaften (»Qualitäten«) mit sich. 

Ein gutes (wenn auch schon etwas abgedroschenes) Beispiel ist die Entwicklung des Autos. Versetzen wir uns in das Jahr 1920. Autos waren damals (zum Beispiel Ford Lizzy) schon einige Jahre in Fließbandfertigung und begannen sich allmählich nicht nur als Busse, Taxis und LKWs, sondern auch als Privatautos durchzusetzen. In den Jahren seither hat sich das Auto prinzipiell nicht besonders verändert. Verändert hat sich nur die Tatsache, dass es sehr viel mehr Autos gibt. (In den USA zum Beispiel mehr Autos als Menschen über 20 Jahre!) Dieser Sprung in der Quantität von vereinzelten Autos zum Massenprodukt hat eine Reihe von Folgen mit sich gebracht, die 1920 selbst dann kaum vorhersehbar gewesen wären, wenn damals jemand auf die Idee gekommen wäre, dass irgendwann jede Familie mindestens ein Auto haben würde!

Wer hätte 1920 ernsthaft prognostizieren können, dass einmal (a) die Wirtschaft so von der Autoindustrie abhängen würde, dass eine Krise in der Autoindustrie die gesamte Wirtschaft gefährdet, dass (b) das Auto von der Stadtplanung bis zur Familienplanung viele Bereiche des Lebens tief beeinflusst, dass (c) der Lärm und die Abgase von Autos zu einer Gefahr für Menschen und Umwelt werden oder dass (d) in 40 Jahren (1949–1989) mehr Menschen durch Autounfälle ums Leben kommen würden als in all den Kriegen in diesem Zeitraum zusammen (inklusive Vietnam, Nahostkriegen, süd- und mittelamerikanischen Konflikten und Afghanistan).

Wenn wir heute zukünftige Folgen der zunehmenden Computerisierung vorhersagen wollen, dann befinden wir uns in einer analogen Situation wie beim Auto 1920. Auch wenn sich Computer in den nächsten 30 bis 70 Jahren nicht mehr »grundlegend« ändern sollten (was gar nicht so sicher ist), so wird sich jedenfalls ihre Verbreitung dramatisch vergrößern. Jeder Mensch wird zu jedem Zeitpunkt auf einen mächtigen (vernetzten) Computer zugreifen können; und es ist ein grundlegender Fehler zu glauben, dass damit eben »noch viel mehr mit Computer erledigt werden wird als heute«, ansonsten aber alles mehr oder minder so weiterläuft wie jetzt. Viel mehr werden durch die »Omnipräsenz« der Computer ganz neue Phänomene (Möglichkeiten, Vorteile und Gefahren!) auftreten, an die wir noch gar nicht denken, ja noch gar nicht denken können!

Warum dies so ist, soll die folgende Analogie zeigen. Stellen wir uns doch vor, wir treffen in der Wüste einen Beduinen, der in seinem Leben noch nie mehr Wasser gesehen hat als jenes in den kleinen Tümpeln einiger Oasen. Angenommen, wir erzählen diesem Beduinen zum Beispiel vom Bodensee. Zuerst wird uns der Beduine überhaupt nicht glauben, dass es so viel Wasser gibt. Und wenn wir ihn dann doch überzeugt haben und ihn bitten, mit viel Fantasie nachzudenken, welche Konsequenzen eine so große Wassermenge hat, auf viel mehr als verwunderte Aussagen wie »Da kann man ja dann 50.000 Kamele gleichzeitig tränken!«, wird er kaum kommen. Konzepte wie: dass man in einer so großen Wassermenge »schwimmen« und »ertrinken« kann; dass man »Boote« bauen kann, um sich auf dem Wasser zu bewegen; dass diese aber durch »Wellen« umgeworfen werden können, dass an windstillen Herbsttagen die Luft um den See herum weitgehend undurchsichtig wird (Nebel); dass Tiere (Fische) in dem Wasser leben, die man fangen und essen kann usw.: Das alles sind Konzepte, die zu entdecken der Beduine kaum eine Chance hat.

Und dabei ist ein großer See wie der Bodensee eben »im Prinzip« auch nichts anderes als der Tümpel in einer Oase, »nur« eben größer. Wenn wir also von der Computerisierung heute auf Folgen der absehbaren, sehr viel weitergehenden Computerisierung schließen wollen, dann geht es uns nicht besser, als dem beschriebenen Beduinen. Auch mit sehr viel Fantasie werden wir manche ganz neuen Phänomene nur mit Mühe (und manche gar nicht) erkennen können!


Ich habe nun viele Argumente angeführt habe, warum solide Technologiefolgen-Forschung (kurz TFF) auf dem ersten Blick fast unmöglich erscheint: Zu den Schwierigkeiten durch den rapiden technisch-wissenschaftlichen Fortschritt, der noch dazu nicht kontinuierlich, sondern in Sprüngen verläuft, kommen Aspekte der globalen Entwicklung der Menschheit (Kriege, Wirtschaftskrisen, Umweltprobleme), die Tatsache, dass Einsatzgebiete neuer Technologien oft genauso schwer vorhersehbar sind wie ihre Akzeptanz (aus juridischen, politischen, sozialen, psychologischen oder marktwirtschaftlichen Gründen) und schließlich das Phänomen des Entstehens ganz neuer Eigenschaften, wenn sich die Größenordnung einer Entwicklung dramatisch verändert.

Trotz all dieser Einschränkungen können wir weder alle neuen technisch-wissenschaftlichen Entwicklungen unterbinden, noch sie als unanalysierbar einfach auf uns zukommen lassen. Vielmehr müssen wir im vollen Bewusstsein der erwähnten Probleme TFF als Hilfsmittel sehen, das uns zur Verfügung steht, um einigermaßen rationale Entscheidungen darüber zu treffen, ob und in welcher Form gewisse Entwicklungen wünschenswert oder nicht wünschenswert sind.

Eines der wichtigsten Hilfsmittel bei der Abschätzung zukünftiger Entwicklungen ist die Bestimmung »unterer Schranken auf der Basis gesicherter Technologie«. Einige Beispiele mögen dies belegen: So wenig es heute möglich ist vorherzusagen, was Computer in 10 oder 50 Jahren alles machen werden können, kann man doch mit einiger Gewissheit hochrechnen, was sie jedenfalls (eben im Sinne einer »unteren Schranke«) ermöglichen werden. Dies allein führt zu spektakulären Ergebnissen wie etwa im Beitrag 11.1: »Der PC in 10 Jahren« erklärt wird. Sicher ist damit, dass gewaltige Änderungen was Computer anbelangt auf uns zukommen.

In ähnlicher Weise kann man versuchen hochzurechnen, wie viele Menschen 2030 auf der Welt leben werden und was diese – wenn sie einigermaßen vernünftig leben – an Energie- und Rohstoffressourcen benötigen würden. Das Ergebnis ist erschreckend. Wie immer man auch rechnet, die Welt kann solche Menschenmengen nicht menschenwürdig erhalten! Nur Maßnahmen wie im Beitrag 7.6: »Ausgleich mit der dritten Welt« können hier vielleicht noch helfen.


Ein anderer Aspekt der TFF besteht darin, absehbare Gefahren aufzuzeigen. Ohne TFF in diesem Sinne gäbe es heute weder Datenschutzgesetze noch die (zu wenigen) Maßnahmen in Richtung sauberere Autos, kalorische Kraftwerke mit weniger Abgasen usw.

Es ist das Aufzeigen von Alternativen und von unorthodoxen Lösungen, das eine besonders wichtige Aufgabe richtig verstandener TFF ist. Die Wirtschaft »muss« oft wegen der schon in eine andere Richtung getätigten Investitionen solche Lösungen ablehnen, die betroffene Öffentlichkeit kann sie aus Know-how-Mangel oft nicht erarbeiten.

Zu den wichtigsten Aufgaben der TFF gehört ferner eine relative Bewertung verschiedener Möglichkeiten. Jeder Ansatz hat seine positiven und seine negativen Seiten. Nicht die einseitige »rosarote« oder »tiefschwarze« Betrachtung einer Entwicklung, sondern das objektive Abwiegen der relativen Vor- und Nachteile muss unser Ziel sein! Aussagen der Art: »Jede Art von Strahlenbelastung ist schlecht. Lungenröntgen und Kernkraftwerke sind daher abzulehnen«, sind schlichtweg dumm: Im ersten Fall (Lungenröntgen) muss die (tatsächliche) Gefahr durch Strahlenbelastung den Vorteilen der Früherkennung von TBC, Lungenkrebs etc. gegenübergestellt werden; im zweiten Fall (Kernkraftwerke) muss gefragt werden, was geschieht, wenn solche (zugegeben auch Gefahren mit sich bringenden) Kraftwerke nicht verwendet werden.

In dieselbe Richtung geht eine andere Aufgabe der TFF: die Objektivierung von Sachverhalten. Die Hysterie, dass es bei einer Explosion in einem Lager von Kernwaffen zu einer riesigen nuklearen Explosion kommen könnte (hundertfach verheerender als jene in Hiroshima), beruht auf einem reinen Missverständnis: Keine Atombombe kann »zufällig« durch eine andere Explosion gezündet werden. Um Diskussionen vorwegzunehmen: Ich halte Kernwaffen und das Prinzip der Mutual Assured Destruction natürlich für genauso MAD (verrückt), wie sicher die meisten Leser. Es geht hier nur um die Tatsachen, dass in Diskussionen (seien sie mündlich oder schriftlich) immer wieder »Fakten« und »Zahlen« verwendet werden, die schlichtweg falsch bzw. durch solide TFF als richtig oder unrichtig bewiesen werden können.

Ein weiterer Aspekt der TFF erscheint mir gleichfalls wichtig: Basierend auf TFF ist es sinnvoll, mögliche langfristige Szenarios, mögliche »Zukunftsversionen«, auszuarbeiten, auch wenn dabei die »Trefferwahrscheinlichkeit« sehr gering ist. Solche »Science-Fiction«-Spekulationen mit ihren positiven oder negativen Visionen mögen sehr wohl zum Nachdenken und zur Willensbildung beitragen. Ja, noch mehr: Die Ziele bzw. Albträume, die durch solche Science-Fiction-Szenarios vorgegeben werden, sind vielleicht positive bzw. negative Leitbilder! Mit anderen Worten: Science-Fiction sagt nicht die technische Entwicklung voraus, sondern umgekehrt, die technische Entwicklung erfolgt oder erfolgt nicht, weil sie durch Science-Fiction-Spekulationen als erstrebenswert oder verwerflich dargestellt wurde. Jules Verne hat nicht die Reise zum Mond prognostiziert, sondern weil es solche Romane gab, wurde sie durchgeführt. Die Orwell’sche Überwachungsvision in »1984« war nicht falsch, sondern wurde durch Bücher wie gerade jenes zum Teil verhindert – usw.

In diesem Sinne halte ich es für vertretbar, wenn auch ich mich fallweise in recht utopische Spekulationen einlasse, wie zum Beispiel im Beitrag 12.2: »Gras auf dem Mond« oder gar im Beitrag 7.5: »Die Informatikwelt in 100 Jahren«, vor allem aber in den XPERTEN Romanen besonders in »XPERTEN: Das Paranetz« und »XPERTEN: Die Paraüberwachung«.



2.2 Sind Computer lebendig?


Immer wieder hört man von erstaunlichen Leistungen, die Computer erbringen. Sie landen Flugzeuge, spielen so gut Schach wie Großmeister, helfen durch Expertensysteme bei der Behandlung von exotischen Krankheiten und beim Auffinden neuer Ölfelder; sie übernehmen kurzum immer mehr Tätigkeiten, die früher dem intelligenten Lebewesen Mensch vorbehalten waren. Kann es sein, dass eines Tages Computer menschliche Intelligenz erreichen, ja übertreffen?

Computerwissenschaftler sind sich bei der Beantwortung dieser Frage nicht einig. Es gibt gewichtige Pro- und Kontra-Argumente, die im Beitrag 2.4: »Sind Computer intelligent?« behandelt werden. Das Thema »Sind Computer lebendig?« ist aber bescheidener. Es geht nicht darum, ob Computer einmal so raffiniert programmiert werden können, dass sie sich intelligent wie Menschen verhalten, sondern »nur« darum, ob sie sich so verhalten bzw. verhalten können, dass man sie als lebendig – etwa im Sinne einfacher Lebewesen – einstufen muss.

In meiner Argumentation folge ich dem informativen und lesenswerten Buch von Geoff Simon, von dem ich ja auch den Titel »Sind Computer lebendig?« übernommen habe: Obwohl ich hier naturgemäß nicht so tief eindringe wie Simon in seinem Buch, werde ich doch einige Punkte behandeln, die zunächst dagegen zu sprechen scheinen, dass Computer lebendig sind, deren Analyse aber zu einem verblüffenden Ergebnis führt. Nun also einige Argumente:

»Leben heißt Bewegung. Computer bewegen sich nicht, also sind sie nicht lebendig«, ist ein möglicher erster Ansatzpunkt. Er ist allerdings wenig tragfähig. Ganz abgesehen davon, dass man sich Computer, die sich bewegen, vorstellen kann (und solche auch schon konstruiert wurden), kann man Bewegung als Lebensmerkmal nicht anerkennen, weil man sonst auch zum Beispiel allen Pflanzen (vom Kaktus bis zum Schnittlauch) das Lebendigsein abstreiten würde!

Ein anderes Argument basiert auf der Ernährung bzw. Energieversorgung: »Lebewesen müssen ohne Hilfe anderer Lebewesen aktiv bleiben können. Da Computer elektrische Energie brauchen, die von Menschen hergestellt wird, sind sie nicht als lebendig zu bezeichnen.« Bei diesen Überlegungen wird freilich nicht nur übersehen, dass Computer mit Solarzellen betrieben werden können (und ihr »Überleben« dann genauso von der Sonne abhängt wie das fast aller bekannten Lebewesen), sondern dass solche durch Solarzellen betriebenen Anlagen sogar sehr viel autonomer sind als zum Beispiel Menschen, die sich ja ausschließlich von anderen Lebewesen (Pflanzen und Tieren) ernähren und so empfindlich sind, dass sie kaum mehr als eine Woche ohne solch parasitische Energiezufuhr auskommen!

Ähnlich in die Leere geht überraschenderweise auch das Argument der Reproduktion: »Lebewesen müssen sich vermehren können. Da Computer sich nicht vermehren können, sind sie keine Lebewesen.« Diese Behauptung ist (wie die vorhergehenden) von der Gestalt: »Lebendig sein bedeutet Eigenschaft x. Computer haben die Eigenschaft x nicht und sind daher nicht lebendig.« Auch diese Behauptung besteht also aus zwei Teilen; wie in den vorhergehenden Fällen können beide angezweifelt werden (obwohl schon die Widerlegung einer der beiden Aussagen genügen würde!). Einerseits nämlich ist die Konstruktion von Computern, die selbst andere Computer erzeugen, gar nicht von der Hand zu weisen (wie ich im Beitrag 2.4: »Sind Computer intelligent?« näher erläutere), andererseits ist das »Sich-vermehren-Können« als Lebensmerkmal keinesfalls zulässig, sonst wäre ja zum Beispiel ein kastrierter Kater plötzlich kein Lebewesen mehr!

Auch der Versuch, die Reproduktion allgemeiner zu formulieren (um Ausnahmefälle wie zum Beispiel zeugungsunfähige Tiere zu umgehen), gelingt nicht so recht. Sagt man etwa: »Eine Klasse von Lebewesen« (wir denken jetzt also an die Klasse aller Katzen und nicht mehr an ein Einzeltier) »muss sich ohne Hilfe anderer Lebewesen fortpflanzen können«, dann eliminiert man alle jene Lebensformen, die bei ihrer Vermehrung auf Symbiose oder Parasitentum angewiesen sind: alle Pflanzen, die Insekten zur Bestäubung benötigen; Wurmarten, die sich nur vermehren können, indem sie sich in anderen Lebewesen einnisten, usw. Bei der Vermehrung vieler Lebensarten spielen also andere Lebensarten eine tragende Rolle, bei Computern spielen diese Rolle (zumindest zurzeit) wir Menschen!

Vielleicht am schwersten direkt zu widerlegen sind Argumente, die auf dem Metabolismus und vor allem der Beschaffenheit von »normalen« Lebewesen im Vergleich zu Computern basieren. So unterschiedlich zwar die Metabolismen verschiedenster Lebewesen sind, könnte man doch versucht sein zu argumentieren, dass Lebewesen aus organischen (also Kohlenstoff-)Verbindungen bestehen, Computer nicht. Freilich sind auch Computer, die aus organischen Verbindungen bestehen, vorstellbar; vor allem aber ist dieses Argument gefährlich eng. Werden wir etwa Kreaturen auf Siliziumbasis, die sich vermehren, bewegen und miteinander verständigen können (wie wir sie einmal auf anderen Planeten finden könnten), nicht als lebendig bezeichnen? Eine faire Definition von Leben darf nur »behavioristisch« sein, d. h. muss sich am Verhalten orientieren, nicht daran, wie dieses Verhalten zustande kommt!

Die Liste von Eigenschaften, mit denen man vielleicht versucht ist, Computer von »normalen« Lebewesen abzusondern, ist noch lang: Lebensdauer, Selbstheilfähigkeit und »Lebenskontinuität« gehören dazu. Mit Letzterem meint man die Tatsache, dass man »Computer ein- und ausschalten kann, Lebewesen aber kontinuierlich existieren« (wobei man Sträucher oder Samen, die jahrzehntelang »tot« in einer Wüste liegen und durch einen Regen plötzlich zu wachsen beginnen, genauso vergisst wie manche Mikrolebewesen, die Hunderte Grad Hitze im Vakuum ohne irgendwelche Zeichen einer Zustandsänderung überstehen und plötzlich wieder aktiv werden).

Zusammenfassend ergibt sich ein überraschendes Bild: Jeder Versuch Leben so zu definieren, dass Computer ausgeschlossen sind, scheint auch »anerkannte« Lebensformen auszuschließen; oder umgekehrt: Jeder Versuch Leben so zu definieren, dass man keine »normale« Lebensform ausschließt, fällt so »schwach«, so »weich« aus, dass Computer auch als Lebensform qualifiziert werden! Sind Computer also als lebendig anzusehen?


Anmerkung von Peter Lechner:

Die Juristerei liefert ein Begriffs-Exempel, das die Frage »lebendige oder nicht lebendige (sind das »tote«?) Computer« in ihrer Delikatesse förmlich deklassiert. Es gibt im Sachenrecht den Begriff der »beweglichen Sache« (ein Kühlschrank, ein Buch, ein silbener Löffel ...) und der »unbeweglichen Sache« (eine Liegenschaft mit allem »Zugehör«). Zugehör ist alles, was auf der Liegenschaft kreucht und fleucht, z.B. der Hase, der dort lebt; das »Zugehör« teilt die rechtliche Eigenschaft der Hauptsache. Mithin ist der Hase, auch wenn er mit 70 km/h übers Feld wetzt, eine »unbewegliche Sache«.Aber! Sobald ein Jäger den Hasen niedergestreckt hat, ist er von der Liegenschaft »abgesondert«, er ist nicht mehr »Zugehör«. Deshalb ist er, obwohl er jetzt steif und starr daliegt, zu einer »beweglichen Sache« geworden.Das hat insofern sein Gutes, als man das gleich am Anfang des Studiums lernt. Nach dieser Lektion satteln nicht wenige um...



2.3 Automatische

Sprachübersetzung


Im Beitrag 3.2: »Brauchen wir noch Sprachunterricht?« versuche ich zu erläutern, dass innerhalb der nächsten Jahre so billige und so gut arbeitende Sprachübersetzungsgeräte (mit akustischer Ein- und Ausgabe) verfügbar sein werden, dass es kaum noch Sinn machen wird, eine Fremdsprache zu lernen, nur weil man bei einer Reise mit Einheimischen sprechen will. Trotz dieser Behauptung halte ich aber auch fest, dass es noch ein sehr weiter Weg ist zu einigermaßen perfekten Sprachübersetzungssystemen.

Die Situation ist bei der Sprachübersetzung ähnlich wie bei anderen »halbintelligenten« Problemen. Während es mit Standardmethoden möglich ist, »98 %« solcher Probleme zu lösen, erfordert die Lösung der »verbleibenden 2 %« einen exorbitanten Aufwand, ja es ist fallweise gar nicht gesichert, ob alle verbleibenden Probleme wirklich ganz in den Griff zu kriegen sind. Zwar gibt es heute auf gängigen Heimcomputern Schachprogramme, die jeden Amateur schlagen; wann es aber ein Schachprogramm geben wird, das (regelmäßig; nicht nur einmal wie inzwischen geschehen) Weltmeister besiegen kann, ist noch immer nicht klar. Zwar wird es Übersetzungsprogramme geben, die besser sein werden als selbst gute Schüler nach mehreren Jahren Fremdsprachenunterricht; wann, ja sogar ob es je perfekt arbeitende Sprachübersetzungsprogramme geben wird, ist aber unklar.

Im Folgenden werde ich anhand einiger Beispiele erklären, warum perfekte Sprachübersetzung so schwierig ist.

Zunächst ist es wichtig zu trennen zwischen

(1) der Umsetzung von gesprochener Sprache in geschriebene Sprache, zwischen

(2) dem inhaltlichen Verstehen geschriebener Sprache und

(3) dem Umsetzen eines »verstandenen« Satzes in eine andere Sprache.

Von diesen drei Bereichen ist (3) eigentümlicherweise der leichteste und ist mehr oder minder gelöst; die »Spracherkennung« (1) hingegen ist nicht zuletzt deshalb so schwierig, weil Spracherkennung ohne inhaltliches Verstehen nur bis zu einem gewissen Grad möglich ist, das inhaltliche Verstehen von Sprache (2) aber nur mit sehr viel »Umgebungswissen« durchführbar ist, weil die Erfassung des notwendigen Umgebungswissens (zu dem wahrscheinlich der gesamte Erlebnisschatz eines Menschen gehört) so schwierig (unmöglich?) ist, ist es so schwer (unmöglich?) ein »perfektes« Übersetzungsprogramm zu entwickeln.

Ohne Umgebungswissen kann die Aussage »DER GEFANGENE FLOH« als »Der Gefangene floh« oder als »Der gefangene Floh« gedeutet werden; der gesprochene englische Satz »THESEATHASANICECOVER« kann – je nachdem, ob das »N« zu A oder zu ICE gerechnet wird, also »an ice« oder »a nice« – heißen: »Die Bank ist mit Eis überzogen« oder »Der Sitz hat einen hübschen Überzug«. Die Bedeutung von »Er schoss auf das Tor« hängt dramatisch davon ab, ob wir als Zusammenhang ein Fußballspiel oder einen Gangsterfilm vor Augen haben. Im einen Fall müsste zum Beispiel bei einer Übersetzung ins Englische Tor als »goal«, im anderen als »door« übersetzt werden! Der einfache englische Satz »They are flying planes« kann – je nach Umgebung – interpretiert werden als »Das sind fliegende Flugzeuge« oder »Sie steuern Flugzeuge«. Die berühmte falsche Übersetzung »The ghost is ready but the meat is poor« des Bibelzitates »Der Geist ist willig, aber das Fleisch ist schwach« muss jedem Übersetzungsprogramm verziehen werden (das aus der Umgebung herausgelöst, Geist eben als Geist im Sinne von Gespenst und Fleisch im Sinne von essbarem Fleisch übersetzt). Selbst so einfache Begriffe wie zum Beispiel das englische Wort »poor« lassen sich nur mit Kenntnis der Umgebung richtig übersetzen, ins Deutsche nämlich entweder als »arm« (»the poor man«) oder als »schlecht« (»your performance is poor«). Und das Telegramm des Richters: »Das Alibi des Angeklagten stimmt; nicht hinrichten!«, das zur Hinrichtung des Häftlings führte, nur weil der Strichpunkt hinter das »nicht« rutschte (»Das Alibi des Angeklagten stimmt nicht; hinrichten!«), beweist deutlich, wie heikel das Verstehen von Sätzen (und damit das Übersetzen) ist.

Aber sogar auf der Ebene von Einzelworten gibt es (selbst zwischen ähnlichen Sprachen) bereits beachtliche Probleme, weil Nuancierungen einer Sprache in einer anderen fallweise nicht prägnant formulierbar sind. Das bekannteste Beispiel dafür sind vielleicht die 20 verschiedenen Ausdrücke für »Schnee«, die die kanadischen Eskimos verwenden; genauso übertreffen die 50 Worte für »Schiff« im Griechischen bei weitem die vielleicht 20 Varianten, die wir im Deutschen besitzen (Boot, Schiff, Jacht, Dampfer, Jolle, Fähre, …). Ein Übersetzungsprogramm Englisch-Deutsch muss in Schwierigkeiten kommen, wenn es die Zeile »Suppose above us there is no heaven, just sky« aus einem Lied von Roger Whittaker übersetzen soll. Wir haben im Deutschen für »heaven« und »sky« eben nur das eine Wort »Himmel«, das den »himmlischen Himmel« (heaven) und den »physikalischen Himmel« (sky) nicht auseinander hält. Alle Versuche, den Leitspruch Erzherzog Johanns: »Tätig sein ist unsere Bestimmung«, ins Englische zu übersetzen, sind erfolglos. »To be active is our calling« (als vermutlich beste Annäherung!) bringt nicht zum Ausdruck, dass »tätig sein« positiver, zielorientierter ist als »to be active« …

Aussprüche, Werbetexte, Witze usw., die auf Wortspielereien beruhen, sind – selbst wenn man sie versteht – oft nicht wirklich übersetzbar, sondern nur umschreibbar. Und in das Verstehen eines Satzes geht nicht nur Umgebungswissen, sondern auch das Wissen über die zugrunde liegende Kultur ein. »He talked like at 78 r.p.m.« wird nur verständlich, wenn man sich noch daran erinnert, dass es einmal Plattenspieler gegeben hat, die man mit 45 oder 78 Umdrehungen pro Minute verwenden konnte, und der Satz daher ungefähr heißen sollte: »Er sprach sehr schnell.« Die Frage: »Is he still believing in the red-nose reindeer?« (»Glaubt er noch an den Weihnachtsmann?«) kann nur verstanden werden, wenn man weiß, dass die Rentiere, die den Schlitten des (amerikanischen) Weihnachtsmannes ziehen, von einem Rentier (namens Rudolph) mit rot leuchtender Nase angeführt werden. Das einfache englische Wort »raw«, das man landläufig mit »roh« übersetzen würde, hat in Wahrheit eher die Bedeutung »ungekocht«, »roh« hingegen nur »unverarbeitet«. Der Engländer, der feststellt: »I don’t eat anything raw«, meint damit, dass er auch keinen Speck (nur geräuchert, nicht gekocht), keinen Russen (nur mariniert), kein Bündnerfleisch (nur luftgetrocknet) usw. isst. »Ich gehe heute in die SCS« wird kaum jemand verstehen (und übersetzen können), der nicht schon von der Shopping City Süd in Vösendorf bei Wien gehört hat. Ob der Satz: »He is helping to save Peter’s bacon« wirklich bedeutet, dass er hilft, den Speck von Peter zu retten (nämlich dann, wenn zum Beispiel vom brennenden Fleischerladen Peters die Rede ist), oder ob der Satz nur in seinem übertragenen Sinn (»Er hilft Peter bei seinen Problemen«) zu verstehen ist, erfordert offenbar von einem Übersetzungsprogramm nicht nur umfangreiches Wissen über alle möglichen Redewendungen, sondern auch ein Verstehen des Zusammenhangs.

Dass bei der Übersetzung von Lyrik (wo Wortneuerfindungen oder bewusste Verstöße gegen grammatikalische Regeln vorkommen mögen) oder bei der Übersetzung von direkter Rede, die oft absichtlich mundartlich oder slangmäßig verfärbt ist, auch beste Übersetzungsprogramme größte Schwierigkeiten haben müssen, liegt auf der Hand.

Zusammenfassend ist inhaltliches Sprachverstehen und damit das Problem Sprachübersetzung so schwierig, weil Aussagen mehrdeutig, umgebungs- und kulturabhängig sein können. »To understand a language is to understand the world« (»Versteht man eine Sprache, so versteht man die Welt«) ist der Grund für die tief liegenden Probleme. Hätten wir ein perfektes Sprachübersetzungsprogramm, dann hätten wir wohl auch Computer mit echter Intelligenz ausgestattet … Und ob dies einmal möglich sein wird, kann heute noch immer nicht endgültig mit »Ja« oder »Nein« beantwortet werden.



2.4 Sind Computer intelligent?


Eine richtigere Fragestellung ist natürlich: »Kann man (eventuell zukünftige) Computer so programmieren, dass sie sich intelligent verhalten?«

Um diese Frage beantworten zu können, ist es notwendig, zuerst zu definieren, was Intelligenz eigentlich ist. Definitionen in Lexika sind meist recht allgemein und verschwommen. Im Meyer Taschenlexikon findet man u. a.: »Intelligenz ist … die übergeordnete Fähigkeit, die sich in der Erfassung und Herstellung anschaulicher und abstrakter Beziehungen äußert und dadurch die Bewältigung neuartiger Situationen … ermöglicht.« Zu »primären Intelligenzfaktoren« werden häufig Aspekte wie Sprachverständnis, Assoziationsflüssigkeit, Rechengewandtheit, räumliches Verstehen, logisches Denkvermögen u. a. gezählt.

So interessant obige Definitionen sind und Computer zum Beispiel bei den primären Intelligenzfaktoren bei einigen gut abschneiden (Rechengewandtheit, logisches Denkvermögen), sind ihre gegenwärtigen Leistungen in anderen Bereichen (zum Beispiel Sprachverständnis) noch recht durchschnittlich. Insgesamt sind die oben angeführten Gesichtspunkte zu vage, um entscheiden zu können, ob sie irgendwann einmal von Computern erfüllt werden können.

Ein anderer Ansatzpunkt besteht darin, menschliche Intelligenz zu messen und diese Messungen dann auch bei (entsprechend programmierten) Computern durchzuführen. Dieser Versuch führt sofort zu einer ganz seltsamen Situation: Die menschliche Intelligenz wird meistens durch den so genannten Intelligenzquotienten gemessen, der als IQ = IA/LA definiert ist, wobei IA das »Intelligenzalter« und LA das »Lebensalter« darstellt. Die Division des »Intelligenzalters« durch das »Lebensalter« wird durchgeführt, um zu erreichen, dass der IQ eines Menschen über längere Zeitabschnitte des Lebens gleich bleibt.

Da aber ein »junger Computer« unmittelbar nach der »Geburt« (im Gegensatz zum Menschen) durch einfaches Kopieren des »Wissens« aus einem anderen Computer sofort dasselbe Intelligenzalter hat wie ein »älterer« Computer, können »junge« (d. h. gerade in Betrieb genommene) Computer kurioserweise einen IQ haben, der weit über dem liegt, was ein Mensch erreichen kann. Dies bedeutet keineswegs, dass Computer intelligenter sind als Menschen, sondern bedeutet nur, dass die Messung der Intelligenz durch einen IQ auf Computer angewandt unsinnig ist.

Andere Vorschläge der Intelligenzmessung liefern ähnlich unbefriedigende Situationen, sodass auch dieser Weg zur Entscheidung der Frage »Können Computer intelligent sein?« dornig erscheint.

Ein interessanter Alternativvorschlag, der schon mehr als 50 Jahre alt ist, stammt von dem berühmten Mathematiker Turing. Er schlägt folgendes »Imitationsspiel« vor: In getrennten Zimmern, mit denen man nur über eine Schreibmaschinentastatur kommunizieren kann, befindet sich ein Mensch in einem, ein Computer im anderen. Durch (getippte) Fragen und auf der Basis der (getippten) Antworten muss man feststellen, in welchem Zimmer sich der Computer bzw. der Mensch befindet. Dabei versucht der Computer sich als Mensch auszugeben (d. h. versucht, den Fragenden zu verwirren), während der Mensch versucht, dem Fragenden zu helfen. Turing schlägt vor, einen Computer intelligent zu nennen, falls er in 50 % der Fälle den Fragenden täuschen kann.

Es sollte klar sein, dass ein Computer, der dieses ‚Imitationsspiel’ in 50 % der Fälle besteht, tatsächlich ungemein clever sein muss. Nicht nur muss er über ein einwandfreies Sprachverstehen verfügen (um gestellte Fragen einwandfrei analysieren und beantworten zu können), er muss ein umfangreiches Wissen bereit haben (um Fragen wie »Was halten Sie von Friedrich Schiller?« genauso beantworten zu können wie Fragen im emotionalen Bereich: »Erzählen Sie mir, wie Sie sich das erste Mal verliebt haben«), ja er muss auch zu Täuschungsmanövern in der Lage sein und diese bewusst einsetzen. Auf die Frage: »Was ist die Wurzel aus 2« darf der Computer ja nicht – was er könnte – das Ergebnis 1,4142… auf Hunderte Stellen blitzschnell angeben (damit würde er sich sofort verraten!), er muss vielmehr zum Beispiel antworten: »Wurzel aus 2? Ach ja, ich glaube, das ist ungefähr 1,41. Soll ich versuchen, es genauer auszurechnen?«

Das Imitationsspiel hat also den Vorteil, alle »wesentlichen« Aspekte dessen, was wir mit »Intelligenz«, »Verstehen« etc. bezeichnen, zu umfassen, ohne aber diese Aspekte durch biologische Komponenten wie Stimme, Beschaffenheit des Aufbaus, organisch vs. nicht organisch usw. weiter zu verkomplizieren. Mit vielen Informatikkollegen teile ich daher die Meinung, dass man Computer, die das Imitationsspiel bestehen, als intelligent bezeichnen muss. (In Wahrheit vielleicht sogar als mehr als intelligent, sie verbergen ja sogar noch gewisse Fähigkeiten wie zum Beispiel übermenschlich schnelles Rechnen!) Damit stellt sich die Frage: Werden wir einmal in der Lage sein, Computer so zu bauen und zu programmieren, dass sie das Imitationsspiel bestehen können?

Zwei Punkte sind vorweg festzuhalten:

(1) Unter Fachleuten besteht absolute Uneinigkeit, was die Beantwortung dieser Frage anbelangt.

(2) Ob wir solche Computer tatsächlich einmal bauen werden können oder nicht, heute sind wir davon weit entfernt, trotz des Schlagwortregens von »künstlicher Intelligenz« bis hin zu »Expertensystemen«!

Die Situation ist insofern faszinierend, als noch vor 20 Jahren viele Computerwissenschaftler die Ansicht vertraten: »Wenn es uns einmal gelingt einen Computer so zu programmieren, dass er so gut Schach spielt wie ein Mensch, dann haben wir verstanden, wie Menschen denken, dann können wir früher oder später auch voll intelligente Computer bauen.« Heute haben wir solche Schachspielprogramme hervorragender Qualität, haben Systeme, die tropische Krankheiten besser diagnostizieren als jeder Arzt, und Computer, die auf der Basis von Satellitenbildern Erzlager finden, die sonst noch jahrhundertelang unbekannt wären. Kurzum, in vielen Einzelaspekten übertreffen Computer die menschlichen Fähigkeiten schon lange und übertreffen sie dramatisch. Vom erfolgreichen Zusammenspiel von Abertausenden Aspekten, wie es offenbar im menschlichen Gehirn abläuft, von also wirklich intelligenten Systemen, sind aber alle heutigen und absehbaren Computer noch weit entfernt.

Auf dem Wege zu intelligenten Computersystemen sind noch riesige Probleme zu lösen, beim Sprachverstehen, beim Verstehen von Bildern (Computer sind bisher mehr oder minder taub, stumm und blind!), beim Begreifen von Lernprozessen (die wir nach wie vor kaum verstehen und in Computern auch mit neuesten Methoden wie »neuronalen Netzen« nur ganz rudimentär modellieren können), bei der Speicherung von Wissen (das Assoziationsketten wie im Menschen gestattet) usw. Dennoch: Auf all diesen Gebieten gibt es andauernde Fortschritte. Prinzipielle Barrieren sind nicht erkennbar, auch wenn die frühere Euphorie einer nüchterneren Einschätzung gewichen ist.

Letztlich ist es vielleicht eine zwar philosophisch interessante, pragmatisch aber unwichtige Frage, ob wir Computer intelligent im »menschlichen Sinne« bauen können. Zweifellos werden wir Computersysteme bauen, die in vielen Aspekten weit mehr leisten können, als Menschen je in der Lage wären zu tun. In Wahrheit umgeben uns solche Systeme ja schon andauernd und zunehmend: vom weltweiten Flugreservierungssystem zum Voyager-Steuerungsprogramm, zum Super-Schachprogramm, zur Regelung des Stromverbundes, zur automatischen Fabrikationssteuerung. Immer größere Bereiche der menschlichen Arbeit, der körperlichen und der geistigen, werden von Computern übernommen werden, was die weitere Rationalisierung vorantreibt. Durch zunehmend mächtigere Wissensverarbeitung mit beschränkter Lernfähigkeit, durch bessere Verarbeitung sensoraler Daten (Sprache, Bilder, …) und durch wachsende potenzielle Mobilität von Computern (Roboter) wird die Entwicklung flexibler Gesamtsysteme (die auch selbst reparierend sein können) möglich, werden solche Systeme auch zunehmend den Eindruck einer Zielausrichtung, die auch Ausnahmesituationen meistern kann, erwecken und damit zumindest in Teilbereichen intelligent anmutendes Verhalten aufweisen.

So wie Flugzeuge (in gewissem Sinn) Vögel übertreffen, Unterseebote Fische oder Bagger von menschlicher Hand betätigte Schaufeln, so werden Computer als informationsverarbeitende Maschinen in immer mehr Bereichen der Informationsverarbeitung und deren Anwendung an Menschen herankommen bzw. diese übertreffen, ohne dass es notwendig, ja sinnvoll sein wird, dass sie ihre Vorbilder direkt nachahmen. Ob auf diesem Wege auch die Grundlagen für echt intelligente Computersysteme geschaffen werden, ist damit nicht beantwortet und bleibt für mich eine offene Frage.



2.5 Schwindeltechnik


Beim Quiz geht der Kandidat in die Endrunde. Bisher hat er seinem eher intellektuellen Aussehen mit massiver Hornbrille, die ihm den Anschein eines Bücherwurms gibt, Ehre bereitet, hat alle Fragen – fast möchte man sagen – »über-«beantwortet.

»Was ist Chimbote?«, kommt die nächste Frage. »Chimbote …, ja, das ist eine Industrie- und Hafenstadt in der Provinz Ancash, Peru.« »Bravo. Gleich weiter. Es gibt zwei berühmte Bugatti, wer waren sie?« »Bugatti … – da gibt es einerseits Carlos Bugatti, italienischer Künstler, geboren 1856; und einen Ettore Bugatti, geboren 1881, übrigens wie der andere aus Mailand, der nach Frankreich auswanderte und dort ein Spitzenautomobilkonstrukteur wurde.« »Exzellent. Nächste Frage: Was ist der Lohmann-Ruchti-Effekt?« »Der Lohmann-Ruchti-Effekt (kurzes Zögern des Kandidaten) … das ist ein Kapazitätserweiterungseffekt aus der Betriebswirtschaftslehre.«

So geht es weiter: Die Fragen prasseln auf den Kandidaten, der sie aber stets nach kurzem Nachdenken (so, als wüsste er die Antwort nicht; das Publikum liebt die dadurch entstehende Spannung) einwandfrei beantwortet.

Das kurze Zögern, das kurze Nachdenken ist übrigens kein psychologischer Trick, auch das Wiederholen der Fragen nicht. Es ist eine technische Notwendigkeit, damit das unsichtbare Knopfmikrofon die Frage auch fehlerfrei aufnimmt und ins Nebenhaus abstrahlt, wo der Freund die Fragen hört, im (elektronischen?) Lexikon nachsieht und die Antwort zurücksendet in die massive Brille des Kandidaten, die als Empfänger arbeitet und die Antwort (wie bei Hörbrillen) direkt auf den Ohrknochen überträgt.

Der Kandidat gewinnt die letzte Runde spielend. Bei der Preisverleihung wird sein »wahrhaft enzyklopädisches Wissen« lobend hervorgehoben. Der Kandidat lächelt. Nur er und sein Freund wissen, wie sehr sein Wissen enzyklopädisch ist … Es stammt ja direkt aus der elektronsichen Brockhaus- Enzyklopädie. (Eine sehr gute aber kleinere Version dieses elektronsichen Meisterwerkes ist dals Brockhaus Multimedial Premium in jedem guten Softwaregeschäft preiswert zu kaufen).

Obige Geschichte soll darauf hinweisen, dass relativ einfache Technik heute jederzeit verfügbar ist, um bei Quizsendungen, bei Prüfungen in Schulen, Seminaren oder Universitäten, bei Interviews, bei öffentlichen Diskussionen, bei einem Schachturnier usw. massiv »zu helfen«, massiv zu schwindeln. Ich wundere mich, dass solche Methoden nicht schon viel mehr eingesetzt werden (oder werden sie mehr eingesetzt, als wir glauben?) bzw. dass nirgendwo Vorkehrungen gegen solche elektronische Schwindelmethoden getroffen werden.

Übrigens sind eine Funksprechverbindung und ein Mithelfer in vielen Fällen gar nicht notwendig. Schüler, die zum Beispiel im Gymnasium einen Laptop-Computer verwenden dürfen (und die Grenze zwischen erlaubten Taschenrechnern und noch nicht universal erlaubten Laptops verschwimmt ja immer mehr), verfügen damit potenziell über eine sehr mächtige Unterstützung. Zur Übersetzung einer klassischen Lateinstelle zum Beispiel aus Tacitus tippen sie nur die ersten 30 Zeichen ein – damit wird die Stelle in Sekundenbruchteilen gefunden und die zugehörige deutsche Übersetzung aus der Tacitusübersetzung angezeigt; für alle Sprachen stehen umfangreiche Wörterbücher, Phrasen-, Zitat- und Ideen-Sammlungen zur Verfügung; fast jedes Mathematikproblem, das je bis zur Matura hin formuliert wird, kann von den besseren Mathematikprogrammen wie Maple oder Mathematica spielend gelöst werden; und dass das »Einsagen« bei mündlichen Prüfungen besonders einfach wird, ist offenbar: Der Schüler braucht ja nicht einmal das Knopfmikrofon, sein Helfer (der in der Klasse sitzt) hört die Frage ja ohnehin und braucht die Antwort nur mit nicht entdeckbarer Kleinstsendeleistung in die »Schwindelbrille« des Geprüften zu übertragen.

Zusammenfassend ergeben sich damit für mich vier

Hauptfragen:

(1) Wie viel wird heute mit solchen »High-Tech«-Verfahren schon geschwindelt?

(2) Wieso sind solche Verfahren nicht (noch) mehr verbreitet (vielleicht hat nur noch niemand die Marktlücke entdeckt)?

(3) Was sollen und können wir gegen solche Verfahren unternehmen?

(4) Bedeutet das alles nicht, dass viele Prüfungen, aber auch Unterrichtsinhalte durch andere ersetzt werden sollten? (Siehe dazu den Beitrag 3.5: »Was wird in Zukunft in Schulen unterrichtet?«.



2.6 Unzuverlässige

Computersysteme


Wir erwarten von Maschinen, dass sie verlässlich arbeiten: Das gut gewartete Auto startet problemlos, der Elektrorasierer hat uns noch nie im Stich gelassen, die Waschmaschine macht uns während ihrer normalen Lebensdauer kaum Sorgen usw.

Allerdings: Obwohl wir Maschinen oft behandeln, als wären sie weitgehend unfehlbar, sind sie es letztlich nicht. Selbst ein gepflegtes Spitzenauto hat manchmal unerwartete Mucken, das neue Fernsehgerät fällt noch während der Garantiezeit aus, der Rasenmäher lässt sich plötzlich nicht in Gang setzen und selbst so einfache Geräte wie der Tisch, an dem ich den ersten Entwurf dieses Beitrages schreibe, beginnen irgendwann zu wackeln.

In diesem Sinn ist es eigentlich unverständlich, warum wir von Computersystemen und insbesondere Computerprogrammen eine hundertprozentige Verlässlichkeit fordern. Und doch ist es genau dies, was seit Beginn der Computertechnik verlangt wird und Mathematiker, Informatiker und Ingenieure verzweifelt zu erreichen versuchen. Obwohl es verblüffend verlässliche Computerprogramme gibt, ist kaum ein einziges großes Programm je völlig fehlerfrei oder absolut zuverlässig und kann es wohl auch nicht sein.

»Computerphilosophen«, etwa J. Weizenbaum, haben in Büchern wie »Die Allmacht der Computer und die Ohnmacht der Vernunft« immer wieder darauf hingewiesen, dass große Computersysteme fehleranfällig sind, und warnen daher mit Horrorszenarien vor dem Einsatz solcher Technik.

Ich wehre mich gegen das »Daher« in obiger Aussage. Es ist gar nicht vernünftig anzunehmen, dass ein Computersystem vollständig »stabil«, »fehlerfrei« oder »verlässlich« ist, weil dies auch keine andere Maschine, kein anderes System (ob Maschine oder Lebewesen) je ist.

Das bedeutet noch lange nicht, dass wir auf solche großen Computersysteme verzichten müssen oder sollen, nur weil sie »unzuverlässig« sind. Wir müssen uns nur sehr klar sein, dass sie nie hundertprozentig verlässlich sein können, wir müssen dies stets berücksichtigen und lernen, damit zu leben.

Dann werden wir mit »nicht perfekten« Computersystemen so gut und so schlecht zu Rande kommen, wie wir das mit unseren wichtigsten und komplexesten, aber auch nie perfekten Partnern zustande bringen: mit unseren Mitmenschen. Allerdings hat Weizenbaum in einem Punkt absolut Recht: wenn wir uns zu sehr auf eine Technik verlassen, dann kann das sehr gefährlich werden. Wie gefährlich zeigt deutlich der Roman »XPERTEN: Das Paranetz«.



2.7 Die Tyrannei des Messens


Die Entwicklung der Naturwissenschaften und der Technik hat es mit sich gebracht, dass wir die Messbarkeit vieler Eigenschaften akzeptiert haben. Wir messen die Zeit, die Temperatur, das Gewicht, die Geschwindigkeit, die Stärke eines Erdbebens usw. Messen erleichtert uns das Denken. Das Ausmaß von Phänomenen wird plötzlich vergleichbar: Die Antwortzeit des Computers ist manchmal viel kürzer als gerade jetzt, gestern war es heißer als heute, dieser Rucksack ist schwerer als jener, das Flugzeug ist zwölf Mal schneller als das Auto, das Erdbeben war doch nicht so stark wie ein anderes …

Weil wir viel messen und weil dieses Abbilden auf geordnete Zahlen so bequem ist, hat sich in unseren Hirnen allmählich als gefährliches Gift die Vorstellung eingeschlichen, dass alles messbar ist. Dabei sind komplexere Phänomene fast nie messbar (also zahlenmäßig darstellbar), weil sie aus vielen Komponenten (die vielleicht als einzelne messbar sind) bestehen. Und durch dieses Bestehen aus einzelnen Komponenten werden sie unmessbar und unvergleichbar.

So offensichtlich Obiges klingt, es wird immer wieder übersehen; immer wieder wird der Versuch gemacht, Unvergleichbares durch Messungen vergleichbar zu machen.

Das berühmteste und berüchtigtste Beispiel dafür ist der Intelligenzquotient (IQ), eine Zahl, die die Intelligenz einer Person ausdrücken soll. Man erhält den Intelligenzquotienten, indem man die Person gewisse Aufgaben lösen lässt und das Ergebnis dann dem Alter entsprechend »normiert« (IQ = »Intelligenz« dividiert durch Lebensalter).

Dabei sollte jedem vernünftigen Menschen klar sein, dass Intelligenz (= Problembewältigungsfähigkeit) von so vielen Komponenten abhängt, dass jede Intelligenzmessung ähnlich sinnlos ist wie das Messen von Eigenschaften wie Schönheit, Liebe oder Glück. Und doch haben sich ganze Schulen von Psychologen mit der Messung von Intelligenz beschäftigt, haben immer neue Tests ersonnen, ohne das Offensichtliche eingestehen zu wollen: Intelligenz beruht auf so vielen Eigenschaften (logisches Denken, Kreativität, räumliches Verstehen, Mustererkennung, bildliches Vorstellungsvermögen, Erinnerungsvermögen …), dass je nach Betonung dieser Eigenschaften Testpersonen ganz verschieden abschneiden.

Man kann nicht sagen: Person A ist intelligenter als Person B; Person A mag besser sein als B im räumlichen Verstehen von Bildern und im Kurzzeit-Erinnerungsvermögen, aber vielleicht schlechter im logischen Denken etc. Und weil Intelligenz auf so vielen (mindestens hundert) Grundeigenschaften beruht, ist die Wahrscheinlichkeit, dass eine Person in allen Eigenschaften besser abschneidet als eine andere, verschwindend klein. Daher sind gewisse Menschen nicht intelligenter als andere, obwohl uns genau dies über Zahlen wie Intelligenzquotient suggeriert wird. Wir müssen diese »Tyrannei des Messens« abschütteln und erkennen, dass viele wichtige Eigenschaften im Sinne der Darstellung durch eine einzige Zahl unmessbar sind.

Vieles entkrampft sich dadurch: Weder sind Einzelmenschen intelligenter als andere, noch sind Rassen »intelligenter« oder »besser« als andere. Das heißt nicht, dass man nicht über einzelne Eigenschaften reden kann. Man kann ohne Tabus darüber reden. Aber wenn jemand in 43 Aspekten besser und in 61 Aspekten schlechter abschneidet als ein anderer, dann lässt sich mit Sicherheit keine Gesamtaussage »besser« oder »schlechter« treffen … Denn wie will man die Aussagen gewichten?

Tabuisierte Berichte wie »Negroide sind weniger intelligent als Indo-Europäer« werden damit als dumm entlarvt. Aussagen, wie: »die Menschengruppe X ist in den Eigenschaften a, b, c, d … der Menschengruppe Y überlegen, bei den Eigenschaften z, y, x … ist es umgekehrt«, sind aber natürlich möglich (sofern die Eigenschaften »einfach« genug und damit messbar sind), sind sinnvoll und aus der Sicht der Gesellschaft »ungefährlich«, weil sie nie zu einer Gesamtbeurteilung führen können.

Etwaige allgemeine »Minderwertigkeitsgefühle« eines Menschen A gegenüber einem Menschen B sind stets unbegründet. A und B haben so viele Eigenschaften, dass A immer in einer Anzahl davon B überlegen sein wird.

Es gibt keinen intelligentesten, besten, schönsten oder glücklichsten Menschen. Wenn wir zum Beispiel denken, die Frau A ist schöner als die Frau B (und wie oft denken wir doch in solchen falschen Kategorien), dann ist dies ein Unfug. »Schöner« (ohnehin nur subjektiv messbar) würde heißen: in jedem Aspekt ist die Frau A der Frau B an Schönheit überlegen; also bei Haaren, Hand, Mund, Augen, Nase, Händen, Füßen, Haltung …, in allen von Hunderten Details müsste A besser abschneiden als B, und dies kann (mathematisch gesehen) nie der Fall sein.

Die Messbarkeit hört in Wahrheit sehr viel früher auf als bei so komplexen Phänomenen wie Intelligenz, Liebe, Glück etc. Selbst so etwas Einfaches wie Temperatur, wie sie sich auf den menschlichen Körper auswirkt, ist eigentlich nicht oder nur schwer messbar. Wer weiß nicht, dass 50° in einer trockenen Sauna kühl, 35° bei schwülem Wetter sehr heiß wirken; wer weiß nicht, dass –10° bei klarem, sonnigem, windstillem Wetter sehr viel wärmer wirken als 0° bei feuchten, windigen Bedingungen? Unsere Welt ist voll von Aussagen, die Messbarkeit vortäuschen: »Der letzte Winter war der längste in Österreichs Geschichte. Es hat noch am 17. Mai geschneit.« Gehört der Großglockner nicht zu Österreich? Dort schneit es regelmäßig im Hochsommer! Die Aussage basiert also auf völlig willkürlichen Annahmen. »Diese Höhle ist die größte der Welt.« Was soll das heißen? Hat sie das größte Raumvolumen? Ist sie die längste der Welt? Vom Eingang weg gemessen, oder die längste, wenn man den Umfang misst …, wo, in welcher Höhe und wie geht das, wenn es verschiedene Niveaus gibt? Ist sie die höchste Höhle der Welt? (Und was heißt das? Misst man vom tiefsten Punkt zum höchsten Punkt, oder den längsten Weg, den zum Beispiel ein Stein fallen kann? Oder misst man die Durchschnittshöhe und wie ist das eigentlich definiert?) Usw.

Besonders bedenklich wird das Messen in einer ‚Wissensgesellschaft’, in der wir mit Systemen wie Hyperwave (www.hyperwave.de) zwar immer bessere Werkzeuge zur Erfassung, Verwaltung und Weitergabe von Wissen haben, wo aber Schlagworte wie »Wissensbilanz« suggeriert, dass Wissen beliebig messbar und vergleichbar ist.

Es muss uns allen deutlicher bewusst werden, dass viel weniger in Zahlen messbar und damit vergleichbar ist, als uns unbewusst immer vorgegaukelt wird. Die Naturwissenschaften, Technik und Statistiken unterziehen uns andauernd einer Gehirnwäsche, die unser Leben oberflächlich vereinfacht, aber Beziehungen gefährlich verfälscht. Wehren wir uns also gegen diese »Tyrannei des Messens«.


Anmerkung von Peter Lechner:

Alte Weisheit sogar in der exakten Disziplin Physik: »Wer misst misst Mist«



2.8 Hörbrille und Ohrenlid


Viele Menschen haben in der Jugend eine Mittelohrentzündung. Wenn diese heftig und eitrig verläuft, kommt es Jahrzehnte später häufig zu einer zunehmenden »Mittelohrschwerhörigkeit«. Bei dieser funktionieren das Innenohr und alle »dahinter liegenden« geräuschverarbeitenden Mechanismen normal, aber die Tonweiterleitung vom Trommelfell über die Gehörknöchelchen (»Hammer, Amboss und Steigbügel« – wer erinnert sich nicht an sie aus dem Schulunterricht?) ist weitgehend unterbrochen, die Knöchelchen sind nicht mehr beweglich genug. Früher gab es nur zwei Alternativen: Die Schwerhörigkeit zu akzeptieren oder durch einen recht diffizilen operativen Eingriff zu versuchen, die Beweglichkeit der Mittelohrknöchelchen wiederherzustellen. Heute gibt es, für leicht- bis mittelschwere Fälle, eine weitere Lösung: die Hörbrille. Diese sieht aus wie eine normale Brille, nur sind die Bügel etwas klobiger, weil sie einen Tonverstärker enthalten. Jedes bei der Brille ankommende Geräusch wird verstärkt und wird durch den hinterm Ohr relativ streng am Kopf anliegenden Bügel direkt auf den Kopfknochen übertragen und erreicht so unter Umgehung des Mittelohrs das Innenohr.

Hörbrillen erlauben ein weitgehend unbehindertes normales Leben ohne operativen Eingriff, haben freilich auch einige Nachteile: Das Richtungshören ist beeinträchtigt, Telefonieren ist erschwert, man ist gegen Nebengeräusche recht empfindlich und alle heutigen Modelle sind sehr nässeanfällig. Kommt man zum Beispiel beim Squashspielen ins Schwitzen, kann es schon passieren, dass sie ein paar Stunden ausfallen, ganz zu schweigen davon, dass sie beim Schwimmen oder im Dampfbad einfach nicht verwendet werden dürfen.

Faszinierend ist aber die Tatsache, dass sie nicht nur ein Hördefizit kompensieren, sondern in einigen Situationen den Benutzer besser stellen als den Normalmenschen! Durch die Lautstärkeregelung kann der Hörbehinderte fallweise besser hören als jemand mit Normalgehör und durch Abschalten oder Abnehmen der Brille kann der Hörbehinderte lästige Außengeräusche einfach abschalten. In einer Zeit, wo man in ungünstig gelegenen Zimmern wegen des Geräuschpegels kaum schlafen kann, kommt dies manchmal mehr als gelegen!

Hörbehinderte mit einer Hörbrille verfügen sozusagen über ein »Ohrenlid«. Sie können die Ohren vor unwillkommenen Geräuschen schützen, wie die Augenlider dies bei unseren Augen tun.

Die Natur hat uns mit Augenlidern ausgestattet, damit wir (besser) schlafen können. Der Luxus von Ohrenlidern hätte aber die Überlebenschancen der Urmenschen zu sehr reduziert; auch im Schlaf musste eine sich nähernde Gefahrenquelle zumindest noch gehört werden!

Heute wünschen wir uns hingegen manchmal ein Ohrenlid (manche stopfen sich ja schon Watte oder »Oropax« in die Ohren, wenn sie Ruhe haben wollen!). Wer hat sich nicht schon beim Schlafen, beim Lesen eines Buches in einem Zugabteil, am Strand durch das überlaute Radio des Nachbarn usw. gestört gefühlt?

Wenn Hörbrillen weiter perfektioniert werden, sodass die oben angeführten Nachteile verschwinden, die Brille sogar noch die Funktion eines Radioempfängers und Telefonhörers mit übernimmt, könnte es geschehen, dass in Zukunft die Mittelohrfunktion bewusst stillgelegt wird, damit man in dieser Lärm geplagten Zeit in den Genuss eines perfekten Ohrenlids samt Hörzusatzfunktionen kommen kann.



2.9 Der 3-D-Kopierer


Die Qualität der Kopiergeräte ist so gestiegen, dass bekanntlich einige der neueren Farbkopierer bereits Versionen aller gängigen Geldscheine eingespeichert haben und sich weigern, einen Geldschein als Vorlage zu akzeptieren. Tatsächlich sind nämlich die Kopien so echt, dass sie das Geldfälschen sehr nahe legen! Dass die eingebauten Sicherheitsmaßnahmen von technisch versierten Personen umgangen werden können, liegt auf der Hand. Ein Schutz vor Geldfälschung durch Kopieren ist also nur durch Verwendung von Spezialpapier zu erzielen.

Wann kommt der nächste »offensichtliche« Schritt? Geräte, die dreidimensionale Gegenstände kopieren können? Die Vorstellung, dass man mit so einem Gerät ein Wienerschnitzel genauso wie ein Fahrrad kopieren könnte, klingt verlockend und ist »offensichtlich« reine Utopie. Nun, nicht ganz: Tatsächlich gibt es heute bereits Geräte, die ein beliebiges 3-D-Objekt (eine Schale, eine Vase, einen Aschenbecher) abtasten, ein so genanntes »3-D-Modell« (im Computer) erstellen und nun mit einem speziellen Gerät genau dieses Modell aus einem speziellen Plastikmaterial nachbilden. (Das Verfahren verläuft so, dass in einem Behälter mit einer flüssigen Lösung diese an den richtigen Stellen durch Erhitzen solidifiziert wird!) Mit anderen Worten, die schöne Glasvase kann gestaltgetreu als Plastikvase mit solchen Geräten »kopiert« werden; und natürlich sind von einer Vorlage beliebig viele Kopien herstellbar. Mit besser werdender Technologie ist vorherzusehen, dass solche Geräte billiger werden, gewisse Härteeigenschaften des Originals »eingestellt« (oder gar automatisch festgestellt) werden können und dass auch Oberflächen-Beschaffenheiten (Farbe, Reflexion, Durchsichtigkeit) beim Kopieren berücksichtigt werden können. Damit wird das Kopieren von vielen Gebrauchsgegenständen wie Essgeschirr, Besteck, Vasen, Statuen, Möbeln, Legosteinchen usw. in guter Qualität verwirklichbar.

Tatsächlich gibt es inzwischen neben 3D Kopierern auf der Basis der beschriebenen ‚Stereolithographie’ hochintelligente Fräsmaschinen, die 3D Kopiereren so nahe kommen, dass der berühmte Zukunftsforscher und Physiker Ray Kurzweil schon vom Zeitalter der ‚Personal Fabricators’, der PFs neben den PCs spricht, siehe Beitrag 11.3, These 21.

Ob man aber je zum Beispiel ein Fahrrad wird ganz kopieren können? Bewegliche Teile oder Teile aus Spezialmaterial (Reifen) machen hier sicher große Schwierigkeiten. Aber wer weiß: Vielleicht ist nicht das Fahrrad an sich, sondern sind viele seiner Einzelteile kopierbar!

Das kopierte Wienerschnitzel mit Salat wird zwar vielleicht schon bald relativ echt aussehen (und solche Nachbildungen werden, wie in Japan ja schon üblich, vielleicht anstelle von Speisekarten verwendbar sein), aber darauf warten, bis man es auch essen kann, werden wir (leider?) noch ziemlich lange müssen!