Planung des Unplanbaren

Zentralismus in der Pandemie ist Ausdruck einer Kompetenzillusion. Stattdessen muss ganz Deutschland ein lernendes System werden, das aus konkurrierenden und kommunizierenden Untersystemen besteht. Das wird nur mit künstlicher Intelligenz zu schaffen sein.

Ist der sich permanent verlängernde Lockdown Ausdruck einer souveränen Strategie oder eher Zeichen ängstlicher Ahnungslosigkeit? Vermutlich Letzteres. Unsere “Strategie“ erinnert an das einsilbige Mantra alter Hausärzte, die bei jedem Krankheitsbild, das sie nicht recht einzuordnen wussten, Bettruhe empfahlen. Nur kommt man mit einem so dürftigen Vademecum ernsten Leiden nicht bei. In vergleichbarer Weise wird uns die momentane Angststarre und das Perpetuieren des Immergleichen wenig helfen, das Problem der grassierenden Pandemie in den Griff zu bekommen. Natürlich kann man mit einem konsequenten Lockdown die “Pandemie besiegen“. Aber der Preis ist hoch. Nach dem Wügegriff liegen zumindest Teile der Wirtschaft in Scherben. Operation gelungen, Patient tot. 

Der Ansatz ist zu eindimensional. Er kommt maßgeblich dadurch zustande, dass sich Politik und Verwaltung mental eingeigelt haben und wenig Bereitschaft zeigen, zu lernen. Es gibt kein systematisches, von höchster Stelle geleitetes Erkenntnisinteresse, das die zentralen Probleme in den Fokus nimmt. Statt eine belebende Dynamik zu entwickeln, dominiert die Statik. Über 12 Monate sind seit Ausbruch der Epidemie vergangen. Trotzdem weiß man immer noch nicht genau, wo sich die Menschen wirklich anstecken! Welche Tätigkeiten außer Singen, Jodeln und Brüllen sind gefährlich und wo kann man Leine lassen, um die Wirtschaft nicht zu ruinieren? 

Die Gründe für die intellektuelle Bewegungslosigkeit sind vielfältig. An erster Stelle steht ein gravierender Systemfehler: Die Entscheidungsträger, denen die Bürger ein Mandat gegeben haben, damit diese auch in schwierigen Zeiten in ihrem Sinne entscheiden, sind von den Auswirkungen der gegenwärtigen Krise nicht betroffen. Egal wie viele Selbstständige, Künstler, Theatermacher oder Veranstaltungstechniker in existenzielle Schwierigkeiten geraten, Politiker und Verwaltungsbeamte bekommen 100% ihres Gehalts überwiesen. Unter diesen kommoden Umständen gibt keinen Handlungsdruck, was die eigenen Interessen angeht. Es gibt kein “Skin in the Game“. Das ist eine beunruhigende Situation, bei der die Alarmglocken schrillen müssen. Gemäß der Überzeugung des Statistikers Nassim Nicholas Taleb sollte man sich niemals von den Führungsqualitäten einer Elite abhängig machen, die nicht persönlich die Risiken ihrer Entscheidungen mitträgt. Um diesen systemimmanenten Fehler zu beseitigen, böte es sich an, Neuseeland zum Vorbild nehmen: „Wenn es jemals eine Zeit gegeben hat, die Lücke zwischen verschiedenen Gruppen zu schließen, dann jetzt“. 

Dieses Zitat stammt aus dem Mund von Jacinda Ardern, Neuseelands Regierungschefin. Sie verzichtete in der Coronaepedemie erstmal für sechs Monate auf 20% ihres Gehalts! Was spräche dagegen, von unseren Volksvertretern einen vergleichbaren Tribut zu verlangen? Nur dann entstünde eine glaubwürdige Form der Solidarität. “We are all sitting in one boat“ wie Günther Oettinger so schön kalauerte. Stattdessen kultivieren wir eine Zweiklassengesellschaft. Auf der einen Seite das Risikoprekariat, dass von der Epidemie durchgeschüttelt wird, während Privilegierte die Krise nur merken, weil man seinen Kaffee auf der Straße im Stehen trinken muss.

Unabhängig von dieser Ungerechtigkeit müssen unsere Behörden eine andere Dynamik entfalten. Jeder Betrieb lernt, bei Nachfrageschwankungen seine Produktion den aktuellen Gegebenheiten anzupassen. Bei Bedarf wird mehr gearbeitet oder auch weniger. Doch dieses Gesetz gilt nur für den freien Markt. In Deutschland gab es im Katastrophenfall wochenlang(!) zwischen Weihnachten und  Neujahr keine validen Infektionszahlen. Die Büros waren verwaist. Dienst nach Vorschrift. Die Verantwortlichen saßen beim Festschmauß und begrüßten das neue Jahr. Krisenmanagement sieht anders aus. Und Besserung ist nicht in Sicht. Gerade im Moment stellen wir fest, dass es zu wenig Spritzen gibt, um die Vakzine zu verimpfen. Quizfrage: Wie lange wissen wir, dass Impfstoffe hergestellt werden, für die man Spritzen braucht, um sie zu verabreichen?Tatsächlich reimt sich das Verb “verwalten“ nur zufällig auf “gestalten“. Gestaltung aber täte Not. Wir sind schließlich mit einem Komplexitätsmonster konfrontiert, das nicht dadurch verschwindet, dass man die Bürotür hinter sich abschließt. Wollen wir die Krise überstehen, sind wir gezwungen die Komfortzone zu verlassen, um zu lernen. Doch wie soll das gehen?

Es ist entscheidend, Deutschland nicht als monolithischen Block zu betrachten, der zentralistisch regiert wird. Wir brauchen autonome Untersysteme, die konkurrierend und kommunizierend miteinander in Beziehung treten. Wir besitzen in Deutschland 294 Landkreise und 107 kreisfreie Städte. In der Summe also etwa 400 Untersysteme. Diese müssen als Laboratorien aufgefasst werden, die sich mit verschiedenen Strategien an der Wirklichkeit versuchen und durch die verbreiteten Kennzahlen der 7-Tage-Inzidenz und/oder des R-Wertes ein selektierendes Feedback erhalten. Tatsächlich gibt es bereits positive Entwicklungen. Trotz der verbreiteten zentralistischen Tendenz beginnen einige Landkreise und Städte eigenständig und kreativ neue Wege zu beschreiten. Vorreiter der Unangepassten war die Stadt Jena, die als erste eine Maskenpflicht einführte, als die meisten “Spezialisten“ noch der Überzeugung waren, dass sie unnütz ist.  An vorderster Front Weltärztepräsident Frank Ulrich  Montgomery, der als ausgebildeter Radiologe nicht zwingend Experte für epidemiologische Fragestellungen ist. Im Augenblick kreiert Tübingen mit seinem Oberbürgermeister Boris Palmer und der Notärztin Lisa Federle innovative und erfolgreiche Teststrategien. Genauso machen es die Apotheker der Stadt Böblingen, die nicht warten wollen, bis die Verwaltungsbeamten in die Hufe kommen. 

Trotzdem gibt es auch in diesem Zusammenhang einen Systemfehler. Die Wendigen und Einfallsreichen profitieren nur in Maßen von ihrem Einfallsreichtum und ihrer Tatkraft. Der Lockdown gilt für sie mit der gleichen Härte wie in den Landkreisen, die leichtfertig Querdenker-Demonstrationen mit 10 000 Teilnehmern gestatteten und nun unter hohen Infektionsraten leiden. Wenn aber alle, egal was sie tun, über denselben Kamm geschoren werden, kann kein Wettbewerb der Ideen entstehen! Stattdessen wäre zu fordern, dass kreatives und erfolgreiches Handeln belohnt wird. Sind die Infektionszahlen aber alarmierend, bleibt die Belohnung aus. Da, wo die Inzidenzen niedrig sind, wird also kontrolliert gelockert. Dort wo sie hoch sind, nicht. Damit das nicht zu einem unkalkulierbaren Vabanquespiel gerät, braucht es ein durchdachtes Informationsmanagement. Alle Schritte sind sorgfältig zu dokumentieren und zu kommunizieren. Diese Daten müssen permanent gesammelt und ausgewertet werden. Das geht nur mit intelligenter und potenter Datenverarbeitung! Dem Robert-Koch-Institut, der Referenzbehörde, käme in diesem Zusammenhang eine neue Aufgabe zu. Ihre Aufgabe wäre es, eine digitale Task-Force aufzubauen, die die Daten kategorisiert und zueinander in Beziehung setzt, um schlussendlich Korrelationen zu ermitteln. Diese würden es erlauben, über mögliche Ursachen eines sich verändernden Infektionsgeschehens zu spekulieren. Korrelationen in großen Datenwolken zu finden, ist die Paradedisziplinen potenter Big-Data-Algorithmen, die allerdings an das Problemfeld der Corona-Epidemie angepasst werden müssten.

Tatsächlich kommt KI  in der Corona-Epidemie bereits in verschiedenen Zusammenhängen zum Einsatz. Allerdings nicht dort, wo sie helfen könnte, über Sinn oder Unsinn von Lockdown-Maßnahmen zu urteilen. Wo wird KI bisher eingesetzt? Die chinesische Firma Alibaba hat einen Deep-Learning-Algorithmus entwickelt, der in wenigen Sekunden anhand einer Computertomographie erkennt, ob die Lunge eines Patienten vom Corona-Virus befallen ist oder nicht. In internationaler Zusammenarbeit prüfen amerikanische, europäische und chinesische Forscher in welcher Weise bekannte Wirkstoffe und Antikörper auf den Coronavirus wirken. Dazu verwenden sie Summit und Sierra, die potentesten Supercomputer der Welt. Sie erreichen gemeinsam über 300 Billiarden Rechenoperationen pro Sekunde. Doch das ist nicht das Ende der Fahnenstange. Das  sogenannte “Folding@home“-Projekt der Stanford University stellt, was Rechenkraft angeht, alles in den Schatten. Um Wissenschaftler im Kampf gegen das Corona-Virus zu unterstützen, kann jeder Nutzer Rechenleistung seines eigenen Computers zur Verfügung stellen (Volunteer-Computing). Schon im Mai 2020 hatten die weltweit vernetzten Computer mehr Rechenkraft als alle 500 Supercomputer der Welt zusammen. Mit dieser geballten Power untersuchen die Forscher normalerweise wie sich Proteine in Abhängigkeit von ihren Aminosäuresequenzen falten – ein hochkomplexes Problem. Im Fall von Corona werden Schlüsselkomponenten des Virus geprüft, um Strategien zu entwerfen, mit denen sich die Verbreitung des Virus unterbinden lässt. Es gibt viele weitere Beispiele aber leider eben keine konkrete Anwendung, in welcher in einer föderalen politischen Struktur konkurrierende Untersysteme betrachtet werden, um letztlich das Gesamtsystem zu optimieren. In einem solchen Szenario müssten zu Beginn in den Untersystemen zwangsläufig mit einer gewissen Willkür behaftete Öffnungs- und Schließungsregeln erlassen werden. Diese würden in einem zweiten Schritt durch eine Feedbackschleife einem harten Selektionskriterium ausgesetzt. In diesem spiegelt die zeitversetzte, gewertete Entwicklung des Infektionsgeschehens, das entweder Anlass zur Hoffnung gibt oder nicht. Auf diese Weise wird ein evolutionärer Lernprozess in Gang gesetzt, der in kleinen Schritten dafür sorgt, dass sich die Gesamtsituation verbessert. Damit ist zu rechnen, da die 400 autonom agierenden Untersysteme nicht nur ein Feedback bekommen, was ihre Verordnungen angeht. Da das System transparent ist und die ausgewerteten Daten allen zur Verfügung stehen, gibt es die Möglichkeit sich zu orientieren und Handlungsoptionen zu optimieren. Das Ziel ergibt sich in diesem Kontext zwangsläufig: Die Behörden der Landkreise wollen vermeiden, sich durch unbedachte Verordnungen in einen starken Lockdown zu manövrieren, während in den Nachbarkreisen, die es besser machen, Geschäfte und Restaurants wieder offen sind. Das würde bei den Wählern dieser Kreise zu großem Unmut führen. Dadurch entsteht ein positiver Handlungsdruck auf die Entscheider. Unterm Strich geht es darum, einen Plan für eine im Kern unplanbare Gesamtsituation zu entwerfen. Die Planung des Unplanbaren – das klingt wie ein Widerspruch in sich. Doch in der evolutionären Entwicklung sind optimierende Try-and-Error-Verfahren mit regulierenden Feedback-Schleifen gang und gäbe. Sie bilden geradezu den Kern der Evolutionstheorie. In einem kulturellen Kontext darf es aber nicht um Leben und Tod gehen. Negative Entwicklungen müssen frühzeitig gedämpft, positive unterstützt werden. Dazu müssen die relevanten Informationen mit großer Sorgfalt gesammelt werden. Öffnet zum Beispiel Landkreis A die Schulen, dann ist festzuhalten, wie viele Kinder in einem Raum sitzen, wie oft gelüftet wird, ob sie Masken tragen, wie viele Stunden sie gemeinsam in der Klasse verbringen, wie viele von ihnen mit öffentlichen Verkehrsmitteln zur Schule kommen usw. Eine solche feinmaschige Datenerhebung muss für alle Bereiche geleistet werden. Nur vor diesem Hintergrund würden die ermittelten Korrelationen einen Erkenntniswert besitzen und letztlich zu einem Lernprozess führen würden, der der apathischen Starre, in der wir uns befinden, vorzuziehen wäre. Ob dieses komplexe Szenario in einem Land, in dem Gesundheitsämter Daten noch per Fax verschicken, umzusetzen ist, bleibt abzuwarten. Aber jeder lange Weg beginnt mit einem ersten Schritt.

Darwincode

Es ist gefährlich, einem Plan zu folgen, wenn es keinen Plan gibt. In solchen Fällen ist es besser, sich die Natur zum Vorbild zu nehmen

Die Coronaepidemie ist bekannt und fremd zu gleich. Epidemien gibt es seit Menschengedenken, wobei gerade die der jüngeren Zeit sorgfältig untersucht wurden. Man bemüht sich aus deren Dynamik für die Zukunft zu lernen. Das gilt für SARS, MERS und Ebola genauso wie für die Vogel- und Schweinegrippe.
Fremd ist das momentane Szenario, weil jede Epidemie ihr eigenes, unverwechselbares Gesicht hat. Das macht Corona unheimlich.
In diesem Zusammenhang kann man an den chinesischen Strategen Sun Tsu denken. Dieser schrieb schon vor zweieinhalbtausend Jahren: “Wenn Du Deinen Feind kennst und Dich selbst, brauchst Du das Ergebnis von 100 Schlachten nicht zu fürchten.“ Dieses Zitat aus dem Buch “Die Kunst des Krieges“ lässt sich auch im Umkehrschluss lesen und damit auf die momentane Situation übertragen. Kennst Du weder Dich, noch die Gefahr, ist das beängstigend.
Obwohl in einem weltumspannenden Kraftakt die Erbsubstanz des Virus in kürzester Zeit sequenziert worden ist und bereits nach Wochen erste Nachweisverfahren zur Verfügung standen, gibt es nach wie vor viele Bereiche, in denen wir auf Mutmaßungen angewiesen sind: Es lässt sich schlecht abschätzen, wieviele Menschen tatsächlich in den verschiedenen Ländern infiziert sind. Es wird diskutiert, ob Genesene völlig immunisiert sind. Es ist nicht klar, warum mehr Männer sterben als Frauen. Und es gibt bis dato nur begründete Vermutungen über Inkubationszeiten.

Außerdem weiß man nicht genau, welche Symptome für die Krankheit wirklich charakteristisch sind.
Neben offenen Fragen, die die Krankheit betreffen, lässt sich nur grob abschätzen, wie wir als Bevölkerung mit den Belastungen der Quarantäne umgehen werden. Zuletzt ist die Frage, wie lange wir den Shutdown aushalten können, ohne die Wirtschaft nachhaltig zu schädigen, offen. Das ist in der Summe verstörend. Für ein solches Geschehen gibt es kein vorher geschriebenes Drehbuch.

Deshalb stellt sich in diesem Zusammenhang eine paradox wirkende Schlüsselfrage: Wie soll man in einer so unübersichtlich erscheinenden Situation rational handeln, wenn viele Daten, die die Grundlage rationaler Entschlüsse sein könnten, fehlen? An dieser Stelle ist es zuerst geboten, zwischen Wissen und Unwissen zu unterscheiden. Auf der Habenseite stehen die Erfahrungen, die wir mit Epidemien gemacht haben. Aus diesen Erfahrungen resultieren die Pandemiepläne, die lange in den Schubladen schlummerten. Wir wissen aufgrund epidemiologischer Expertise, dass die verschiedensten Kontaktsperren und Quarantänemaßnahmen wirken, wenn sie konsequent gehandhabt werden.

Wir wissen allerdings nicht, welche Folgen sozialer und wirtschaftlicher Art diese Maßnahmen haben werden. Für diese Frage gibt es kein valides mathematisches Modell. Das Problem ist hyperkomplex. Weder weiß man, welche Variablen hinreichend und notwendig sind, um die augenblickliche Situation zu beschreiben. Und noch weniger lässt sich angeben, welche Werte die Variablen haben müssten, damit wir so an den Stellschrauben drehen könnten, dass sich das System in unserem Sinne stabilisiert.

In solchen Fällen muss man sich von herkömmlichen Strategien der Planbarkeit verabschieden. Es bleibt einem nur noch die Möglichkeit, mit einem der Evolution entlehnten Prinzip zu arbeiten. Um dieses Prinzip zu verdeutlichen, wechseln wir den

Blickwinkel und fassen exemplarisch die ungewöhnliche Unternehmenstrategie von Götz Werner ins Auge. Herr Werner ist der Gründervater der Drogeriemarktkette dm. Werner – ein Querdenker – hat konsequent mit einem zentralen Managementdogma gebrochen. Nachdem seine Firma stürmisch gewachsen war und aus zigtausend Filialen bestand, erkannte Werner, dass es keinen Sinn mehr machte, diese Filialen zentral vom Unternehmenssitz in Karlsruhe zu steuern. Das Steuerungsproblem war zu komplex geworden und er wollte sich keiner gefährlichen Kontrollillusion hingeben. Deshalb entließ er seine Filialleiter in die Selbstverantwortung. Da die besonderen Begebenheiten vor Ort überall unterschiedlich waren, sollten sie selbst herausfinden, welche Strategie die beste ist. Anfangs sträubten sich die Führungskräfte vor soviel Selbstverantwortung. Mittlerweile ist das Prinzip etabliert. Diese Vorgehensweise erinnert an die Evolution, weil sich die verschiedenen Filialen an spezifische marktwirtschaftliche Nischen anpassen. Eine Adaptionsleistung, die mit zentraler Steuerung nicht zu leisten ist.

Übertragen auf die Coronakrise können wir es als großen Vorteil ansehen, dass wir 16 verschiedene Bundesländer haben, die mit graduell unterschiedlichen Strategien an das Problem herangehen. Das ist aber nur dann ein Vorteil, wenn die Länder nicht in Konkurrenz sondern in Kooperation arbeiten! In diesem Sinne geht es nicht darum, ob Markus Söder oder Armin Laschet mit ihren Vorgehensweisen Recht haben. Die Epidemie ist nicht die geeignete Bühne, um einen Hahnenkampf zu inszenieren. Es geht vielmehr darum, Ergebnisse zu vergleichen und zu den spezifischen Entstehungsbedingungen in Beziehung zu setzen. Damit dieser wechselseitige Lernprozess funktionieren kann, ist es aber notwendig, dass die Daten schnellstmöglich in vergleichbarer Weise dokumentiert werden, um sie allen Beteiligten zugänglich zu machen. Man hat allerdings den Eindruck, dass gerade bei der Erhebung und Darstellung der Daten einiges nicht so rund läuft, wie es laufen sollte.

Unabhängig von der Forderung bei der Erhebung und Darstellung von Daten einen vergleichbaren Standard zu setzen, wäre es lohnend, wenn sich die Politik an methodisch sorgfältig ausgeführter Wissenschaft orientieren würde. Es ist gängige Praxis,in einem Experimentalszenario möglichst wenige Größen zu variieren, während man die anderen konstant hält. Nur so lässt sich feststellen, wie das System auf Änderungen reagiert. Übertragen auf die momentane Situation würde das bedeuten, dass man ausgehend von den momentan geltenden Quarantänemaßnahmen, zum Beispiel das Wirtschaftsgeschehen erst in wohldefinierten Bereichen wieder aktiviert und dabei die Verdopplungszeiten genau im Blick behält. Auf diese Weise kann man bei Bedarf gegensteuern oder aber auch mehr Leine zu geben.

Wenn die verschiedenen Bundesländer diese Strategie verwirklichen würden, wobei sie eben nicht gleichgeschaltet vorgehen dürfen, wäre es die Aufgabe der Bundesregierung und ihrer beratenden Institute diese Daten zu sammeln, auszuwerten, zu interpretieren und in konkrete Handlungsempfehlungen umzusetzen. Das wäre eine Form systemischen Lernens. Das ist allerdings ein anderer Ansatz als der, welcher gerade zur Diskussion steht. Für die augenblickliche Situation gibt es keinen Masterplan. Zentralistische Anweisungen zu geben und dabei zu suggerieren einen Plan zu haben, obwohl es keinen Plan gibt, könnte deshalb ein Fehler sein. Man denke an einen Strategen, der unbekanntes Terrain erkunden lassen möchte und dazu 16 Späher zur Verfügung hat. Macht es Sinn, diese alle auf demselben Weg ins Feld zu schicken? Oder ist es besser, die Kundschafter auf 16 verschiedenen Wegen loszuschicken und nur sicherzustellen, dass sie Leib und Leben behalten, damit sie in der Lage sind später ihre Erfahrungen auszutauschen? Genauso machen es übrigens die Bienen, die auf verschiedensten Wegen nach Futter suchen, um dann den anderen von ihrem Erfolg zu “erzählen“. Es ist allerdings entscheidend, dass sie bei ihren Exkursionen am Leben bleiben. Das ist die Forderung, die an alle gemeinsam zu stellen ist.

Unterm Strich haben wir wohl keine andere Wahl, als mit kollektiven Tasten – einer vernunftgeleiteten Trial-and-Error-Strategie – einen gemeinsamen Lernprozess in Gang zu setzen, mit dessen Hilfe wir die Grenzen des Möglichen ausloten können, um auf diese Weise aus der Krise zu kommen.

Marco Wehr ist Physiker und Wissenschaftstheoretiker. Er hat lange zur Chaostheorie und Komplexität gearbeitet

Gefährliche Grünfühler

Es ist das Verdienst der ökologischen Bewegung, den Umweltgedanken in unseren Köpfen verankert zu haben. Es ist das Drama der ökologischen Bewegung, dass sie just diesen Gedanken zu Grabe trägt. Eine Polemik.

Als der Medizinprofessor Martin Bleif mit seiner kleinen Tochter auf dem Motorroller durch den Tübinger Fußgängertunnel fuhr, spuckte ihm ein Fahrradfahrer, der sich im Besitz der rechten Gesinnung wähnte, wütend ins Gesicht. Tatsächlich hatte sich der Arzt auch wissenden Auges über ein Verbot hinweggesetzt. Es war eine der ersten Amtshandlungen von Oberbürgermeister Palmer, vor dem Tunnel ein Verbotsschild zu befestigen, welches das bis dato funktionierende Miteinander von Fußgängern, Rad- und Mopedfahrern beendete. Letztere wurden als Stinker gebrandmarkt und verbannt. Vordergründig ging es um Ökologie. Doch das glaubte Bleif nicht. Er berechnete, dass ein Fußgänger, der lässig mit einer Zigarette in der Hand durch den Tunnel schlendert, die Luft stärker verpestet als ein Junge auf seinem Töfftöff. Ganz zu schweigen von der Tatsache, dass seit dem Verbot die Mopedfahrer kilometerlange Umwege fahren müssen und ihre Abgase vermehrt woanders in die Luft blasen. 

Man muss also die Frage stellen, wie eine solche Respektlosigkeit zu “begründen“ ist. Gibt es neben dem ökologischen (Schein)argument noch andere? Der Lärm kann es nicht sein. Grölende Passanten und ewig dudelnde Straßenmusiker sind im Tunnel häufig anzutreffen. Auch die Geschwindigkeit scheidet aus, da geübte Kampfradler ein Mofa lässig überholen. 

Damit sind wir beim zentralen Punkt: der rechten grünen Gesinnung. Das ist eine durch nichts zu erschütternden Einbildung, auf der richtigen Seite zu stehen, auch wenn die Fakten etwas anderes nahelegen. Menschen dieses Schlages kann man als Grünfühler bezeichnen. Sie wähnen sich grün, obwohl ihr Verhalten oft genug das Gegenteil von dem bewirkt, was sie zu bewirken vorgeben. Dabei paart sich die Blindheit für die Faktenlage mit einer verstörenden Selbstgefälligkeit. Sie erhebt den Grünfühler in den Rang zu loben, zu tadeln oder – wie das spuckende Lama im Tunnel – zu strafen. Zu allem Überfluss kommt zu diesen Charaktereigenschaften noch eine gewisse Doppelbödigkeit dazu. Bei sich selbst drückt man die Augen zu, die Knute ist für die anderen reserviert.

Denn: Welches Auto ist symbolisch für Tübingen? Der wendige Elektro-Smart? Nein. Hier pilotiert man gerne einen VW-Bus mit dem CW-Wert eines Panzers. Ökologische Signalwirkung hat dann aber der große Fahrradhalter am Heck. Und was sind des Tübingers liebste Reiseziele? Das Allgäu oder die Moselschleife? Weit gefehlt. Gemäß einer Silvesterumfrage des Tagblatts präferiert man hier ferne Wüsten oder tropische Atolle. Alles Orte, die sich bequem mit dem Liegefahrrad ansteuern lassen. 

Maßnahmen, deren ökologischen Sinn man diskutieren muss, sind auch im öffentlichen Raum endemisch. Das fängt bei der Sperrung der Mühlstraße an. Es macht ja Sinn, 70 m in der Innenstadt zu schützen, um 7000 m Umgehungsstraßen zu belasten. Egal: Auf diesen Straßen bewegt man sich ökologisch korrekt. Sie gleichen einem Verkehrskindergarten: Überall blinken Smileys, um dem Autofahrer ein emotionales Feedback zu geben. Da wühlt man gerne im Getriebe und röhrt im zweiten Gang mit 30 durch die Straßen. Zur Belohnung gibt es ein grünes Lächeln. Nur die Unbelehrbaren werden kalt vom Blitz erwischt. Noch das kleinste Kaff nennt ein Arsenal von Blitzsäulen sein eigen, und die Dorfvorsteher wetteifern untereinander mit Anzahl und Größe, so wie es früher die Adelsgeschlechter der Toskana mit ihren Türmen machten. Das Problem? Trinken Sie in der Nachmittagssonne einen Most im Schwärzloch und bewundern Sie die Unterjesinger Schlange! Seit der Temporegulierung im Dorf gibt es einen kilometerlangen Rückstau bis nach Tübingen.

Aber der ist ökologisch korrekt. Die verqualmte Luft bleibt zwischen Tübingen und Unterjesingen gefangen und wird es nicht wagen, die Stadtgrenzen zu überschreiten. Das ist auch besser so, denn große Bäume, die helfen könnten, die Luft reinzuhalten, werden zumindest in Tübingen konsequent gefällt. Aber das sind Kleinigkeiten. 

Eine ökologische Lichtgestalt wie Boris Palmer agiert in anderen Dimensionen. Große Teile der pittoresken Tübinger Altstadts mit schnöden Wärmedämmplatten kondomisieren? Kein Problem! Für Palmer wäre es auch denkbar, Windräder so hoch wie der Kölner Dom in der Nachbarschaft der idyllischen Wurmlinger Kapelle zu platzieren. Als Mann der Tat muss man Zeichen setzen und darf sich nicht durch Gefühligkeit verunsichern lassen. Was soll man dazu sagen? Bei Lichte besehen hat der Grünfühler die Einstellung des mittelalterlichen Flagellanten. Gerade der Schmerz, die nachhaltige Verschandelung von Städten und Landschaften, signalisiert, dass man es ernst meint und sich reuig einem höheren Ziele beugt. Was zählen da ästhetische Belanglosigkeiten?

Bleibt nur eine ketzerische Frage: Macht das alles ökologisch einen Sinn? Da sind Zweifel erlaubt. Autos, die hochtourig durch die Stadt kriechen, verbrauchen nicht zwangsläufig weniger Benzin, als solche, die ein bisschen schneller sind. Bei der Wärmedämmung eine Energieersparnis zu erzwingen und dabei Materialien zu verwenden, die als hochgiftiger Sondermüll deklariert werden, leuchtet auch nicht sofort ein. Zudem wäre wohl ein Brand in unserer Innenstadt ein rechtes Höllenfeuer. Die Dämmplatten, einmal in Flammen, lassen sich fast nicht mehr löschen. Und die hofierten Windräder? Sie sparen bis zum heutigen Tag kein CO2 ein. Die “gesparten“ Emissionen werden wegen des Europäischen-Emissions-Zertifikategesetz an anderer Stelle wieder in die Luft geblasen. 

Wie kommt es zu solchen Fehleinschätzungen? Es ist eben die verführerische Kraft des rechten Gefühls, die fast jeden Unsinn möglich macht. Nicht grün handeln ist das Gebot der Stunde, sondern sich für grün zu halten. Was ist schließlich erhebender, als der Glaube, die Welt zu retten? Das ist ein Gefühl von narkotisierender Kraft. Vor diesem Hintergrund sieht man sich aber mit einem verstörenden Paradoxon konfrontiert: Es ist das Verdienst der ökologischen Bewegung den Umweltgedanken in unseren Köpfen verankert zu haben. Es ist das Drama der ökologischen Bewegung, dass sie just diesen Gedanken zu Grabe trägt. Dabei machen die Grünfühler so viele Denkfehler, dass man nicht weiß, wo man anfangen soll. 

Ganz oben steht die Unfähigkeit, eine stringente ökologische Prioritätenliste anzulegen. Was ist primär auf der Agenda ökologischen Handels?! Die Vermeidung von CO2, das Aus der Atomkraft oder die Rettung von Fledermäusen, Zauneidechsen oder Juchtenkäfern? Wie ein kleines Kind möchte man eigentlich alles auf einmal haben. Doch leider sind etwa Arten- und Landschaftsschutz sowie der Ausbau regenerativer Energien nicht unabhängig voneinander zu verhandeln. Das eine geht auf Kosten des anderen. Entscheidungen ließen sich nur dann nachvollziehen, wenn begründet würde, weshalb das eine dringlicher ist als das andere. Aber bei den Grünfühlern ist irgendwie alles irgendwie wichtig. So lassen sich argumentative Eiertänze nicht vermeiden. Da wird wegen des Juchtenkäfers ein Milliardenprojekt wie Stuttgart 21 in Frage gestellt oder man angelt Zauneidechsen für 8600 Euro pro Tier mit Schlingen aus den Löchern. Doch dann einen Salto rückwärts! Eben waren die Tierchen noch im Fokus, jetzt herrscht Blindheit. Plötzlich sind es vertretbare Friktionsverluste, wenn Windräder Kulturlandschaften verschandeln,  Greifvögelpopulationen ausradieren oder die sonst hofierten Fledermäuse zu Hackfleisch verarbeiten. Und wenn man das unsägliche Ökobenzin E 10 wider jeder Vernunft puschen will, spielt Artenvielfalt auch keine Rolle mehr. Raps, Raps, Raps, wohin das Auge blickt.

Neben der Unfähigkeit Prioritäten zu setzen, neigt der Grünfühler zur Pusemuckel-Politik. Das großspurige “Global denken, lokal handeln“ ist ein müdes Lippenbekenntnis. Schon der Zusammenhang des Erneuerbare-Energien-Gesetz (EEG) mit dem Europäischen-Emissions-Zertifikategesetz ist dem Grünfühler schwer zu vermitteln. Es ist auch besser den Kopf in den Sand zu stecken: Die Reduktion von CO2 in der europäischen Union geht im Schneckentempo vorwärts, da sich die Gesetze gegenseitig aushebeln. Dabei ist zu wünschen, dass das Zertifikategesetz, das die Kreativität der Marktteilnehmer fördert, weiter ausgebaut wird, während das muffig-planwirtschaftliche EEG entschlackt werden muss. 

Aber selbst der Fokus auf Europa ist zu eng. Klimaschutzpolitik ist ein globales Problem und kann auch nur global gelöst werden. Dazu gehört die Einsicht, dass ein Markt nicht nur eine Nachfrage- sondern auch eine Angebotsseite hat. Dabei haben die Länder, die fossile Brennstoffe verkaufen, naturgemäß andere Interessen als die, die versuchen die Nachfrage nach diesen zu vermindern. Gelänge es uns in der EU durch ausgiebiges Fahrradfahren den Verbrauch fossiler Brennstoffe zu reduzieren, sänke die Nachfrage. Hört sich gut an! Leider beeinflusst das den Preis. Öl, Kohle und Gas würden billiger. Das freut alle Länder, die von dem Wohlstand träumen, den wir schon lange haben. Die schlagen bei der billigen Energie sofort zu. Verfeuert werden die Klimakiller dann woanders. Und so nimmt die Atmosphäre auch im beschaulichen Tübingen Schaden, selbst wenn der Schlot in Burkina Faso steht. Und genau auf diese Weise werden die fossilen Brennstoff unweigerlich solange verfeuert, bis sie zu Neige gehen. Das ist aber der schlimmste  Fall, den wir eigentlich vermeiden wollen. Gibt es Lösungen? Wenn man wüsste, wie die Luft zum Atmen, die von allen Menschen gemeinsam genutzt wird, mit einem Preis versehen werden könnte, den Verschmutzer rund um den Globus zu bezahlen hätten, wäre ein wichtiger Schritt getan. Eine kleine Chance gäbe es auch, wenn die Erzeugungskosten regenerativer Energien mit denen fossiler Energien konkurrieren könnten. Doch das ist ein ferner Traum. Leider sorgt gerade das patriarchalisch-besserwisserische EEG mit seinen tausend Sonderregelungen für das genaue Gegenteil. Da sich viele Windmüller und Sonnenkönige wegen der opulenten Einspeisegarantien lange Zeit die Wasserhähne vergolden konnten, war der Innovationsdruck, effizienter und klüger zu produzieren, in Deutschland nicht besonders ausgeprägt.

Zu guter Letzt weigert sich der Grünfühler beharrlich, Geld so einzusetzen, dass es der Umwelt optimal nutzt. Es wäre zum Beispiel ausgesprochen sinnvoll, die 500 Milliarden Euro, die die “Energiewende“ in etwa kostet, dort zu investieren, wo sie am effizientesten arbeiten würden. Alles andere ist ein Verrat an den ökologischen Notwendigkeiten. Dafür bräuchte man allerdings – siehe oben – eine klar definierte Prioritätenliste. Doch dieses Problem wird von den Grünen nicht einmal in Ansätzen diskutiert. Im Gegenteil: Die Paradoxphilosophie des Grünfühlers funktioniert exakt andersherum. Deshalb ist sie eine Gefahr für unsere Umwelt. Es gilt ja als Ausweis von Ernsthaftigkeit, das Geld mit beidem Händen zum Fenster rauszuschmeißen und sich um dessen ökologische Hebelwirkung nicht zu scheren. Man meint damit zu zeigen, dass einem für die Umwelt nichts zu teuer ist. Aus der verqueren Logik des Gefühls gedacht, ist das nachvollziehbar. Für unsere Umwelt ist eine solche “Denkweise“ ein Debakel. 

Da ökologische Verwirrtheit skaleninvariant ist und deshalb in vergleichbarer Form beim einzelnen Menschen, in Familien, Dörfern, Städten Ländern und Kontinenten zu finden ist, landen wir zu guter Letzt wieder in Tübingen, neben Freiburg der Welthauptstadt der Grünfühler. 500 000 Euro lässt man sich hier die Verrücktheit kosten, die Ammer auf ein paar Meter vor dem Technischen Rathaus einseitig(!) zu renaturieren. Und damit jeder das grüne Projekt bewundern darf, ist dort fast der gesamte alte Baumbestand abgeholzt worden. Eine paradoxe Meisterleistung und leider mehr als eine lokalpolitische Schrulle. Diese Denke hat Methode und zwar zu unserer aller Schaden. 

Grüne Trugblüten

“Ich war in meinem ganzen Leben an keinem Thema so sehr interessiert wie an diesem über Orchideen,“ schrieb Charles Darwin in einem Brief 1861. 

Tatsächlich sind diese Blumen nicht nur schön. Sie haben im Laufe der Evolution auch Strategien entwickelt, die an Raffinesse kaum zu übertreffen sind. Könnten uns diese Strategien aus dem Reich der Biologie helfen, ein Rätsel in der Politik zu beleuchten? Wie ist der Erfolg der Grünen zu erklären? Und warum leiden die früheren Platzhirsche CDU und SPD an einer rätselhaften Schwindsucht und sind nur noch ein Schatten ihrer selbst? Tatsächlich existieren Parallelen.

Der tropische Regenwald ist in seinem Herzen finster. Von den Kronen der Urwaldriesen beschattet kommt auf dem Boden fast kein Licht an. Wer von der Dunkelheit ins Helle will, muss sich mit brachialer Kraft nach oben kämpfen und selbst zum Giganten werden oder er braucht einen raffinierten “Plan“. Die Orchideen haben sich für das Raffinement entschlossen. Der Wind hebt die Samen der Orchideen in die Kronen der höchsten Bäume, wo sie auf den Ästen zu liegen kommen. Doch damit scheint ihr Schicksal besiegelt zu sein. Überall strecken Pilze ihre Tentakeln nach ihnen aus. Doch der Same der Orchidee ist ein Opfer, das dem Jäger auflauert! Nicht der Pilz frisst den Samen. Der Same zwingt den Pilz, sich seinem Regime zu beugen. Er muss der wachsenden Orchidee die Nährstoffe liefern, die sie selbst nicht zu schaffen in der Lage ist.

Nimmt man einen Szenenwechsel vor, dann profitieren auch die die Grünen von einem zwielichtigen Spieler im Hintergrund. Es gibt ein unsichtbares Band zwischen Ihnen und der AFD. Ohne die AFD sind die Wahlerfolge der Grünen und die sich daraus ergebende Regierungsverantwortung in den Bundesländern schwer vorzustellen! Auch hier handelt es sich um eine asymetrische Beziehung, aus der die Grünen im Besonderen und die Linksparteien im Allgemeinen einen großen Vorteil ziehen. 

Man betrachte die Ergebnisse der diesjährigen Landtagswahl in Baden-Württemberg: In der Summe ergeben die grün-roten Stimmen 47,2 Prozent der Stimmen. Die Anhänger einer liberal-konservativen Politik kommen auf 47,3 Prozent der Stimmen. Die Gruppen sind ungefähr gleich stark. Aber dieser Gleichstand wird sich niemals in vergleichbaren Machtverhältnissen niederschlagen! Das liegt an der AFD, die in Deutschland zur Oppositionspartei verdammt ist. Alle anderen Parteien verweigern die Zusammenarbeit. Damit wird die AFD zum Garanten links-grüner Macht. Sie schwächt das konservativ-liberale Lager um den entscheidenden Anteil ihrer Stimmen. Die AFD ist damit ein Stimmengrab. Solange die AFD nicht die absolute Mehrheit erreicht, ist es für Parteien mit linker politischer Gesinnung von Vorteil, wenn die AFD stark ist. 

Jetzt ist es aber nicht nur die Wechselbeziehung zwischen Grünen und der AFD, die Erstere erfolgreich macht. Die Grünen sind auch verführerisch. So wie die Orchideen in luftiger Höhe zum Licht streben, verehren die Grünen und deren Wähler die hohe Sonne der Moral. In diesem Zusammenhang haben sie in Deutschland die Agenda gesetzt. Das überrascht nicht. Sie stehen für Werte, die jeder vernünftige Mensch im ersten Moment direkt zu unterschreiben bereit wäre. Wer kann gegen die Erhaltung unseres Lebensraum sein? Wer möchte keine weltoffene internationale Gesellschaft? Und was spricht gegen Toleranz für 50 Geschlechter aller Art? Diese Werte haben eine betörende Anziehungskraft. Trotzdem sind sie Teil eines Täuschungsmanövers.

Im Orchideenbild entspricht der Verführungskraft dieser Werte die berückend schöne Form der Blume. Doch Vorsicht! Die Orchideen lassen nicht nur die Pilze für sich schuften. Ihr Trumpf ist die Trugblüte, Die gaukelt den bestäubenden Insekten eine Wirklichkeit vor, die so nicht existiert. Oft gleichen die Blüten der Orchideen weiblichen Insekten, die den männlichen die Sinne vernebeln, so vollendet ist deren Gestalt in Farbe und Form. Selbst das weibliche Haarkleid wird perfekt imitiert. In einem wissenschaftlichen Experiment paarten sich liebestollen Männchen lieber mit der Blume als mit ihren Weibchen. Doch für die Männchen gibt es bei diesem Scheinakt nichts zu holen. Nicht einmal Nektar gönnt ihnen die Blüte. Stattdessen tragen die Betrogenen den Pollen der Blume von einem Ort zum anderen und sorgen so für deren Bestand.

Im politischen Bild entspricht dem gelackmeierten Männchen der grüne Wähler. Obwohl es beruhigend ist, sich moralisch auf der richtigen Seite zu wähnen, hätte er vermutlich nichts dagegen, wenn die real existierenden Probleme gelöst würden.Aber so, wie die Luftwurzeln der Orchideen träge im Wind schwingen und nicht im festen Boden verankert sind, ist es einfacher, es sich im moralischen Ideenhimmel bequem zu machen, als sich in faktischer Kärrnerarbeit zu ermüden. Die Beispiele sind Legion: Das Erneuerbare Energiengesetz (EEG), zentraler Eckpfeiler der Energiewende, wurde ursprünglich von den rot-grünen Regierungskoalitionen unter der Gerhard Schröder (1998-2005) mit großem Aplomb auf den Weg gebracht. Dieses Gesetzeswerk ist in seinem Geiste ein planwirtschaftliches und leider auch ineffizientes Instrument. Es verschließt es sich verantwortungsvollem ökologischem Denken, da die einzig wesentliche Frage nicht gestellt wird: Wie gelingt es unter Einsatz der vorhandene finanziellen Mittel soviel CO2 wie möglich zu vermeiden? Stattdessen werden einseitig und mit einer bestimmten Voreingenommenheit Technologien wie Windkraft und Solartechnik gefördert. Vor allen Dingen die Solartechnik hat vergleichsweise hohe CO2-Vermeidungskosten. Zu allem Überfluss ist dass EEG ein bürokratischer Moloch. Dessen inhärente Ineffizienz konnten auch die nachfolgenden Merkelkoalitionen dem Gesetz nicht austreiben. So untergräbt das byzantinische Gesetzeswerk als rot-grünes Residuum bis in unsere Zeit eine ernsthafte und effektive Ökologie. Die Zahlen sprechen eine deutliche Sprache. Egal, ob man sich die Treibhausgas-Emissionen pro Kopf anschaut oder diverse Klimaschutz-Indizes, Deutschland dümpelt träge im europäischen Mittelfeld. Unser Land wird in diesem Zusammenhang nicht nur von den pragmatischen Briten überflügelt, die eine unaufgeregt-effektive Umweltpolitik machen. Deutschland liegt auch immer deutlich unter den Werten der Europäischen Union in ihrer Gesamtheit! Obwohl sich in den meisten Ländern der EU deutlich weniger Windräder drehen und weniger Solarmodule auf den Dächern sind. Zeit zum Umdenken.

Die Multi-Kulti-Migrationspolitik als Erfolg zu bezeichnen ist gleichfalls gewagt. Bis heute gelingt es dem linken Teil des deutschen Parteienspektrums nicht, Willige, die die deutsche Sprache lernen, um hier zu arbeiten und auf diese Weise zum Gemeinwesen beizutragen, von denen zu trennen, die es sich im sozialem Netz gemütlich einrichten. Das hat irritierende Konsequenzen. Menschen werden abgeschoben, die fließende deutsch sprechen, eine Familie haben und mehr als 10 Stunden für diese arbeiten, während Clankriminelle mit hochmotorisierten Boliden vor dem Sozialamt vorfahren, um ihre Stütze abzuholen.

Auch die aggressive Genderpolitik, die im Moment die Schlagzeilen beherrscht, ist nicht geeignet, Toleranz zu fördern. Beim Versuch Minderheiten vor Diskriminierungen zu schützen, greift sie selbst zur Diskriminierung. Weiße werden rassistisch abgekanzelt. Und in akademischen Kreisen beginnen sich Menschen zu schämen, wenn sie zu ihrem biologischen Geschlecht stehen. Vorwürflich werden sie als “heteronormativ“ bezeichnet. Selbst engagierte Schwule wie Alexander Zinn konstatieren in der FAZ, dass die linke Identitätspolitik zu einem piefigen Tribalismus führt. 

So unterliegt das Faktische dem Idealen. In diesem Zusammenhang gibt es ein weiteres Paradox zu bestaunen. So wie die Orchidee den Urwaldriesen braucht, damit sie zum Licht kommt, so brauchen die Grünen Menschen, die das Geld erwirtschaften, dass sie mit generöser Geste verteilen. Nur dankbar sind sie nicht. Erfolgreiche Unternehmen werden nicht dafür geschätzt, dass sie durch die Steuern, die sie abführen, einen gut ausgestatteten Sozialstaat möglich machen. Sie werden sie als kapitalistisch geziehen und mit Verachtung gestraft.

Moralin scheint eine narkotisierende Wirkung zu haben, das aber nicht nur grüne Gehirne betäubt. Auch führende Köpfe ehemals liberal-konservativer Parteien sind betroffen. Im Bestreben den Erfolg der Grünen zu kopieren, geben sie sich einer selbstzerstörerischen Mimikry hin. Das enttäuscht zum Beispiel Wähler der CDU. Die wählen dann lieber das Original oder wenden sich aus Trotz der AFD zu, womit ihre Stimmen unwirksam werden. Der Salto rückwärts von Merkel beim Atomausstieg, die kritiklose Unterstützung der Energiewende mit einer eindimensionalen Förderung der Eletromobilität, das Aushebeln des Dublin-Abkommens bei der Massenmigration, der laxe Umgang mit den Maastricht-Vereinbarungen, die Zögerlichkeit das kriminelle Verhalten von Clans als solches zu bezeichnen, hat dazu geführt Stammwähler zu vergraulen. 

Der gravierende Denkfehler dieser opportunen Politik liegt in dem Umstand, dass eine Partei wie die CDU von dieser Anbiederung nicht profitiert. Im Gegenteil. Der Zustrom der Wähler zur AFD schwächt bürgerliche Standpunkte. Wie oben begründet führt das zur Stärkung eines weltfremden grünen Idealismus. Für die liberal-konservativen Parteien besteht die einzige Lösung darin, eine ehrliche Politik zu machen und den noch nicht radikalisierten AFD-Wählern im Rahmen ihres eigenen Parteiprogramms Lösungen anzubieten, sie zurückzuholen und ihren Stimmen wieder Wirksamkeit zu geben. Tun sie das nicht, werden sie über Jahrzehnte die bestehenden Machtverhältnisse zementieren und je weiter sie in die grüne Falle laufen, desto stabiler wird dieser Prozess.

Der Baerbock

                

“Annalena Baerbock, hochökologisch engagiert! Hochkompetent in der Sache!“ Albrecht von Lucke 

Kann es sein, dass Annalena Baerbock eine weibliche Wiedergängerin unseres früheren Bundespräsidenten Heinrich Lübke ist? Genauso wie Lübke besitzt Baerbock die Gabe, die Öffentlichkeit mit unbeholfenen, teils grotesken Äußerungen in Erstaunen zu versetzen.  Ein “Lübke“ bezeichnete in den siebziger Jahren des letzten Jahrhunderts scherzhaft die kleinstmögliche Einheit, um Intelligenz quantitativ zu fassen. In unserem Jahrzehnt hat die Maßeinheit “Baerbock“ die Chance, großen ökologischen Unverstand zu bezeichnen. 

Während Heinrich Lübke zum Ende seiner Karriere unter einer Zerebralsklerose litt, was seine rhetorischen Missgeschicke in Teilen erklärt, kann diese Degenerationserkrankung, die zur Demenz führt, bei der jungen Kanzlerkanditatin ausgeschlossenen werden. Deshalb ist es wahrscheinlich, dass sich die “Baerböcke“ einer trivialen Ursache verdanken: Die Dame weiß nicht wirklich, wovon sie redet. Leider werden ihre Fehltritte von den ihr geneigten Medien noch mit Sanftmut zur Kenntnis genommen. Das ist bedenklich. Von einem Kapitän, der einen Ozeandampfer steuert, verlangt man ein Kapitänspatent und keinen Jollenführerschein. Von einer Kanzlerin in spe, die sich anschickt, eine große ökologische Transformation einzuleiten, bei der in Deutschland kein Stein auf dem anderen bleiben wird, erwartet man, dass sie weiß, was sie tut. Doch Ökologie ist im Kern eine harte Wissenschaft und Annalena Baerbock hat nicht als MINT-Mädchen im Studium brilliert. Was ihre beruflichen Qualifikationen sind, ist bis heute Gegenstand der Diskussion. Die Naturwissenschaften sind es nicht.

Vom seligen Heinrich Lübke wird behauptet, er hätte bei einem Regierungsbesuch in Liberia die anwesenden Repräsentanten der Regierung mit “Sehr geehrte Damen und Herren, liebe Neger“ begrüßt. Diese Unterstellung ist falsch. Lübke hat diesen Satz nie gesagt, er wurde ihm von Redakteuren des Spiegels in den Mund gelegt, um ihn zu diskreditieren. In bestimmten Pressehäusern gehört es zu den Usancen journalistischer Großwildjagd, von Zeit zu Zeit ein politisches Schwergewicht zu erlegen. Man nimmt deshalb zur Kenntnis, dass dort, wo Redakteure schweigen sollten, geredet wird (Lübke), während dort, wo sie reden müssten, geschwiegen wird (Baerbock). Hier wird der Versuch gestartet, die bisherigen “Baerböcke“ zu wägen und zu wichten, um sie in einen größeren Zusammenhang einzubetten. So konturiert sich die “Kanzlerinnenkompetenz“. Die Beiträge werden sukzessive erscheinen. Ich danke meinen Mitdenkern Stephan Dörr und David Koch für die Mithilfe bei der Recherche.


Der letzte Baerbock

Annalena Baerbock ist medial fast vollständig von der Bühne verschwunden ist, weil den Grünen ihre Quotenregelung zum wiederholten Male auf die Füße fällt. Stattdessen wird der deutlich eloquentere und auch versiertere Robert Habeck in den Ring geschickt, um größeres Ungemach zu vermeiden. Das ist bemerkenswert. Schließlich stellte Frau Baerbock ihren Kollegen öffentlich bloß, weil sie Habecks Kernkompetenz eher in der Hühner- und Schweinezucht verortete, während sie sich selbst  – zu Unrecht – als Völkerrechtlerin bezeichnete. Robert Habeck ist vorzuwerfen, dass er sich diese Unverschämtheit gefallen ließ. 

Obwohl nun bei den Grünen der Baum brennt (wie auch bei der CDU) und teure Marketingstrategen bezahlt werden, um der Kampagne noch den richtigen Dreh zu geben, wäre eine Auseinandersetzung mit den rhetorischen Fehltritten von Frau Baerbock unvollständig, wenn man nicht das berüchtigte “Kobold-Zitat“ erörtern würde. Das ist notwendig, da betreffs der erhofften Leistungen künftiger Speichertechnologien nicht nur die Grünen auf dem Holzweg sind. Die “Umweltstrategien“ von SPD und CDU sind in diesem Kontext um keinen Deut besser und werden nur noch von den weltfremden Visionen von “Fridays for Future“ oder “Ende Gelände“ übertroffen. 

Abschließend dann noch ein paar Worte zu dem Lapsus von Frau Baerbock ausgerechnet die Wirtschaftspolitik von Ludwig Erhard der SPD zuzurechnen. Das ist ein bemerkenswerter Fauxpas, der einer “Völkerrechtlerin“ nicht hätte passieren dürfen.


Was hat das Schürfen von Kobalt mit “Black Lives Matter“ zu tun?

Dass Annalena Baerbock mit größter Selbstverständlichkeit das Element Kobalt mit dem Kobold verwechselt, ist nichts, was einen überrascht. Vor allen Dingen in Dialogsituationen, wenn sie gefordert ist, spontan zu reagieren und keine Rede abzuspulen,  erinnern ihre Ausführungen in Stringenz und Diktion an das Meisterwerk von Loriot, der in unnachahmlicher Weise, das gängige Politikerkauderwelsch parodierte. Deshalb will ich mich mit dieser Kleinigkeit gar nicht länger aufhalten. Trotzdem muss über Kobalt in verschiedenen Zusammenhängen gesprochen werden. 

Wenn man sich das komplette “Kobold-Interview“ von Frau Baerbock anschaut, dann behauptet sie, dass die Energiepolitik der Grünen technologieoffen ist. Das darf man guten Gewissens als Lüge bezeichnen. Nimmt man die europäische Kommissionspräsidentin Ursula von der Leyen (CDU), die Umweltministerin Svenja Schulze (SPD) und Annalen Baerbock (Die Grünen) zusammen, dann bilden diese zusammen ein Machtkartell, das die Automobilindustrie vor sich hertreibt. Durch den Umstand, dass Elektroautos als “Null-Emissionsautos“ bezeichnet und behandelt werden, wird die freie Marktwirtschaft konterkariert. Es ist eine sattsam bekannte Tatsache, dass Elektroautos mit schweren Batterien, die in der Herstellung viel dreckigen Kohlestrom benötigen, sehr lange fahren müssen, bis ihr “CO2-Rucksack“ kleiner ist, als der anderer alternativer Fahrzeuge. Es sei nur daran erinnert, dass Volkswagen einen Erdgas-UP im Programm hatte, dessen Betrieb etwa 4 Euro auf 100 Kilometer Strecke kostet (unsubventioniert). Mit dieser beispiellosen Umweltbilanz stellt er fast alle Elektroautos in den Schatten, was leider niemanden interessiert. Die forcierte Elektromobilität ist politisch opportun, koste es, was es wolle. Aber der Preis ist hoch. 

Schauen wir zuerst auf die Bedingungen, unter denen Kobalt abgebaut wird, das für die heute meist verwendeten Lithium-Ionen-Akkus notwendig ist. Zehntausende von Kindern schuften in den Minen, ruinieren ihre Gesundheit und können nicht zur Schule gehen. Die stillschweigende Akzeptanz dieser Arbeitsbedingungen ist politisch doppelbödig. Man erinnere sich an die in allen Großstädten verbreiteten Fairtrade-Läden, die man geradezu als Signature-Stores grüner Gesinnungsethik betrachten kann. Es beruhigt das Gewissen des Konsumenten, Kaffee aus fairer Produktion zu trinken und lautstark gegen Blutdiamanten auf die Straße zu gehen. Warum entzündet sich der Protest nicht an den menschenverachtenden Bedingungen unter denen Kobalt, vor allen Dingen Coltan aber auch Lithium abgebaut werden? Weil in diesem Kontext die politisch opportune Einstellung die “Energiewende voranzubringen“ wichtiger ist als Menschenleben?

Die Missachtung ethischer Standards bei der Forcierung der Elektromobilität ist schon fragwürdig genug. Nach meinem Dafürhalten wird diese Haltung skandalös, wenn man sie mit der berechtigten Ablehnung von Rassismus und Kolonialismus in einen Zusammenhang denkt. Bei der Partei von Annalena Baerbock gehören die Slogans der “Black Lives Matter“-Bewegung zur ideologischen DNA. Ist es vor diesem Hintergrund statthaft, die Schädigung der Gesundheit afrikanischer Kinder willentlich in Kauf zu nehmen, damit in Deutschland die Luft für unsere Kinder sauberer wird?

Dieser weltanschauliche Spreizschritt ist umso erstaunlicher, als es technische Alternativen gibt. Diese wurden allerdings von den Europäern konsequent verschlafen. Bei der Entwicklung der Natrium-Ionen- Akkus waren die Europäer führend. Bei diesen werden weder Lithium, noch Nickel oder Kobalt gebraucht. In dem hier verlinkten lesenswerten Artikel heißt es: “ Aus europäischer Sicht ist der von Ignoranz geprägte Umgang mit Natrium-Ionen-Akkus trotz der rasanten Fortschritte in den vergangenen Jahren sehr ärgerlich. Ein Großteil der Experten hatte sie abgeschrieben als höchstens tauglich für stationäre Speicher und Autos mit kurzer Reichweite. Das Entwicklungspotenzial wurde trotz aller Fortschritte systematisch unterschätzt und die Entwicklung trotz achtbarer Demonstrationen kaum gefördert.“

Wenn man sich also schon einseitig auf die E-Mobilität kapriziert, dann bitte auf Akkusysteme, deren Produktion gewissen ethischen Mindeststandards genügt. Trotz schüchterner Lippenbekenntnisse, auch von Frau Baerbock, passiert da leider wenig bis nichts.


Falsche Propheten

Der Lapsus der grünen Kanzlerkandidatin, die wegweisende Wirtschaftspolitik des CDU-Politikers Ludwig Erhard ausgerechnet der SPD zuzuordnen ist aufschlussreich. Nichts könnte falscher sein. Ludwig Erhard vertraute den Kreativkräften des Marktes, wobei die Politik den Ordnungsrahmen vorgibt, in der sich diese entfalten können. Im völligen Gegensatz zu dieser Einstellung misstrauen Linke, Grüne und Sozialdemokraten diesem freien Wechselspiel der Ideen. Lieber gibt man sich der Illusion hin, es könnte eine Gruppe von Spezialisten geben, die auch hyperkomplexe Probleme wie die Energiewende vom “Feldherrenhügel“ aus lösen. Wie vermessen dieser Anspruch ist, war das große Lebensthema des Wirtschaftstheoretikers Friedrich August von Hayek, der für seine wegweisenden Arbeiten mit dem Wirtschaftsnobelpreis geadelt wurde.

Das Ergebnis eines solchen planwirtschaftlichen Ansatzes bestaunen wir heute beim Erneuerbare-Energien-Gesetz (EEG), das nicht nur das gewaltigste Infrastrukturprojekt der BRD nach dem Zweiten Weltkrieg ist und den Steuerzahler etwa eine Billionen Euro (eintausend Milliarden) Euro kosten wird. Die planwirtschaftliche Gigantomanie ist auch noch im Vergleich mit anderen Ländern ineffizient. Und auch beim EEG gibt es, wie bei der Verwendung der Lithium-Ionen-Akkus, eine weltanschauliche Doppelbödigkeit zu bestaunen. Der höchste Strompreis der Welt  ist in Deutschland nämlich gerade für arme Leute besonders schmerzhaft. Diese sind gezwungen, die staatlich verordnete Einspeisevergütung zu bezahlen und können sich nicht wie die Windmüller und Sonnenkönige mit ihren von der Allgemeinheit subventionierten Anlagen aus der Affäre ziehen.

Eigentlich müsste das planwirtschaftliche Versagen des EEG ein nicht zu überhörender Warnschuss sein. Leider steht zu befürchten, dass es in den nächsten 15 Jahren noch schlimmer kommt. Das hat mit der Forderung zu tun, aus der Atomkraft auszusteigen und gleichzeitig fossile Brennstoffe zu verbannen und durch regenerative Energien zu ersetzen. Das hört sich nur auf dem Papier gut an. Genau bei diesem Problem gehen nämlich der “Kobold“ von Frau Baerbock und die Kompetenzillusion, eine extrem komplexe Fragestellung planwirtschaftlich lösen zu wollen, eine unheilvolle Allianz ein. 

Wo liegt die Schwierigkeit? Wir erinnern uns in einem ersten Schritt, das ein weit einfacheres Problem seit zwei Jahrzehnten nicht gelöst ist: Es gibt bis heute kein hinreichend potentes Leitungsnetz, das den Strom aus dem windreichen Norden in den stark industrialisierten Süden überträgt. Doch im Vergleich zu dem, was gemäß der Denkart von Frau Baerbock und insbesondere ihrer Mitstreiterin Luisa Neubauer auf uns zukommt, ist das Kinderkram. Wir werden nämlich binnen weniger Jahre ein fast omnipotentes Speichersystem bauen müssen, wenn die Sache mit den regenerativen Energien klappen soll. Dieses ist leider weder planbar noch bezahlbar und deshalb ein Luftschloss. 

Wagen wir zur Erläuterung eine Überschlagsrechnung und legen, um ein Gefühl für Größenordnungen zu bekommen, heute verfügbare Zahlen zugrunde. Wir veranschlagen den täglichen Energiebedarf in Deutschland mit 5 Terawattstunden (TWh). Im Jahr 2035, dem Jahr, in dem zumindest gemäß der Forderungen der Grünen, in Deutschland ausschließlich regenerative Energien zur Anwendung kämen, muss ja die gesamte Primärenergie(!) “ökologisch korrekt zur Verfügung gestellt werden“. Die Energie, die gespeichert werden müsste, entspricht nach meiner Einschätzung dann der Sekundärenergie, da ich hier idealisierend annehme, dass es keine Speicherverluste gibt. Der Primärverbrauch in der BRD von etwa 10 TWh pro Tag, wird deshalb wegen des immer eingeschränkten Wirkungsgrad großzügig mit dem Faktor 0,5 multipliziert. Mir ist klar, dass das eine grobe Schätzung ist. Ich glaube aber, dass 5 TWh am Tag konservativ geschätzt sind. 

Wie müsste jetzt der gigantische Energiespeicher dimensioniert sein, der Baerbock, Neubauer und Konsorten vorschwebt, um die Versorgungssicherheit in Deutschland zu gewährleisten und den Worst-Case zu vermeiden? Der Worst-Case wäre ein Black-Out, der in einem Hochindustrieland wie Deutschland schon nach kurzer Zeit zu Toten führen würde und einen unkalkulierbaren wirtschaftlichen Schaden nach sich zöge. Die Gefahr des Black-Outs bestünde besonders, wenn es zu einer längeren Dunkelflaute käme. Kein Wind, keine Sonne. Dann müssten aus den Speichern also pro Tag 5 TWh abrufbar sein. Aber wie lange dauert die Dunkelflaute? Und wie stark sind die Speicher im Moment des Eintretens geladen? Und wie schnell werden sie sich wieder aufladen, bis die nächste Dunkelflaute kommt?

Das sind zentrale Fragen, auf die es keine Antwort gibt. Deshalb ist es vergebliche Liebesmüh, die Speicherfrage planwirtschaftlich lösen zu wollen. Das Wetter ist nämlich ein hochgradig chaotisches System! Es ist definitiv unmöglich, verlässliche Aussagen über längere Zeiträume zu machen. Niemand weiß, wie lange eine Dunkelflaute sein wird. Niemand weiß, in welchen Abständen solche Ereignisse auftreten werden. Und aus diesem Grund weiß auch niemand, wie ein Speichersystem zu konfigurieren ist, das das Risiko des Super-GAU verlässlich ausschließt. Vielleicht brauchen wir 10 TWh für den Speicher, vielleicht aber auch 500 TWh. Es muss in aller Deutlichkeit gesagt werden, dass dieses Problem wissenschaftstheoretisch nicht lösbar ist! Die, die etwas anderes behaupten, riskieren Leib und Leben vieler Menschen. 

Natürlich gibt es trotzdem Schätzungen, welche Kapazität ein solches System haben sollte. Die Schätzungen bewegen sich meistens zwischen 10 und 100 TWh. Obwohl ich, wie gerade ausgeführt, die Meinung vertrete, dass es verantwortungslos wäre, ein solches System zu konfigurieren, kann man aus Interesse einmal ausrechnen, was ein solcher Speicher in etwa kosten würde.

Nehmen wir an, das Gesamtsystem soll 50 TWh speichern können. Des Weiteren setzen wir einen Preis von 100 Euro pro KWh Speicherkapazität fest. Leistungsfähige Akkus für Häuser sind im allgemeinen teuerer, aber es geht, wie betont, nur um eine ungefähre Abschätzung. Rechnet man das aus, kommt man auf Kosten von 5 Billionen Euro. Wenn man dieser Summe den gesamten Bundeshaushalt der BRD entgegenstellt, dann wird klar, dass ein solcher Speicher, auch wenn die Preise noch einmal um den Faktor 10 fallen würden, in den nächsten 15 Jahren in keiner Weise zu finanzieren wäre. 

Und es gibt einen weiteren Haken. Nicht einmal die Weltjahresproduktion des Minerals Kobalt würde reichen, um den Speicher zu bauen! Insgesamt werden etwa 124 000 Tonnen Kobalt pro Jahr gefördert. Bei gängiger Technologie braucht man bei Lithium-Ionen-Akkus aber pro KWh 150 Gramm Kobalt. Damit käme man bei der oben festgesetzten Speichergröße auf einen Bedarf von 7.5 Millionen Tonnen Kobalt! Das ist also etwa sechzig Mal mehr, als weltweit Kobalt gefördert wird. Selbst, wenn wir die Bauzeit des Speichernetzes auf fünfzehn Jahre veranschlagen, würde das Kobalt nicht reichen. Und wir reden hier über ein Land, das nur 2% (!) der weltweiten CO“-Emissionen zu verantworten hat. 

Vor diesem Hintergrund wird deutlich, dass Annalena Baerbock und ihre Mitdenker und Mitdenkerinnen Luftschlösser bauen, auch wenn man in Rechnung stellt, dass es schwer ist, zukünftige Preise zu kalkulieren und Lithium-Ionen-Akkus wahrscheinlich mittelfristig eine andere Rolle spielen werden als heute. Auch deutet sich an, dass es in Zukunft eine Power to Gas-Strategie geben wird, wobei aber noch nicht klar ist, wie sich die nun funktionierenden Prototypen “hochskalieren“ lassen, um als gigantische Energiespeicher arbeiten zu können. Die finanziellen Dimensionen eines solchen Megaprojekts liegen noch im Ungefähren.

Die Uhr aber tickt! Deshalb ist es ein Gebot der Vernunft, seine Energie nicht auf Nebenkriegsschauplätzen zu verschwenden. Es wird höchste Zeit, unsere Aufmerksamkeit und Energie dorthin zu lenken, wo das CO2-Problem neben Amerika und China am dringlichsten wird ist, nämlich nach Afrika und Indien. Durch das gut vorhersehbare Bevölkerungswachstum wird dort bis 2050 ein gigantischer Energiebedarf entstehen. Wenn wir den Menschen in diesen Weltregionen dasselbe Lebensrecht zusprechen wie uns, müsste in naher Zukunft eine Energiemenge zur Verfügung stehen, die mindestens dem Neubau von 20000 Kohlekraftwerken entspricht. Da in diesen Ländern nicht viel Kapital zur Verfügung steht, ist die Wahrscheinlichkeit groß, dass dort in naher Zukunft vermehrt dreckige Kohle und billiges Öl verfeuert werden. Deshalb muss diskutiert werden, ob man den viel besungenen grünen Wasserstoff nicht dort herstellt, wo wirklich die Sonne scheint und der Wind weht. Damit würden zwei Fliegen mit einer Klappe geschlagen. Es gäbe einen Transfer von Kapital und Technologie in arme Länder und ökologische Energieträger würden weit effizienter hergestellt als in der BRD. Außerdem gäbe es in Deutschland schon die komplette Infrastruktur, um dort hergestelltes “grünes Gas“ zu verwenden. Des Weiteren muss diskutiert werden, die funktionierenden Atomkraftwerke länger laufen zu lassen. Damit würde man sich dringend benötigte Zeit kaufen, um das komplexe Problem der Energiewende nicht mit der heißen Nadel zu stricken. Wer überzeugt ist, dass es in weniger (!) als 15 Jahren in Deutschland gelingt, eine allumfassende Speicherlösung zu schaffen, die es möglich macht, einzig auf regenerative Energien zu setzen, dem ist eigentlich nicht mehr zu helfen. Es fehlen Zeit, Geld und Know-How.

Vor diesem Grund ist es ökologisch unverantwortlich in Deutschland gigantische Geldbeträge für eine ineffiziente ökologische Politik zu verbrennen, die in erster Linie die Funktion hat, unser Gewissen zu beruhigen.  An dieser Politik ist Frau Baerbock mit ihren Parteigenossen maßgeblich beteiligt. Leider machen es die Politiker der anderen großen Parteien nicht wirklich besser. Dabei wäre es an der Zeit, dass mit offenen Karten gespielt wird, um eine valide ökologische Strategie zu entwickeln. Doch dafür bräuchten wir erstmal einen mit offenem Visier geführten Diskurs. Auch da liegt leider vieles im Argen.

Anmerkung: Ich mache meine Überschlagsrechnungen nach bestem Wissen und Gewissen, weiß aber, dass es sich um eine komplexe Materie handelt und mir selbstverständlich Irrtümer unterlaufen können. Sollte ich von falschen Annahmen ausgehen oder mich verrechnen, freue ich mich über Rückmeldungen und bitte darum, mich zu korrigieren. Die Probleme, die hier gerade diskutiert werden, lassen sich sowieso nur im Team angehen.


Das Kreuz mit dem Netz

“Lebhafte Debatten und kluger Streit sind die Essenz unserer Demokratie. Mein Anspruch ist es, Probleme in ihrer Breite und Tiefe zu erfassen und anzugehen“ Annalena Baerbock auf www.annalena-baerbock.de

“Deswegen funktioniert das Netz als Speicher“ ist eines der denkwürdigsten Zitate von Annalena Baerbock, das es mittlerweile zu trauriger Berühmtheit gebracht hat. Leider handelt es sich bei diesem Zitat nicht um einen Versprecher, der ihr einfach so rausgerutscht ist. Noch in den letzten Wochen hat Frau Baerbock in einem Interview mit Sandra Maischberger trotzig auf die Richtigkeit ihrer Aussage gepocht. Bevor wir versuchen, ihre Netzmetapher zu entwirren, hier das Originalzitat im Wortlaut:

“An Tagen wie diesen, wo es grau ist, da haben wir natürlich viel weniger erneuerbare Energien. Deswegen haben wir Speicher. Deswegen fungiert das Netz als Speicher. Und das ist alles ausgerechnet. Ich habe irgendwie keine wirkliche Lust, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“

Annalena Baerbock in einem Gespräch mit dem Deutschlandfunk (21.1.2018)


Um die Irrungen und Wirrungen der Kanzlerkandidatin zu verstehen, muss man ein bisschen weiter ausholen. Da wäre zuerst einmal festzustellen, dass das Netz, von dem sie redet, bis heute ein Phantasieprodukt ist. Tatsächlich wäre ein leistungsfähiges Stromnetz ein essentieller Bestandteil der Energiewende, so wie die Grünen sich diese vorstellen. Nur ist dieses Netz leider weit davon entfernt, fertig zu sein. Im Gegenteil. Große Teile der “Stromautobahnen“, die den windreichen Norden Deutschlands mit dem energiehungrigen Süden verbinden sollen, sind über das Planungsstadium bisher nicht hinausgekommen. Von den notwendigen Leitungen, die in der Summe eine Länge von etwa 8000 Kilometer hätten, ist bisher nur ein Bruchteil fertiggestellt. Ein großes Hindernis sind ausgerechnet grüne Wähler, die zum Beispiel wegen ihrer Angst vor Elektrosmog die eigentlich von Ihnen eingeforderte Energiewende unterminieren, indem sie gegen den Bau der Hochspannungsleitungen klagen: “Energiewende ja bitte, aber auf keinen Fall da, wo ich lebe!“ 

Leidtragende dieser juristischen Scharmützel sind wie so oft die Steuerzahler. Kann der anfallende Strom nicht transportiert werden, müssen die Windräder abgeschaltet werden, wobei die Eigner für das entgangene Geschäft zu entschädigen sind. Im Laufe der Jahre sind diesen mehrere Milliarden Euro überwiesen worden.

Wir halten fest, das Netz, von dem Frau Baerbock redet, gibt es in dieser Form noch nicht. Aber nehmen wir ihre Einsicht in den Fokus, dass regenerative Energien, die wie Wind- und Sonnenenergie hochvolatil sind, gespeichert werden müssten, wenn man für die sogenannte Grundlast keinen fossilen Energieträger wie Kohle und Gas oder gar die verteufelte Kernenergie verwenden möchte. Wie sieht es aus mit den Energiespeichern in Deutschland? Sehr bescheiden, um es vorsichtig auszudrücken. Käme es zu einer sogenannten Dunkelflaute und wäre Deutschland von einem auf den anderen Moment nur von seinen eigenen Speichern abhängig, gäbe es nach wenigen Stunden den totalen Blackout. Das ist ein Horroszenario mit katastrophalen Konsequenzen. Dieses wird realiter nur dadurch nicht wirklich, dass wir die Grundlast bis heute aus Kohle und Gas tätigen und im Bedarfsfall, ohne dass das öffentlich thematisiert wird, Atomstrom aus Frankreich oder Tschechien hinzukaufen können. Selbst dreckiger Kohlestrom aus Polen wird dankbar importiert. Um nun die Speichermisere in Deutschland zu ändern, böte es sich an, leistungsfähige Pumpspeicherkraftwerke zu bauen. Aber auch hier das Paradoxon grüner Ideologie: Ausgerechnet diese effiziente Technologie wird von klagewütigen Naturschützern verhindert. Das, was es an leistungsfähigen Speichern in Deutschland gibt, wurde fast ausschließlich im letzten Jahrhundert(!) fertiggestellt

Vor diesem Hintergrund wundert man sich nicht, dass Baerbock wie ein Magier das Netz als Energiespeicher aus dem Hut zaubert. Nur macht bei diesem Trick leider die Physik nicht mit. Das Netz ist nämlich kein irgendwie gearteter Behälter, indem man die Energie speichern könnte, wie warmes Wasser in der Badewanne. Die Energieübertragung durch Stromleiter wird durch die Elekrodynamik beschrieben und das genaue Verständnis dieses Phänomens bedarf eines gediegenen physikalischen Hintergrundwissens. Ganz bildlich gesprochen: So schnell die Energie im Stromleiter ist, so schnell ist sie auch wieder draußen. Und sie ist verdammt schnell. Die elektromagnetischen Felder bewegen sich mit Lichtgeschwindigkeit. Der Stromleiter ist bei diesem Prozess ein Medium und kein Gefäß. Es ist, will man es anschaulich fassen, ein bisschen wie mit dem Meißel des Bildhauers. Dieser überträgt die Kraft der Hammerschläge auf den Stein. Legt der Steinmetz diesen aus der Hand, dann sind die kräftigen Schläge nicht im Meißel gespeichert.

Auch eine Bundeskanzlerkandidatin, die vorgibt, “Probleme in ihrer Breite und Tiefe zu erfassen und anzugehen“ muss jetzt nicht wissen, was ein Energie-Impuls-Tensor ist. Die eigenen Grenzen zu kennen, wäre aber löblich. Noch schöner wäre es, den Wählern keinen Sand in die Augen zu streuen und ehrlich zu sagen, wo wir stehen. Im Moment ist die proklamierte Energiewende reines Wunschdenken, wobei die wichtigste Frage gar nicht diskutiert wird: Was hat der deutsche Alleingang, mit dem wir selbstgefällig unser Gewissen beruhigen, eigentlich mit dem globalen CO2-Problem zu tun? Vermutlich wenig. Wir schalten hier 10 Kohlekraftwerke ab. Bei der vorhersehbaren demographischen Entwicklung werden aber in Ländern wie Indien und Nigeria in den nächsten 30 Jahren 10 000 neue installiert werden müssen. Da spielt die Musik, auch wenn wir das in unserer deutschen Wohlfühloase nicht hören wollen. Wenn uns das CO2-Problem Ernst ist, dann wäre es höchste Zeit den Blick zu weiten!

                                      

Pippi-Langstrumpf-Mathematik

Zwei mal drei macht vier

Widdewiddewitt und drei macht neune

Ich mach‘ mir die Welt

Widdewidde wie sie mir gefällt

Hey Pippi Langstrumpf, ….


Sie haben es getan: Annalena Baerbock wurde auf dem Parteitag der Grünen mit einem fulminanten Ergebnis zur Kanzlerkandidatin gewählt. 98.5% der Delegierten gaben ihr ihre Stimme. Damit darf man zur Kenntnis nehmen, dass eine aufgehübschte Biographie, nicht korrekt deklarierte Nebeneinkünfte und frappierende Unwissenheit, was die wissenschaftlichen Aspekte ökologischer Bildung angeht, von den Grünen für Lässlichkeiten gehalten werden. Die Legitimation, das höchste deutsche Regierungsamt zu bekleiden, wird durch solche Lappalien offensichtlich nicht in Frage gestellt. Das ist für Außenstehende irritierend. Macht man sich allerdings mit den Parteiusancen vertraut, dann fällt auf, dass freifliegende Argumentationen nicht selten sind, besonders wenn sie sich sich auf fragwürdige Zahlen und windige Rechenoperationen “stützen“. Diesbezüglich befindet sich Annalena Baerbock in prominenter Gesellschaft. Man erinnere sich an das 2%-Ziel von Anton Hofreiter, das angeblich zentral ist, um die Klimakatastrophe abzuwenden. 2% von was? Wo bitte ist der Grundwert, auf den sich die Prozentzahl bezieht? Der promovierte Biologe meinte wohl das 2-Grad-Ziel, dessen korrekte Bezeichnung ihm entfallen war.

Probleme mit der Zahl Zwei hatte auch Herr Habeck. Alle zwei Tage verdoppelte sich angeblich die Inkubationszeit in der Coronaepedemie. Besser ginge es nicht! Dann müssten wir heute ein paar hundert Jahre warten, bis wir erkranken und würden von der Seuche erst erwischt, wenn wir sowieso schon tot sind. Zugegeben, die Worte “Inkubation“ und “Infektion“ haben am Anfang zwei gleiche Buchstaben. Man kann sie leicht verwechseln. Während Habeck also mit der Zahl Zwei kämpft, scheitern Cem Özdemir und Annalena Baerbock gemeinsam an der Prozentrechnung. Eine eindrückliche Performance lieferte Özdemir in der Sendung Brennpunkt (16.3.2011).

Sprecher: “Kritiker sagen: Dann geht in Deutschland entweder das Licht aus oder der Strom wird viel teurer. Sehen Sie das auch so?“

C. Özdemir: “Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das Anderthalbfache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.“

Das ist ein verwirrendes Zitat. Wenn man ehrlich ist, stimmt in diesem eigentlich nichts. In den angewandten Wissenschaften treten Maßzahlen zusammen mit Maßeinheiten auf. Betrachten wir die folgende Aussage: “Der Aconcagua in Südamerika ist 6962 Meter hoch.“ Dann wird in dieser Aussage die Maßeinheit “ein Meter“ mit der Maßzahl 6962 multipliziert. Da Herr Özdemir über die Spitzenlast sprach, wollte er wohl etwas über die physikalische Leistung sagen. Diese wird aber in Watt gemessen. Bytes sind Maßeinheiten der Information und haben in diesem Zusammenhang nichts zu suchen. Wie er auf die angeblichen 140 Gigabyte kommt bleibt ebenfalls ein Rätsel. Meinte er die in Gesamtdeutschland installierte Leistung? Das ist aber keine “Energieproduktion“. Rätselhaft ist auch seine Prozentrechnung: “Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen.“ Wenn die Spitzenlast 80 Gigawatt beträgt und den Grundwert markiert, dann ist das Anderthalbfache dieses Werts (150%) 120 Gigawatt. Die Summe ergäbe dann 200 Gigawatt. Nicht 140 Gigawatt. 140 Gigawatt sind lediglich 75 % mehr. Sind solche Berechnungen die Grundlage der künftigen Energieplanung? 

Annalena Baerbock ist eine Schwester im Geiste. Von ihr stammt das folgende Bonmot:

„Wenn alle so bei 25 Prozent stehen, dann ist das nicht mehr so große Koalition wie zu anderen Zeiten, die haben alle miteinander so 75 Prozent im Bund oder sogar ne Zweidrittelmehrheit.“

Auch wenn Vieles im Unklaren ist, was die Biographie von Frau Baerbock angeht, es ist sicher, dass sie ihr Abitur gemacht hat. Sie muss also 13 Jahre Mathematik gehabt haben. Natürlich lernt man da viele Dinge, die man als “Völkerrechtlerin“ nicht braucht. Algebra und Analysis? Überflüssig. Gut. Aber der mathematische Dreisatz, Prozentrechnung, der Umgang mit Wahrscheinlichkeiten sind für jeden modernen Menschen potente mentale Werkzeuge. Es lohnt sich, solche Fertigkeiten zu beherrschen, um in einer sich schnell verändernden Welt nicht den Überblick zu verlieren. Preisfrage: Wie viel Prozent entspricht eine Zweidrittelmehrheit? Da teilt man auf seinem Taschenrechner die Zwei durch die Drei. Wir erhalten 0.66666666… . Und wenn man weiß, dass die Dezimalbruchdarstellung einer Zahl auch als Prozentzahl gelesen werden kann, dann wissen wir, dass die Zweidrittelmehrheit 66,6666…% der Stimmen entspricht. Das ist mitnichten größer als 75%. 

Aber es kommt noch besser. In einem Interview  gab Annalena Baerbock Folgendes zum Besten:

»Wir haben Grundlast durch Biomasse und – das ist neu – das ist auch interessant für Start-Ups und Unternehmen, zum Beispiel Rechenzentren und große Supermärkte, die dann als Energieerzeuger(!) in den Markt reinkommen.«

»Wenn eine Kühlung bei einem riesengroßen Produzenten von minus 22 Grad in Zukunft dann auf minus 20 Grad runterkühlt, dann ist das Hühnchen immer noch kalt, aber wir können an der Grundlast das Netz stabilisieren.«

Hätte sie ihrem Kollegen Cem Özdemir zugehört und dessen einzig richtige Zahl aus seinem Zitat extrahiert, nämlich die 80, dann wüsste sie, dass die 5 Gigawatt Leistung, die durch Biomasse zur Verfügung steht, um den Faktor 16 erhöht werden müsste, um die Spitzenlast von 80 Gigawatt zu erreichen. Das sind 1600%! Zu glauben, die fehlenden 75 Gigawatt dadurch zu generieren, dass man die Kühlschränke in den Supermärkten ein bisschen herunterregelt, ist rührend. Aber bleiben wir in diesem Beitrag im Reich der Mathematik und verschieben die Diskussion des “Baerbockschen Netzspeichers“ auf später. In der Unterstufe lernt man, dass die ganze Zahlen, also die, die auch ein negatives Vorzeichen haben können, eine Ordnung besitzen. Das kann man sich auf dem Zahlenstrahl verdeutlichen. In der Mitte thront die Null, nach rechts werden die Zahlen immer größer, nach links immer kleiner. Die -22 steht also weiter links als die -20 und nicht andersherum. Und da haben wir schon wieder ein Problem mit der Zahl Zwei. Verändert man die Temperatur um zwei Grad, nämlich von -22 auf -20 Grad, dann wird das Hähnchen erwärmt(!) und nicht gekühlt. Diese Kleinigkeit wird Frau Baerbock wenig scheren. Trotzdem darf man Zweifel hegen, ob die Pippi-Langstrumpf-Mathematik Baerbockscher und Özdemirscher Prägung als intellektuelles Werkzeug taugt, um die ökologischen Probleme des 21. Jahrhunderts in den Griff zu kriegen.



Ein gigantischer Irrtum

“Deutschland hat Pro-Kopf-Emissionen von neun Gigatonnen pro Einwohner. Bangladesch, das ist zehnmal mehr als Bangladesch zum Beispiel.“ 

Da war Frau Baerbock der verhängnisvolle Satz in der Talkshow von Maybrit Illner am 13.12.2018 entschlüpft und plötzlich stand ein geheimnisvolles Wort im Raum: “Gigatonne“. Was mag das sein? Von ihren Gesprächspartnern war keine Antwort zu erwarten. Die Moderatorin, Peter Altmeier, Christian Lindner, der Teslamann Philip Schröder sowie Klimapapst Stefan Rahmstorf, niemand zuckte auch nur mit der Wimper oder rollte mit den Augen. Beredtes Schweigen. Nehmen wir deshalb zur Klärung das Wort auseinander! Die Bedeutung  von “Tonne“ ist klar. Dieses Wort bezeichnet 1000 kg. Aber, was bedeutet, die Vorsilbe “Giga-“? Erinnert irgendwie an die dicken Bohnen, die Gigantes, auf der Vorspeisenplatte beim Griechen. Oder an die Gigafactory von Tesla. 

Scheint also etwas Großes zu bezeichnen. So ähnlich wie “Mega-“. Tatsächlich hat “Giga-“ aber noch einen ganz anderen Punch als “Mega-“. “Mega“, aus dem Griechischen abgeleitet, bedeutet einfach “groß“. Eine Megalomanin ist eine Größenwahnsinnige, die sich etwa in Bereichen für kompetent hält, in denen sie keine Ahnung hat. Aber Giganten sind nicht einfach groß. Giganten sind echte Riesen! Verwendete Annalena Baerbock die “Gigatonne“ also nur als rhetorisches Stilmittel? Vielleicht wollte sie nur sagen, dass jeder Deutsche neun riesige Tonnen CO2 pro Jahr in die Luft bläst. Aber Politik hat eben nicht nur theatralische Komponenten. Auch Inhalte spielen eine Rolle. Und in diesem Kontext würde es sich für die Kanzlerkanditatin lohnen, in ein Physikbuch zu schauen. Die Vorsilbe “Mega-“ bedeutet dort, dass man die dahinterstehende Größe mit einer Millionen multipliziert. Bei “Giga-“ sogar mit einer Milliarde. Eine Milliarde sind eintausend mal eine Millionen. Da hätte auch Annalena Baerbock skeptisch werden müssen. Jeder Deutsche verursacht ihrer Meinung nach den Ausstoß von Neunmilliarden Tonnen CO2! 

Der Physiker und Nobelpreisträger Enrico Fermi war bekannt für seine kühnen Überschlagsrechnungen, die er in Windeseile im Kopf vollziehen konnte. Für Fermi war es ein Zeichen von Intelligenz, immer ein Gefühl für die richtigen Größenordnungen zu haben. Da hilft es, große Zahlen anschaulich zu machen. Was wiegt eine Tonne? Ein Kubikmeter Wasser. Nur zur Sicherheit: Das entspricht einem Würfel mit der Kantenlänge von einem Meter. Wenn also Frau Baerbock in ihrer früheren Studentenbude ihr Badezimmer geflutet hätte und dieses eine Grundfläche von vier Quadratmetern und eine Höhe von zwei Metern und fünfundzwanzig Zentimetern gehabt hätte, dann wäre das in diesem Quader eingeschlossene Wasser neun Tonnen schwer gewesen. Neun Tonnen, das ist tatsächlich das Gewicht, das jeder Deutsche an CO2 im Schnitt pro Jahr emittiert. Aber wie stellt man sich neun Gigatonnen vor? Als neun riesige Würfel mit einer Seitenlänge von einem Kilometer? Das ist korrekt aber immer noch zu abstrakt. 

Stellen Sie sich vor, Frau Baerbock tritt in Berlin aus dem Kanzleramt! Direkt vor ihr hebt sich eine gigantische gläserne Pyramide in den Himmel. Deren Grundfläche soll vier Quadratkilometer betragen. Würde Annalena Baerbock die Pyramide, die einen Teil von Moabit, die Kurfürstenstraße, Teile von Kreuzberg und von Berlin-Mitte bedeckt, umlaufen, wäre sie zwei Stunden unterwegs. Wenn diese erhabene gläserne Pyramide Neunmilliarden Tonnen Wasser beinhalten würde, dann ragte sie 6750 Meter hoch in den Berliner Himmel. Damit wäre sie fast so hoch wie der Aconcagua, der höchste Berg Südamerikas. Wir wollen in diesem Gedankenexperiment übrigens annehmen, dass das Wasser in der Pyramide nicht gefriert, denn die oberen 4000 Höhenmeter der gläsernen Pyramide wären von ewigem Eis bedeckt. Hätte diese Pyramide an ihrem Fuß einen riesigen Stöpsel, um das Wasser abzulassen, dann könnte man mit ihrem Inhalt dreimal den Starnberger See füllen. Das ist immerhin der fünftgrößte See Deutschlands. Wenn man jetzt das schnuckelige Badezimmer von Frau Baerbock mit dieser wahrhaft gigantischen Pyramide vergleicht, bekommt man eine Anschauung von der Größe ihres Denkfehlers.

Leider ist das nicht alles. Da wäre noch die Sache mit Bangladesch. Was meinte sie mit: “Bangladesch, das ist zehnmal mehr als Bangladesch zum Beispiel“? Dieser Satz wird wenig diskutiert. Was bedeutet hier “das ist“? Wagen wir einen ersten Versuch! In Bangladesch emittieren die Menschen pro Person 0.54 Tonnen CO2 im Jahr. Würde man diese Zahl mit der Emission des Durchschnittsdeutschen in Beziehung setzen, dann blasen die Deutschen etwa siebzehnmal mehr CO2 in die Luft als die Bangladescher. Dieser vernünftige Vergleich scheidet also aus. 17 ist nicht 10. Was dann? Hier kriecht einem ein verstörender Verdacht ins Hirn: Meinte Annalena Baerbock allen Ernstes, was sie sagte? Bangladesch hat etwa 166 Millionen Einwohner. Diese Zahl multiplizieren wir mit 0,54 Tonnen. Das ergibt 89,64 Megatonnen CO2. Das ist ziemlich genau der hundertste Teil der von ihr proklamierten neun Gigatonnen. Da hätte Frau Baerbock sich um eine Zehnerpotenz verhauen. Kann vorkommen. Der “Baerbock“ würde dann lauten: Ein einziger Deutscher emittiert hundertmal mehr CO2 als 166 Millionen Bangladescher zusammen. Wahnsinn. Oder meinte sie doch etwas ganz anderes, ohne es zu sagen? Die jährlichen Emissionen aller Deutschen summieren sich auf etwa 756 Millionen Tonnen C02, multipliziert man die Einwohnerzahl der BRD mit den proklamierten neun Tonnen CO2 pro Person. Die Emissionen aller Bangladescher liegen wie angeführt bei 89,64 Millionen Tonnen. Damit würden alle Deutschen 8,4-mal mehr CO2 in die Atmosphäre entlassen als alle Bangladescher. Ist es das, was sie ausdrücken wollte? Wir wissen es nicht. Wir vermuten nur, dass sie in irgendeiner Weise für die Sendung instruiert worden ist, ohne genau zu verstehen, wovon die Rede war. Und dann geisterte da eine Information in ihrem Kopf herum, ohne dass sie in der Lage gewesen wäre, diese einzuordnen und in verständlichen Worten zu artikulieren.

Digitale Wunderwelten

Sind die Götter reif für die Rente? Glaubt man den Auguren, dann werden wir in naher Zukunft Dinge tun, die seit Anbeginn der Menschheit himmlischen Mächten vorbehalten waren: Die moderne Genetik wird uns Werkzeuge an die Hand geben, nie gesehene Kreaturen zu schaffen oder auch ausgestorbene wieder zum Leben zu erwecken. Gehirnchirurgen wie der Italiener Sergio Canavero sind fest entschlossen, menschliche Köpfe zu verpflanzen. Das ergraute Haupt eines in die Jahre gekommenen Professors auf dem jungen Körper eines im Moment zu Tode gekommenen Motorradfahrers? Am extremsten aber schießen die Spekulationen bei den Computerwissenschaftlern ins Kraut. Was halten Sie etwa von folgender Zukunftsvision?

Wenn Sie merken, dass ihr letztes Stündlein schlägt, lassen Sie sich mit Blaulicht ins Krankenhaus fahren. Dort erhalten Sie eine Vollnarkose. Das ist das Ende Ihrer biologischen Existenz. Die Chirurgen sägen Ihren Brustkasten auf und öffnen eine große Arterie. Mittels einer Pumpe flutet man Ihren Kreislauf mit Konservierungsmitteln. Gehirn und Rückenmark werden auf diese Weise plastiniert und anschließend entnommen. Mit Hilfe eines ultrapräzisen Mikrotoms wird Ihr Nervengewebe in hauchdünne Scheiben geschnitten. Solche Präzisionshobel erlauben schon heute, ein menschliches Haar der Länge nach in 2000 Scheiben zu zerlegen. Die Schnitte kommen nun unter ein hochauflösendes Mikroskop und werden mit größter Sorgfalt in einen Computer eingelesen. Unter Anwendung spezieller Algorithmen wird jedes Neuron mit sämtlichen synaptischen Verbindungen digital rekonstruiert. Dieser digitale Hirnscan – Konnektom genannt – ist nun angeblich der heilige Gral: die Essenz ihrer Persönlichkeit! Diese besteht aus Trillionen von Nullen und Einsen und wird einem Supercomputer implementiert, der in einem Roboter sitzt und diesen steuert. Was vorher tote Materie war, erwacht zum Leben und nimmt ihr Bewusstsein an. Und weil man digitale Daten ohne Verlust von einem Medium zum nächsten kopieren kann, wäre es möglich, ihr “Leben“, das mit der Existenz des Hirnscans gleichgesetzt wird, solange zu verlängern, wie es passende Speichermedien gäbe. 

Glauben Sie nicht, dass es Menschen gibt, die so etwas glauben? Irrtum. In den Vereinigten Staaten von Amerika gibt es eine Bewegung, die sich “Brain Preservation Foundation“ nennt. Deren Ziel ist es, durch Erhaltung der Gehirnfunktionen das Leben beliebig zu verlängern. Das gerade beschriebene Szenario halten sie für durchaus realistisch. Es muss nur noch ein wenig Zeit vergehen. In spätestens 100 Jahren sollen sogenannte Gehirn-Uploads dann so alltäglich sein wie ein Reifenwechsel beim Auto. 

Man muss übrigens nicht über den Atlantik fliegen, um mit solch bizarren Vorstellungen konfrontiert zu werden. Peter Weibel, ein bekannter Medienkünstler, sinnierte in einem Interview über die Möglichkeit, sein Gehirn ins WorldWideWeb einlesen zu lassen, um dort, als digitaler Widergänger seiner selbst, weiter existieren zu können. Computernetze als virtueller Garten Eden! Vorausgesetzt, es kommt kein böses Teufelchen daher, das den Strom abstellt und die verirrten Seelen aus dem Paradies vertreibt.

Der Amerikaner Ray Kurweil, die Lichtgestalt im Reigen der digitalen Wundergläubigen, geht noch über Weibel hinaus. Kurzweil ist Chefentwickler bei Google und wird von der Community als Seher gefeiert. Ein Gehirn zu entnehmen und es in feinste Streifen zu schneiden, der sogenannte invasive Hirnscan, ist seiner Meinung nach nur eine primitive Übergangslösung. Danach kommt der nicht-invasive Scan. Die Computertomographen der Zukunft werden bei Kurzweil zu ultimativen Gedankenlesern. Mit deren Hilfe ließe sich die Seele aus dem Menschen holen. Direkt in den Computer eingespeist, würden sie als reine Information die virtuelle Welt in nie gekannter Intensität erleben. Im Vergleich mit dieser künstlichen Wirklichkeit wäre die uns vertraute reale Wirklichkeit eine freudlos-trübe Angelegenheit.  Es gibt allerdings einen Wermutstropfen:  Nach Kurzweil machen uns die digitalen Wundermaschinen zu einem bemitleidenswerten Auslaufmodell der Evolution. In wenigen Jahren kommt ein Schlüsselmoment – die Singularität – in dem uns die Computer für alle Zeiten intellektuell abhängen. 

In vorauseilendem Gehorsam hat sich Amerika deshalb bereits eine religiöse Glaubensgemeinschaft gegründet. Deren Jünger beten Computer an, da sie angeblich schon heute eine unfassbare Intelligenz verkörpern. Aus dem goldenen Kalb ist eine schnöde Rechenmaschine geworden.

Bleibt hinzuzufügen, dass Kenner der Szene schon in sieben Jahren mit einem anderem Wendepunkt rechnen – der sexuellen Singularität. Dann werden Computer fügsame Liebesmaschinen so raffiniert zu steuern wissen, dass Frauen als menschliche Bettgenossen ausgedient hätten. Das omnipotente Orgasmodrom wird Computerfreaks jeden erotischen Wünsch erfüllen. Damit wären die Zeiten beendet, in denen sich weltabgewandte junge Männer, die in der intensiven Beziehung mit der Maschine den Umgang mit dem weiblichen Geschlecht verlernt haben, als Incels bezeichnen müssten. Das ist die englische Kurzform für “unfreiwillig zölibatär“. Hinter diesem Terminus steckt die beleidigte Haltung, dass man seltsamerweise von den Frauen nicht erhört wird. Obwohl man doch ein Prachtkerl ist. Den Frauen bliebe in diesem digital geschrumpften Mikrokosmos die Rolle der Gebärenden. Aber nur so lange, bis auch diese mit den Mitteln einer sich rasant entwickelnden Reproduktionstechnologie abgeschafft wird. Der digitale Adam bräuchte in seinem Paradies nur noch die liebevoll programmierte Maschine. Frauen wären in dieser Welt zu Exponaten für die Museumsvitrine geworden. 

Man möchte hoffen, dass das überzogen ist! Aber leichte Vorbeben der sexuellen Singularität sind bereits zu spüren. So kann man sich für ein paar Dollars das Programm KARI herunterladen. Hinter dem Akronym versteckt sich eine virtuelle Freundin, mit der man eine “Beziehung“ führen kann. Man muss nur willens sein, seine Zeit mit einer auf dem Bildschirm animierten Barbiepuppe zu verbringen, die dauernd mit den Augen klimpert und Banalitäten von sich gibt. 

Doch die Künstlichkeit der Dame wird durch einen Vorteil aufgewogen. Man kann ihr Aussehen und ihren Charakter mit einem Mausklick nach Lust und Laune verändern. Hatte man einen schlechten Tag, wählt man zum Beispiel die Attribute “fürsorglich und mütterlich“. Segelt man aber auf Wolke sieben durchs Leben und wäre für jeden Spaß zu haben, dann tippt man “wild und ungezügelt“ in den Computer. 

Wer sich vom mittelmäßig animierten Puppengesicht von KARI nicht angesprochen fühlt, der kann sich in den digitalen Redlight-District der Berliner Firma Memento 3D einkaufen. Mit einer speziellen Brille bewaffnet schaut man einer virtuellen Pornodarstellerin dabei zu, wie sie splitternackt die Hüften kreisen lässt. Memento 3D wirbt damit, die ultimativen Stars der Branche zu lebensechten digitalen Doppelgängern zu machen. Das mag sexy aussehen, aber wirklich handfest ist das nicht. Es handelt sich eher um eine moderne Form der Tantalusqualen. Das, was man sieht und hört, kann man nicht fühlen und greifen. Die Firmenleitung hat das Problem erkannt. Es soll in Zukunft durch “Steckaufsätze“ gelöst werden, die dann die mechanische Liebesarbeit verrichten. 

Frauen und Männer die schon jetzt eine härtere Gangart bevorzugen, greifen deshalb zu den Vollzugsmaschinen Rocky und Roxxxy der Firma True Companion. Die gehen als beischlaffähige Roboter direkt zur Sache. Vorausgesetzt man ist bereit, 10000 Dollar zu zahlen. Angeblich gibt es tausende von Bestellungen. Nachvollziehbar: Neben der Sinnesfreude kommt schließlich auch der intellektuelle Anspruch nicht zu kurz: Wer nach dem Liebesfest noch reden möchte, kann man mit den Robotern diskutieren. Das macht sicher Spaß. So, als würde man Kants Kritik der reinen Vernunft mit Apple Sprachsystem SIRI erörtern.

Schöne neue Welt! Auch wenn man sich mit wenig zufrieden gibt, scheint die sexuelle Singularität auch für schüchterne Computerfreaks noch ein ferner Sehnsuchtspunkt zu sein. Und vor diesem Hintergrund stellt sich dann auch die Schlüsselfrage: Welche der Visionen der digitalen Propheten haben eigentlich Aussicht, real zu werden und was ist komplett gesponnen? Lässt sich dazu heute schon etwas sagen? Werden Hyperintelligenz oder ein ewiges Leben im virtuellen Garten Eden Wirklichkeit werden?

Um uns einer Antwort zu nähern, beginnen wir mit einem Blick in die Werkstätten und Labore der Gehirn- und Computerwissenschaftler. Dort stößt man auf ein erstaunlichen Phänomen,  das als “Erkenntnisparadoxon der künstlichen Intelligenz“ bezeichnet werden könnte. Es ist augenfällig, dass die Maschinen ausgerechnet in Bereichen triumphieren, die bis vor kurzem mit den höchsten geistigen Fähigkeiten des Menschen assoziiert wurden. Zum Beispiel haben selbst Schachgroßmeister heute nicht mehr die geringste Chance gegen einen Schachcomputer neuerer Bauart. Das gilt in vergleichbarer Weise auch für das komplexe Brettspiel Go.  Und selbst bei der bekannten amerikanischen Quizshow Jeopardy! – übersetzt “Gefahr“ – in der Allgemeinwissen und Kombinationsvermögen gefordert sind, hat der Computer die Oberhand gewonnen. Watson, ein von IBM erschaffenes Programm, das auf den neuesten DeepLearning-Algorithmen beruht, schlug die menschlichen Seriengewinner vergangener Jahre vernichtend. Solche Erfolge bestärken weniger kritische Geister in der Überzeugung, dass die Maschinen jetzt das Kommando übernehmen – eine auch bei Intellektuellen verbreitete Vorstellung. Man denke an die Untergangsszenarien, die etwa von Stephen Hawking, Elon Musk oder Richard David Precht verbreitet wurden.  Aber stimmt das? Führen uns die Roboter bald an der Leine durch den Park spazieren? 

Damit kommen wir zur anderen Seite der Medaille. Von Supercomputern gesteuerte Maschinen scheitern bei banalsten Alltagsproblemen. Schauen Sie sich Videos der sogenannten DARPA-Challenge an. Das ist so etwas wie die inoffizielle Weltmeisterschaft der Roboter. Die besten ihres Faches treten gegeneinander an. Es geht darum, Dinge zu tun, die für uns Menschen trivial sind.  So sollen die Roboter eine Türklinge öffnen oder in ein Auto steigen. Trotz erster ungelenker Erfolge: Die DARPA-Challenge ein Panoptikum von Pleiten, Pech und Pannen. Die Maschinen finden die Klinke nicht oder fallen auf den Rücken und stochern hilflos mit den Gliedmaßen in der Luft herum, unfähig, sich wieder aufzurichten. 

Was ist da los? Wie passt das zusammen? Auf der einen Seite beeindruckende intellektuelle Dominanz, die ein Schachgenie wie Gary Kasparow im Duell mit der Maschine zu einem Statisten degradiert. Auf der anderen Seite bis zur Halskrause mit kompliziertester Elektronik vollgestopfte Roboter, die, hätten sie Kleidung an, nicht in der Lage wären, unter Hemd und Pullover einen Hosenknopf zu ertasten, um ihn zu öffnen. 

Das Schwierige scheint also leicht zu sein und das Leichte schwierig! Und ganz allmählich dämmert den Wissenschaftlern, woran das liegen könnte. Man hat das Problem der menschlichen Intelligenz falsch eingeschätzt! Vor etwa 50 Jahren traf sich ein Allstar-Team der Informatik in Dartmouth zu einen Sommerworkshop. Stars der Szene wie Marvin Minsky oder John McCarthy waren der Überzeugung, dass die wesentlichen Probleme menschlichen Denkens von einer intellektuellen Elite in kurzer Zeit gelöst werden könnten. Sie waren so optimistisch, weil ihnen die Schwierigkeiten des Unterfangens noch nicht einmal in Ansätzen bewusst waren. Und mit dieser Fehleinschätzung outeten sie sich unbewusst als Kinder der europäischen Geistesgeschichte. Diese ist maßgeblich von der antiken griechischen Philosophie beeinflusst und zeichnet sich durch einige bemerkenswerte Besonderheiten aus. So genießen Probleme des Alltags bei uns keine große Wertschätzung. Man denke nur an den Vorsokratiker Thales von Milet, der in den Matsch fiel, weil er gedankenverloren zu den Sternen schaute.  Eine Magd lachte ihn aus und stellte die berechtigte Frage, weshalb er den Dingen, die vor seinen Füßen lägen, nicht mehr Aufmerksamkeit schenken würde. Darüber hinaus ist die westliche Philosophie im allgemeinen recht körperfeindlich. Der Körper mit seinen Bedürfnissen und Begierden ist etwas, dass den Denker von wahrer Erkenntnis abhält.  Und wahre Erkenntnis wurde seit den alten Griechen häufig mit mathematischen Einsichten assoziiert: Für Pythagoras war die Welt Zahl. Platon forderte als Seinsgrund göttliche abstrakte Ideen, die wesensgleich mit geometrischen Formen waren. Und später wollte der gläubige Leibniz gleich eine allumfassende Logik entwickeln, mit der sich jedes in natürlicher Sprache formulierbare Problem mit Bleistift und Papier lösen ließe. Bleibt noch hinzuzufügen, dass Galilei der festen Überzeugung war, dass das von Gott “verfasste Buch der Natur“ in mathematischen Lettern geschrieben wäre. 

In der Summe entsteht aus dieser Gemengelage eine paradiesische Weltsicht für Informatiker. Sie fühlen sich in der Überzeugung bestärkt, dass sich die Welt vom Schreibtisch aus mit ihren Rechenmaschinen erobern ließe. Dafür muss ja gewährleistet sein, dass sich die Geheimnisse der Welt in Formeln packen lassen, die von eben diesen Maschinen verarbeitet werden können. Könnte es aber sein, dass unsere philosophischen Traditionen den Blick auf die Wirklichkeit eher trüben als ihn zu schärfen? Trotz der Erfolge angewandter Mathematik, bleibt der Glaube, dass die Welt vollumfänglich kalkulierbar sei, eben nur ein Glaube! Dieser wird aber wie eine axiomatische Wahrheit gehandhabt. Das könnte ein gravierender Fehler sein. Und damit kommen wir wieder zum Alltag mit seinen Wirrnissen. Ausgerechnet viele, der für so trivial gehaltenen Allerweltsgeschehnisse, wollen sich einfach nicht in ein mathematisches Korsett zwängen lassen. Und darüber hinaus fängt man auch endlich an zu verstehen, dass der denkende Mensch nicht nur reiner Geist ist. Unser Körper ist ein notwendiger Teil des Erkenntnisprozesses.

Aber -was macht den Alltag für Informatiker denn so widerborstig? Vergleichen wir die wirkliche Welt mit einer Modellwelt! Zum Beispiel ein unaufgeräumtes Kinderzimmer mit einem Schachspiel! Die Frage, wie sich 50 verschiedene Spielsachen unterschiedlicher Form, Größe und Konsistenz, die wild verstreut im Zimmer liegen, optimal in einer Kiste verstauen lassen, ist ein Problem, dem kein Computer gewachsen ist. Dagegen ist die Modellwelt des Schachspiels genau von der Art, wie Informatiker sie lieben! Sie ist abgeschlossen, mit unterscheidbaren Zuständen und festgelegten Spielregeln. Das ist geronnene Mathematik! So lässt sich trotz der beachtlichen Komplexität des Schachspiels das Spielgeschehen mittels kombinatorischer Überlegungen in der Theorie genau fassen. Natürlich ist der Möglichkeitsraum der spielbaren Partien auch für einen Supercomputer riesig. Lässt man ihn aber die meisterlichen Partien lernen, die schon gespielt wurden, dann kann er den Raum aufgrund seiner Algorithmen sinnvoll beschneiden. In der Praxis wird er zu einem Spieler, dem kein Mensch mehr gewachsen ist. 

Betrachtet man nun die Erfolge der künstlichen Intelligenz, dann fällt auf, dass es nicht selten algorithmisierbare Kunstwelten sind, in denen die Maschinen Erfolge haben. Dieser Punkt ist übrigens auch im Zusammenhang mit dem aktuellen Thema des autonomen Fahrens wichtig. Es ist kein Zufall, dass sich die Testfahrzeuge in erster Linie auf Wüstenstraßen, Flughäfen oder Autobahnen tummeln. Hier gibt es berechenbare Bedingungen, die sich für automatisiertes Fahren eignen. Ob die computerisierten Autos aber dem alltäglichen Chaos gewachsen sein werden, ist noch nicht ausgemacht. Vielleicht geht das mit viel Tamtam zelebrierte Großprojekt aus wie das Hornberger Schießen. Man denke an einen stürmischen Tag im Januar! Berufsverkehr. Heftiges Schneetreiben mit schweren, feuchten Flocken. Es ist schon dunkel. Überall nur brauner Matsch, der auf Scheinwerfern, Sensoren und Verkehrsschildern klebt. Keine idealen Bedingungen für ein allein fahrendes Auto, wenn es sich in einem mehrspurigen Kreisverkehr der Mailänder Innenstadt bewegt. Und dann vielleicht doch lieber einfach stehen bleibt.. . Ist es wirklich sicher, dass sich die Komplexität eines solchen Szenarios in algorithmisierbare Konzepte gießen lässt?

Was macht nun den menschlichen Körper für das Denken so wichtig? Wenn die virtuelle Freundin KARI oder der Lustroboter Rocky den Satz “I love you“ haucht, wissen Sie dann überhaupt, wovon sie reden? Haben diese Worte in irgendeiner Weise etwas mit den Gefühlen zu tun, die wir mit dem Begriff “Liebe“ verbinden? Nein! Und das wird auch in Zukunft so bleiben. Es sei denn, Computer und Roboter hätten einen Körper, der so funktioniert wie unserer. Betrachten wir zur Veranschaulichung das Wort “Ball“! Wie kommt es zu seiner Bedeutung? Jedes normale Kind spielt mit Bällen. Sie werden gerollt, geworfen, gefangen und geschossen. Vielleicht verbinden es auch noch andere Erfahrungen damit: glückliche, schmerzhafte oder erschreckende. Es hat ein wichtiges Fußballspiel gewonnen, einen Ball ins Gesicht bekommen. Oder es wurde beinahe angefahren, als es einem Ball nachsprang, der auf die Straße rollte. 

Alle Erfahrungen, die für einzelne Menschen bewusst oder unbewusst erinnerlich sind, wenn sie das Wort “Ball“ hören, machen nun dessen Bedeutung aus. Einige davon sind einzigartig. Viele aber werden mit anderen Menschen geteilt. Deshalb wissen wir recht genau, was gemeint ist, wenn von Bällen geredet wird: Wir haben vergleichbare körperliche Erfahrungen gemacht, die von wissenden Sprechern mit dem Wort “Ball“ bezeichnet wurden, weil wir vergleichbare Körper besitzen. Und weil wir in vergleichbarer Weise mit Bällen gespielt haben. Daraus ergibt sich in der Summe eine Schnittmenge sensorischer und motorischer Erfahrungen. Und diese macht Kommunikation zwischen uns Menschen möglich . Zumindest bei elementaren Ankererfahrungen. Mit komplizierteren Wörtern wie “Liebe“ wird das bekanntlich schwieriger, da die prägenden Erfahrungen sehr unterschiedlich sein können. Das macht schmerzhafte Missverständnisse zwischen Menschen möglich.  

Ein Roboter, dessen “Körper“ eine völlig andere Sensorik und Motorik hätte, würde andere Erfahrungen machen, die schwerlich mit den menschlichen vergleichbar wären. Und wenn er wie ein Mensch Begriffsbildungen vornehmen würde, dann hätten die Worte eine ganz andere Bedeutung für ihn. Das schließt übrigens nicht aus, dass kluge Maschinen untereinander irgendwann eine eigene Sprache entwickeln könnten, die sie miteinander sprechen. Die Bedeutung des Gesprochenen wäre aber von menschlicher Sprache verschieden. Vor diesem Hintergrund ist deshalb eine gelingende Kommunikation zwischen Mensch und Maschine schwer vorstellbar. 

Was aber machen nun die “sprechenden Maschinen“, die wir schon kennen? KARI und Rocky oder SIRI und ALEXA? Diese Systeme konstruieren keine Bedeutung, wie wir das tun! Sie nutzen vor allen Dingen statistische Korrelationen. Dazu müssen sie ausdauernd trainiert werden. Man füttert sie mit Miriaden von Beispielsätzen die im Internet zu finden sind. Wenn Sie dann “Was ist die Hauptstadt von Deutschland?“ hören, dann folgern sie “Berlin“. Ohne allerdings im geringsten zu wissen, was wir mit dem Wort “Berlin“ verbinden. Diese Bedeutungsblindheit wird solchen Sprachsystemen auch in Zukunft erhalten bleiben. Deshalb wird kein Liebesroboter den Traum vom einfühlsamen Dialog erfüllen. Er ist und bleibt eine Vollzugmaschine. Schlechte Karten für die sexuelle Singularität.

Nehmen wir jetzt den digitalen Hirnscan ins Visier! Auch hier bleibt die Rolle des Körpers unverstanden. Wir erinnern uns: Es wird behauptet, dass man die Funktionsweise eines Nervennetzes vollständig verstanden habe, wenn man exakt angeben kann, in welcher Weise die Neuronen miteinander verschaltet sind. In dieser Sichtweise wäre das Konnektom so etwas wie das Wesen des Menschen. Ließe sich dieses Wissen digitalisieren, sollten moderne Formen der Seelenwanderung und das Existieren im digitalen Garten Eden möglich werden. Herr Kurweil lässt schön grüßen. Aber macht das Sinn? 

Das darf bezweifelt werden. Schon die fundamentale Behauptung, man könne auf der Grundlage des Konnektoms auf die Funktionsweise eines komplexen Nervensystems und damit auch auf das Verhalten schließen, ist fragwürdig. Eine solche Behauptung ist etwa so sinnvoll, als würde man vorgeben zu wissen, wie die Züge fahren, wenn man das Streckennetz der Bundesbahn aus der Luft mit einer Drohne abfotografiert. Diese Information ist unvollständig, solange nicht bekannt ist, wie schnell die Züge sind, wo sie fahren, wie lange sie halten und wie die Weichen gestellt sind. Wie naiv die Gleichsetzung von Konnektom und menschlichem Wesen ist, lehrt uns übrigens ein kleines Würmchen, das auf den Namen C. elegans hört.  

Von diesem Tierchen kennt man jedes Neuron und alle synaptischen Verbindungen seines Nervensystems. Das alles kann man in den Computer eingeben. Aber gelingt es wie erhofft, das Verhalten des Wurms in der Simulation zu imitieren? Nicht wirklich – zur großen Enttäuschung der Forscher. Bei Lichte besehen ist das aber nicht verwunderlich. Jedes Konnektom ist schließlich nur eine Momentaufnahme im Leben eines Individuums! Könnte man vorhersagen, wie ein Film weitergeht, wenn man nur ein Bild betrachtet,  das man von der Leinwand abfotografiert hat? Natürlich nicht. Und genauso ist es mit Lebewesen. Jedes Nervennetz ist ein hochgradig dynamisches System, das sich permanent verändert und zwar in der Auseinandersetzung mit seiner Umwelt, in der es sich bewegt und Erfahrungen macht. Dieser Umbauprozess ist viel komplexer, als es den Informatikern lieb ist. Er umfasst zum Beispiel auch die genetisch gesteuerte Produktion bestimmter Transmittermoleküle, die für die Signalübertragung zwischen Neuronen notwendig sind. Damit müsste aber auch dieser Prozess simuliert werden. Und damit hätte eigentlich das gesamte Tier mit seinem Köper Gegenstand der Simulation zu sein, da sich das Nervensystem in Wechselwirkung mit dem Körper verändert. Das allerdings ist unmöglich. Und was beim Wurm nicht funktioniert, das funktioniert dann beim wesentlich komplexeren Menschen schon einmal gar nicht. 

Auch die phantastisch klingende Idee, dass der Hirnscan eines Menschen, der einem “Roboter“ eingepflanzt worden ist, als “Ich“ in der Maschine weiterlebt, vernachlässigt, dass Hirn und Körper ein sich permanent veränderndes Wechselwirkungsgeflecht sind. Warum? Betrachten wir zur Veranschaulichung die Kopfverpflanzung, die der Gehirnchirurg Sergio Canavero plant. Was würde passieren, wenn man den Kopf des Lebenden auf den toten Körper verpflanzt! Bekommen wir einen Menschen, der sich freut, ein neues Leben erhalten zu haben? Vielleicht im ersten Moment! Aber was dann geschieht, könnte einem Horrorfilm entnommen sein. Es ist nämlich ziemlich wahrscheinlich, dass sich die Identität des Menschen vollständig verändert. Dann wäre allerdings nicht mehr klar, was gemeint ist, wenn er “Ich“ sagt. Warum? 

Der gesamte menschliche Körper ist im Gehirn kartiert, also abgebildet. Wenn der Körper nun ein anderer ist, wird sich auch das komplette Gehirn mit nicht absehbaren Folgen umorganisieren! Der Mensch wird nicht derselbe bleiben. Und jetzt kommen wir zurück zum Roboter. Dieser Umbildungsprozess wäre noch extremer, wenn wir einen Maschinenkörper hätten. Von dem, was wir als unser Wesen betrachten, bliebe nichts mehr übrig. 

Atmen wir einmal durch! Wir merken, dass es anspruchsvoll ist, über die Zukunft der künstlichen Intelligenz nachzudenken. Obwohl wir hier nur einen Teil der möglichen Szenarien hinterfragt haben, ist aber deutlich geworden, dass viele Visionen der digitalen Propheten offensichtlich Luftnummern sind. Das schließt natürlich nicht aus, dass uns die Maschinen, wie heute schon im Schach oder Go, in anderen Bereichen überflügeln werden. Aber welchen? Dazu müssen wir gewissenhaft nachdenken, um das Mögliche vom Unmöglichen zu trennen. Es bleibt also spannend..

Die Mechanik der Täuschung

Lug und Trug sind im Internet mittlerweile dermaßen verbreitet, dass man nicht genau weiß, wo man beginnen soll. Vielleicht beim Cybergrooming? Das ist eine Methode, mit der sich ältere Männer im Internet an junge Mädchen heranpirschen. Dazu legen sie einen sogenannten Fake-Account an. Sie verwenden ein falsches Profilbild und geben sich als junges Mädchen aus. Mit dieser “digitalen Maske“ treiben sie sich dann auf Foren herum, in denen sich Mädchen ihre Reiterlebnisse erzählen und ahnungslos Fotos von sich posten. Meistens bleibt es bei voyeuristischen Betrachtungen. Aber leider nicht immer. So geschehen im schwäbischen Rottweil: Ein 38-jähriger Lastwagenfahrer diente sich einer 13-jährigen zuerst als gleichaltrige Freundin an, dann schmierte er ihr in einer anderen Rolle als 17-jähriger Casanova Honig ums Maul und gab sich zum Schluss als russischer Mafiakiller aus, der mit Mord und Totschlag drohte. Das maliziös inszenierte Ränkespiel überforderte das Mädchen, sodass es sich in seiner Verzweiflung tatsächlich mit ihm traf, worauf sie vom digitalen Puppenspieler vergewaltigt wurde. Der Täter wurde 2013 zu mehr als fünf Jahren Haft verurteilt. Solche Extremereignisse sind zum Glück Ausnahmen. Nichtsdestotrotz hat sich das Prinzip des hinterlistigen Betrugs im Internet etabliert. Viel zu lange wurde nur dessen Transparenz in den Vordergrund gerückt, während man die Möglichkeit der Täuschung anfänglich nicht wahrnahm, sie dann nicht wahrhaben wollte, um jetzt endlich zu begreifen, dass da ein Ungeheuer von der Kette geht: Computerviren und Trojaner allerorten, dreiste Kapitalverbrechen mittels Phishing, dem Abgreifen vertraulicher Bankinformationen. Die Bedrohung durch skrupellose Hacker, die nicht davor zurückschrecken, Computersysteme in Krankenhäusern oder Kraftwerken außer Betrieb zu setzen, um Geld zu erpressen. Computertrolle, die das politische Klima vergiften. Und das ist noch nicht alles. Oft kommt die Hinterlist auf leisen Sohlen. Damit wären wir bei den Strategien vieler sozialer Medien. 

Doch während die meisten Menschen Cybergrooming, das Hacken von Krankenhäusern oder den Diebstahl von Kontendaten moralisch verwerflich finden, verhalten sie sich vergleichsweise ahnungslos, wenn sie von Facebook&Co an der Nase herum geführt werden. Das ist die hohe Kunst der Täuschung. Denn diese verbreitete Arglosigkeit ist im Sinne der Betreiber. Deren Geschäftsmodell hängt schließlich davon ab, dass der Benutzer dessen Komplexität nicht durchschaut und deshalb auch nicht weiß, in welcher Weise mit ihm verfahren wird. 

Um zu verstehen, wie die Verführungsstrategien von Firmen wie Facebook funktionieren, erinnern wir uns am besten an den Onkel, vor dem uns unsere Großeltern als Kinder immer gewarnt haben. Die undurchsichtige Gestalt verschenkt mit einem Lächeln im Gesicht Bonbons, obwohl sie nichts Gutes im Schilde führt. 

In ähnlicher Weise setzt sich die Strategie von Social-Media-Plattformen wie Facebook häufig aus fünf elementaren Bausteinen zusammen: Zuerst wird der Nutzer gelockt. Dann macht man ihn gefügig. Das Entstehen von Abhängigkeiten ist im weiteren Verlauf nicht ausgeschlossen. Endlich greift man die ersehnten Daten ab, um sie zum Schluss zu versilbern. 

Was ist das Lockmittel, mit dem ein Unternehmen wie Facebook arbeitet? Facebook stellt in Aussicht gleich ein Bündel grundlegender menschlicher Bedürfnisse zu befriedigen. Das Unternehmen wirbt damit, weltweit Freunde zu finden und mühelos seine sozialen Beziehungen pflegen zu können. Darüber hinaus fungiert die Plattform potenziell als Partnerportal. Außerdem ist sie hervorragend geeignet, sich selbst als Mensch in Szene zu setzen. Im Gegensatz zum wirklichen Leben, in dem sich Situationen oft ungeplant entwickeln, unterliegt die virtuelle Inszenierung der eigenen Kontrolle – ein unschätzbarer Vorteil im globalen Kampf um Aufmerksamkeit und Ansehen. 

Da das Streben nach Ansehen gerade in unserer Zeit eine so fulminante Triebkraft ist, wollen wir es in Bezug auf die sozialen Medien kurz hinterfragen: Untersuchungen der Verhaltensbiologie belegen, dass Ansehen ganz wörtlich zu verstehen ist! Menschen mit hohem Ansehen werden von anderen Menschen im sozialen Miteinander tatsächlich mehr angesehen, während man Ausgestoßene keines Blickes würdigt! Die Gründe für großes Ansehen waren und sind kulturell allerdings verschieden. In traditionellen Stammesgesellschaften konnte eine heilkundige Frau ein hohes Ansehen genießen oder ein erfolgreicher Jäger. In der Antike ein eloquenter Staatsmann, eine gelehrte Hetäre oder ein Philosoph. Und heute? Natürlich gibt es nach wie vor Menschen, die auf Grundlage dessen, was sie können und leisten, geschätzt werden. Ansehen genießen aber auch viele nur deshalb, weil ihr Gesicht in den Medien allgegenwärtig ist. Der Trick Bilder seines Antlitz zu verbreiten, ist dabei nicht neu. Schon Alexander dem Großen war klar, dass er sein Ansehen vergrößern konnte, indem er massenhaft Bilder von sich selbst in Umlauf brachte. Dazu boten sich damals Münzen an, auf denen sein Konterfei zu sehen war. 

Vor diesem Hintergrund versteht man, welche magnetische Wirkung die millionenfach verbreiteten Titelbilder des heutigen Boulevards und vor allen Dingen das Fernsehen auf Menschen mit histrionischen Persönlichkeitsmerkmalen ausüben. Der Drang sich darzustellen und in Bild und Film überall gesehen zu werden, wird grenzenlos. Und wenn man guckt, wie Menschen im Dschungelcamp freiwillig glitschige Würmer vertilgen oder sich bei einer Castingshow von Dieter Bohlen öffentlich zur Schnecke machen lassen, dann versteht man, dass eine zwanghafte Komponente im Spiel sein muss. Trotzdem ist dieses vom Fernsehen zelebrierte und auch forcierte Spektakel nicht das Ende der Fahnenstange. Es wird durch das Internet getoppt. Jeder, der will, kann sich zum Regisseur seiner eigenen Person aufschwingen. Es genügt, millionenfach Likes, Freunde oder Follower zu generieren, um im Wettbewerb um Aufmerksamkeit und Ansehen oben mitzuschwimmen. Wie man das schafft, ist egal. Zwei halbwegs begabte Mädchen wie Lisa und Lena, die ihre Lippen rhythmisch zur Musik bewegen und dabei Grimassen schneiden, werden zu hofierten Idolen. Das ist die Proliferation des Banalen. 

Wir halten fest: Die Möglichkeit, sich selbst in Text, Bild und Film nach eigenem Gusto zu inszenieren und seine Ich-Botschaften auf der ganzen Welt zu verbreiten, hat etwas ausgesprochen Verführerisches. Und dieser Köder wird von Facebook weidlich genutzt, auch wenn nicht jeder, der dieses Medium verwendet, sein Ego liftet. 

Wie betont, es gehört zum Geschäftsmodell, dass der Genuss dieser “Annehmlichkeiten“ nichts kostet. Trotzdem ist nach der Preisgabe der persönlichen Daten, ein weiteres kleines Opfer fällig: Der Benutzer muss bereit sein, sich maschinenlesbar zu machen. Da Maschinen nicht so klug sind wie Menschen, müssen wir uns freiwillig auf deren Niveau begeben, damit wir systemkompatibel und damit auslesbar werden. 

Aber kommuniziert man auf Portalen wie Facebook nicht mit Menschen? Auch. Das Schnittstellendesign der Benutzeroberfläche ist aber alles andere als beliebig. Damit bei Facebook der Rubel rollt, muss gewährleistet sein, dass das Klickverhalten genau ausgelesen werden kann. Wann wird welches Bild oder welcher Link aktiviert und was folgt dann?  Das sind Daten, die die nachgeschalteten Superrechner brauchen, damit aus eigentlich privaten Informationen prall gefüllte Bankkonten werden. 

Und können in diesem Zusammenhang tatsächlich Abhängigkeiten entstehen? Das steht zu vermuten. Die offensichtlichste ist vielen bekannt: Bequemlichkeit macht unbeweglich. Grundlegende Fertigkeiten werden entweder gar nicht mehr gelernt oder verlernt. Wer es zum Beispiel gewohnt ist, alles, was er sucht, mit seinem Navi zu finden, wird sich schwer tun, wenn die Maschine nicht zur Hand ist. Und wer stundenlang potentielle Sexualpartner auf Tinder nach dem Wisch-und-weg-Verfahren selektiert, dem fehlt die geschmeidige Selbstverständlichkeit auf der Straße spontan einen lockeren Spruch rauszuhauen. 

Darüber hinaus ist es wahrscheinlich, dass echte psychische Abhängigkeiten entstehen können. Unser für Manipulationen empfindliches Dopaminsystem reagiert nämlich auf die Erwartung von Neuigkeiten – nicht auf die Neuigkeiten selbst. Dieser Umstand macht es erklärbar, dass einige Menschen den Eingang ihres Smartphones tausend Mal am Tag überprüfen. Und da sich außerdem viele Menschen über ihre sozialen Beziehungen definieren, kann man sich ausmalen, was es bedeutet, wenn in diesem sensiblen Bereich etwas schief läuft. Werden die realen Beziehungen auf Kosten der virtuellen ausgedünnt, hat es gerade für Heranwachsende fatale Konsequenzen, wenn sie im Netz gemobbt und isoliert werden. 

Nachdem nun der Kunde gelockt und gefügig gemacht wurde und nicht selten auch in Abhängigkeitsverhältnissen verstrickt ist, kommt für viele Anbieter sozialer Netze der ersehnte Moment: die Ernte. Die begehrten Daten müssen heimlich abgegriffen werden, damit sie sich anschließend zu Geld machen lassen. Um sich diesen Mechanismus zu verdeutlichen, hilft es, sich den Computerbildschirm wie eine Trennscheibe zwischen zwei völlig verschiedenen Welten vorzustellen. Vor der Scheibe sitzt ein meist ahnungsloser Mensch, der mit Freunden herumblödelt, mit der Liebsten Geheimnisse austauscht, einen Film guckt oder auch mal eine Werbung checkt. Hinter der Scheibe sieht die Welt allerdings ganz anders aus. Hier treiben Computer- und Kognitionswissenschaftler sowie Statistikkoryphäen ihr Unwesen. Man darf sie sich guten Gewissens im weißen Laborkittel vorstellen. Ihnen geht es schließlich darum, das Nutzerverhalten wissenschaftlich zu erfassen. Die dem Benutzer abgewandte Seite ist deshalb so etwas wie ein ausgeklügelter Experimentalaufbau eines behavioristischen Psychologen. Die Behavioristen waren von der Idee beseelt, die Psychologie auf Reiz-Reaktions-Schemata zu reduzieren und ihr so das Gepräge einer harten Naturwissenschaft zu verpassen. Dazu müssen sich Input- und Outputdaten exakt kontrollieren und protokollieren lassen. 

Sehr anschaulich wird diese verstörende Zweiweltentheorie bei Menschen, die ihre Bücher gerne auf einem Kindle von Amazon lesen. Selbst wenn sie scheinbar alleine mit einer Tasse Tee vor dem Kamin sitzen und schmökern, verfolgt sie der Konzern wie ein Schatten, zeichnet minutiös auf, wann Texte überflogen und wann sie sorgfältig studiert werden. Angeblich werden diese Informationen dazu verwendet, in Zukunft erfolgreichere Bücher zu konstruieren. 

Für die Wissenschaftler von Facebook&Co ist also die Frage interessant, wie ein Nutzer, über den man im Laufe der Zeit immer mehr erfährt, reagiert, wenn er in einem bestimmten Augenblick ein fragliches Item etwa eine Werbeanzeige auf dem Bildschirm sieht. Klickt er, klickt er nicht? Wie lange bleibt er auf der Seite? Und wohin navigiert er dann? Diese wertvollen Datenspuren ergeben für unsere Forscher  so etwas wie eine in der Zeit diskretisierte individuelle Verhaltenskinetik. Diese ist umso aussagekräftiger, je länger sich der Nutzer auf Facebook aufhält. Und damit müssen wir kurz auf Mark Zuckerberg zu sprechen kommen, der nicht müde wird, dem Nutzer einen perfekt auf ihn zugeschnittenen Newsfeed zu versprechen. Der Newsfeed ist so etwas wie das Herzstück vieler sozialer Netzwerke. Hier bekommt man Inhalte und sogenannten Status-Updates der anderen Nutzer zu sehen, außerdem wird man mit Nachrichten versorgt, die den eigenen Interessen entsprechen. Im ersten Moment klingt Zuckerbergs Versprechen unverfänglich. Aber die Motivation ist vermutlich nicht selbstlos. Eine bevorzugt an den eigenen Vorlieben orientierte Darstellung von Nachrichten, die man auch noch selbst durch Filtereinstellungen einengen kann, ist ein selbstbezügliches Optimierungssystem mit dem eigenen Ich als perspektivischem Fluchtpunkt. Deshalb gleicht ein personalisierter Feed von Nachrichten weniger einem Blick in die Welt, als vielmehr einer ausdauernden Beschäftigung mit dem eigenem Spiegelbild. Die ohnehin schon beschränkte Echokammer schnurrt zur Egoblase zusammen. Wie es scheint, ist das vielen nicht unangenehm. Im Gegenteil. Und das ist im Sinne von Facebook, denn die Verweildauer auf der Seite wächst und damit das abschöpfbare Datenvolumen.

Es ist jetzt eine interessante, wenngleich schwierige Frage, welche Daten erhoben werden, wie sie ausgewertet, interpretiert, verwendet und verkauft werden. Geht es tatsächlich nur um personalisierte Werbung?

Zumindest der erste Teil der Frage, sollte sich klären lassen. Nach Paragraph 15 der Datenschutzverordnung muss jeder Nutzer seine Daten in Europa einsehen dürfen. Allerdings verhalten sich viele Konzerne bei Nachfragen wie ein nasses Stück Seife in der Badewanne. Am Anfang wird meist abgewiegelt: Man möge bitte den eigenen Verlauf checken. Hakt man allerdings nach, dann erhält man endlich den sogenannten Clickstream. Das ist sozusagen der umfassende Laborbericht, das digitale Gedächtnis. Jeder gedrückte Like-Button, alle aktivierten Links, jedes betrachtete Bild und jeder geschaute Film sind minutiös aufgeführt und alle Klicks lassen sich mit exakten Zeitangaben versehen. Dazu kommen Seiten, die man vorher besucht hat, samt solcher die man danach anguckte. Alleine diese Datenfülle ist beeindruckend und leider auch verräterisch: Seit der Studie von Michael Kosinski von der University of Cambridge weiß man, wie wenig Information ausreicht, um teils intime Details über Menschen zu erschließen. Der Wissenschaftler zeigte das anhand der Verwendung des Like-Buttons. Nur durch die Analyse der Likes, die ein Nutzer verteilt, lässt sich mit recht großer Sicherheit sein Geschlecht und seine seine Hautfarbe ermitteln sowie seine sexuelle Präferenzen und seine politische Anschauungen. 

Darüber hinaus drängt sich die Frage auf, ob die Analyse der Daten noch weitergehender sein könnte. Das Datenmaterial, das Konzerne wie Facebook en masse generieren, ist schließlich wie geschaffen für die forcierte Bearbeitung mit neuesten KI-Algorithmen, die eine Sache ganz herausragend können: Korrelationen ermitteln. Und in diesem Zusammenhang wird man nervös, wenn man an die letzten Facebookskandale denkt. Nach einer Recherche der New York Times soll Facebook ausgerechnet Firmen wie Google, Amazon, Microsoft und Spotify deutlich mehr Nutzerinformationen zur Verfügung gestellt haben, als bisher bekannt war. Auch passiert es immer wieder, dass zweifelhafte Firmen wie etwa Cambridge Analytica Zugriff auf Facebookkonten bekommen. Welche Korrelationen dann hinter hohen Mauern zu welchem Zweck abgeleitet werden, wird wohl bis auf weiteres das Geheimnis der Firmen bleiben, die mit diesen unseren Daten arbeiten. Sie lassen sich nur ungern in die Karten blicken. 

Vor diesem Hintergrund empfiehlt es sich für den kritischen Nutzer, genau darüber nachzudenken, für welche Zwecke er Computer und Smartphones gebrauchen möchte. 

Wären damit alle Gefahren angesprochen, die im Internet auf uns lauern? Bei weitem nicht! Dunkle Wolken ziehen noch an anderen Stellen auf und verkünden Ungemach. Es geht um raffinierte Fälschungen und klandestine Durchleuchtung. Beginnen wir mit ersteren! 

Obwohl es den meisten nicht bewusst ist: Viele bis dato für unverwechselbar gehaltene Persönlichkeitsmerkmale lassen sich schon heute in Bild und Ton eindrücklich imitieren. Das gilt zum Beispiel für die Stimme. Es reichen bereits 20 Minuten Sprachmaterial, das viele Menschen nichtsahnend im Netz verfügbar machen, damit ein Computer in der Lage ist, eine Stimme recht echt nachzuahmen! Mit Hilfe eines Programms wie VoCo von Adobe, wird jeder Satz, den man mit Tastatur eingibt, mit der Stimme wiedergegeben, die vorher gesampelt also aufgenommen wurde. Damit kann man jemanden Dinge sagen lassen, die er selbst nie sagen würde. Das kann unangenehme Konsequenzen haben. Was würde zum Beispiel passieren, wenn sich Pädophile diese Imitationsfähigkeiten des Computers zunutze machen und vermeintlich mit der Stimme der Eltern auf die Mailbox der Kinder sprechen? 

„Nicole, hier ist Mama. Komme bitte nach dem Reiten um 18 Uhr zu dem Parkplatz am Waldrand! Wir holen Dich ab!“ Auf dem Parkplatz warten aber nicht die Eltern sondern der Verfasser der trügerischen Botschaft. Und damit sind die Möglichkeiten des Betrugs nicht ausgeschöpft! Es ist Stand der Technik, auf der Grundlage von Filmaufnahmen genauestens zu analysieren, in welcher Weise bestimmte Menschen beim Sprechen Ihren Mund bewegen und mit welcher Mimik sie das tun. Und nach der Analyse folgt die Synthese. Im Resultat kann man eine Zielperson in einer computergenerierten Filmaufnahme jeden denkbaren Satz artikulieren lassen: mit ihrer persönlichen Stimme und Ihrer eigenen Mimik! Die Systeme werden in wenigen Jahren perfekt sein. Wer kann vor diesem Hintergrund noch entscheiden was echt ist und was gefälscht wurde? Und was wird das in Zukunft für Konsequenzen haben? Eine Sache auf alle Fälle ist sicher: Authentifizierung wird im digitalen Lügenland zum Herrschaftswissen werden, denn hoch entwickelte digitale Analyseverfahren, mit denen sich der Schwindel aufdecken ließe, stehen dem Gros der Nutzer nicht zur Verfügung. 

Diese verstörende Entwicklung hat sich seit längerem angekündigt, in den letzten Jahren aber unglaublich an Fahrt aufgenommen. Als analoge Fotos noch aufwendig in der Dunkelkammer entwickelt wurden, war viel handwerkliche Finesse notwendig, um ein Bild glaubwürdig zu manipulieren. Das gleiche galt für die früheren Zelluloid- und Polyesterfilme. Aus diesem Grund konnte man als Betrachter lange wenigstens einigermaßen sicher sein, dass das, was auf einem Foto oder im Film zu sehen war, auch tatsächlich so war. Doch schon 1994 konstatierte der Medienwissenschaftler William J. Mitchell, dass die Sicherheit, ein Foto dokumentiere die Wirklichkeit, unwiederbringlich vorbei war. Schon mit damaliger digitaler Technik gelang es, Fotos, auf denen Politiker zu sehen waren, so zu arrangieren, dass der Kontext der Beziehung zwischen den Personen völlig verändert wurde. Aber das war wenig im Vergleich zu gegenwärtigen Möglichkeiten. Im optisch-akustischen Bereich gibt es eigentlich nichts mehr, was sich nicht überzeugend fälschen ließe. Deshalb haben seit neuestem auch vertonte Filme als Dokumentation tatsächlichen Geschehens ausgedient.

Um nun das Thema der Durchleuchtung in den Blick zu nehmen, müssen wir die Perspektive ändern. Es gelingt nämlich nicht nur, Menschen ziemlich perfekt zu imitieren, sie lassen sich mit den passenden Werkzeugen auch präzise analysieren. 

Betrachten wir zur Verdeutlichung eine ganz alltägliche Gesprächssituation! Der Inhalt der Worte ist nur ein kleiner Teil der Information, der zwischen Sprechenden ausgetauscht wird. Viele andere wichtige Dinge schwingen in einer Unterhaltung mit: die Körperhaltung, der räumliche Abstand, das Minenspiel, Stimmlage und Betonung… . Obwohl wir diese sublimen Informationen meist nicht bewusst wahrnehmen, sind sie wichtig, um das Gesagte richtig bewerten und einordnen zu können. Interessanterweise lassen sich sogenannte Deep Learning-Algorithmen so trainieren, dass sie in solchen Situationen viel genauer hinschauen können als Menschen und ihnen deshalb im feingewebten Spiel der Emotionen nichts entgeht. Natürlich verstehen die Computer die Gefühle nicht. Sie lesen aber deren Zeichen! Und das reicht den Menschen, die die Maschinen in ihrem Sinne ge- oder missbrauchen. Sie können mittels dieser Informationen auf die seelische Verfassung der observierten Menschen schließen. So lässt sich etwa das Minenspiel minutiös analysieren. Und Körpersprache und Gangbild zeigen, ob sie sich jemand unsicher fühlt oder in irgendeiner Weise auffällig macht. Auch die Stimme gibt Geheimnisse preis. Sie verrät dem Computer zum Beispiel, ob der Observierte depressiv ist oder Gefahr läuft, an Parkinson zu erkranken. Und als wenn das nicht genug wäre, gibt es mittlerweile Firmen, die vorgeben, Probanden mittels analysierender Algorithmen umfassend charakterisieren und säuberlich in Schubladen einordnen zu können. Es gibt bereits große Unternehmen, die Software dieser Art verwenden, um Bewerber zu bewerten. Man kann sich leicht auszumalen, dass in Zukunft auch Headhunter Sprachdaten im Internet bei der Suche nach geeigneten Persönlichkeiten durchforsten. Es gibt Kritiker, die die Verlässlichkeit der Verfahren bemängeln. Andere, wie die Informatikerin Julia Hirschberg von der Columbia State University, halten die Bewertung der Persönlichkeit auf der Basis von Sprachdaten für seriöse Wissenschaft. Hirschberg selbst hat ein Programm entwickelt, das Lügner besser enttarnt als jeder Mensch. Was passiert, wenn ein solches Werkzeug im Sultanat Brunei in Verhören zur Anwendung kommt, um etwa die sexuelle Präferenz zu erfragen? Dort wurde damit gedroht, Homosexualität mit dem Tode zu bestrafen. 

Wir sind als Gesellschaft also aufgefordert, klare Regeln setzen, sonst sind in naher Zukunft dystopische Szenarien denkbar. Einen kleinen Vorgeschmack gab es bereits 2016, als in Russland die App Find Face auf den Markt kam. Mit dieser App lässt sich ein Foto eines Menschen seinem Profilbild in den sozialen Medien zuordnen. Bis vor kurzem war die App auf das russische Facebook-Pendant VK beschränkt. Das wird wohl nicht so bleiben. Für einen Stalker ist diese App nämlich eine Wunderwaffe: Eine unbekannte hübsche Frau auf der Straße erblickt, schnell ein heimliches Bild gemacht und schon lässt sich herauskriegen, wer sie ist, wenn sie mit Originalbild in den sozialen Medien aktiv ist. Das klingt noch einigermaßen harmlos. Aber es dauerte nicht lange, bis Find Face in einem anderen Kontext zu Anwendung kam. Man enttarnte Pornodarsteller und -darstellerinnen, um sie dann zu erpressen. Doch selbst damit sind mögliche Szenarien nur angerissen. Denken wir an dieser Stelle einmal alles zusammen und stellen uns exemplarisch die folgende Situation vor! 

Ein Krimineller fotografiert einen unbescholtenen Bürger, der aus reiner Neugier das politische Programm einer radikalen Partei an einem Wahlstand durchblättert. Durch Abgleich mit Bildern im Internet ermittelt er dessen Identität. Da es dort auch Sprach- und Filmmaterial von ihm zu finden gibt, prüft er mittels beschriebener Analyseverfahren, ob sein Opfer ängstlich ist und sich deshalb mit einiger Wahrscheinlichkeit erpressen ließe. Wenn dem so wäre, erstellt er ein Video mit Originalstimme und persönlicher Mimik, in dem der Fotografierte extremistische, menschenverachtende Parolen von sich gibt. Er stellt seinem Opfer nun Foto und Video zu, verbunden mit der Aufforderung 50.000 Euro auf ein anonymes Bitcoinkonto zu überweisen. Ansonsten droht er, das Machwerk viral zu verbreiten – mit unabsehbaren Folgen für den persönlichen Ruf des Adressaten. Wollen wir eine solche Entwicklung? Auf alle Fälle sollte uns die Einschätzung von Artem Kukharenko, dem Chef-Entwickler von Find Face, in den Ohren klingen. In einem Interview sagt er, dass durch Software wie Find Face unsere Privatsphäre in großem Maße zerstört wird. Und bei dieser Feststellung machte er nicht den Eindruck als würde ihn das besonders beunruhigen.

Wer anders denkt und sich seine Privatsphäre zumindest in Maßen erhalten will, muss sich deshalb genau überlegen, was er von sich selbst und seinen Nächsten im Netz öffentlich macht. Vermutlich wäre es noch besser, direkt konsequent zu handeln: Um mögliche Manipulationen und Erpressungen auszuschließen, trifft man sich in der realen Welt mit vertrauten Menschen aus Fleisch und Blut und sorgt dafür, dass Handys und Computer ausbleiben. In diesem Sinne war der kürzlich verstorbene Karl Lagerfeld, der sowohl Handy als auch Uhr zeitlebens ablehnte, nicht ein aus der Zeit gefallener Hinterwäldler sondern eher ein Visionär, der seiner Zeit voraus war. Die Zukunft liegt wohl im Altbewährten: dem persönlichen Gespräch von Angesicht zu Angesicht.

Die Wissenswolke

Im globalen Datendurcheinander übernehmen Computer zunehmend die Deutungshoheit. Wissenschaft alter Schule scheint überflüssig zu werden. Das ist nicht verwunderlich in einer Zeit, in der das Wissen, was solide Theorien von windigen Spekulationen unterscheidet, schon länger verlorengeht

“Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“.
Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs vom Schlag getroffen tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leibzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang. Und gerade die Spickzettellektion war eindrücklich: Für ernsthafte Denker gäbe es keine schwierigere und anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr. Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug der Dichter in dieselbe Kerbe. Alles Denken ist Verdichten. Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unstrittiger Allgemeinplatz: Kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet. Nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenfeilspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am bündigen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen überschaubaren Gesetzen zu entwickeln, war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat neue Propheten. Und die verkünden Erstaunliches. Chris Anderson, der ehemalige Chefredakteur des Szenemagazins “Wired“ hat den “Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion hätte ausgedient, heute reichten gigantische Datenwolken und von ungeheuerer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin “Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Widergänger ewig weiter zu existieren. Das World Wide Web als virtueller Garten Eden. Aber ungeachtet davon, auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen mit Selbstverständlichkeit von einer “new kind of science“.

In diesem Zusammenhang wird nicht nur die Theorie gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird der einst revolutionäre Galilei zum Totenwächter einer aus der Mode gekommenen Methode: Ein begehbares Labor, mit echten Messinstrumenten halten radikale Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten ist den Bilderstürmern zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht in diesem Zusammenhang euphorisch von “in-silcio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen “Virealität“. Doch manchmal ist es von Vorteil, die Bedeutung lateinischer Worte, die sich im trendigen Szenejargon verbergen, zu kennen. Im Wort “Simulation“ steckt das lateinische Verb “simulare“, das “ähnlich machen“ bedeutet. “Ähnlich machen“ zu was? Da kommt sie zur Hintertür leider doch wieder hinein – die lästige Widerständigkeit des Wirklichen – die seriöse Wissenschaft zu einem zeitraubenden und anstrengendem Unterfangen macht! Soll eine Simulation nämlich nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen wie der Teufel das Weihwasser und hilflos in der Luft baumeln, einen Erkenntniswert nur heucheln, wäre es hier eigentlich angebracht, Worte wie “Simulation“ und “Experiment“ mit anderen, aber ebenfalls gebräuchlichen Bedeutungen zu versehen. Eine “Simulation“ kann man ja auch als “Vortäuschung“ auffassen und ein “Experiment“ als “Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, belanglos zu sein.

An dieser Stelle berühren wir einen empfindlichen Punkt. Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, allmählich verloren geht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur der sichtbare Ausdruck einer schon lange schwelenden Entwicklung. Seit Jahrzehnten unterscheiden sich nämlich viele “wissenschaftliche“ Gedankengebäude grundlegend von der als Beispiel zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam gefügt, haben etwas nebulös-wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotz dieses Mangels von den Medien als wissenschaftliche Revolutionen gefeiert werden. Erschwerend kommt ein neues Phänomen hinzu, das die Lage noch unübersichtlicher macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz, scheint die intellektuelle Tugend des Verdichtens über- flüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen. Leider sind diese nicht klüger als ihre Entwickler.

Werfen wir zur Veranschaulichung einen kurzen Blick auf die “Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erin nert, die Kybernetik, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und natürlich an die Chaostheorie. All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem, hellen Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien anfänglich seriöse Fragestellungen, die jedoch einen eng umgrenzten Geltungsbereich betrafen. Dieser beschränkte Geltungsbereich wurde dann aber über die Maßen aufgeblasen. So entstanden in kürzester Zeit luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir pars pro toto die Chaostheorie. Auch hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, langfristig nicht prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass sich noch nicht einmal die Zukunft eines extrem vereinfachten Planetensystems aus nur drei Körpern bestimmen lässt. Ursachen der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Weder lassen sich die Startbedingungen der untersuchten Systeme völlig exakt festlegen noch weiß man, wie beliebig kleine Störungen wirken. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch oder den Einfluss des sprichwörtlichen Elektrons am Rande des Universums, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben mehr über die Dynamik der Kugeln machen. Das ist eine grundlegende Erkenntnis: Selbst einfachste Systeme können sich unserem prognostischen Zugriff entziehen.

Und die Chaostheorie hat weitere Verdienste. Der Meteorologe Edward Lorenz stieß auf das sogenannte computational chaos. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter nicht-linearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie in der Rechenmaschine intern gerundet wird. Dieses computational chaos macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal ob es sich um Klimasimulationen handelt oder aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Model und dessen Diskretisierung, von Algorithmisierung und Implementierung des Algorithmus mittels einer Software auf einem Computer, ist eine delikate Angelegenheit. Selbst die spezielle Hardware spielt eine Rolle. Auch in diesem Zusammenhang können also kleine Fehler große Auswirkungen haben.

Das sind in wenigen Worten wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik. Plötzlich war das Chaos allgegenwärtig! Mathematische Konstrukte wie die Seltsamen Attraktoren tauchten im Gehirn auf und machten angeblich den freien Willen möglich oder nach Bedarf auch die Kreativität und überall trieb das das Apfelmännchen sein Unwesen. Doch selbst im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden sondern von ausgewiesenen Spezialisten wie Joseph Ford: Zahlen wurden zu Gründen, die etwas bewirken! Angeblich verdanken sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten. Das ist eine nicht zu laut ausgesprochene Forderung, die vor allen Dingen mit der Quantenmechanik kollidiert. Auf deren Unsinnigkeit hat Max Born schon vor 60 Jahren hingewiesen. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird. Zahlen gehören nämlich zur symbolischen Beschreibungsebene. Sie sind deshalb keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein “T“ aussehen muss, da in dem Wort “Tisch“ ein “T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wie kommt es nun, dass die wissenschaftlichen Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder besagte Elektrodynamik? Bleiben wir bei der Chaostheorie. Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, dass unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, sodass der Überblick schnell verloren ging: Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen “semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kurzer Zeit nicht mehr in der Lage, die “Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich aber weniger einer eigenständigen Reflexion, als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der “high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, dass mit ehrlicher Erkenntnissuche nichts mehr zu tun hat. Die Medien brauchen den Experten, die Experten die Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand zu einer Theorie für Alles und Jedes: je nach Bedarf lässt sich der frei Wille “erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls, … .

Wenn dann schließlich die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation. Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen und nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern Unrecht getan wird, die lege artis arbeiten und denen wir echten Fortschritt zu verdanken haben.

Zu allem Überfluss ist die Situation heute noch unübersichtlicher geworden. Die oben genannten Theorien ließen sich wenigstens noch in Büchern nachlesen und mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern, bekommt das Erkenntnisproblem eine zusätzliche Dimension. Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann. Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist wie angesprochen komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren, das der transsubjektiven Überprüfbarkeit. Dieses sperrige Wortungetüm ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.
Es ist zum Beispiel nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist.

In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil nicht einmal mehr richtig klar ist, was unter einer mathematisch Wahrheit zu verstehen ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften. Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In über 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, sodass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein ehernes Prinzip der Mathematik. Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein ziemlich altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort und die Welt fängt an zu singen, triffst Du nur das Zauberwort“. Egal ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch in einem raffinierten Computeralgorithmus,…. Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt. Genau das beinhaltete die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene “Korrelationsmathematik“ entfernt, mit der Computeralgorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten? Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Das hieße eine Korrelation mit einer kausalen Beziehung zu verwechseln, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiter bedienen, aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine new “kind of science“ und es ist fahrlässig den Prozess der Erkenntnis aus der Hand zu geben.
Aus diesem Grund warnte der verstorbene Frank Schirrmacher 2010 völlig zu recht vor der “systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der “Wolke“ keinen Flugverkehr mehr. Das Problem? Die “Wolke“ war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommenen Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte oder nicht. Der digitale Prophet sprach und ein großer Teil des Luftverkehrs stand still. “Und auf einmal sind wir alle nur noch Zuschauer“, stellte Schirrmacher konsterniert fest. Dem kann man nur zustimmen: Das Wissen was eine valide Theorie von einer spekulativen unterscheidet erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr

Die Komplexitätsfalle

Es ist verhängnisvoll, wenn wir selbst eine Welt schaffen, die wir nicht verstehen. Es wäre zu unserem Vorteil dort, wo es möglich ist, Komplexität zu reduzieren

Der Logiker Kurt Gödel traute seinen Augen nicht. Beim Studium der amerikanischen Verfassung fiel ihm auf, dass es möglich war – vorausgesetzt die Paragraphen wurden geschickt kombiniert – auf legalem Weg aus der Demokratie eine Diktatur zu machen. Diese Einsicht war nicht nur für Amerika brisant sondern auch für ihn selbst: Am nächsten Tag – dem 2. April 1948 – stand seine Prüfung in Staatsbürgerkunde an. Diese musste er als Exilant bestehen, um eingebürgert zu werden und es war wahrscheinlich, dass er mit seinem Wissen nicht hinter dem Berg würde halten können. Am Tag der Entscheidung versuchten seine besten Freunde – Albert Einstein und Oskar Morgenstern – Gödel mit Späßen von seiner spektakulären Erkenntnis abzulenken, doch es half nichts. Der Logiker gehorchte einem starken inneren Zwang und brachte seine Argumente vor. Zu seinem Glück traf er auf den gnädig gestimmten Richter Phillip Forman, der den Beweisgang für eine akademische Schrulle hielt und dem Logiker bereitwillig die notwendigen Papiere aushändigte.

Ist das nur eine Anekdote aus dem akademischen Kuriositätenkabinett oder steckt eine tiefere Wahrheit dahinter? Festzuhalten ist, dass es eines Genies wie Kurt Gödel bedurfte, den Widerspruch offenzulegen, dass ein und dieselbe Verfassung zwei sich ausschließende Staatsformen zulässt. Offenbar war das vor ihm den Juristen nicht aufgefallen. Festzuhalten ist aber auch, dass selbst Kurt Gödel nicht in der Lage gewesen wäre, die Widerspruchsfreiheit komplexerer Regelwerke zu beweisen. Nehmen wir aus aktuellem Anlass das Bündel von Gesetzen, das in Europa diverse Rettungsschirme zu regeln vorgibt und mit dem Anspruch erschaffen wird, auf den Markt in voraussehbarer Weise reagieren zu können. Glaubt wirklich noch jemand, dass es einen Menschen gibt, der die möglichen Konsequenzen eines solchen Regelsystems vollumfänglich überschaut? Ein solches bürokratisches Monstrum hätte in seiner überbordenden Komplexität nicht nur das Gehirn von Kurt Gödel überfordert, den Zeitgenossen für den größten Logiker seit Aristoteles hielten. Selbst eine Taskforce der brillantesten Köpfe, die sich der leistungsfähigsten Computer bedienen dürfte, würde scheitern. Der Grund ist ein Komplexitäts-GAU auf mehreren Ebenen. Das was geregelt werden soll, entzieht sich der exakten Analyse. Heute existieren globale Märkte, äußerst verschachtelte Geldkreisläufe mit Handelsplätzen im virtuellen Raum, in denen Finanztransaktionen gigantischen Ausmaßes im Mikrosekundentakt von Computeralgorithmen durchgeführt werden, deren fehlerfreies Funktionieren nicht garantiert werden kann. Demgegenüber steht eine Gesetzgebung, die den Anschein erweckt, dem Treiben einen geordneten Rahmen zu geben, dabei aber selbst so kompliziert geworden ist, dass auch Experten sich schwertun die Gesetze konkret auszudeuten. Als Beispiel sei an den wochenlangen Streit erinnert, ob der ESM für Deutschland eine Haftungsobergrenze festlegt oder nicht. Da die beiden Sphären zu allem Überfluss nicht getrennt sind, sondern in komplizierter Weise miteinander interagieren, sehen wir uns mit einem undurchschaubaren Wechselwirkungsgeflecht konfrontiert, dessen Verhalten wir nicht verstehen und das in seiner fundamentalen Unvorhersehbarkeit Ängste hervorruft. Wir haben heute nicht mehr das Lebensgefühl des von der Sonne der Vernunft beschienenen Aufklärers, sondern das des verwirrten Steinzeitmenschen, der den rätselhaften Geschehnissen der ihn umgebenden Welt keinen rechten Sinn abtrotzen kann. Im Falle des Steinzeitmenschen war es die unerklärliche Natur – das Unwetter, die Dürre, der Vulkanausbruch – die ihn ängstigte, während wir uns heute in den Nebeln eines Informationsuniversums verlieren, das wir leichtfertig selbst erschaffen. Auf diese Weise machen wir uns zu Sklaven einer überkritischen Komplexität, die vernunftbasiertes Handeln nicht erlaubt, da niemand mehr in der Lage ist, auf der Grundlage von Erfahrungen verlässliche Prognosen für die Zukunft abzugeben.

Wie konnte es soweit kommen und warum wehren wir uns nicht? Das hat im wesentlichen zwei Gründe: Das begriffliche Werkzeug mit dessen Hilfe sich die Problematik zwar nicht lösen aber zumindest sezieren lässt, liegt in den Lehrbüchern der theoretischen Informatik verborgen, die nicht jeder liest. Darüber hinaus gibt es eine Gilde einflussreicher Komplexitätsgewinner, die kein Interesse daran haben, ihr Treiben durchleuchten zu lassen und es vorziehen, im Trüben zu fischen.

In der Algorithmik, einem Teil der theoretischen Informatik, gibt es mehrere Ergebnisse, die in unserem Zusammenhang von Bedeutung sind: Da existieren das Turingsche Halteproblem und der noch umfänglichere Satz von Rice. Beide setzen der sogenannten Programmverifikation Grenzen. Des weiteren ist jeder Programmierer und Anwender mit dem verwirrenden Phänomen der Zeitkomplexität konfrontiert.

Wenn ein Computerfachmann sich daran macht, einen Algorithmus – das ist ein rezeptartiges mathematisches Verfahren – zu programmieren, dann verbindet er mit dieser Tätigkeit einige Wünsche: Er möchte, dass das Programm auch tatsächlich das Problem löst, das es zu lösen vorgibt. Außerdem soll es korrekt sein: Zulässige Eingaben führen automatisch zu richtigen Ergebnissen. Desweiteren will er nicht, dass sich das Programm in einer Schleife aufhängt oder anderweitig ewig läuft. Und ganz allgemein hofft er, seine Ergebnisse in einer vernünftigen Zeitspanne zu erhalten.

Diese Wünsche wirken banal und als Nicht-Informatiker ist man überrascht, dass sich in diesem Feld einige der tiefsten und elementarsten Probleme der Mathematik verbergen. Mit den Wünschen des Programmierers verhält es sich nämlich wie mit dem Wunschzettel eines kleinen Mädchens. Dieses wünscht sich zu Weihnachten ein echtes Pferd und findet dann ein Steifftier mit Mähne unterm Baum. Der britische Logiker Alan Turing bewies, dass es kein allgemeines Verfahren gibt, mit dessen Hilfe sich sicher entscheiden ließe, ob ein gegebenes Programm bei einem bestimmten Input irgendwann anhält oder aber unendlich lang weiterläuft. Erstaunlicherweise kann das schon für einfache auf dem Computer implementierte Funktionen gelten, die jeder Schüler der 10. Klasse nachvollziehen kann. Der Satz von Rice verschärft das Ergebnis von Turing und führt zu der paradox anmutenden Konsequenz, dass fast alle Fragen, die die Berechenbarkeit von Programmen angehen, unberechenbar sind und damit nicht verlässlich entschieden werden können. In der Praxis der realen Softwareentwicklung hat das eine erstaunliche Konsequenz: Es kann kein allgemein algorithmisiertes Prüfverfahren geben, welches ein beliebiges Programm verifiziert. Deshalb ist nicht prinzipiell zu gewährleisten, dass sich ein fragliches Programm entsprechend der Ansprüche, die man an es stellt, verhält. Überall dort, wo Computer, Software und Eingabedaten eine kritische Komplexität überschreiten, sind Pannen möglich. Davon zeugen verschiedenste Weltraumdesaster – abstürzende Nasa-Raumsonden genauso wie explodierende Arianeraketen – die sich unerkannten Softwarefehlern verdankten. Man kann aber auch irdische Probleme ins Auge fassen: Jeder, der mit dem millionenfach verbreiteten Textverarbeitungssystem Word arbeitet, an dem tausende von Programmierern seit Jahrzehnten tüfteln, weiß von diversen Fehlern zu berichten. Ein Word-Programm ist allerdings ein übersichtliches Szenario im Vergleich mit den unterschiedlichsten Hochgeschwindigkeits- Tradingalgorithmen, die weltweit zur Anwendung kommen, um Börsengeschäfte zu tätigen und permanent miteinander interagieren. Da tickt eine Bombe. Im Lichte der Ergebnisse von Turing und Rice ist es geradezu zwangsläufig, dass immer wieder rapide Schwankungen an der Börse auftauchen, die sich auf die Schnelle niemand erklären kann. Dass dann ein Team von Experten monatelang rätselt, was genau beim “Flash-Crash“ an der Wallstreet passierte, als binnen von Minuten die Kurse in den Keller rauschten, lässt sich mit einem Prinzip des unlängst verstorbenen Kybernetikers und Hirnforschers Valentin Braitenberg verdeutlichen. Braitenberg ist der Autor des Buches “Vehicles“, das in Amerika lange Zeit Kultstatus hatte. In diesem Buch proklamiert er das Prinzip der “Simplen Synthese und komplizierten Analyse“. Schon mit einfachsten Mitteln lässt sich ein komplexes Verhalten generieren, das sich aber nur schwierig analysieren lässt. Braitenberg beschreibt in seinem Buch kleine käfergleiche Maschinen, die einfachst programmiert sind und miteinander auf einem Tisch in Wechselwirkung treten. Der beobachtende Mensch meint Liebe, Mitleid, Hass und Agression in den Interaktionen zu erkennen. Aus dem beobachteten komplizierten Verhalten auf die zugrundeliegende Programmstruktur zu schließen ist aber höchst aufwendig, manchmal unmöglich. In extenso begegnen wir diesem Problem bei den angesprochenen vernetzten Computersystemen. Wir sind deshalb gezwungen festzustellen, dass die globalisierte Finanzwirtschaft mit ihren virtuellen Marktplätzen ein erratisches Element enthält, das nicht eliminierbar ist und sich im Schadensfall nur mit größtem Aufwand analysieren lässt.

Diesem digitalen Moloch steht nun eine Gesetzgebung gegenüber, die mit dem idealistischen Anspruch auftritt, das Treiben zu regulieren. Leider hat diese ebenfalls einen “prognostischen Schatten“. In der Informatik entscheidet man zwischen der Existenz und der Effizienz von algorithmischen Lösungen. Die Sätze von Turing und Rice beschäftigen sich mit der Existenz von Lösungen. Bei Fragen der Effizienz gibt es Lösungsalgorithmen. Es stellt sich jedoch die Frage, welche Ressourcen an Speicherplatz und Rechenzeit sie in Anspruch nehmen. Und gerade die Frage nach der Rechenzeit hat ihre Tücken, vor allen Dingen, wenn die Eingaben umfangreicher werden. Dieser Sachverhalt ist auch für die Rechtssprechung von Bedeutung. Vereinfacht gesprochen lassen sich zwei Problemklassen unterscheiden. Es gibt Probleme, die auf einen Zuwachs an Komplexität “gutartig“ reagieren. Mit wachsender Größe nimmt die Rechenzeit in beherrschbarer Weise zu. Mittels der Zinseszinsformel lässt sich die Vermögensentwicklung auf dem Sparbuch berechnen, auch wenn man viel Geld besitzt. Leider gibt es aber auch “bösartige“ Probleme. Mit wachsendem Umfang der Eingangsdaten explodiert die Rechenzeit. Erstaunlicherweise gehören zu den “bösartigen“ Problemen viele banale Fragestellungen. Ist es tatsächlich so schwer herauszubekommen, wie man verschiedene Gegenstände in Schubladen packen muss, damit sie so wenig Platz wie möglich einnehmen? Ist es nicht leicht, Stundenpläne zu entwerfen, die möglichst wenig Freistunden haben? Und in unserem Zusammenhang interessiert uns, was daran kompliziert sein soll, bei einem Bündel von Aussagen deren Widerspruchsfreiheit zu garantieren. Tatsächlich sind diese Fragen einfach zu beantworten, solange das Problem eng umgrenzt ist. Das ändert sich radikal, wenn die Eingabedaten größer werden. Die Anzahl der Fälle, die geprüft werden muss, wächst rasant und damit explodiert die Rechenzeit. Es ist wichtig zu verstehen, dass diese explodierende Rechenzeit eine echte Erkenntnisgrenze darstellt. In der Praxis lässt sich das Problem nicht entscheiden. Nehmen wir als Beispiel einhundert Aussagen, deren Widerspruchsfreiheit wir prüfen wollen. Es reicht nicht, diese paarweise in Beziehung zu setzen und zu schauen, ob sie miteinander verträglich sind. Die Widersprüche können versteckt sein. Man betrachte die drei Sätze: “Gras ist grün“, “Heu ist Gras“, “Heu ist goldgelb“. Und die Verschachtelungen können komplizierter und tiefgründiger sein. Das hat zur Konsequenz, dass exponentiell viele Teilmengen der Ausgangsmenge auf Stringenz geprüft werden müssen. Leider sprengt dieses Problem schon bei ein paar Hundert Aussagen jeden Rahmen und wird in realistischer Zeit unlösbar. Ein Computer von der Größe des Universums müsste selbst bei maximal denkbarer Rechengeschwindigkeit einige Milliarden Jahre lang rechnen, wie die Informatiker Larry Stockmeyer und Albert Meyer zeigten! Dieser Sachverhalt kann als eindrückliche Warnung für alle Politiker betrachtet werden, die Gesetze auf den Weg bringen, die mit der heißen Nadel gestrickt sind. Es steht zu befürchten, dass deren Konsistenz nicht gesichert ist. Der Wunsch alles und jedes regeln zu wollen führt dann dazu, dass sich die Gesetzgebung ad absurdum führt und ihre praktische Anwendbarkeit verliert. Vor diesem Hintergrund ist es nicht überraschend, dass das deutsche Steuerrecht selbst von den Finanzämtern nicht mehr durchgängig angewendet werden kann. Man muss kein Prophet sein, um vorauszusehen, dass der europäischen Rechtssprechung ein vergleichbares Schicksal droht.

Was soll man tun? In einem ganz anderen Bereich, dem Industriedesign, deutet sich eine Lösung an. Die Zauberformel nennt sich „simplicity“. Damit ist gemeint, dass es von Vorteil ist, Benutzeroberflächen so zu gestalten, dass Komplexität für den Anwender auf die wesentlichen Bestandteile reduziert wird. Man muss nicht alles machen, was machbar ist! Doch nichts ist schwieriger, als die Myriaden möglicher Funktionen auf die Essentiellen zu beschränken. Die Firma Apple hat dieses “reduce to the max“-Prinzip zum Leitsatz erkoren und ist deshalb das teuerste Industrieunternehmen der Welt, auch wenn man zugeben muss, dass die Applephilosophie ihren geistigen Vater in Deutschland hat: Es war der Visionär Dieter Rams, der als Designer bei der Firma Braun einen Standard setzte und seiner Zeit um mindestens vierzig Jahre voraus war.

Was kann man im Rahmen der Politik aus diesem Ansatz lernen? Viel. Initiativen zum Bürokratieabbau zeigen in die richtige Richtung. Doch das Problem hat weitere Facetten. Leider gibt es im Wechselspiel von Wirtschaft und Politik Menschen und Institutionen, die von Komplexität und Unübersichtlichkeit profitieren. Auf der gesetzgeberischen Seite denke man an Spezialisten, die sich unverzichtbar machen, da sie sich in dem Wirrwarr, das sie erzeugen, vergleichsweise gut auskennen. In diesem selbstreferentiellen System zementieren ihre Positionen. Minister können häufig wechseln, bevor ein Staatssekretär seine Stelle räumt. Und auf der anderen Seite des Grabens steht der Politik eine entfesselte Finanzwirtschaft gegenüber, die das Prinzip der Unübersichtlichkeit zur Blüte entwickelt hat. Die bewusste Komplizierung von Anlageprodukten und deren Handel ist ein Geschäftsmodell, von dem Insider maximal profitieren. Banken entwickeln kryptische Limits für Wertpapiertransaktionen, damit die von ihnen verwendeten Computer im Handel mit solchen Werten einen geldwerten Zeitvorsprung gewinnen. Geldhäuser wie Goldmann Sachs beschäftigen Physiker, die sogenannten Quants, deren Aufgabe darin besteht, extrem komplizierte Derivatkonstruktionen zu erschaffen, die außer ihren Erschaffern niemand versteht. Genau dieser Punkt ist ihre Existenzberechtigung, eine raffiniert ausgedachte Komplexitätsfalle, die keine andere Funktion hat, als das Unwissen der Kunden zum eigenen Vorteil auszunutzen. Bankintern werden diese Konstrukte als „Black Boxes“ bezeichnet. Sinn und Zweck ist es, die sogenannten “Muppets“ – gutgläubige Kunden – zu schröpfen. Bleibt hinzuzufügen, dass Teile der Finanzwelt auch vor Verbrechen nicht zurückschrecken. Es sei nur an die Manipulation des LIBOR erinnert, ein Zinssatz für den Interbankenhandel, der der Allgemeinheit bis vor kurzem unbekannt war. Auch hier liegt der Reiz für die Banken in der Ausnutzung eines Wissensvorsprungs, denn die Geldmengen, für welche der LIBOR verbindlich ist, sind gigantisch und entsprechend einträglich sind die Geschäfte, wenn man untereinander mauschelt und den Zins in seinem Sinne ändert.

Vom Standpunkt der Allgemeinheit gesehen, ist es ein solches Verhalten nicht nur verantwortungslos – es ist gemeingefährlich. Eine Demokratie lebt davon, dass Bürger und Politiker zumindest prinzipiell in der Lage sind zu verstehen, worüber sie entscheiden. Und welchen Schaden die Quants anrichten, haben wir in den letzten Jahren zu spüren bekommen. Leider sind Kompetenz und Wahrnehmung der Superhirne auf die “Black Boxes“ beschränkt und die alte Berliner Weisheit “Erstens kommt es anders und zweitens als du denkst“ wird ausgeblendet. Doch die Zukunft ist nicht zwangsläufig die harmonische Verlängerung der Vergangenheit. Der Missachtung dieser Tatsache verdanken wir die Weltfinanzkrise, da die realen Szenarien mit ihrer unvorhesehbaren Dynamik in den naiv simulierten Wirklichkeits(t)räumen nicht vorkamen.

Es ist Zeit, die Bremse einzuschlagen. Momentan irren wir alle ohne Kompass durch ein Informationsuniversum, das mit seiner chaotischen Dynamik beträchtliche Konsequenzen für uns haben kann. Deshalb muss Einfachheit dort, wo sie möglich ist, angestrebt werden.

“Das große Ziel der Wissenschaft“ schrieb Gödels Freund Albert Einstein, “ ist es, die größtmögliche Zahl von empirischen Tatsachen durch logische Ableitung aus der kleinsten Zahl von Hypothesen oder Deduktionen zu erfassen.“ Gute Gedanken verdichten viele zusammenhangslose Fakten zu einem sinnvollen Ganzen. Doch das Erarbeiten wertiger Prinzipien benötigt nicht nur in den Wissenschaften Zeit und Anstrengung. Es ist die schwierigst denkbare Aufgabe. In diesem Sinn ist es zu begrüßen, wenn sich das Bundesverfassungsgericht gegen den akzelerierten Zeitgeist stemmt, das Problem des ESM sorgfältig analysiert und mit den Grundrechten der Bundesrepublik Deutschland in Beziehung setzt. Das ist kein Luxus, das ist eine Überlebensnotwendigkeit.

Zahlenzauber

Es ist ein Irrglaube, dass die Welt in ihrer Gesamtheit berechenbar ist. Deshalb muss mathematischen Modellen, die Exaktheit suggerieren, wo keine zu finden ist, mit Skepsis begegnet werden.

Was haben Pythagoras und Michael Osinski gemeinsam? Dem ersten Anschein nach nichts. Der Amerikaner Osinski war ein erfolgreicher Programmierer an der Wallstreet, der eine verhängnisvolle Software schrieb, die die Bankenkrise mit verantwortete. Pythagoras kennen wir als Philosophen, der an die Seelenwanderung glaubte, einen mathematischen Satz über rechtwinklige Dreiecke formulierte, seinen Jüngern verbot Bohnen zu essen und ausgedehnte Spaziergänge in die Einsamkeit machte, um verzückt dem Klang der Planeten zu lauschen, wenn diese durch den Weltraum eilen.

Doch trotz der zweieinhalbtausend Jahre die zwischen Pythagoras und Michael Osinski liegen, trotz der gänzlich verschiedenen Lebensformen dieser zwei Menschen – hier ein Philosoph, der unter südlicher Sonne der Kontemplation frönt, dort ein gehetzter Wallstreetjunkie, der sich am schnellen Geld berauscht – existiert ein unsichtbares Band zwischen den beiden. Wahrscheinlich ohne es selbst zu wissen, ist Osinski eine Art Widergänger des Pythagoras und huldigt wie dieser einem fast mystisch verklärten Glauben an die Berechenbarkeit der Welt. Und ein Osinski ist in unserer Zeit keine singuläre Erscheinung. Im Gegenteil. Er ist nur Protagonist einer sich endemisch verbreitenden “wissenschaftlichen“ Weltanschauung. Diese manifestiert sich in der kritiklosen Verwendung mathematischer Verfahren, die unter Verwendung fragwürdiger Formeln eine Exaktheit vorgaukeln, die auf tönernen Füßen steht. Da in diesem Zusammenhang auch noch Großrechner zum Einsatz kommen, auf denen äußerst komplizierte Software implementiert ist, entsteht in der Summe eine numerische Komplexität, die viele ihrer Schöpfer nicht mehr überschauen. Erinnert sei nur an den “Flashcrash“ an der Wallstreet, bei dem die Tradingalgorithmen aus dem Ruder liefen oder an besagte Bankenkrise, die sich in nicht unwesentlichen Teilen fehlerhaften Programmen verdankte. Erinnert sei auch an das falsche Rating, das die Computer von Standard&Poors unlängst ausspuckten und damit Frankreichs bis dato erstklassige Bonität in Frage stellten. Daraufhin zitterten die Börsen bedenklich. In einer global vernetzten Welt sind solche Pannen gefährlich und der Umstand, dass Menschen wie Osinski nicht wie seriöse Wissenschaftler agieren, sondern in ihrem Tun eher an Goethes Zauberlehrling erinnern, dem das Wasser bis zum Hals steht, muss uns beunruhigen. Im Gedicht erledigt der alte Hexenmeister den Spuk, in unserer Zeit ist ein solcher Retter nicht in Sicht. Was läuft da falsch? Die Gründe sind vielfältig und es hilft, einen kurzen Blick zurückzuwerfen.

Die Lehre des Wundermanns

Der spiritus rector des heute verbreiteten Kalkulationismus – des naiven Glaubens an die Berechenbarkeit der Welt – ist besagter Pythagoras.
Sein Schlüsselsatz lautete: “Alles ist Zahl“. Mit dieser Aussage wurde er zum Stammvater eines Zahlenkults, der die Mathematik zum Fetisch machte und Mathematiker zu Hohepriestern. Der Philosoph Bertrand Russell hielt ihn für den einflussreichsten Denker, der je auf Erden gelebt hat. Wenn man in Betracht zieht, welchen Stellenwert die Mathematik in unserer Zeit genießt, ist man geneigt, sich dieser Einstellung anzuschließen. Es erstaunt nicht dass Pythagoras, der von seinen Jüngern als “Wundermann“ bezeichnet wurde, ein ausgeprägtes Ego besaß. Er hielt sich für einen Halbgott. “Es gibt Menschen und Götter und Wesen wie mich“, soll er von sich behauptet haben. Trotz dieser Hybris hatte seine Philosophie einen blinden Fleck und dieser ist auch für alle späteren Weltanschauungen kennzeichnend, die sich unausgesprochen auf ihn beziehen und unterstellen, dass die Tiefenstruktur der Welt mathematisch ist und sich deshalb vollumfänglich in ein symbolisches Korsett zwängen lässt. Heute wie damals wird oft versäumt zu prüfen, ob eine Mathematisierung überhaupt sinnvoll ist.
Nach der Lehre des Pythagoras hatte sich die Welt aus der Zahl Eins entwickelt und alle Dinge entsprachen Zahlen. Ihre Harmonie offenbarte sich darin, dass diese Dinge in einem ganzzahligen Verhältnis zueinander stehen sollten. Diese “Entdeckung“ verdankte Pythagoras dem Studium der Saiteninstrumente. Zupft man eine Saite und teilt sie dann, so erhält man mit dem Verhältnis 2:1 eine Oktave, ein Teilen 3:2 ergibt eine Quinte und 4:3 eine Quarte. Eine schöne Erkenntnis, die jedoch von ihm ohne zu zögern auf das Weltganze ausgeweitet wurde. Von der schwingenden Saite zur Sphärenharmonie der Himmelskörper war es für Pythagoras nur ein kleiner Schritt. Doch schon der Philosoph irrte mehrfach. Johannes Kepler – in seinem Herzen eigentlich auch ein Pythagoräer – beugte sich mutig der Macht des Faktischen: Auf Ellipsen eiern die Planeten um die Sonne, nicht auf göttlichen Kreisen die in harmonischen Beziehungen zueinander stehen. Und schon zu Zeiten von Pythagoras war klar, dass es inkommensurable geometrische Figuren gibt, deren Saitenlängen nicht in einem ganzzahligen Verhältnis zueinander stehen. Ein Jünger – Hippasos von Metapont – war so unvorsichtig, das auszuplaudern und bezahlte seine Schwatzhaftigkeit mit dem Leben. Er wurde von den anderen im Meer ertränkt.

Während die argumentativen Kapriolen des Vorsokratikers schnell zu entlarven sind, ist das bei mathematischen Modellen der Gegenwart schwieriger.
Was sollen wir von komplizierten Formeln halten, die vorgeben zu beschreiben, wie unser Gehirn funktioniert und deren Erschaffer die Überzeugung vertreten, dass chaotische Attraktoren in unseren Köpfen ihr Unwesen treiben und als Zufallsgeneratoren den freien Willen ermöglichen? Wie steht es um Formelsysteme, die angeben, wie Kriege zwischen verfeindeten Staaten zustande kommen? Und sollen wir mathematischen Modellen in den Volkswirtschaften trauen, die an jeder Universität gelehrt werden, die sich aber auf zweifelhafte Annahmen stützen, wie Menschen handeln? Müssen wir darüber hinaus Simulationen des Klimas ernst nehmen, deren Ziel es ist, dieses in 100 (!) Jahren vorauszusagen?
Die Beantwortung solcher Fragen ist kein akademisches Glasperlenspiel! Wie oben angesprochen, agieren die Erschaffer solcher symbolischen Konstrukte nicht im luftleeren Raum. Leichtgläubige Banker verließen sich überall auf der Welt auf eine Software von Michael Osinski, mit der dieser vorgab, die Ausfallwahrscheinlichkeiten von gebündelten Krediten beurteilen zu können. Auf der Basis von Klimamodellierungen werden Anlageentscheidungen getroffen, die in die Billionen gehen! Damit wird das, was bei Pythagoras als intellektuelle Grille eines Sonderlings begann, zu einer Schlüsselfrage unserer Zeit: Was sind und was können mathematische Modelle, die auf Supercomputern implementiert werden? Und wo sind ihre Grenzen?

Um wenigstens ein Gefühl für die Komplexität dieser Fragen zu bekommen, ist es notwendig, das Problem zu simplifizieren. Es lohnt sich in Gedanken eine kurze Zeitreise zu machen. Wir beobachten Galileo Galilei, bei einem Experiment, das in dieser Form nie stattgefunden hat und fragen uns, wie man aus Messresultaten überhaupt eine valide mathematische Beschreibung ableitet.

Die Zahlenwolke

Dass Galilei das Fallgesetz entwickelt hat, indem er Gegenstände vom schiefen Turm von Pisa warf, gehört in das Reich der Legende. Aus Gründen der Anschaulichkeit stellen wir uns das trotzdem vor. Unser gedachter toskanischer Turm ist aber nicht schief sondern gerade und er hat zehn anstatt sechs Stockwerke. Der Italiener fragt sich, wie lange eine Metallkugel wohl benötigt, wenn man sie im dritten Stock loslässt und wartet, bis sie auf dem Boden aufschlägt. Um diese Frage zu beantworten, muss er messen. Aber was? Und wie muss er messen? Galilei entscheidet sich, bestimmte Eigenschaften zu ermitteln und andere nicht. Dieser Punkt ist wichtig, da sich in ihm ein wissenschaftliches Vorverständnis ausdrückt, das angemessen, unvollständig oder auch falsch sein kann. Intuitiv sieht er von der Farbe der Metallkugel ab, auch der Temperatur derselben misst er keine Bedeutung zu. In einer visionären Vorahnung verzichtet er sogar darauf, die Masse der Kugel zu bestimmen. Stattdessen will er die Abwurfhöhe messen. Auch ermittelt er die Zeit, die sie benötigt, bis sie auf dem Boden aufkommt. Alle Werte, die er mit einwandfrei funktionierenden Messinstrumenten erhebt, werden notiert. Jetzt entschließt er sich, die Abwurfhöhe zu ändern. Er klettert in den vierten Stock, wirft und misst – erneut zehn Mal. Das Procedere wiederholt er im fünften, sechsten, siebten und achten Stock. Der alte Mann atmet angestrengt, die obersten Stockwerke spart er sich. Alle Werte hat er sorgfältig in sein Buch geschrieben. Er hat nun vor Augen, was der Wissenschaftsphilosoph Hugo Dingler als Zahlenwolke bezeichnete. Um Ordnung in die Wolke zu bringen, verwendet er ein Koordinatensystem, um etwa die Fallzeit in Abhängigkeit von der Abwurfhöhe einzutragen. Er möchte gerne eine mathematische Funktion finden, die die Messwertverteilung abbildet. Und wieder ist Intuition gefragt. Die Aufgabe ist nicht trivial, da es theoretisch unendlich viele Möglichkeiten gibt. Trotzdem findet er mit sicherem Gespür einen aussichtsreichen Kandidaten. Als im Kern faulem Menschen kommt ihm eine Idee. Wenn er andere Abwurfhöhen in sein Modell einsetzte, könnte er sich vielleicht die anstrengende Kletterei sparen. Als seriöser Wissenschaftler prüft er seine Voraussage noch einmal an der Realität. Er klettert in den neunten Stock, wirft und misst. Und tatsächlich, die Formel erweist sich als richtig. Auch beim Abstieg, als er die Kugel zur Sicherheit noch einmal aus dem zweiten wirft, wird er nicht enttäuscht. Er schließt, dass seine Formel ihre Dienste auch für den ersten und zehnten Stock leisten würde. Stolz verkündet der Wissenschaftler, dass er mit seiner Formel in die Zukunft sehen könne. Selbst wenn man den Turm auf tausend Stockwerke erhöhen würde, wäre er in der Lage zu berechnen, wie lange die Kugel flöge (womit er sich eigentlich schon zu weit aus dem Fenster lehnt). Skeptikern entgegnet er noch, dass jeder Mensch sein Experiment wiederholen könne, um sich von dessen Wahrheit zu überzeugen.

Mathematische Luftnummern

Dieses in seinem Kern nicht schwer zu verstehende Gedankenexperiment, in dem wir das eine oder andere stillschweigend vorausgesetzt oder zurechtgebogen haben, zeigt in verkürzter Form einige wichtige Aspekte seriöser Wissenschaft. Zur seriösen Forschung gehört, dass Wissenschaftler mit normierten Messinstrumenten arbeiten. Das ist eine notwendige Bedingung, damit Experimente “personenunabhängig reproduziert“ werden können. Wenn Galilei proklamiert, dass alle Menschen seine Messungen wiederholen können, dann setzt er genau diese Forderung als gegeben voraus. Alle sollen mit gleichen Maßstäben messen. Das war, anders als oben behauptet, zu Zeiten von Galilei keine Selbstverständlichkeit. Es gab, um ein Beispiel zu nennen, keine zuverlässig funktionierenden Uhren, kein objektivierbares Zeitmaß. Bei Experimenten mit der schiefen Ebene soll Galilei anfänglich ein Kinderlied gesungen haben, um dann zu notieren, bei welcher Silbe die losgelassene Kugel am Boden ankam. Später verwendete er seinen Herzschlag, dann eine Wasseruhr. Darüber hinaus muss ein Wissenschaftler funktionierende von gestörten Messinstrumenten unterscheiden können. Das ist auch in unserer Zeit eine mitunter knifflige Angelegenheit, wie man in der Diskussion um die Überlichtgeschwindigkeit sieht. Sind die gemessenen Neutrinos tatsächlich schneller als das Licht und muss deshalb die spezielle Relativitätstheorie revidiert werden? Eine Revolution! Oder gibt es Messfehler, die sich zum Beispiel fehlerhaft funktionierenden Detektoren verdanken?

Lassen wir jetzt außer acht, dass die heute verwendeten mathematischen Modelle – häufig nicht-lineare Differentialgleichungssysteme – ungleich komplizierter sind, als das Fallgesetz, so reichen die gerade gewonnen Einsichten, um viele kryptische Formelungetüme als zahnlose Tiger zu enttarnen. Wenn etwa in einem mathematischen Modell, das vorgibt, die Entstehung von Spannungen zwischen verfeindeten Staaten zu beschreiben, eine ominöse Größe wie der “Groll“ vorkommt, dann kann man dieses Modell vergessen, da sich Groll anders als Abwurfhöhen und Fallzeiten nicht messen lässt. Ähnlich verhält es sich mit den angesprochenen Gehirnmodellen in denen synaptische Kopplungsstärken zwischen den Nervenzellen auftauchen. Kein Mensch weiß, wie diese zu quantifizieren sind. Dasselbe gilt für in der Finanzmathematik auftauchenden Korrelationskoeffizienten, die günstigenfalls im Einklang mit historischen Daten stehen, aber versagen, wenn es zu unvorhersehbaren Entwicklungen kommt. In diesem Zusammenhang sprechen freundliche Zeitgenossen von rhetorischer Mathematik, die einfach nur Eindruck schinden soll, andere von GIGO-Modellen (Garbage-In-Garbage-Out).

Bis zu dieser Stelle haben wir stillschweigend vorausgesetzt, dass es problemlos ist, die Lösungen des mathematischen Modells zu ermitteln. Das ist jedoch die absolute Ausnahme. In der Regel müssen Lösungen aufwendig genähert werden. Deshalb kommt der Computer ins Spiel. Die Verwendung des Computers bei der Lösung komplizierter Gleichungen ist Fluch und Segen zugleich. Er ist ein Segen, da man mathematische Funktionen berechnen und visualisieren kann, denen man mit Papier und Bleistift auch in Millionen Jahren nicht Herr werden würde. Er ist ein Fluch, da er die erkenntnistheoretische Situation über die Maßen verkompliziert, sodass so manchem Akteur nicht mehr klar ist, was da eigentlich wie berechnet und simuliert wird.

In den Anfängen der Wissenschaft wurde zuerst gemessen und dann modelliert. Heute verfährt man in vielen Fällen andersherum. Die mathematischen Modelle, die dabei zum Einsatz kommen – meist besagte Differentialgleichungssysteme – werden dann diskretisiert und auf dem Computer implementiert. Dort lässt sich mit ihnen vortrefflich spielen. Man kann Anfangs- oder Randwerte variieren, funktionelle Abhängigkeiten verändern oder an den Parametern “drehen“ und sich das Verhalten der “Lösungen“ anschauen. Eine unbeschwerte Reise im Raum der Möglichkeiten. Was sich einfach und verlockend anhört, birgt viele Fallstricke. Zum einen ist gar nicht immer klar, ob die verwendeten mathematischen Modelle überhaupt Lösungen besitzen. Das prominenteste Beispiel sind die für die Klimasimulationen fundamentalen Navier-Stokes-Gleichungen. Bis zum heutigen Tag ist nicht bewiesen, ob eindeutige Lösungen existieren. Das ist ein Millenium-Problem – eines der größten Rätsel der Mathematik. Und selbst wenn sie existierten, ist die Frage strittig, ob diese Gleichungen wirklich die passende Beschreibung für reale Fluide sind. Lassen wir diesen Aspekt außer Acht und nehmen an, dass tatsächlich Lösungen existieren, dann ist in vielen Fällen gar nicht einfach zu entscheiden, ob das, was der Computer berechnet, etwas mit diesen Lösungen zu tun hat. Jeder Computer ist eine endliche Maschine, die in endlicher Zeit immer nur endlich viele Rechenschritte durchführen kann. Das hat zur Konsequenz, dass Zahlen, die unendlich viele Stellen haben, gerundet werden müssen. Diese Rundungen, die auch noch von verschiedenen Computern verschieden bewerkstelligt werden, können massive Konsequenzen haben. Diese Erkenntnis verdanken wir der Chaostheorie genauer dem “computational chaos“. Es ist nicht selten, dass kleinste Veränderungen, Auslassungen oder Fehleinschätzungen zu völlig verschiedenen Lösungen führen. Und Gründe für kleinste Veränderungen gibt es bei der Verwendung von Computern in Hülle und Fülle. Ergebnisse können von der Anzahl der Ziffern, mit denen der Computer rechnet, abhängen, von der verwendeten Gleitkommaarithmetik, sogar von der zum Einsatz gelangenden Programmiersprache. Das gilt besonders im Großrechnerbereich. Japanische Computer arbeiten anders als amerikanische. Simulationen mathematischer Modelle, die empfindlich auf minimale Änderungen reagieren, können sich deshalb sehr unterschiedlich verhalten. Von einem wissenschaftstheoretischen Standpunkt aus gesehen hat das gravierende Folgen. Im Bereich der Simulationen ist eine Normierung, wie wir sie bei den Messinstrumenten kennen, nur in Ansätzen zu erkennen. Das erschwert die „personenunabhängige Überprüfbarkeit“ ungemein.

Das Turing-Trauma

Wenden wir die genannten Kriterien wissenschaftlicher Arbeit einmal auf komplizierte Simulationen an, wie man sie in der Klimaforschung vorfindet. Genauso wie Galilei muss jeder Klimawissenschaftler eine Menge begründeter Vorannahmen machen, welche Zustandsgrößen dem Problem angemessen sind. Zudem sollten diese Größen exakt messbar sein! Wenn man ehrlich ist, weiß heute niemand mit Sicherheit zu sagen, welche Zustandsgrößen in Klimamodellen in welcher Weise exakt zu quantifizieren sind. Erinnert sei an das komplexe Thema der Wolkenbildung und den damit verbundenen Fragen nach der Absorption bzw. Reflexion des Sonnenlichts. Darüber hinaus stellen sich Fragen der Skalierung. Wie eng müssen “Messgitter“ gewählt sein, damit man zu validen Aussagen gelangt? Als nächstes muss das Problem gelöst werden, wie das Modell auf welchem Computer zu implementieren ist. Sind diese Hürden gemeistert, versucht man festzustellen, was die angestellten Berechnungen tatsächlich mit der Wirklichkeit zu tun haben. Dazu müsste man sie idealer Weise mit dieser vergleichen. Galilei konnte immer wieder werfen und messen. Das funktioniert in dieser Form weder bei Simulationen des Klimas noch bei solchen der Volkswirtschaften. Derart komplexen Szenarien lassen sich nicht in einer Laborsituation präparieren. Aus diesem Grund sind wir mit einem erkenntnistheoretischen Problem konfrontiert, das man als Turing-Trauma bezeichnen könnte. Der Logiker Alan Turing artikulierte das sogenannte Halteproblem, das genauso wie die Unvollständigkeitssätze von Kurt Gödel Hilberts mathematische Allmachtsphantasien besiegelte. Aus dem Kontext der Logik herausgelöst kann man es wie folgt ausdrücken: Wenn Sie ein hinreichend komplexes Programm auf einem Computer implementieren, dann wissen sie erst, nachdem es gelaufen ist, wie es sich tatsächlich verhält. Das gilt für verschiedene Eingabekonstellationen, genauso wie für alle Veränderungen an dem Programm, die mit dem Ziel geschaffen wurden, es zu verbessern, die aber tatsächlich auch das Gegenteil bewirken können.

Rufen wir uns an dieser Stelle noch einmal ins Gedächtnis, was Sinn und Zweck eines mathematischen Modells ist. Ein mathematisches Modell ist eine reduzierte Beschreibung der Wirklichkeit, die es uns idealer Weise erlaubt, Ergebnisse zu extrapolieren. Da die Modelle kompliziert sind und nicht mehr per Hand ausgerechnet werden können, müssen ihre genäherten Lösungen mit Computern ermittelt werden. In diesem Kontext arbeitet der Computer wie eine Zeitmaschine! Die Systemzeit ist kürzer als die Realzeit. Genau deshalb kann man im virtuellen Raum Vergangenheit und Zukunft bereisen, immer vorausgesetzt, dass die Simulationsergebnisse mit den Messungen korreliert werden können, um die Validität der Simulation zu gewährleisten. Solche virtuellen Zeitreisen sind übrigens nur dann möglich, wenn das Problem, das mathematisch modelliert wird, reduzibel ist. Das bedeutet, dass es eine gültige reduzierte Beschreibung der Wirklichkeit existiert, die modellhaft die relevanten Aspekte der entsprechenden Fragestellung einfängt. Das ist nicht selbstverständlich. Ist ein Problem nicht reduzibel, hätten Modell und Wirklichkeit dieselbe Komplexität, die Systemzeit entspräche der Realzeit und Vorhersagen wären nicht möglich.

Vor diesem Hintergrund verdankt sich das Turing-Trauma einem methodischen Zirkel. Es findet seine Ursache genau in der Tatsache, dass wir den Computer als virtuelle Zeitmaschine verwenden. Wir wiesen darauf hin, dass das Modell in einer für den Computer verständlichen Sprache artikuliert werden muss. Wie aber prüfen wir, ob die Simulation unseren Ansprüchen genügt? Woher wissen wir, dass die Software keine Fehler hat, dass nicht an den falschen Stellen gerundet wird oder dass sich die Simulation in einer Schleife verfängt? Die Antwort ist frustrierend aber wahr: Nach den Arbeiten von Turing weiß man, dass man die Güte einer Simulation nur dadurch ermitteln kann, dass man sie laufen lässt, um ihre Ergebnisse mit der Realität, über die man ja eigentlich mittels der Simulation etwas erfahren wollte, vergleicht. Das führt das Vorgehen in gewissem Sinne ad absurdum. Natürlich gibt es Simulationen, die mit gegenwärtig gemachten Messungen mehr oder weniger gut korrelieren und die auch noch in der Lage sind, vergangene Messwertverteilungen zu reproduzieren. Nur erlaubt diese Tatsache leider nicht, bedenkenlos weiter auf die Zukunft zu schließen. Es ist wie bei zwei Zügen, die sich eine Weile gemeinsam auf parallelen Gleisen bewegen, bis eine Weiche kommt, die die Wege voneinander scheidet. Der Wert einer Simulation zeigt sich also erst dann, wenn man real an dem Zeitpunkt angekommen ist, dem man virtuell eigentlich vorgreifen wollte.

Damit bekommt die Wahl der passenden Simulationen etwas alchimistisches. Im Schattenreich der verzwickten Beziehungen von Messungen, mathematischen Modellen, deren diskretisierten Formen und numerischen Simulationen bildet sich ein rezeptartiges “Handwerkswissen“ heraus, mit dessen Hilfe in einem Try- and Errorverfahren Modelle selektiert werden – eine fast darwinsche Selektion von Simulationen. Das entspricht der Vorgehensweise der Klimamodellierer, die viele Simulationen parallel laufen lassen und versuchen die guten zu verbessern. Eine Gewähr für wasserdichte Prognosen ist das nicht.

Unter dem Strich sind wir deshalb mit einer verwirrenden Situation konfrontiert, die nachvollziehbar macht, weshalb viele Menschen den Untergangsszenarien mit Missmut begegnen. Mathematische Modelle, die mit dem Zweck geschaffen werden, das Leben versteh und planbar zu machen, bewirken in ihrer überbordenden Vielfalt das genaue Gegenteil. In einem symbolischen Universum tummeln sich solche, die exakt funktionieren und ihre Aufgabe erfüllen. Jeder in die Umlaufbahn geschossene Satellit, der seine berechnete Position einnimmt, zeugt davon. Auf der anderen Seite gibt einen Haufen viel zitierter Modelle, die das Papier nicht wert sind, auf dem sie geschrieben sind. Es gibt Modelle, die funktionieren können, von denen wir aber vielleicht nie erfahren werden, ob sie es wirklich tun. Das alles wäre zu verkraften, wenn ehrlich auf den oft provisorischen Charakter von Simulationen hingewiesen würde. Fehlt diese Bescheidenheit aber und treten Wissenschaftler wie Pythagoras im Gewande eines Zahlenzauberers auf, dann wird es gefährlich. Viele Menschen neigen vor einer komplizierten Formel demütig das Haupt und übersehen, dass wissenschaftliche Propheten auch ganz weltliche Interessen im Blick haben können. Michael Osinski wollte mit seiner missglückten Software Geld verdienen und mancher Wissenschaftler nutzt den sorgsam geschürten Alarmismus, um Forschungsgelder einzuwerben. Klimasimulationen können ein Erkenntnisinteresse bedienen – keine Frage. Als Notwendigkeit nachhaltig zu leben und zu wirtschaften reicht jedoch schon die Erkenntnis, dass die Weltbevölkerung mit exponentieller Geschwindigkeit wächst und unser Lebensraum begrenzt ist. Die Formel, die die vorhersehbare Katastrophe beschreibt, ist seit weit über hundert Jahren bekannt. Um die tödlichen Konsequenzen, die sich aus ihr ergeben, zu verstehen, braucht man noch nicht einmal einen Computer.