Planung des Unplanbaren

Zentralismus in der Pandemie ist Ausdruck einer Kompetenzillusion. Stattdessen muss ganz Deutschland ein lernendes System werden, das aus konkurrierenden und kommunizierenden Untersystemen besteht. Das wird nur mit künstlicher Intelligenz zu schaffen sein.

Ist der sich permanent verlängernde Lockdown Ausdruck einer souveränen Strategie oder eher Zeichen ängstlicher Ahnungslosigkeit? Vermutlich Letzteres. Unsere “Strategie“ erinnert an das einsilbige Mantra alter Hausärzte, die bei jedem Krankheitsbild, das sie nicht recht einzuordnen wussten, Bettruhe empfahlen. Nur kommt man mit einem so dürftigen Vademecum ernsten Leiden nicht bei. In vergleichbarer Weise wird uns die momentane Angststarre und das Perpetuieren des Immergleichen wenig helfen, das Problem der grassierenden Pandemie in den Griff zu bekommen. Natürlich kann man mit einem konsequenten Lockdown die “Pandemie besiegen“. Aber der Preis ist hoch. Nach dem Wügegriff liegen zumindest Teile der Wirtschaft in Scherben. Operation gelungen, Patient tot. 

Der Ansatz ist zu eindimensional. Er kommt maßgeblich dadurch zustande, dass sich Politik und Verwaltung mental eingeigelt haben und wenig Bereitschaft zeigen, zu lernen. Es gibt kein systematisches, von höchster Stelle geleitetes Erkenntnisinteresse, das die zentralen Probleme in den Fokus nimmt. Statt eine belebende Dynamik zu entwickeln, dominiert die Statik. Über 12 Monate sind seit Ausbruch der Epidemie vergangen. Trotzdem weiß man immer noch nicht genau, wo sich die Menschen wirklich anstecken! Welche Tätigkeiten außer Singen, Jodeln und Brüllen sind gefährlich und wo kann man Leine lassen, um die Wirtschaft nicht zu ruinieren? 

Die Gründe für die intellektuelle Bewegungslosigkeit sind vielfältig. An erster Stelle steht ein gravierender Systemfehler: Die Entscheidungsträger, denen die Bürger ein Mandat gegeben haben, damit diese auch in schwierigen Zeiten in ihrem Sinne entscheiden, sind von den Auswirkungen der gegenwärtigen Krise nicht betroffen. Egal wie viele Selbstständige, Künstler, Theatermacher oder Veranstaltungstechniker in existenzielle Schwierigkeiten geraten, Politiker und Verwaltungsbeamte bekommen 100% ihres Gehalts überwiesen. Unter diesen kommoden Umständen gibt keinen Handlungsdruck, was die eigenen Interessen angeht. Es gibt kein “Skin in the Game“. Das ist eine beunruhigende Situation, bei der die Alarmglocken schrillen müssen. Gemäß der Überzeugung des Statistikers Nassim Nicholas Taleb sollte man sich niemals von den Führungsqualitäten einer Elite abhängig machen, die nicht persönlich die Risiken ihrer Entscheidungen mitträgt. Um diesen systemimmanenten Fehler zu beseitigen, böte es sich an, Neuseeland zum Vorbild nehmen: „Wenn es jemals eine Zeit gegeben hat, die Lücke zwischen verschiedenen Gruppen zu schließen, dann jetzt“. 

Dieses Zitat stammt aus dem Mund von Jacinda Ardern, Neuseelands Regierungschefin. Sie verzichtete in der Coronaepedemie erstmal für sechs Monate auf 20% ihres Gehalts! Was spräche dagegen, von unseren Volksvertretern einen vergleichbaren Tribut zu verlangen? Nur dann entstünde eine glaubwürdige Form der Solidarität. “We are all sitting in one boat“ wie Günther Oettinger so schön kalauerte. Stattdessen kultivieren wir eine Zweiklassengesellschaft. Auf der einen Seite das Risikoprekariat, dass von der Epidemie durchgeschüttelt wird, während Privilegierte die Krise nur merken, weil man seinen Kaffee auf der Straße im Stehen trinken muss.

Unabhängig von dieser Ungerechtigkeit müssen unsere Behörden eine andere Dynamik entfalten. Jeder Betrieb lernt, bei Nachfrageschwankungen seine Produktion den aktuellen Gegebenheiten anzupassen. Bei Bedarf wird mehr gearbeitet oder auch weniger. Doch dieses Gesetz gilt nur für den freien Markt. In Deutschland gab es im Katastrophenfall wochenlang(!) zwischen Weihnachten und  Neujahr keine validen Infektionszahlen. Die Büros waren verwaist. Dienst nach Vorschrift. Die Verantwortlichen saßen beim Festschmauß und begrüßten das neue Jahr. Krisenmanagement sieht anders aus. Und Besserung ist nicht in Sicht. Gerade im Moment stellen wir fest, dass es zu wenig Spritzen gibt, um die Vakzine zu verimpfen. Quizfrage: Wie lange wissen wir, dass Impfstoffe hergestellt werden, für die man Spritzen braucht, um sie zu verabreichen?Tatsächlich reimt sich das Verb “verwalten“ nur zufällig auf “gestalten“. Gestaltung aber täte Not. Wir sind schließlich mit einem Komplexitätsmonster konfrontiert, das nicht dadurch verschwindet, dass man die Bürotür hinter sich abschließt. Wollen wir die Krise überstehen, sind wir gezwungen die Komfortzone zu verlassen, um zu lernen. Doch wie soll das gehen?

Es ist entscheidend, Deutschland nicht als monolithischen Block zu betrachten, der zentralistisch regiert wird. Wir brauchen autonome Untersysteme, die konkurrierend und kommunizierend miteinander in Beziehung treten. Wir besitzen in Deutschland 294 Landkreise und 107 kreisfreie Städte. In der Summe also etwa 400 Untersysteme. Diese müssen als Laboratorien aufgefasst werden, die sich mit verschiedenen Strategien an der Wirklichkeit versuchen und durch die verbreiteten Kennzahlen der 7-Tage-Inzidenz und/oder des R-Wertes ein selektierendes Feedback erhalten. Tatsächlich gibt es bereits positive Entwicklungen. Trotz der verbreiteten zentralistischen Tendenz beginnen einige Landkreise und Städte eigenständig und kreativ neue Wege zu beschreiten. Vorreiter der Unangepassten war die Stadt Jena, die als erste eine Maskenpflicht einführte, als die meisten “Spezialisten“ noch der Überzeugung waren, dass sie unnütz ist.  An vorderster Front Weltärztepräsident Frank Ulrich  Montgomery, der als ausgebildeter Radiologe nicht zwingend Experte für epidemiologische Fragestellungen ist. Im Augenblick kreiert Tübingen mit seinem Oberbürgermeister Boris Palmer und der Notärztin Lisa Federle innovative und erfolgreiche Teststrategien. Genauso machen es die Apotheker der Stadt Böblingen, die nicht warten wollen, bis die Verwaltungsbeamten in die Hufe kommen. 

Trotzdem gibt es auch in diesem Zusammenhang einen Systemfehler. Die Wendigen und Einfallsreichen profitieren nur in Maßen von ihrem Einfallsreichtum und ihrer Tatkraft. Der Lockdown gilt für sie mit der gleichen Härte wie in den Landkreisen, die leichtfertig Querdenker-Demonstrationen mit 10 000 Teilnehmern gestatteten und nun unter hohen Infektionsraten leiden. Wenn aber alle, egal was sie tun, über denselben Kamm geschoren werden, kann kein Wettbewerb der Ideen entstehen! Stattdessen wäre zu fordern, dass kreatives und erfolgreiches Handeln belohnt wird. Sind die Infektionszahlen aber alarmierend, bleibt die Belohnung aus. Da, wo die Inzidenzen niedrig sind, wird also kontrolliert gelockert. Dort wo sie hoch sind, nicht. Damit das nicht zu einem unkalkulierbaren Vabanquespiel gerät, braucht es ein durchdachtes Informationsmanagement. Alle Schritte sind sorgfältig zu dokumentieren und zu kommunizieren. Diese Daten müssen permanent gesammelt und ausgewertet werden. Das geht nur mit intelligenter und potenter Datenverarbeitung! Dem Robert-Koch-Institut, der Referenzbehörde, käme in diesem Zusammenhang eine neue Aufgabe zu. Ihre Aufgabe wäre es, eine digitale Task-Force aufzubauen, die die Daten kategorisiert und zueinander in Beziehung setzt, um schlussendlich Korrelationen zu ermitteln. Diese würden es erlauben, über mögliche Ursachen eines sich verändernden Infektionsgeschehens zu spekulieren. Korrelationen in großen Datenwolken zu finden, ist die Paradedisziplinen potenter Big-Data-Algorithmen, die allerdings an das Problemfeld der Corona-Epidemie angepasst werden müssten.

Tatsächlich kommt KI  in der Corona-Epidemie bereits in verschiedenen Zusammenhängen zum Einsatz. Allerdings nicht dort, wo sie helfen könnte, über Sinn oder Unsinn von Lockdown-Maßnahmen zu urteilen. Wo wird KI bisher eingesetzt? Die chinesische Firma Alibaba hat einen Deep-Learning-Algorithmus entwickelt, der in wenigen Sekunden anhand einer Computertomographie erkennt, ob die Lunge eines Patienten vom Corona-Virus befallen ist oder nicht. In internationaler Zusammenarbeit prüfen amerikanische, europäische und chinesische Forscher in welcher Weise bekannte Wirkstoffe und Antikörper auf den Coronavirus wirken. Dazu verwenden sie Summit und Sierra, die potentesten Supercomputer der Welt. Sie erreichen gemeinsam über 300 Billiarden Rechenoperationen pro Sekunde. Doch das ist nicht das Ende der Fahnenstange. Das  sogenannte “Folding@home“-Projekt der Stanford University stellt, was Rechenkraft angeht, alles in den Schatten. Um Wissenschaftler im Kampf gegen das Corona-Virus zu unterstützen, kann jeder Nutzer Rechenleistung seines eigenen Computers zur Verfügung stellen (Volunteer-Computing). Schon im Mai 2020 hatten die weltweit vernetzten Computer mehr Rechenkraft als alle 500 Supercomputer der Welt zusammen. Mit dieser geballten Power untersuchen die Forscher normalerweise wie sich Proteine in Abhängigkeit von ihren Aminosäuresequenzen falten – ein hochkomplexes Problem. Im Fall von Corona werden Schlüsselkomponenten des Virus geprüft, um Strategien zu entwerfen, mit denen sich die Verbreitung des Virus unterbinden lässt. Es gibt viele weitere Beispiele aber leider eben keine konkrete Anwendung, in welcher in einer föderalen politischen Struktur konkurrierende Untersysteme betrachtet werden, um letztlich das Gesamtsystem zu optimieren. In einem solchen Szenario müssten zu Beginn in den Untersystemen zwangsläufig mit einer gewissen Willkür behaftete Öffnungs- und Schließungsregeln erlassen werden. Diese würden in einem zweiten Schritt durch eine Feedbackschleife einem harten Selektionskriterium ausgesetzt. In diesem spiegelt die zeitversetzte, gewertete Entwicklung des Infektionsgeschehens, das entweder Anlass zur Hoffnung gibt oder nicht. Auf diese Weise wird ein evolutionärer Lernprozess in Gang gesetzt, der in kleinen Schritten dafür sorgt, dass sich die Gesamtsituation verbessert. Damit ist zu rechnen, da die 400 autonom agierenden Untersysteme nicht nur ein Feedback bekommen, was ihre Verordnungen angeht. Da das System transparent ist und die ausgewerteten Daten allen zur Verfügung stehen, gibt es die Möglichkeit sich zu orientieren und Handlungsoptionen zu optimieren. Das Ziel ergibt sich in diesem Kontext zwangsläufig: Die Behörden der Landkreise wollen vermeiden, sich durch unbedachte Verordnungen in einen starken Lockdown zu manövrieren, während in den Nachbarkreisen, die es besser machen, Geschäfte und Restaurants wieder offen sind. Das würde bei den Wählern dieser Kreise zu großem Unmut führen. Dadurch entsteht ein positiver Handlungsdruck auf die Entscheider. Unterm Strich geht es darum, einen Plan für eine im Kern unplanbare Gesamtsituation zu entwerfen. Die Planung des Unplanbaren – das klingt wie ein Widerspruch in sich. Doch in der evolutionären Entwicklung sind optimierende Try-and-Error-Verfahren mit regulierenden Feedback-Schleifen gang und gäbe. Sie bilden geradezu den Kern der Evolutionstheorie. In einem kulturellen Kontext darf es aber nicht um Leben und Tod gehen. Negative Entwicklungen müssen frühzeitig gedämpft, positive unterstützt werden. Dazu müssen die relevanten Informationen mit großer Sorgfalt gesammelt werden. Öffnet zum Beispiel Landkreis A die Schulen, dann ist festzuhalten, wie viele Kinder in einem Raum sitzen, wie oft gelüftet wird, ob sie Masken tragen, wie viele Stunden sie gemeinsam in der Klasse verbringen, wie viele von ihnen mit öffentlichen Verkehrsmitteln zur Schule kommen usw. Eine solche feinmaschige Datenerhebung muss für alle Bereiche geleistet werden. Nur vor diesem Hintergrund würden die ermittelten Korrelationen einen Erkenntniswert besitzen und letztlich zu einem Lernprozess führen würden, der der apathischen Starre, in der wir uns befinden, vorzuziehen wäre. Ob dieses komplexe Szenario in einem Land, in dem Gesundheitsämter Daten noch per Fax verschicken, umzusetzen ist, bleibt abzuwarten. Aber jeder lange Weg beginnt mit einem ersten Schritt.

Die Macht der Meme

Die banalen Verschwörungstheorien der Coronagegner sind mindestens so infektiös wie das Virus und könnten dafür sorgen, dass die Pandemie wieder Fahrt aufnimmt. Die Vereinfachung komplexer Sachverhalte ist gefährlich

Um den englischen Säulenheiligen Isaac Newton öffentlich zu kritisieren, brauchte man zu Beginn des 19. Jahrhunderts Mut oder Größenwahn. Der junge Charles Babbage besaß beides. Als Student in Cambridge stieß er sich an der von Newton verwendeten umständlichen Notation, in der dieser die Infinitesimalrechnung dargestellt hatte. Der Deutsche Gottfried Wilhelm Leibniz hatte das eleganter gelöst. Das Undenkbare geschah. Babbage und ein paar Kommilitonen gelang es, den Widerstand der britischen Traditionalisten zu brechen. Die Notation setze sich auch auf der Insel durch! Wie konnte das geschehen? Als Erklärung könnte eine Theorie des britischen Evolutionsbiologen Richard Dawkins dienen, die sich auch auf gegenwärtige Verschwörungstheorien übertragen lässt. Dawkins erfand den Begriff des Mems. Während das Gen die Replikationseinheit der biologischen Evolution ist, unterstellte Dawkins, dass das Mem als Replikationseinheit der kulturellen Evolution fungiert. Als Beispiele für Meme nennt Dawkins: „Ideen, Melodien, Gedanken, Schlagworte, Kleidermoden, die Kunst, Töpfe zu machen oder Bögen zu bauen“. Dem sei hinzugefügt, dass auch das Bedürfnis, Dinge einfacher und effizienter zu gestalten, Ursache memetischer Replikation ist. Deshalb stand selbst in England die umständliche Newtonsche Fluxionsrechnung auf verlorenem Posten und musste dem Kalkül von Leibniz weichen. Solche gedanklichen Elaborate kann man metaphorisch als Viren des Geistes bezeichnen. Sie springen durch Kontakt von Mensch zu Mensch. Wie schnell sie sich in den Köpfen verbreiten, ist von vielen Faktoren abhängig: den Kommunikationswegen, der Kommunikationsgeschwindigkeit und  der Viralität. Der Begriff der Viralität, der im Kontext der sozialen Medien verwendet wird, lehnt sich an das biologische Vorbild der Infektiosität an. 

Viral werden Gedanken oder der Austausch von Fertigkeiten, wenn sie starke Bedürfnisse zu befriedigen versprechen. Solche Bedürfnisse können profaner Natur sein. Man denke an Neugier oder Schadenfreude. Aber auch der Wunsch mit raffinierten Tricks Arbeit zu vermeiden, findet Anklang. Dabei geht es heute wie damals nur selten darum, einen eleganten mathematischen Formalismus zu finden. Meist stehen Alltagsfertigkeiten wie Kochen, Backen oder Handwerken im Mittelpunk. Wie schält man mühelos einen Ananas? Doch unser Bedürfnis, Dinge zu vereinfachen, birgt auch eine Gefahr. Man muss sorgfältig zwischen Fertigkeiten und Erklärungen unterscheiden! Bei Erklärungen gibt einen gefährlichen Graben, der das Geniale vom Trivialen trennt. Wie sagte Einstein? “So einfach wie möglich aber nicht einfacher!“ Auch beim Erklären sind Effizienz und Einfachheit eine Ursache für Viralität. Es ist aber ein grundlegender Unterschied, komplexe Phänomene in einer reduzierten Gestalt zusammenzufassen oder Komplexität in einer einfachen Form zu banalisieren und damit zu negieren. Ein herausragendes Beispiel für die erstgenannte Tugend sind die Maxwell-Gleichungen der Elektrodynamik -vier elegante Formeln mit denen sich ein immenser Bereich physikalischer Phänomene beschreiben lässt. Solche Meisterstücke der Denkkunst sind das Ergebnis einer langen Anstrengung. Die Kunst besteht darin, das Irrelevante auszuschließen. Information durch Exformation. Der fatale Hang Wesentliches nicht vom Unwesentlichen zu unterscheiden und Komplexität aus Denkfaulheit auf Banalitäten zu reduzieren, ist genau das Gegenteil. Das erinnert an die Verlautbarungen der Verschwörungstheoretiker in der Corona-Krise. Diese schämen sich nicht, eine schwierige und unübersichtliche Situation, die zumindest in Teilen wissenschaftliches Neuland ist, in einer durchsichtigen Räuberpistole zu trivialisieren: Bill Gates, der klandestine Strippenzieher auf der Weg zur Weltherrschaft. Man könnte versucht sein, eine solche Form der Naivität zu belächeln. Aber leider erfüllen auch diese Geschichten ein tiefliegendes Bedürfnis nach Einfachheit. Deshalb sind sie gefährlich.Warum kommen sie überhaupt zu Stande? Dem Phänomen könnte ein von dem Neurowissenschaftler Michael Gazzaniga untersuchter Mechanismus zugrunde liegen. Trotz widersprüchlicher Informationen neigen Menschen dazu, diese in einer nur für sie selbst konsistenten Geschichte zusammenzudenken, auch wenn sie im Resultat wenig mit der Wirklichkeit zu tun hat. In Ermangelung besserer Alternativen greifen sie dabei gerne auf Erklärungsprinzipien zurück, die ihnen persönlich geläufig sind. Wenn Exponentialfunktionen, Wahrscheinlichkeiten und statistisches Grundwissen nicht zum intellektuellen Werkzeugkasten gehören, dann ist nachvollziehbar, die sie in sich selbst erlebten Gefühle und Wirkmechanismen der Außenwelt als “Erklärung“ überzustülpen. Das ist ein rudimentäres Kausalprinzip, das man schon aus dem animistischen Denken kennt. Obwohl solche defizitären Erklärungen leicht zu erkennende Mängel haben, muss man ihnen mit Respekt begegnen. Sie sind hochinfektiöse Meme, die sich mit Lichtgeschwindigkeit im Internet ausbreiten und in kritiklosen Köpfen einen fruchtbaren Nährboden finden. Als Brandbeschleuniger gesellt sich zu fataler Leichtgläubigkeit noch intellektueller Hochmut. Man redet sich ein, Teil einer Elite zu sein, die das “System“ durchschaut. Deshalb gehört man nicht zu den einfältigen Marionetten, die von arglistigen Puppenspielern manipuliert werden. 

Das ist ein gefährlicher Cocktail aus Kompetenzillusion und Selbstgefälligkeit, der  narkotisierend wirkt. Und der Rausch könnte uns alle betreffen. Es wäre fatal. wenn aus der Viralität gefällig-eingängiger Ideen die reale Infektion mit Viren erfolgt, da  grölende Teilnehmer auf den Anti-Corona-Demonstrationen nicht nur ihre Meme in der Welt verbreiten sondern auch ihre Viren. 

Marco Wehr ist Physiker und Philosoph in Tübingen

Darwincode

Es ist gefährlich, einem Plan zu folgen, wenn es keinen Plan gibt. In solchen Fällen ist es besser, sich die Natur zum Vorbild zu nehmen

Die Coronaepidemie ist bekannt und fremd zu gleich. Epidemien gibt es seit Menschengedenken, wobei gerade die der jüngeren Zeit sorgfältig untersucht wurden. Man bemüht sich aus deren Dynamik für die Zukunft zu lernen. Das gilt für SARS, MERS und Ebola genauso wie für die Vogel- und Schweinegrippe.
Fremd ist das momentane Szenario, weil jede Epidemie ihr eigenes, unverwechselbares Gesicht hat. Das macht Corona unheimlich.
In diesem Zusammenhang kann man an den chinesischen Strategen Sun Tsu denken. Dieser schrieb schon vor zweieinhalbtausend Jahren: “Wenn Du Deinen Feind kennst und Dich selbst, brauchst Du das Ergebnis von 100 Schlachten nicht zu fürchten.“ Dieses Zitat aus dem Buch “Die Kunst des Krieges“ lässt sich auch im Umkehrschluss lesen und damit auf die momentane Situation übertragen. Kennst Du weder Dich, noch die Gefahr, ist das beängstigend.
Obwohl in einem weltumspannenden Kraftakt die Erbsubstanz des Virus in kürzester Zeit sequenziert worden ist und bereits nach Wochen erste Nachweisverfahren zur Verfügung standen, gibt es nach wie vor viele Bereiche, in denen wir auf Mutmaßungen angewiesen sind: Es lässt sich schlecht abschätzen, wieviele Menschen tatsächlich in den verschiedenen Ländern infiziert sind. Es wird diskutiert, ob Genesene völlig immunisiert sind. Es ist nicht klar, warum mehr Männer sterben als Frauen. Und es gibt bis dato nur begründete Vermutungen über Inkubationszeiten.

Außerdem weiß man nicht genau, welche Symptome für die Krankheit wirklich charakteristisch sind.
Neben offenen Fragen, die die Krankheit betreffen, lässt sich nur grob abschätzen, wie wir als Bevölkerung mit den Belastungen der Quarantäne umgehen werden. Zuletzt ist die Frage, wie lange wir den Shutdown aushalten können, ohne die Wirtschaft nachhaltig zu schädigen, offen. Das ist in der Summe verstörend. Für ein solches Geschehen gibt es kein vorher geschriebenes Drehbuch.

Deshalb stellt sich in diesem Zusammenhang eine paradox wirkende Schlüsselfrage: Wie soll man in einer so unübersichtlich erscheinenden Situation rational handeln, wenn viele Daten, die die Grundlage rationaler Entschlüsse sein könnten, fehlen? An dieser Stelle ist es zuerst geboten, zwischen Wissen und Unwissen zu unterscheiden. Auf der Habenseite stehen die Erfahrungen, die wir mit Epidemien gemacht haben. Aus diesen Erfahrungen resultieren die Pandemiepläne, die lange in den Schubladen schlummerten. Wir wissen aufgrund epidemiologischer Expertise, dass die verschiedensten Kontaktsperren und Quarantänemaßnahmen wirken, wenn sie konsequent gehandhabt werden.

Wir wissen allerdings nicht, welche Folgen sozialer und wirtschaftlicher Art diese Maßnahmen haben werden. Für diese Frage gibt es kein valides mathematisches Modell. Das Problem ist hyperkomplex. Weder weiß man, welche Variablen hinreichend und notwendig sind, um die augenblickliche Situation zu beschreiben. Und noch weniger lässt sich angeben, welche Werte die Variablen haben müssten, damit wir so an den Stellschrauben drehen könnten, dass sich das System in unserem Sinne stabilisiert.

In solchen Fällen muss man sich von herkömmlichen Strategien der Planbarkeit verabschieden. Es bleibt einem nur noch die Möglichkeit, mit einem der Evolution entlehnten Prinzip zu arbeiten. Um dieses Prinzip zu verdeutlichen, wechseln wir den

Blickwinkel und fassen exemplarisch die ungewöhnliche Unternehmenstrategie von Götz Werner ins Auge. Herr Werner ist der Gründervater der Drogeriemarktkette dm. Werner – ein Querdenker – hat konsequent mit einem zentralen Managementdogma gebrochen. Nachdem seine Firma stürmisch gewachsen war und aus zigtausend Filialen bestand, erkannte Werner, dass es keinen Sinn mehr machte, diese Filialen zentral vom Unternehmenssitz in Karlsruhe zu steuern. Das Steuerungsproblem war zu komplex geworden und er wollte sich keiner gefährlichen Kontrollillusion hingeben. Deshalb entließ er seine Filialleiter in die Selbstverantwortung. Da die besonderen Begebenheiten vor Ort überall unterschiedlich waren, sollten sie selbst herausfinden, welche Strategie die beste ist. Anfangs sträubten sich die Führungskräfte vor soviel Selbstverantwortung. Mittlerweile ist das Prinzip etabliert. Diese Vorgehensweise erinnert an die Evolution, weil sich die verschiedenen Filialen an spezifische marktwirtschaftliche Nischen anpassen. Eine Adaptionsleistung, die mit zentraler Steuerung nicht zu leisten ist.

Übertragen auf die Coronakrise können wir es als großen Vorteil ansehen, dass wir 16 verschiedene Bundesländer haben, die mit graduell unterschiedlichen Strategien an das Problem herangehen. Das ist aber nur dann ein Vorteil, wenn die Länder nicht in Konkurrenz sondern in Kooperation arbeiten! In diesem Sinne geht es nicht darum, ob Markus Söder oder Armin Laschet mit ihren Vorgehensweisen Recht haben. Die Epidemie ist nicht die geeignete Bühne, um einen Hahnenkampf zu inszenieren. Es geht vielmehr darum, Ergebnisse zu vergleichen und zu den spezifischen Entstehungsbedingungen in Beziehung zu setzen. Damit dieser wechselseitige Lernprozess funktionieren kann, ist es aber notwendig, dass die Daten schnellstmöglich in vergleichbarer Weise dokumentiert werden, um sie allen Beteiligten zugänglich zu machen. Man hat allerdings den Eindruck, dass gerade bei der Erhebung und Darstellung der Daten einiges nicht so rund läuft, wie es laufen sollte.

Unabhängig von der Forderung bei der Erhebung und Darstellung von Daten einen vergleichbaren Standard zu setzen, wäre es lohnend, wenn sich die Politik an methodisch sorgfältig ausgeführter Wissenschaft orientieren würde. Es ist gängige Praxis,in einem Experimentalszenario möglichst wenige Größen zu variieren, während man die anderen konstant hält. Nur so lässt sich feststellen, wie das System auf Änderungen reagiert. Übertragen auf die momentane Situation würde das bedeuten, dass man ausgehend von den momentan geltenden Quarantänemaßnahmen, zum Beispiel das Wirtschaftsgeschehen erst in wohldefinierten Bereichen wieder aktiviert und dabei die Verdopplungszeiten genau im Blick behält. Auf diese Weise kann man bei Bedarf gegensteuern oder aber auch mehr Leine zu geben.

Wenn die verschiedenen Bundesländer diese Strategie verwirklichen würden, wobei sie eben nicht gleichgeschaltet vorgehen dürfen, wäre es die Aufgabe der Bundesregierung und ihrer beratenden Institute diese Daten zu sammeln, auszuwerten, zu interpretieren und in konkrete Handlungsempfehlungen umzusetzen. Das wäre eine Form systemischen Lernens. Das ist allerdings ein anderer Ansatz als der, welcher gerade zur Diskussion steht. Für die augenblickliche Situation gibt es keinen Masterplan. Zentralistische Anweisungen zu geben und dabei zu suggerieren einen Plan zu haben, obwohl es keinen Plan gibt, könnte deshalb ein Fehler sein. Man denke an einen Strategen, der unbekanntes Terrain erkunden lassen möchte und dazu 16 Späher zur Verfügung hat. Macht es Sinn, diese alle auf demselben Weg ins Feld zu schicken? Oder ist es besser, die Kundschafter auf 16 verschiedenen Wegen loszuschicken und nur sicherzustellen, dass sie Leib und Leben behalten, damit sie in der Lage sind später ihre Erfahrungen auszutauschen? Genauso machen es übrigens die Bienen, die auf verschiedensten Wegen nach Futter suchen, um dann den anderen von ihrem Erfolg zu “erzählen“. Es ist allerdings entscheidend, dass sie bei ihren Exkursionen am Leben bleiben. Das ist die Forderung, die an alle gemeinsam zu stellen ist.

Unterm Strich haben wir wohl keine andere Wahl, als mit kollektiven Tasten – einer vernunftgeleiteten Trial-and-Error-Strategie – einen gemeinsamen Lernprozess in Gang zu setzen, mit dessen Hilfe wir die Grenzen des Möglichen ausloten können, um auf diese Weise aus der Krise zu kommen.

Marco Wehr ist Physiker und Wissenschaftstheoretiker. Er hat lange zur Chaostheorie und Komplexität gearbeitet

Ich bohre, also bin ich

Wie der erste Lockdown dazu führte, ein großes Gedankenrätsel zu lösen – Eine philosophische Humoresque

Ist es möglich, dass ein Tübinger Geschaftelhuber in Nachbars Garten, der mit einem Laublaser bewaffnet, einen bukolischen Sommernachmittag in ein dröhnendes Maschineninferno verwandelt, uns hilft, ein abstraktes philosophisches Problem zu lösen? In der Tat. Aufgeworfen wurde dieses Problem von dem Philosophen Richard David Precht in seinem Buch “Jäger, Hirten, Kritiker: Eine Utopie für die digitale Gesellschaft“. Precht? Philosoph? Durchatmen. Hier soll nicht entschieden werden, ob Herr Precht ein ernstzunehmender Denker ist oder der “André Rieu der Philosophie“ wie Peter Sloterdijk ätzte, was wiederum die meist weiblichen Fans des schönen Solingers auf die Palme brachte, für die Sloterdijk die Physiognomie eines beleidigten Walrosses hat. Interessant ist hier nur Prechts mit Schwung vorgetragene These sowie die daraus abgeleitete Schlussfolgerung: Die intelligenten Maschinen machen in Kürze so gut wie Alle von uns arbeitslos. Das klingt alarmierend. Aber Precht spendet Trost und macht uns Hoffnung: Da uns das bedingungslose Grundeinkommen, finanziert aus einem rätselhaften Fortunati Glückssäckel, von wirtschaftlichen Sorgen befreit, sehen wir uns in nächster Zukunft mit einer in der Menschheitsgeschichte einmaligen Chance konfrontiert. Wir schwimmen alle in einem Meer aus freier Zeit, die nur darauf wartet, von uns auf das Schönste gestaltet zu werden. Soweit die Theorie. Doch manchmal kommt der Theorie die Praxis in die Quere, die dann Denker und Werk unbarmherzig in die Gruft der Erkenntnis stößt. Leider handelt es sich bei diesen philosophischen Praxisschocks öfter um Katastrophen. 

Die bekannteste war das Erdbeben von Lissabon am 1.Nov. 1755. Ausgerechnet am Allerheiligen bebte die Erde und die Gläubigen starben beim Beten in den zusammenbrechenden Kirchen während die Gefängnisse stehen blieben, aus denen die Verbrecher entkamen und die Geschäfte plünderten. Konnte ein gütiger Gott so ungerecht sein? Der gläubige Leibniz mit seiner besten aller Welten wurde auf einmal zum Gegenstand des Spotts, der atheistische Voltaire triumphierte und so nahm die Aufklärung Ihren Lauf. 

Für die Prechtsche “Theorie“ heißt der Praxisschock Corona. Das Wüten der Pandemie gab ihr den Gnadenstoß. Denn plötzlich war er da, der paradiesische Zustand. Zumindest für diejenigen, die das Privileg genossen, ihr Gehalt oft ohne Gegenleistung weiter beziehen zu dürfen: Jeden Tag satte 24 Stunden freie Zeit, die nur darauf wartete mit Sinn und Vergnügen gefüllt zu werden. Doch der anfänglichen Euphorie folgte nicht selten der Kater. Für viele wurden die eigenen vier Wände zum Horror. Wo lag das Problem? Ob man wollte oder nicht, man war plötzlich gezwungen, viel Zeit mit einem rätselhaften Wesen zu verbringen, das einem vielleicht doch nicht so angenehm war, wie man immer dachte: dem eigenen Selbst. Philosophen, Meister der selbstgewählten Quarantäne, raten in solchen Fällen zum therapeutischen Zwiegespräch mit sich selbst, damit man sich besser kennenlernt und aneinander gewöhnt. Doch das ist nicht so leicht, wie es sich anhört. Deshalb sprach der Erkenntnistheoretiker Odo Marquard von Einsamkeitskompetenz. Die ist nichts für Anfänger und man lernt sie nicht im Schnellverfahren. War das alte Leben vielleicht doch nicht so schlecht? Aber sich im Beruf abzulenken ging gerade nicht. Da bot sich eine andere Strategie an: Werkeln, werkeln, werkeln. Und so wurden, nachdem der erste Rausch der freien Zeit verflogen war, vor allem die Baumärkte geflutet und die verhinderten Sinnsucher munitionierten sich mit Werkzeugen und Baumaterialien. Und anschließend kam es zum Kampf der Welten. Kontemplationskünstler, Bücherwesen, Müßiggänger, alle die sich auf Odo Marquards langen Weg machten, wurde ihre Leidenschaft zum Verdruss, da der allgegenwärtige Maschinenfuror das Erspüren geordneter Denkbewegung unmöglich machte. Aber nicht verzagen, trotz zerrütteter Nerven gab es unterm Strich einen formidablen Erkenntnisgewinn. Prechts Traum vom baldigen Paradies auf Erden darf man zu den Akten legen. Aber der Solinger braucht sich nicht zu grämen. Und es kann ihm egal sein, dass der böse Sloterdijk ihn einen zweitklassischen philosophischen Stehgeiger schimpft. Denn er ruht jetzt mit einem ganz Großen der Philosophie in der Gruft überholter Erkenntnisse. Neben ihm liegt Philosophenkönig René Descartes, seine Meditationes de prima philosophia in der zitternden Hand. Auch dessen Gewissheitsformel “Ich denke also bin ich“ darf nach Corona als überholt gelten. “Ich bohre also bin ich“ ist das Gebot unserer Zeit. 

Die Welt ist keine Scheibe

Es gibt viele Dinge, die man nicht lernt, wenn man viel Zeit vor den Bildschirmen von Fernsehern und Computern verbringt

Wir schmunzeln über die Seefahrer, die vor etwa 500 Jahren nach Westen aufbrachen und von rasender Angst gepeinigt waren. Viele glaubten, die Erde wäre eine Scheibe und wenn man sich zu weit hinausbewegte, würde man mit seinem Schiff in einen brodelnden Abgrund fallen. Heute wissen wir es besser: die Erde ist eine Kugel. Es gibt keinen Abgrund. Finden wir es genauso zum Schmunzeln, wenn heute ein Großteil der Menschen die Welt zu einer Scheibe macht, obwohl sie eine Kugel ist? Sicher, in Zeiten von Corona ist der Computer zwangsweise das Kommunikationsmittel der Wahl. Doch auch in weniger aufregenden Zeiten ist es für für viele normal, einen großen Teil des Tages vor einem zweidimensionalen Bildschirm zu verbringen. Es gibt gute Gründe am Sinn dieser Normalität zu zweifeln. Aber Vorsicht! Man läuft Gefahr als Hinterwälder beschimpft zu werden, wenn man den exzessiven Umgang mit Fernsehen, Computer und Smartphones kritisiert. Viele wollen schließlich schnellstmöglich in die Zukunft rasen. Verständlich, dass technikaffine Manager wie Timotheus Höttges von der Telekom dafür plädieren, Kindern am besten schon in der Vorschule Grundlagen des Programmierens beizubringen. Das mag vernünftig erscheinen, wenn man es als vorrangiges Erziehungsziel betrachtet, junge Menschen so zu formen, dass sie mit ihrer digitalen Expertise die Konkurrenzfähigkeit des Industriestandorts Deutschlands sichern. Vertritt man den Standpunkt, dass das Leben aus mehr als Nullen und Einsen besteht und es darum geht, junge Menschen zu ertüchtigen, ihr Leben in Eigenverantwortung zu gestalten, dann darf man an diesem Ziel Zweifel äußern. Hier prallen Weltanschauungen aufeinander. Gerne weisen digitale Adepten darauf hin, dass es kompliziert sei, zu beweisen, dass etwa ausgedehnter Computergebrauch nachteilig wäre. Im Gegenteil: Kinder die sechs Stunden am Tag am Computer zocken, zeigen ein besseres Reaktionsverhalten und auch die Finger, die im Stakkato die Konsole bearbeiten, sind im Gehirn besser repräsentiert als die einer Vergleichsgruppe. Solchen Verteidigungsbemühungen muss man allerdings eine wissenschaftstheoretische Binsenweisheit entgegenhalten: Messen und bewerten lässt sich nur, was sich messen und bewerten lässt! Diese Einsicht hat gerade für viele komplexere Fragestellungen der Psychologie und Kognitionswissenschaften Konsequenzen, da sich diese nicht ohne weiteres in ein angemessenes Experimentaldesign pressen lassen. Man denke an die umjubelten bildgebenden Verfahren, mit denen man die Hirnaktivität bei einer bestimmten Aufgabenstellung misst. Leider muss man reglos in einem Tomographen liegen! Genau aus diesem Grund lässt sich mit diesem Messverfahren zum Beispiel wenig über Menschen in Bewegung herausbekommen. Man kann nicht mit einer solchen tonnenschweren Maschine auf dem Kopf durch die Welt tanzen. Das beherrschbare Experimentalszenario bestimmt also den Raum beantwortbarer Fragen. 

Wenn es nun für bestimmte komplexe Fragestellungen keine detaillierten Antworten existieren, dann heißt das nicht, dass es sie nicht gibt. Vielleicht liegen sie einfach außerhalb der momentan verfügbaren wissenschaftlichen Möglichkeiten. In solchen Fällen ist begründetes Argumentieren erlaubt und notwendig. Was lässt sich dazu sagen, dass sich Milliarden von Menschen den halben Tag mit zweidimensionalen Modellwelten auseinandersetzen?

Da steht an erster Stelle die Einsicht, dass Menschen sehr effizient funktionieren. Fertigkeiten, die wir üben, entwickeln sich. Alles, was nicht gebraucht wird, bildet sich zurück: “Use it or lose it“.  Dieses Prinzip ist fundamental. Es gilt für Kleinkinder genauso wie für Greise. 

So ist es eindrücklich, dass Säuglinge zu Leistungen in der Lage sind, die uns Erwachsene überfordern. Sie können zum Beispiel alle Sprachlaute dieser Erde unterscheiden. Ihr Gehirn ist überbestimmt. Es gibt anfänglich mehr synaptische Verbindungen zwischen den Neuronen als später gebraucht werden. Das ist evolutionär sinnvoll. Ein Kind kann als Inuit auf die Welt kommen oder als Indio. Es muss gewährleistet sein, dass es sich seiner Kultur optimal anpasst. Richtet sich sein Fokus nun auf die ihn umgebenden Sprachlaute, dann bedingt das “Use-it-or-lose-it-Prinzip“, dass es sich für genau diese sensibilisiert. Die Fähigkeit, andere Laute zu diskriminieren, verschwindet. Aber nicht nur Babys sind anpassungsfähig. Pflegeheimbewohner, die beginnen, mit Hanteln zu arbeiten, verdoppeln in kurzer Zeit ihre Kraft und selbst kognitive Fähigkeiten lassen sich im Alter trainieren.

Welche Fertigkeiten werden bei Kindern gefördert, die vor einem Bildschirm sitzen? Wenn das Programm anspruchsvoll ist, lernen sie einer inszenierten Handlung zu folgen. Informieren sie sich im Internet, werden sie klüger. Wenn sie zocken, entwickelt sich eine spezifische Auge-Hand-Koordination. Was für Fertigkeiten aber werden vernachlässigt, sodass die Gefahr besteht, dass sie verkümmern oder sich gar nicht erst entwickeln? Da gibt es an erster Stelle ein sinnliches Defizit: Aus Monitoren dampfen keine Gerüche, man schmeckt nichts und aus der Mattscheibe kommen keine Hände, die einen berühren. Außerdem ist der innere Sinn, die sogenannte Propriozeption, beim Sitzen in einer Art gelangweilten Stand-by-Modus. 

Noch eindrücklicher ist das interaktive Defizit. Hier muss uns ein Experiment des Psychologen Richard Held aus dem Jahre 1962 als Warnung dienen. Er zeigte, dass ein Kätzchen, das die Augen gerade aufgeschlagen hat, blind bleibt, wenn es nicht auf den eigenen Beinen herumlaufen darf und man es stattdessen durch die Welt trägt! Gerade die Entwicklung der Tiefenwahrnehmung ist auf Bewegung angewiesen. Deshalb stürzen die Kinder eher selten, die die viel auf Bäume klettern. Verletzen tun sich oft die, die noch nie auf einem Baum gewesen sind und es dann einmal versuchen. 

Das interaktive Defizit hat aber auch noch eine abstraktere Komponente: Der Bewegungsraum ist ein Bedeutungsraum! Dinge bekommen nicht allein dadurch Bedeutung, dass wir sie passiv betrachten. Mitentscheidend sind Handlungserfahrungen! Was ein Ball ist, weiß nur, wer mit Bällen gespielt hat, der weiß wie sie rollen, wie sie hüpfen und wie sie sich fangen lassen. Das erfährt man sicher nicht dadurch, dass man mit den Augen einer zweidimensionalen Projektion eines Balls auf einem Bildschirm folgt. Warum? Damit sind wir beim wichtigen Thema der Simulation. Das menschliche Gehirn ist eine hochkomplizierte Simulationsmaschine, die man allerdings gebrauchen und kallibrieren muss, damit sie funktioniert. Warum kann man Bälle fangen? Weil das trainierte Gehirn die Flugbahn schneller berechnet, als der Ball fliegt, sodass man sich rechtzeitig positionieren kann. Welche Konsequenzen es hat, wenn man körperliche Fertigkeiten nicht mehr übt, erleben wir gerade in der Ausbildung künftiger Chirurgen. Den digital natives müssen an der Universität einfachste Handfertigkeiten beigebracht werden. Andernfalls wären sie nicht in der Lage, mit Nadel und Faden eine Naht zu ziehen. Das ist ein neues Phänomen. Basteln ist out.

Elementar aber trotzdem komplex ist auch die soziale Simulation. Betrachten wir ein gewöhnliches Gespräch! Bei diesem werden nicht nur Worte ausgetauscht. In jedem Gespräch gibt es eine sublime Aura körpersprachlicher Signale, die von den Gesprächspartnern meist unbewusst gesendet und empfangen werden. Die Lautstärke der Stimme, die Stimmlage, die Art und Weise Pausen und Betonungen zu setzen, das Minenspiel, der Gesprächsabstand, die Körperhaltung, .. . All diese Signale sind wichtig, das Gehörte zu interpretieren. Dieser Prozess ist wiederum davon abhängig, was in der Vergangenheit bereits gesprochen wurde! Es gibt also zwischen Gesprächspartnern eine interdependente Semantik, die nur diese fühlen und und in Maßen zu deuten wissen. Was hat das mit Simulation zu tun? Angenommen, man möchte im Gespräch einen heiklen Punkt ansprechen, ohne den anderen zu verletzen. Man muss seine Worte also mit Bedacht wählen. Bevor man den Mund aufmacht, versucht man deshalb, sich in die Rolle des anderen hineinzuversetzen und simuliert, wie er sich fühlen würde, wenn man den intendierten Satz ausspricht, was nur vor dem Hintergrund des gemeinsam Erlebten möglich ist.

Wahrscheinlich ist diese soziale Simulation die anspruchsvollste Leistung des menschlichen Gehirns überhaupt und Kinder müssen dieses schwierige Wechselspiel in realen Gesprächen ausdauernd üben, um kompetente und einfühlsame Sprecher zu werden. Entscheidende Teile dieses Wechselspiels finden aber nicht statt, wenn Menschen vor Computern oder Fernsehern sitzen. Da ist niemand, der reagiert, da ist niemand, mit dem man eine persönliche Geschichte kreieren kann. Deshalb steht zu befürchten, dass sich diese wichtigen Fertigkeiten bei Kindern nur unzureichend entwickeln oder bei Erwachsenen degenerieren. Beschränkt man die Zeit vor dem Bildschirm auf wenige Stunden am Tag, ist vermutlich kein Schaden zu befürchten. Sind es aber sechs bis zwölf Stunden, müssen bei uns die Alarmglocken schrillen und wir sollten uns die Frage stellen, warum wir die Welt zur Scheibe machen, obwohl wir wissen, dass sie eine Kugel ist.

Marco Wehr ist Philosoph und Physiker. Er leitet in Tübingen das Philosophische Labor (www.das-philosophische-labor.de)

Mut zum Mut

Eltern die ihre Kinder lieben, neigen dazu, sie zu beschützen. Trotzdem dürfen sie diese nicht überprotektionieren. Das wichtigste Ziel ist schließlich, diese zur Selbstständigkeit zu erziehen.                

Irgendwas war anders mit den Flüchtlingskindern. Es dauerte eine Weile bis man es merkte: Wenn die Burschen mit ihren klapprigen Fahrrädern vom Sperrmüll um die Ecken sausten und lachend über die Bürgersteige schanzten, dann taten sie das mit einer Geschwindigkeit, einem Geschick und einer Freude, die man bei uns, zumindest im städtischen Raum, nur noch vereinzelt sieht. Unsere Kinder findet man selten alleine auf der Straße, dafür um so häufiger in Begleitung der Eltern, zum Beispiel im Café mit einem Kinder-Cappuccino in der Hand. Weil die Gespräche der Erwachsenen die Kleinen verständlicherweise langweilen, quengeln sie oder vertreiben sich die Zeit mit dem Smartphone. Das wiederum gibt den Erwachsenen einen willkommenen Anlass für einen kulturpessimistischen Diskurs: Man beklagt den Wandel der Zeit, und dass Kindheit früher etwas ganz anderes war. Da spielte man draußen im Dreck und nicht in einer zweidimensionalen, aseptischen Computerwelt. Das mag stimmen. Welche Kinder kämen heute noch schnell genug über den Zaun, wenn sie, die Taschen voll mit geklautem Obst, vom wutschnaubenden Nachbarn verfolgt würden?  Aber – ist das die Schuld der Kinder? Ist es deren Wille, mit den Eltern Kaffee trinken zu gehen oder sich Hand-in-Hand mit Mama und Papa die Schaufensterauslagen anzugucken? Wohl kaum. Es ist doch eher eine zwangsläufige Konsequenz der Rollen, die wir Erwachsene den Kindern und Jugendlichen unserer Zeit zudenken. Und die Kinder machen einfach das, was sie immer getan haben. Sie besetzen vertrauensvoll die Verhaltensnischen, die die Älteren für sie vorgesehen haben, bis sie diese in der Pubertät hoffentlich auch in Frage stellen. Deshalb kommt das verbreitete Wehklagen, die Kinder würden sich seltsam entwickeln und fragwürdige Verhaltensweisen an den Tag legen, wie ein Bumerang auf uns Erwachsene zurückgeflogen.

Was nun Rollen und Verhaltensnischen sowie die damit verbundenen Entwicklungsräume angeht, so haben sich diese in den letzten 30-40 Jahren tatsächlich grundlegend verändert. In diesem Zusammenhang fällt ein Aspekt besonders ins Auge: Freiräume, in denen Zeit selbstverantwortlich gestaltet werden kann, mit all den damit verbundenen Chancen aber auch Risiken, sind von der Wiege bis zum Studienabschluss selten geworden. Eine Ausnahme bildet vielleicht das sorgsam inszenierte Gap-Year, in welchem man nach dem Abitur wahlweise in Neuseeland Natursteinmauern aufschichtet oder in einem chilenischen Elendsviertel den Straßenkindern das Violine spielen beibringt. Ansonsten herrscht gerade in der Mittel- und Oberschicht ein engmaschiger Geist der Planung. Das mag vor der Hand vernünftig erscheinen: Wir sind jetzt alle Teil einer globalen Welt mit einem nie gekannten Konkurrenzdruck. Zeit zu vertrödeln, die Kinder und Jugendliche einfach sich selbst zu überlassen, scheint in diesem Lichte fahrlässig zu sein. Das ist eine mögliche Lesart.  Aber wie wäre es mit einer anderen? Die Welt ist für uns Erwachsene in ihrer weltumspannenden Komplexität so unübersichtlich und wenig greifbar geworden, dass wir ängstlich versuchen Inseln der Ordnung zu schaffen, um uns der Illusion hinzugeben, dass das Leben und der Erfolg konstruierbar seien. Anstatt Kinder zu ermutigen, sich mit zwangsläufigen Unwägbarkeiten einer hyperkomplexen und sich rasant verändernden Welt auseinanderzusetzen, auch auf die Gefahr hin, dass sie ab und zu mal auf die Nase fallen, planen wir das Leben unserer Kinder und Jugendlichen wie ein Haus, bei dem die Gewerke hoffentlich geschmeidig ineinandergreifen, gerade so, als wäre Lebenserfolg einzig das Resultat einer effizienten Organisation, in der der Zufall keine Rolle spielt. Krippenplätze werden von vorausschauenden Eltern schon gebucht, bevor die Kleinen auf der Welt sind, dann werden Kita und Beruf feinsäuberlich miteinander verzahnt. Und bei der Wahl der Kita wird darauf geachtet, dass kognitive Fähigkeiten, die später einmal wichtig sein könnten,  etwa eine Fremdsprache wie Englisch oder noch besser Chinesisch von kompetenten Erzieherinnen bereits geschult werden, wenn die Hosenmatze noch Windeln tragen. Dann bitte eine Ganztagesschule, garniert mit einer perönlichkeitsfördernden Zusammenstellung außerschulischer Hobbys wie Klavier, Ballett oder Tennis. Schließlich eine vollverschulte Universität, wobei die Eltern die Zimmer ihrer Zöglinge mit aussuchen, gemeinsam den Stundenplan checken und vor dem Einschreibetermin mit gerümpfter Nase das Mensaessen in Augenschein nehmen. Es sollte schon gewährleistet sein, dass die Kinder gut schlafen und was Vernünftiges in den Magen bekommen. Das Studium – ein lang ersehnter Aufbruch in ein selbstbestimmtes Leben? Das ist für viele Schnee von gestern.

Egal, welche Lesart man bevorzugt, kann man darüber nachdenken, ob die Schwerpunkte, die wir Erwachsene für Kinder und Jugendliche in Erziehung, Schule und Universität setzen, tatsächlich zu deren Bestem sind oder nur dazu dienen, unser Gewissen zu beruhigen und unsere eigenen Ängste zu lindern. Gut gemeint ist ja oft das Gegenteil von gut gemacht. Aber was wäre denn am besten? Obwohl Erziehungsstile und Bildungspolitik kontrovers diskutiert werden, liegt doch zumindest eine Antwort auf der Hand: Egal ob wir Eltern, Erzieher, Lehrer oder Professoren sind, vermutlich haben wir zumindest ein gemeinsames Ziel: Wir möchten Kindern und Jugendlichen Fertigkeiten, mentale Werkzeuge, soziale Kompetenzen und Könnensbewusstsein an die Hand geben, damit sie in der Lage sind, auch mit der Lebenswirklichkeit außerhalb von Elternhaus und Bildungseinrichtungen zurechtzukommen, um schlussendlich ein selbstbestimmtes und zufriedenes Leben führen zu können. Und das größte Unglück wäre doch wohl, wenn wir uns eines Betruges schuldig machen würden, indem wir ihnen in Erziehung und Bildung eine Wirklichkeit vorgaukelten, die mit dem echten Leben nach Abschluss der Berufsausbildung nichts zu tun hat. Provokativ formuliert: Die von uns mit guten Vorsätzen geschaffenen Schutzräume hätten dann eine vergleichbare Funktion wie ein Glashaus für eine wachstumsoptimierte Hollandtomate. Deren Gedeihen ist genau solange gewährleistet, wie der Wind nicht zu stark weht. Aber was passiert, wenn das Glashaus im Sturm zu Bruch geht? Dann gibt es ein schmerzhaftes Erwachen. Ist diese Sorge begründet? Oder völlig überzogen? 

Wenn man genauer hinschaut, mehren sich die Zeichen, dass wir uns leichtsinniger Weise die Welt in Erziehung und Bildung schön lügen. Und diese Form von Realitätsverleugnung macht Konsequenzen möglich, vor denen man mit Fug und Recht Angst haben darf. 

Ein zugegeben extremes Beispiel hat in jüngerer Zeit Verteidigungsministerin Ursula von der Leyen geliefert: Frau von der Leyen möchte der fordernden Rekrutenausbildung bei der Bundeswehr mit ihren anstrengenden Gewaltmärschen die Härte nehmen. Jeder soll mitmachen dürfen. Zum einen möchte von der Leyen nicht, dass Frauen benachteiligt werden, zum anderen fällt es auch jungen männlichen Soldaten zunehmend schwerer, die geforderten Leistungen zu erbringen. Außerdem braucht die schrumpfende Bundeswehr dringend Personal und es gibt nach ihrem Verständnis in der Armee genug Aufgaben, bei denen man nicht durch den Schlamm rutschen muss. Das Problem? Nach der Meinung erfahrener Militärausbilder wären Soldaten und Soldatinnen dann auf reale Einsatzsituationen nicht mehr vorbereitet. Es wäre also nicht auszuschließen, dass das politisch korrekte Verhalten der Verteidigungsministerin im schlimmsten Fall fatale Konsequenzen hätte – wenn nämlich ein im Hindukusch groß gewordener Taliban noch behände liefe, während Soldaten der Bundeswehr auf einem Rückzug die Puste ausginge und gerade kein gepanzertes Fahrzeug zur Flucht bereit stände.

Doch unabhängig von einem solchen Extrembeispiel, Anzeichen einer vielleicht gut gemeinten aber trotzdem fragwürdigen Realitätsverleugnung zeigen sich auch in vielen anderen Lebensbereichen. Bleiben wir bei der oben gemachten Beobachtung:  Auf der Straße tobende Kinder, die ohne elterlichen Schatten ihre Zeit selbst bestimmen, sind im städtischen Raum Ausnahmeerscheinungen. Stattdessen? Betreutes Leben – 24 Stunden am Tag. Selbst Kinder im Alter von vier Jahren werden von ihren Eltern gerne gehoben und geschoben. Und das Abenteuer Schulweg wird auch nicht mehr allen zugemutet. Der Taxiservice der Eltern steht parat, besonders wenn das Wetter schlecht ist. Auch zuhause ist das Leben selten motorisch spannend und anregend. Da wird ebenfalls viel gesessen, günstigenfalls mit einem Buch in der Hand. Folgerichtig haben sich motorische Fertigkeiten der Kinder und Jugendlichen in unserer behüteten Welt ziemlich verschlechtert. Wenn vierjährige Kinder heute zu uns in den Tanzunterricht kommen, dann können sie oft nicht rückwärts laufen, es fällt ihnen schwer auf einem Bein zu balancieren oder sie trauen sich nicht von einer 20 Zentimeter hohen Treppenstufe zu springen. Wenn sie es dann doch wagen, werden sie von den anwesenden Müttern, die jeden Fortschritt der Kleinen akribisch beäugen, euphorisch beklatscht, als hätten sie einen 8000er ohne Sauerstoff bestiegen. Einen Purzelbaum zu machen halten dann aber viele Mütter und Kinder für eine unzumutbare Form von Akrobatik. Folgerichtig können sie es mit sieben Jahren immer noch nicht. Das gilt selbstverständlich nicht für alle Kinder aber leider für viele. Käme es zu einer vergleichbaren Deprivation im sprachlichen Bereich, dann würden die Kinder bei der Einschulung nuscheln und stammeln. Darüber hinaus wären sie nicht in der Lage, zusammenhängende Sätze zu sprechen. Man male sich den öffentlichen Aufschrei aus! Doch die nicht mehr selbstverständliche Fähigkeit, sich flüssig zu bewegen, scheint im Vergleich eher wenig Problembewusstsein und Handlungsdruck auszulösen. Aber wen wundert das? Gemäß einer Umfrage sind mehr als 50% der deutschen Kinder noch nie auf einen Baum geklettert! Dafür kennen sie Bäume aus abstrakteren Zusammenhängen. Sie wissen, dass sie notwendig sind, um CO2 zu binden und den Klimawandel abzuwenden. Eine wichtige Erkenntnis, aber mit dieser einseitigen Betrachtung bekommt der Wald etwas Museales und ist damit alles andere, nur kein aufregender Erlebnisraum für neugierige Kinder. Und wenn diese dann doch mal wagen möchten, einen echten Baum mit Händen und Füßen zu erklettern, dann können besorgte Eltern einen zertifizierten Baumkletterkurse buchen. Der ist natürlich teuer zu bezahlen. 

Jetzt kann man an dieser Stelle natürlich die ketzerische Frage stellen, ob wir diesen ganzen motorischen Schnickschnack überhaupt noch brauchen? Jede Zeit hat ihre eigenen Herausforderungen. Wir müssen schließlich nicht mehr mit der Spitzhacke Kohle aus einem Flöz schlagen. Wenn es heute wichtig ist, im Affenzahn mit der Computermaus über den Bildschirm zu jagen, warum macht es dann noch Sinn, zu klettern oder einen Purzelbaum zu schlagen? Vielleicht wird der Körper ja, wie uns einige digitale Propheten weis machen wollen, in Zukunft sowieso überflüssig. Wir lägen dann – wie in den Science Fiction-Filmen –  als Gehirne in einer handwarmen Lake aus Nährstoffen und sind mit der Welt nur noch mit Drähten verbunden. Oder die Information wird direkt aus dem Gehirn ausgelesen und in ein weltumfassendes Datennetzwerk eingespeist, das abstrakte Weltenhaus künftiger Generationen, ein digitaler Garten Eden.

Obwohl sich prominente Denker wie Ray Kurzweil – immerhin der Chefentwickler von Google – zu solchen Visionen versteigen, ist das sicher zu kurz gedacht. Deshalb lohnt es sich, genauer hinzugucken! Schließlich war und ist unser Körper seit Menschengedenken das wesentliche Werkzeug zum Welterwerb und wird es auch in Zukunft bleiben. Diese zentrale Einsicht lässt sich mit einem harmlos anmutenden Experiment verdeutlichen, das leider folgenschwere Konsequenzen hat: Was passiert mit einem Kätzchen, das gerade die Augen aufschlagen hat und welches man fortan durch die Welt trägt, anstatt es auf den eigenen Beinen neugierig seinen Lebensraum erkunden zu lassen? Das erschütternde Ergebnis: Das Kätzchen lernt das Sehen nicht – es bleibt blind! Wie ist das möglich? Die Augen waren doch offen?  

Das erstaunliche Resultat, das sich eines fast vergessenen Experiments des  Psychologen Richard Held verdankt, muss uns zu denken geben, wenn wir nicht nur über die Entwicklung von Katzen nachdenken sondern auch über die kleiner Kinder.  Was nämlich für Katzen gilt, das gilt für Menschen umso mehr. Je höher entwickelt ein Gehirn ist, desto weniger ist es bei der Geburt “fest verdrahtet“. Es entwickelt sich erst in der intensiven Auseinandersetzung mit der Umwelt, um schlussendlich optimal an diese angepasst zu sein! Dieser Entwicklungsprozess, der uns so selbstverständlich erscheint, dass wir nur wenig über ihn nachdenken, ist jedoch von abgründiger Komplexität. Eine Sache weiß man in diesem Zusammenhang allerdings genau: Man muss mit der Welt in ihrer ganzen Vielfalt interagieren, damit sich das Gehirn an diese Welt optimal adaptiert! Das ist der Dreh- und Angelpunkt. Die Komplexität dieser kindlichen Erfahrungsbildung sei an einem Beispiel verdeutlicht. Was bedeutet es, ein räumliches also drei-dimensionales Bild der Welt zu konstruieren? Machen Sie ein Gedankenexperiment! Schneiden Sie mit einem scharfen Messer einen Tischtennisball in zwei gleiche Hälften! Halten Sie diese mit der Wölbung nach Innen vor Ihre Augen! Jetzt haben sie eine ungefähre Vorstellung davon, wie die Bilder aussehen, die von den Linsen ihrer Augen auf die inwendigen Netzhäute projiziert werden. Da haben wir also zwei extrem verzerrte zweidimensionale(!) Darstellungen der außenliegenden Welt, die zu allem Überfluss wegen des Abstands der Augen noch nicht einmal identisch sind. Fachleute sprechen hier von binokularer Disparität. Aber, was sehen Sie? Sie erblicken zum Beispiel  einen majestätischen Baum, der sich wie selbstverständlich in alle drei Raumdimensionen erstreckt. Von verstörenden Doppelbildern und grotesken Verzerrungen keine Spur! Das ist eine ungeheuere Konstruktionsleistung Ihres Gehirns. Und wenn man schon nicht in allen Details weiß, wie dieser “Zaubertrick“ funktioniert, so ist zumindest eines klar: Um diese Leistung zu vollbringen muss man eifrig üben, denn das sich organisierende Gehirn braucht zum Feintuning die Auseinandersetzung mit der Außenwelt! In diesem Entwicklungsprozess gibt es Phasen, in denen Mobilität keine so große Rolle zu spielen scheint – schon im Alter von wenigen Monaten können Babys dreidimensionale Gegenstände offenbar als solche erkennen. Für andere Aspekte der räumlichen Wahrnehmung ist es allerdings unabdingbar, sich in der realen Welt zu bewegen, Dinge anzufassen, die man betrachtet, sie zu umlaufen und Erfahrungen mit ihnen zu machen. Tun Kinder das nicht, besteht die Gefahr, dass die Passivität einschneidende Folgen hat. Dieser Umstand ist experimentell belegt: Man zeigt einem kleinen Kind ein Spielzeug und versteckt es dann auf einem Tisch mit vielen anderen Sachen, so dass es das Spielzeug von seinem Standpunkt nicht sehen kann. Trägt man das Kind nun um den Tisch herum, sodass es das Spielzeug finden könnte, wenn es richtig hinsähe, dann entdecken viele der getragenen Kinder das Spielzeug nicht. Dürfen sie aber auf ihren eigenen Beinen um den Tisch laufen, finden sie es öfter. Bekannt ist auch das Experiment von Richard Walk und Eleanor Gibson. Bei diesem legt man eine stabile Glasplatte über einen Abgrund. Auf der einen Seite ist die Mutter, die das Kind zu sich locken möchte. Kinder mit wenig Bewegungserfahrung kriechen zielsicher auf sie zu und würden stürzen, wenn die Glasplatte sie nicht hielte. Kinder, die gewohnt sind, sich zu bewegen, machen diesen Fehler nicht. Sie verharren trotz der Lockrufe auf der sicheren Seite, weil sie den Abgrund erkennen und mental vorwegnehmen, was es bedeuten würde, hinunterzufallen. 

Vor diesem Hintergrund müssen wir eine provokative Frage stellen: Wie ist es zu bewerten, dass in Kindergärten Bäume gefällt werden und Erzieherinnen regresspflichtig gemacht werden, wenn ein Kind vom Baum fällt. Wäre es nicht besser, den Baum stehen zu lassen und den Kindern das Klettern beizubringen? Vor allen Dingen, weil gerade die am häufigsten stürzen, die nicht klettern können, genauso wie die Kinder häufiger ertrinken, die nicht in der Lage sind zu schwimmen.

Um zu erkennen, dass eine ausgeprägte Angst vor dem Risiko nicht nur individuelle Konsequenzen hat sondern auch gesellschaftliche, lenken wir unseren Blick kurz nach Amerika. In den USA laufen Eltern, die ihre Kinder zur Selbstständigkeit erziehen wollen, Gefahr, bestraft zu werden. Im schlimmsten Fall droht ihnen sogar, das Sorgerecht zu verlieren. Kinder alleine auf dem Weg zur Schule sind ein No-Go. Und eine New Yorker Mutter – Leanore Skenazy – die das partout nicht einsehen wollte und ihren Sohn alleine mit der U-Bahn fahren ließ, wurde mehrmals öffentlich zur schlechtesten Mutter des Jahres gewählt. Das Beispiel Amerika zeigt nun in aller Deutlichkeit, dass wir überbehütete Kinder nicht nur um elementare Welterfahrungen betrügen.  In den USA wurde nämlich ein wissenschaftliches Ergebnis publik, das aufhorchen lässt. Interessanter Weise ging es in diesem Zusammenhang nicht um das Wohl der Kinder und ihre Fähigkeit das Leben zu meistern. Ausschlaggebend waren ökonomische Befürchtungen! Im Fokus stand die seit Jahren schwindende gesamtgesellschaftliche Kreativität. Die renommierte amerikanische Kreativitätsforscherin  Kyung Hee Kim redet gar von einer ausgemachten Kreativitätskrise. Gemäß ihrer Untersuchungen hat die Fähigkeit der Kinder ungewöhnliche Ideen hervorzubringen seit 1990 rapide abgenommen. Darauf konnte man sich anfänglich keinen rechten Reim machen. Denn es gibt ja den bekannten Flynn-Effekt: Seit Generationen werden Jugendliche im Intelligenztest immer besser. Wenn man nun die Intelligenz, die diese Testverfahren angeblich messen, mit Erfolg im Leben gleichsetzen könnte, dann wäre alles in Butter. Dem ist aber leider nicht so. Ein hoher IQ korreliert hauptsächlich mit guten Schul- und Studienleistungen, sonst sind die Beziehungen eher dürftig. Selbst Nobelpreisträger und Schachgroßmeister müssen definitiv keine Mitglieder eines Hochbegabtenklubs sein. Der Nebel lichtete sich, als man genauer hinsah und die Kindheit vor 30-40 Jahren mit denen von heute verglich. Der wesentliche Unterschied? Damals gab es eben keine allgegenwärtigen elterlichen “Spielebestimmer“, die sorgsam darauf achteten, dass die Art der Beschäftigung und das gesellschaftliche Umfeld der intellektuellen Entwicklung und potenziellen Karriere zuträglich waren. Wenn Kindern langweilig war, dann lag es allein in ihrer eigenen Verantwortung, diesen Zustand mit einer guten Idee zu ändern. Und für Heranwachsende war es eine spannende Herausforderung, den eigenen Aktionsradius beständig zu vergrößern und die damit verbundenen Schwierigkeiten zu meistern. Das war aufregend und manchmal auch nicht ohne Gefahr. Zuerst die Straße vor dem Haus, dann Wald,  Wiesen und Bäche erkunden, Freunde finden, aber auch Menschen meiden, die einem nicht wohl gesonnen sind.  Wenn man sich die Freiheit auf diese Weise Schritt für Schritt erschließt, dann wachsen die Problemlösungskompetenz und das Gefühl herausfordernden Situationen gewachsen zu sein auf ganz natürliche Weise. Und ist es wirklich schwer zu verstehen, dass ein einfaches Spielzeug wie ein Stock, der in den Händen eines phantasiebegabten Kindes zum Schwert oder Hexenbesen wird, mehr Einfallsreichtum erfordert als eine bunte Transformerfigur aus Plastik, deren Bedeutung Regisseure und Spieleentwickler in ihren Skripten schon festgelegt haben? Kreativität und Mut braucht man also, um seinen Lebensraum zu erkunden, eigenständig Spiele zu erfinden und Lösungen für Probleme zu entwickeln. Damit wären wir dann aber auch direkt bei den Schlüsselkompetenzen freien Unternehmertums, für die man in Amerika mit seiner “Young man-go west!“-Mentalität sensibilisiert ist und die rasant zurückzugehen scheinen.

Kann es also sein, dass man mit dem gut gemeintem Überprotektionismus das Kind mit dem Bade ausschüttet? In letzter Konsequenz werden wohl nicht nur die Kinder geschädigt. Da Kreativität und Mut fehlen, leidet auch die gesellschaftliche Innovationsfähigkeit.  Und es lohnt sich in diesem Zusammenhang, über eine weitere Frage nachzudenken: Stehen die Kreativitäts- und Mutkrise, über die auch in Deutschland geklagt wird und die endemisch wachsende Zahl depressiver junger Menschen in einem Zusammenhang? Gemäß einer gerade erschienen Studie der Barmer Ersatzkasse sind 25 % der 18-25jährigen in Deutschland depressiv! Wenn man Kreativität als Fähigkeit auffasst, für Probleme Lösungen zu finden, diese Fähigkeit aber schwindet und gleichzeitig selbst auferlegte und vom Umfeld an die jungen Menschen herangetragene Anspruchshaltungen immer größer werden, dann könnte das tatsächlich einen verhängnisvollen Cocktail ergeben. Zu dieser Vermutung würde auch die Beobachtung passen, dass an den Universitäten kreative und nicht-angepasste Querköpfe immer seltener zu finden sind. Auf einer der letzten Nobelpreisträgertagungen in Lindau beklagten die Laureaten, dass von all den hochbegabten Studenten mit ihren Stipendien während der gesamten Zeit nicht eine vernünftige Frage gestellt worden war. Junge Wissenschaftler als brillant-biedere Erfüllungsgehilfen, aber von visionären Ideen keine Spur. Und die Volkswagen-Stiftung sucht für ihr Freigeister-Fellowship verzweifelt Promoventen, deren Arbeiten gegen den Strich gebürstet sind, um sie mit viel Geld zu unterstützen. Das Problem? Sie finden fast keine! Aber ist das verwunderlich in einem Wissenschaftssystem, das als Spiegel der Gesellschaft das Risiko meidet wie der Teufel das Weihwasser? Hätten ein Kopernikus, ein Kepler, Darwin oder Einstein heute noch die Möglichkeit, eine akademische Karrieren zu machen und wissenschaftliche Reputation zu erlangen? Das ist nur schwer vorstellbar. Wissenschaftlicher Erfolg hängt im gegenwärtigen Forschungsbetrieb vorwiegend vom Urteil Gleichgesinnter ab, die Arbeiten Gleichgesinnter beurteilen, die in Journalen Gleichgesinntes veröffentlichen. Ein hochgradig rückbezügliches System, das für große gedankliche Umbrüche wohl nicht das optimale Umfeld bietet. 

Die Angst vor dem Risiko, die wir schon in der Kindeserziehung so deutlich beobachten, hat also erhebliche Konsequenzen – individuelle und gesellschaftliche. Wenn man schon von Kindesbeinen an nicht unterstützt wurde, sich belastenden Situationen zu stellen, dann wird sich die Schlüsselkompetenz, mit Einfallsreichtum und Zuversicht Herausforderungen anzugehen, nicht entwickeln. In der Folge wird man solche Situationen logischerweise meiden, da man sich ihnen nicht gewachsen fühlt und sie einem Angst einjagen. Und die Angst wird zu einem Lebensgefühl, wenn man dann mit Erschrecken feststellt, dass das Leben nach der Ausbildung mit dem wohltemperierten Glashaus der frühen Tage wenig bis gar nichts zu tun hat. Wenn eine einzige Stelle zu vergeben ist und sich 50 Leute bewerben, dann wird es genau 49 lange Gesichter geben. Sollen wir dann denen, die keinen Arbeitsplatz bekommen, wie in manchen Schulen eine tröstende Urkunde geben? “Herzlichen Glückwunsch zum 49. Platz, das hast Du toll gemacht! Wir danken Dir für Deine Teilnahme“ Diese Wirklichkeitsverweigerung, die dem Kind angeblich Frustration ersparen soll, ist in einem realen Kontext albern und verantwortungslos. Wenn wir unseren Kindern nicht helfen Mut und Kompetenz und damit verbundenes Selbstbewusstsein zu erlangen, dann sind spätere große Enttäuschungen vorprogrammiert. Wäre es deshalb nicht besser in Schule und Erziehung Kinder und Jugendliche an Herausforderungen heranzuführen und ihnen zu helfen mit diesen und zwangsläufig auftretenden kleinen Rückschlägen umzugehen? Das wäre vernünftig, vor allen Dingen, wenn man in Rechnung stellt, dass die mittlerweile verbreitete Glashausmentalität eine virale Komponente hat. Wenn man selbst nicht gelernt hat, kreativ zu improvisieren, Gefahren und Belastungen auszuhalten und solche Situationen deshalb als angstbesetzt erlebt, dann wird man solche fordernden Momente sicher nicht den eigenen Kindern zumuten. Da bleibt nur zu hoffen, dass diese selbst irgendwann den erstickenden Schutzraum, der aus unserer eigenen Angst gebaut ist, mutig mit einem Stein von Innen zerschmeißen. Denn die Sicherheit ist trügerisch und in letzter Konsequenz gefährlich. Wie heißt es im Volksmund? “Je mehr man plant, desto härter trifft einen der Zufall“ Aus diesem Grund kann es gerade in der Erziehung von Kindern und Jugendlichen ein Ausdruck echter Liebe sein, ihnen die Lösung bestimmter Probleme einfach selbst zu überlassen, auch wenn das anfänglich mit Schwierigkeiten verbunden ist. Wenn junge Menschen etwas nicht brauchen, dann sind es Mensavorkoster und akribische Studienplanüberwacher. 

Die Wissenswolke

Im globalen Datendurcheinander übernehmen Computer zunehmend die Deutungshoheit. Wissenschaft alter Schule scheint überflüssig zu werden. Das ist nicht verwunderlich in einer Zeit, in der das Wissen, was solide Theorien von windigen Spekulationen unterscheidet, schon länger verlorengeht

“Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“.
Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs vom Schlag getroffen tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leibzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang. Und gerade die Spickzettellektion war eindrücklich: Für ernsthafte Denker gäbe es keine schwierigere und anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr. Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug der Dichter in dieselbe Kerbe. Alles Denken ist Verdichten. Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unstrittiger Allgemeinplatz: Kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet. Nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenfeilspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am bündigen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen überschaubaren Gesetzen zu entwickeln, war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat neue Propheten. Und die verkünden Erstaunliches. Chris Anderson, der ehemalige Chefredakteur des Szenemagazins “Wired“ hat den “Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion hätte ausgedient, heute reichten gigantische Datenwolken und von ungeheuerer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin “Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Widergänger ewig weiter zu existieren. Das World Wide Web als virtueller Garten Eden. Aber ungeachtet davon, auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen mit Selbstverständlichkeit von einer “new kind of science“.

In diesem Zusammenhang wird nicht nur die Theorie gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird der einst revolutionäre Galilei zum Totenwächter einer aus der Mode gekommenen Methode: Ein begehbares Labor, mit echten Messinstrumenten halten radikale Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten ist den Bilderstürmern zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht in diesem Zusammenhang euphorisch von “in-silcio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen “Virealität“. Doch manchmal ist es von Vorteil, die Bedeutung lateinischer Worte, die sich im trendigen Szenejargon verbergen, zu kennen. Im Wort “Simulation“ steckt das lateinische Verb “simulare“, das “ähnlich machen“ bedeutet. “Ähnlich machen“ zu was? Da kommt sie zur Hintertür leider doch wieder hinein – die lästige Widerständigkeit des Wirklichen – die seriöse Wissenschaft zu einem zeitraubenden und anstrengendem Unterfangen macht! Soll eine Simulation nämlich nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen wie der Teufel das Weihwasser und hilflos in der Luft baumeln, einen Erkenntniswert nur heucheln, wäre es hier eigentlich angebracht, Worte wie “Simulation“ und “Experiment“ mit anderen, aber ebenfalls gebräuchlichen Bedeutungen zu versehen. Eine “Simulation“ kann man ja auch als “Vortäuschung“ auffassen und ein “Experiment“ als “Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, belanglos zu sein.

An dieser Stelle berühren wir einen empfindlichen Punkt. Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, allmählich verloren geht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur der sichtbare Ausdruck einer schon lange schwelenden Entwicklung. Seit Jahrzehnten unterscheiden sich nämlich viele “wissenschaftliche“ Gedankengebäude grundlegend von der als Beispiel zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam gefügt, haben etwas nebulös-wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotz dieses Mangels von den Medien als wissenschaftliche Revolutionen gefeiert werden. Erschwerend kommt ein neues Phänomen hinzu, das die Lage noch unübersichtlicher macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz, scheint die intellektuelle Tugend des Verdichtens über- flüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen. Leider sind diese nicht klüger als ihre Entwickler.

Werfen wir zur Veranschaulichung einen kurzen Blick auf die “Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erin nert, die Kybernetik, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und natürlich an die Chaostheorie. All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem, hellen Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien anfänglich seriöse Fragestellungen, die jedoch einen eng umgrenzten Geltungsbereich betrafen. Dieser beschränkte Geltungsbereich wurde dann aber über die Maßen aufgeblasen. So entstanden in kürzester Zeit luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir pars pro toto die Chaostheorie. Auch hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, langfristig nicht prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass sich noch nicht einmal die Zukunft eines extrem vereinfachten Planetensystems aus nur drei Körpern bestimmen lässt. Ursachen der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Weder lassen sich die Startbedingungen der untersuchten Systeme völlig exakt festlegen noch weiß man, wie beliebig kleine Störungen wirken. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch oder den Einfluss des sprichwörtlichen Elektrons am Rande des Universums, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben mehr über die Dynamik der Kugeln machen. Das ist eine grundlegende Erkenntnis: Selbst einfachste Systeme können sich unserem prognostischen Zugriff entziehen.

Und die Chaostheorie hat weitere Verdienste. Der Meteorologe Edward Lorenz stieß auf das sogenannte computational chaos. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter nicht-linearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie in der Rechenmaschine intern gerundet wird. Dieses computational chaos macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal ob es sich um Klimasimulationen handelt oder aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Model und dessen Diskretisierung, von Algorithmisierung und Implementierung des Algorithmus mittels einer Software auf einem Computer, ist eine delikate Angelegenheit. Selbst die spezielle Hardware spielt eine Rolle. Auch in diesem Zusammenhang können also kleine Fehler große Auswirkungen haben.

Das sind in wenigen Worten wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik. Plötzlich war das Chaos allgegenwärtig! Mathematische Konstrukte wie die Seltsamen Attraktoren tauchten im Gehirn auf und machten angeblich den freien Willen möglich oder nach Bedarf auch die Kreativität und überall trieb das das Apfelmännchen sein Unwesen. Doch selbst im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden sondern von ausgewiesenen Spezialisten wie Joseph Ford: Zahlen wurden zu Gründen, die etwas bewirken! Angeblich verdanken sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten. Das ist eine nicht zu laut ausgesprochene Forderung, die vor allen Dingen mit der Quantenmechanik kollidiert. Auf deren Unsinnigkeit hat Max Born schon vor 60 Jahren hingewiesen. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird. Zahlen gehören nämlich zur symbolischen Beschreibungsebene. Sie sind deshalb keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein “T“ aussehen muss, da in dem Wort “Tisch“ ein “T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wie kommt es nun, dass die wissenschaftlichen Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder besagte Elektrodynamik? Bleiben wir bei der Chaostheorie. Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, dass unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, sodass der Überblick schnell verloren ging: Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen “semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kurzer Zeit nicht mehr in der Lage, die “Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich aber weniger einer eigenständigen Reflexion, als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der “high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, dass mit ehrlicher Erkenntnissuche nichts mehr zu tun hat. Die Medien brauchen den Experten, die Experten die Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand zu einer Theorie für Alles und Jedes: je nach Bedarf lässt sich der frei Wille “erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls, … .

Wenn dann schließlich die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation. Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen und nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern Unrecht getan wird, die lege artis arbeiten und denen wir echten Fortschritt zu verdanken haben.

Zu allem Überfluss ist die Situation heute noch unübersichtlicher geworden. Die oben genannten Theorien ließen sich wenigstens noch in Büchern nachlesen und mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern, bekommt das Erkenntnisproblem eine zusätzliche Dimension. Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann. Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist wie angesprochen komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren, das der transsubjektiven Überprüfbarkeit. Dieses sperrige Wortungetüm ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.
Es ist zum Beispiel nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist.

In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil nicht einmal mehr richtig klar ist, was unter einer mathematisch Wahrheit zu verstehen ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften. Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In über 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, sodass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein ehernes Prinzip der Mathematik. Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein ziemlich altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort und die Welt fängt an zu singen, triffst Du nur das Zauberwort“. Egal ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch in einem raffinierten Computeralgorithmus,…. Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt. Genau das beinhaltete die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene “Korrelationsmathematik“ entfernt, mit der Computeralgorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten? Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Das hieße eine Korrelation mit einer kausalen Beziehung zu verwechseln, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiter bedienen, aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine new “kind of science“ und es ist fahrlässig den Prozess der Erkenntnis aus der Hand zu geben.
Aus diesem Grund warnte der verstorbene Frank Schirrmacher 2010 völlig zu recht vor der “systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der “Wolke“ keinen Flugverkehr mehr. Das Problem? Die “Wolke“ war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommenen Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte oder nicht. Der digitale Prophet sprach und ein großer Teil des Luftverkehrs stand still. “Und auf einmal sind wir alle nur noch Zuschauer“, stellte Schirrmacher konsterniert fest. Dem kann man nur zustimmen: Das Wissen was eine valide Theorie von einer spekulativen unterscheidet erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr

Die Komplexitätsfalle

Es ist verhängnisvoll, wenn wir selbst eine Welt schaffen, die wir nicht verstehen. Es wäre zu unserem Vorteil dort, wo es möglich ist, Komplexität zu reduzieren

Der Logiker Kurt Gödel traute seinen Augen nicht. Beim Studium der amerikanischen Verfassung fiel ihm auf, dass es möglich war – vorausgesetzt die Paragraphen wurden geschickt kombiniert – auf legalem Weg aus der Demokratie eine Diktatur zu machen. Diese Einsicht war nicht nur für Amerika brisant sondern auch für ihn selbst: Am nächsten Tag – dem 2. April 1948 – stand seine Prüfung in Staatsbürgerkunde an. Diese musste er als Exilant bestehen, um eingebürgert zu werden und es war wahrscheinlich, dass er mit seinem Wissen nicht hinter dem Berg würde halten können. Am Tag der Entscheidung versuchten seine besten Freunde – Albert Einstein und Oskar Morgenstern – Gödel mit Späßen von seiner spektakulären Erkenntnis abzulenken, doch es half nichts. Der Logiker gehorchte einem starken inneren Zwang und brachte seine Argumente vor. Zu seinem Glück traf er auf den gnädig gestimmten Richter Phillip Forman, der den Beweisgang für eine akademische Schrulle hielt und dem Logiker bereitwillig die notwendigen Papiere aushändigte.

Ist das nur eine Anekdote aus dem akademischen Kuriositätenkabinett oder steckt eine tiefere Wahrheit dahinter? Festzuhalten ist, dass es eines Genies wie Kurt Gödel bedurfte, den Widerspruch offenzulegen, dass ein und dieselbe Verfassung zwei sich ausschließende Staatsformen zulässt. Offenbar war das vor ihm den Juristen nicht aufgefallen. Festzuhalten ist aber auch, dass selbst Kurt Gödel nicht in der Lage gewesen wäre, die Widerspruchsfreiheit komplexerer Regelwerke zu beweisen. Nehmen wir aus aktuellem Anlass das Bündel von Gesetzen, das in Europa diverse Rettungsschirme zu regeln vorgibt und mit dem Anspruch erschaffen wird, auf den Markt in voraussehbarer Weise reagieren zu können. Glaubt wirklich noch jemand, dass es einen Menschen gibt, der die möglichen Konsequenzen eines solchen Regelsystems vollumfänglich überschaut? Ein solches bürokratisches Monstrum hätte in seiner überbordenden Komplexität nicht nur das Gehirn von Kurt Gödel überfordert, den Zeitgenossen für den größten Logiker seit Aristoteles hielten. Selbst eine Taskforce der brillantesten Köpfe, die sich der leistungsfähigsten Computer bedienen dürfte, würde scheitern. Der Grund ist ein Komplexitäts-GAU auf mehreren Ebenen. Das was geregelt werden soll, entzieht sich der exakten Analyse. Heute existieren globale Märkte, äußerst verschachtelte Geldkreisläufe mit Handelsplätzen im virtuellen Raum, in denen Finanztransaktionen gigantischen Ausmaßes im Mikrosekundentakt von Computeralgorithmen durchgeführt werden, deren fehlerfreies Funktionieren nicht garantiert werden kann. Demgegenüber steht eine Gesetzgebung, die den Anschein erweckt, dem Treiben einen geordneten Rahmen zu geben, dabei aber selbst so kompliziert geworden ist, dass auch Experten sich schwertun die Gesetze konkret auszudeuten. Als Beispiel sei an den wochenlangen Streit erinnert, ob der ESM für Deutschland eine Haftungsobergrenze festlegt oder nicht. Da die beiden Sphären zu allem Überfluss nicht getrennt sind, sondern in komplizierter Weise miteinander interagieren, sehen wir uns mit einem undurchschaubaren Wechselwirkungsgeflecht konfrontiert, dessen Verhalten wir nicht verstehen und das in seiner fundamentalen Unvorhersehbarkeit Ängste hervorruft. Wir haben heute nicht mehr das Lebensgefühl des von der Sonne der Vernunft beschienenen Aufklärers, sondern das des verwirrten Steinzeitmenschen, der den rätselhaften Geschehnissen der ihn umgebenden Welt keinen rechten Sinn abtrotzen kann. Im Falle des Steinzeitmenschen war es die unerklärliche Natur – das Unwetter, die Dürre, der Vulkanausbruch – die ihn ängstigte, während wir uns heute in den Nebeln eines Informationsuniversums verlieren, das wir leichtfertig selbst erschaffen. Auf diese Weise machen wir uns zu Sklaven einer überkritischen Komplexität, die vernunftbasiertes Handeln nicht erlaubt, da niemand mehr in der Lage ist, auf der Grundlage von Erfahrungen verlässliche Prognosen für die Zukunft abzugeben.

Wie konnte es soweit kommen und warum wehren wir uns nicht? Das hat im wesentlichen zwei Gründe: Das begriffliche Werkzeug mit dessen Hilfe sich die Problematik zwar nicht lösen aber zumindest sezieren lässt, liegt in den Lehrbüchern der theoretischen Informatik verborgen, die nicht jeder liest. Darüber hinaus gibt es eine Gilde einflussreicher Komplexitätsgewinner, die kein Interesse daran haben, ihr Treiben durchleuchten zu lassen und es vorziehen, im Trüben zu fischen.

In der Algorithmik, einem Teil der theoretischen Informatik, gibt es mehrere Ergebnisse, die in unserem Zusammenhang von Bedeutung sind: Da existieren das Turingsche Halteproblem und der noch umfänglichere Satz von Rice. Beide setzen der sogenannten Programmverifikation Grenzen. Des weiteren ist jeder Programmierer und Anwender mit dem verwirrenden Phänomen der Zeitkomplexität konfrontiert.

Wenn ein Computerfachmann sich daran macht, einen Algorithmus – das ist ein rezeptartiges mathematisches Verfahren – zu programmieren, dann verbindet er mit dieser Tätigkeit einige Wünsche: Er möchte, dass das Programm auch tatsächlich das Problem löst, das es zu lösen vorgibt. Außerdem soll es korrekt sein: Zulässige Eingaben führen automatisch zu richtigen Ergebnissen. Desweiteren will er nicht, dass sich das Programm in einer Schleife aufhängt oder anderweitig ewig läuft. Und ganz allgemein hofft er, seine Ergebnisse in einer vernünftigen Zeitspanne zu erhalten.

Diese Wünsche wirken banal und als Nicht-Informatiker ist man überrascht, dass sich in diesem Feld einige der tiefsten und elementarsten Probleme der Mathematik verbergen. Mit den Wünschen des Programmierers verhält es sich nämlich wie mit dem Wunschzettel eines kleinen Mädchens. Dieses wünscht sich zu Weihnachten ein echtes Pferd und findet dann ein Steifftier mit Mähne unterm Baum. Der britische Logiker Alan Turing bewies, dass es kein allgemeines Verfahren gibt, mit dessen Hilfe sich sicher entscheiden ließe, ob ein gegebenes Programm bei einem bestimmten Input irgendwann anhält oder aber unendlich lang weiterläuft. Erstaunlicherweise kann das schon für einfache auf dem Computer implementierte Funktionen gelten, die jeder Schüler der 10. Klasse nachvollziehen kann. Der Satz von Rice verschärft das Ergebnis von Turing und führt zu der paradox anmutenden Konsequenz, dass fast alle Fragen, die die Berechenbarkeit von Programmen angehen, unberechenbar sind und damit nicht verlässlich entschieden werden können. In der Praxis der realen Softwareentwicklung hat das eine erstaunliche Konsequenz: Es kann kein allgemein algorithmisiertes Prüfverfahren geben, welches ein beliebiges Programm verifiziert. Deshalb ist nicht prinzipiell zu gewährleisten, dass sich ein fragliches Programm entsprechend der Ansprüche, die man an es stellt, verhält. Überall dort, wo Computer, Software und Eingabedaten eine kritische Komplexität überschreiten, sind Pannen möglich. Davon zeugen verschiedenste Weltraumdesaster – abstürzende Nasa-Raumsonden genauso wie explodierende Arianeraketen – die sich unerkannten Softwarefehlern verdankten. Man kann aber auch irdische Probleme ins Auge fassen: Jeder, der mit dem millionenfach verbreiteten Textverarbeitungssystem Word arbeitet, an dem tausende von Programmierern seit Jahrzehnten tüfteln, weiß von diversen Fehlern zu berichten. Ein Word-Programm ist allerdings ein übersichtliches Szenario im Vergleich mit den unterschiedlichsten Hochgeschwindigkeits- Tradingalgorithmen, die weltweit zur Anwendung kommen, um Börsengeschäfte zu tätigen und permanent miteinander interagieren. Da tickt eine Bombe. Im Lichte der Ergebnisse von Turing und Rice ist es geradezu zwangsläufig, dass immer wieder rapide Schwankungen an der Börse auftauchen, die sich auf die Schnelle niemand erklären kann. Dass dann ein Team von Experten monatelang rätselt, was genau beim “Flash-Crash“ an der Wallstreet passierte, als binnen von Minuten die Kurse in den Keller rauschten, lässt sich mit einem Prinzip des unlängst verstorbenen Kybernetikers und Hirnforschers Valentin Braitenberg verdeutlichen. Braitenberg ist der Autor des Buches “Vehicles“, das in Amerika lange Zeit Kultstatus hatte. In diesem Buch proklamiert er das Prinzip der “Simplen Synthese und komplizierten Analyse“. Schon mit einfachsten Mitteln lässt sich ein komplexes Verhalten generieren, das sich aber nur schwierig analysieren lässt. Braitenberg beschreibt in seinem Buch kleine käfergleiche Maschinen, die einfachst programmiert sind und miteinander auf einem Tisch in Wechselwirkung treten. Der beobachtende Mensch meint Liebe, Mitleid, Hass und Agression in den Interaktionen zu erkennen. Aus dem beobachteten komplizierten Verhalten auf die zugrundeliegende Programmstruktur zu schließen ist aber höchst aufwendig, manchmal unmöglich. In extenso begegnen wir diesem Problem bei den angesprochenen vernetzten Computersystemen. Wir sind deshalb gezwungen festzustellen, dass die globalisierte Finanzwirtschaft mit ihren virtuellen Marktplätzen ein erratisches Element enthält, das nicht eliminierbar ist und sich im Schadensfall nur mit größtem Aufwand analysieren lässt.

Diesem digitalen Moloch steht nun eine Gesetzgebung gegenüber, die mit dem idealistischen Anspruch auftritt, das Treiben zu regulieren. Leider hat diese ebenfalls einen “prognostischen Schatten“. In der Informatik entscheidet man zwischen der Existenz und der Effizienz von algorithmischen Lösungen. Die Sätze von Turing und Rice beschäftigen sich mit der Existenz von Lösungen. Bei Fragen der Effizienz gibt es Lösungsalgorithmen. Es stellt sich jedoch die Frage, welche Ressourcen an Speicherplatz und Rechenzeit sie in Anspruch nehmen. Und gerade die Frage nach der Rechenzeit hat ihre Tücken, vor allen Dingen, wenn die Eingaben umfangreicher werden. Dieser Sachverhalt ist auch für die Rechtssprechung von Bedeutung. Vereinfacht gesprochen lassen sich zwei Problemklassen unterscheiden. Es gibt Probleme, die auf einen Zuwachs an Komplexität “gutartig“ reagieren. Mit wachsender Größe nimmt die Rechenzeit in beherrschbarer Weise zu. Mittels der Zinseszinsformel lässt sich die Vermögensentwicklung auf dem Sparbuch berechnen, auch wenn man viel Geld besitzt. Leider gibt es aber auch “bösartige“ Probleme. Mit wachsendem Umfang der Eingangsdaten explodiert die Rechenzeit. Erstaunlicherweise gehören zu den “bösartigen“ Problemen viele banale Fragestellungen. Ist es tatsächlich so schwer herauszubekommen, wie man verschiedene Gegenstände in Schubladen packen muss, damit sie so wenig Platz wie möglich einnehmen? Ist es nicht leicht, Stundenpläne zu entwerfen, die möglichst wenig Freistunden haben? Und in unserem Zusammenhang interessiert uns, was daran kompliziert sein soll, bei einem Bündel von Aussagen deren Widerspruchsfreiheit zu garantieren. Tatsächlich sind diese Fragen einfach zu beantworten, solange das Problem eng umgrenzt ist. Das ändert sich radikal, wenn die Eingabedaten größer werden. Die Anzahl der Fälle, die geprüft werden muss, wächst rasant und damit explodiert die Rechenzeit. Es ist wichtig zu verstehen, dass diese explodierende Rechenzeit eine echte Erkenntnisgrenze darstellt. In der Praxis lässt sich das Problem nicht entscheiden. Nehmen wir als Beispiel einhundert Aussagen, deren Widerspruchsfreiheit wir prüfen wollen. Es reicht nicht, diese paarweise in Beziehung zu setzen und zu schauen, ob sie miteinander verträglich sind. Die Widersprüche können versteckt sein. Man betrachte die drei Sätze: “Gras ist grün“, “Heu ist Gras“, “Heu ist goldgelb“. Und die Verschachtelungen können komplizierter und tiefgründiger sein. Das hat zur Konsequenz, dass exponentiell viele Teilmengen der Ausgangsmenge auf Stringenz geprüft werden müssen. Leider sprengt dieses Problem schon bei ein paar Hundert Aussagen jeden Rahmen und wird in realistischer Zeit unlösbar. Ein Computer von der Größe des Universums müsste selbst bei maximal denkbarer Rechengeschwindigkeit einige Milliarden Jahre lang rechnen, wie die Informatiker Larry Stockmeyer und Albert Meyer zeigten! Dieser Sachverhalt kann als eindrückliche Warnung für alle Politiker betrachtet werden, die Gesetze auf den Weg bringen, die mit der heißen Nadel gestrickt sind. Es steht zu befürchten, dass deren Konsistenz nicht gesichert ist. Der Wunsch alles und jedes regeln zu wollen führt dann dazu, dass sich die Gesetzgebung ad absurdum führt und ihre praktische Anwendbarkeit verliert. Vor diesem Hintergrund ist es nicht überraschend, dass das deutsche Steuerrecht selbst von den Finanzämtern nicht mehr durchgängig angewendet werden kann. Man muss kein Prophet sein, um vorauszusehen, dass der europäischen Rechtssprechung ein vergleichbares Schicksal droht.

Was soll man tun? In einem ganz anderen Bereich, dem Industriedesign, deutet sich eine Lösung an. Die Zauberformel nennt sich „simplicity“. Damit ist gemeint, dass es von Vorteil ist, Benutzeroberflächen so zu gestalten, dass Komplexität für den Anwender auf die wesentlichen Bestandteile reduziert wird. Man muss nicht alles machen, was machbar ist! Doch nichts ist schwieriger, als die Myriaden möglicher Funktionen auf die Essentiellen zu beschränken. Die Firma Apple hat dieses “reduce to the max“-Prinzip zum Leitsatz erkoren und ist deshalb das teuerste Industrieunternehmen der Welt, auch wenn man zugeben muss, dass die Applephilosophie ihren geistigen Vater in Deutschland hat: Es war der Visionär Dieter Rams, der als Designer bei der Firma Braun einen Standard setzte und seiner Zeit um mindestens vierzig Jahre voraus war.

Was kann man im Rahmen der Politik aus diesem Ansatz lernen? Viel. Initiativen zum Bürokratieabbau zeigen in die richtige Richtung. Doch das Problem hat weitere Facetten. Leider gibt es im Wechselspiel von Wirtschaft und Politik Menschen und Institutionen, die von Komplexität und Unübersichtlichkeit profitieren. Auf der gesetzgeberischen Seite denke man an Spezialisten, die sich unverzichtbar machen, da sie sich in dem Wirrwarr, das sie erzeugen, vergleichsweise gut auskennen. In diesem selbstreferentiellen System zementieren ihre Positionen. Minister können häufig wechseln, bevor ein Staatssekretär seine Stelle räumt. Und auf der anderen Seite des Grabens steht der Politik eine entfesselte Finanzwirtschaft gegenüber, die das Prinzip der Unübersichtlichkeit zur Blüte entwickelt hat. Die bewusste Komplizierung von Anlageprodukten und deren Handel ist ein Geschäftsmodell, von dem Insider maximal profitieren. Banken entwickeln kryptische Limits für Wertpapiertransaktionen, damit die von ihnen verwendeten Computer im Handel mit solchen Werten einen geldwerten Zeitvorsprung gewinnen. Geldhäuser wie Goldmann Sachs beschäftigen Physiker, die sogenannten Quants, deren Aufgabe darin besteht, extrem komplizierte Derivatkonstruktionen zu erschaffen, die außer ihren Erschaffern niemand versteht. Genau dieser Punkt ist ihre Existenzberechtigung, eine raffiniert ausgedachte Komplexitätsfalle, die keine andere Funktion hat, als das Unwissen der Kunden zum eigenen Vorteil auszunutzen. Bankintern werden diese Konstrukte als „Black Boxes“ bezeichnet. Sinn und Zweck ist es, die sogenannten “Muppets“ – gutgläubige Kunden – zu schröpfen. Bleibt hinzuzufügen, dass Teile der Finanzwelt auch vor Verbrechen nicht zurückschrecken. Es sei nur an die Manipulation des LIBOR erinnert, ein Zinssatz für den Interbankenhandel, der der Allgemeinheit bis vor kurzem unbekannt war. Auch hier liegt der Reiz für die Banken in der Ausnutzung eines Wissensvorsprungs, denn die Geldmengen, für welche der LIBOR verbindlich ist, sind gigantisch und entsprechend einträglich sind die Geschäfte, wenn man untereinander mauschelt und den Zins in seinem Sinne ändert.

Vom Standpunkt der Allgemeinheit gesehen, ist es ein solches Verhalten nicht nur verantwortungslos – es ist gemeingefährlich. Eine Demokratie lebt davon, dass Bürger und Politiker zumindest prinzipiell in der Lage sind zu verstehen, worüber sie entscheiden. Und welchen Schaden die Quants anrichten, haben wir in den letzten Jahren zu spüren bekommen. Leider sind Kompetenz und Wahrnehmung der Superhirne auf die “Black Boxes“ beschränkt und die alte Berliner Weisheit “Erstens kommt es anders und zweitens als du denkst“ wird ausgeblendet. Doch die Zukunft ist nicht zwangsläufig die harmonische Verlängerung der Vergangenheit. Der Missachtung dieser Tatsache verdanken wir die Weltfinanzkrise, da die realen Szenarien mit ihrer unvorhesehbaren Dynamik in den naiv simulierten Wirklichkeits(t)räumen nicht vorkamen.

Es ist Zeit, die Bremse einzuschlagen. Momentan irren wir alle ohne Kompass durch ein Informationsuniversum, das mit seiner chaotischen Dynamik beträchtliche Konsequenzen für uns haben kann. Deshalb muss Einfachheit dort, wo sie möglich ist, angestrebt werden.

“Das große Ziel der Wissenschaft“ schrieb Gödels Freund Albert Einstein, “ ist es, die größtmögliche Zahl von empirischen Tatsachen durch logische Ableitung aus der kleinsten Zahl von Hypothesen oder Deduktionen zu erfassen.“ Gute Gedanken verdichten viele zusammenhangslose Fakten zu einem sinnvollen Ganzen. Doch das Erarbeiten wertiger Prinzipien benötigt nicht nur in den Wissenschaften Zeit und Anstrengung. Es ist die schwierigst denkbare Aufgabe. In diesem Sinn ist es zu begrüßen, wenn sich das Bundesverfassungsgericht gegen den akzelerierten Zeitgeist stemmt, das Problem des ESM sorgfältig analysiert und mit den Grundrechten der Bundesrepublik Deutschland in Beziehung setzt. Das ist kein Luxus, das ist eine Überlebensnotwendigkeit.

Zahlenzauber

Es ist ein Irrglaube, dass die Welt in ihrer Gesamtheit berechenbar ist. Deshalb muss mathematischen Modellen, die Exaktheit suggerieren, wo keine zu finden ist, mit Skepsis begegnet werden.

Was haben Pythagoras und Michael Osinski gemeinsam? Dem ersten Anschein nach nichts. Der Amerikaner Osinski war ein erfolgreicher Programmierer an der Wallstreet, der eine verhängnisvolle Software schrieb, die die Bankenkrise mit verantwortete. Pythagoras kennen wir als Philosophen, der an die Seelenwanderung glaubte, einen mathematischen Satz über rechtwinklige Dreiecke formulierte, seinen Jüngern verbot Bohnen zu essen und ausgedehnte Spaziergänge in die Einsamkeit machte, um verzückt dem Klang der Planeten zu lauschen, wenn diese durch den Weltraum eilen.

Doch trotz der zweieinhalbtausend Jahre die zwischen Pythagoras und Michael Osinski liegen, trotz der gänzlich verschiedenen Lebensformen dieser zwei Menschen – hier ein Philosoph, der unter südlicher Sonne der Kontemplation frönt, dort ein gehetzter Wallstreetjunkie, der sich am schnellen Geld berauscht – existiert ein unsichtbares Band zwischen den beiden. Wahrscheinlich ohne es selbst zu wissen, ist Osinski eine Art Widergänger des Pythagoras und huldigt wie dieser einem fast mystisch verklärten Glauben an die Berechenbarkeit der Welt. Und ein Osinski ist in unserer Zeit keine singuläre Erscheinung. Im Gegenteil. Er ist nur Protagonist einer sich endemisch verbreitenden “wissenschaftlichen“ Weltanschauung. Diese manifestiert sich in der kritiklosen Verwendung mathematischer Verfahren, die unter Verwendung fragwürdiger Formeln eine Exaktheit vorgaukeln, die auf tönernen Füßen steht. Da in diesem Zusammenhang auch noch Großrechner zum Einsatz kommen, auf denen äußerst komplizierte Software implementiert ist, entsteht in der Summe eine numerische Komplexität, die viele ihrer Schöpfer nicht mehr überschauen. Erinnert sei nur an den “Flashcrash“ an der Wallstreet, bei dem die Tradingalgorithmen aus dem Ruder liefen oder an besagte Bankenkrise, die sich in nicht unwesentlichen Teilen fehlerhaften Programmen verdankte. Erinnert sei auch an das falsche Rating, das die Computer von Standard&Poors unlängst ausspuckten und damit Frankreichs bis dato erstklassige Bonität in Frage stellten. Daraufhin zitterten die Börsen bedenklich. In einer global vernetzten Welt sind solche Pannen gefährlich und der Umstand, dass Menschen wie Osinski nicht wie seriöse Wissenschaftler agieren, sondern in ihrem Tun eher an Goethes Zauberlehrling erinnern, dem das Wasser bis zum Hals steht, muss uns beunruhigen. Im Gedicht erledigt der alte Hexenmeister den Spuk, in unserer Zeit ist ein solcher Retter nicht in Sicht. Was läuft da falsch? Die Gründe sind vielfältig und es hilft, einen kurzen Blick zurückzuwerfen.

Die Lehre des Wundermanns

Der spiritus rector des heute verbreiteten Kalkulationismus – des naiven Glaubens an die Berechenbarkeit der Welt – ist besagter Pythagoras.
Sein Schlüsselsatz lautete: “Alles ist Zahl“. Mit dieser Aussage wurde er zum Stammvater eines Zahlenkults, der die Mathematik zum Fetisch machte und Mathematiker zu Hohepriestern. Der Philosoph Bertrand Russell hielt ihn für den einflussreichsten Denker, der je auf Erden gelebt hat. Wenn man in Betracht zieht, welchen Stellenwert die Mathematik in unserer Zeit genießt, ist man geneigt, sich dieser Einstellung anzuschließen. Es erstaunt nicht dass Pythagoras, der von seinen Jüngern als “Wundermann“ bezeichnet wurde, ein ausgeprägtes Ego besaß. Er hielt sich für einen Halbgott. “Es gibt Menschen und Götter und Wesen wie mich“, soll er von sich behauptet haben. Trotz dieser Hybris hatte seine Philosophie einen blinden Fleck und dieser ist auch für alle späteren Weltanschauungen kennzeichnend, die sich unausgesprochen auf ihn beziehen und unterstellen, dass die Tiefenstruktur der Welt mathematisch ist und sich deshalb vollumfänglich in ein symbolisches Korsett zwängen lässt. Heute wie damals wird oft versäumt zu prüfen, ob eine Mathematisierung überhaupt sinnvoll ist.
Nach der Lehre des Pythagoras hatte sich die Welt aus der Zahl Eins entwickelt und alle Dinge entsprachen Zahlen. Ihre Harmonie offenbarte sich darin, dass diese Dinge in einem ganzzahligen Verhältnis zueinander stehen sollten. Diese “Entdeckung“ verdankte Pythagoras dem Studium der Saiteninstrumente. Zupft man eine Saite und teilt sie dann, so erhält man mit dem Verhältnis 2:1 eine Oktave, ein Teilen 3:2 ergibt eine Quinte und 4:3 eine Quarte. Eine schöne Erkenntnis, die jedoch von ihm ohne zu zögern auf das Weltganze ausgeweitet wurde. Von der schwingenden Saite zur Sphärenharmonie der Himmelskörper war es für Pythagoras nur ein kleiner Schritt. Doch schon der Philosoph irrte mehrfach. Johannes Kepler – in seinem Herzen eigentlich auch ein Pythagoräer – beugte sich mutig der Macht des Faktischen: Auf Ellipsen eiern die Planeten um die Sonne, nicht auf göttlichen Kreisen die in harmonischen Beziehungen zueinander stehen. Und schon zu Zeiten von Pythagoras war klar, dass es inkommensurable geometrische Figuren gibt, deren Saitenlängen nicht in einem ganzzahligen Verhältnis zueinander stehen. Ein Jünger – Hippasos von Metapont – war so unvorsichtig, das auszuplaudern und bezahlte seine Schwatzhaftigkeit mit dem Leben. Er wurde von den anderen im Meer ertränkt.

Während die argumentativen Kapriolen des Vorsokratikers schnell zu entlarven sind, ist das bei mathematischen Modellen der Gegenwart schwieriger.
Was sollen wir von komplizierten Formeln halten, die vorgeben zu beschreiben, wie unser Gehirn funktioniert und deren Erschaffer die Überzeugung vertreten, dass chaotische Attraktoren in unseren Köpfen ihr Unwesen treiben und als Zufallsgeneratoren den freien Willen ermöglichen? Wie steht es um Formelsysteme, die angeben, wie Kriege zwischen verfeindeten Staaten zustande kommen? Und sollen wir mathematischen Modellen in den Volkswirtschaften trauen, die an jeder Universität gelehrt werden, die sich aber auf zweifelhafte Annahmen stützen, wie Menschen handeln? Müssen wir darüber hinaus Simulationen des Klimas ernst nehmen, deren Ziel es ist, dieses in 100 (!) Jahren vorauszusagen?
Die Beantwortung solcher Fragen ist kein akademisches Glasperlenspiel! Wie oben angesprochen, agieren die Erschaffer solcher symbolischen Konstrukte nicht im luftleeren Raum. Leichtgläubige Banker verließen sich überall auf der Welt auf eine Software von Michael Osinski, mit der dieser vorgab, die Ausfallwahrscheinlichkeiten von gebündelten Krediten beurteilen zu können. Auf der Basis von Klimamodellierungen werden Anlageentscheidungen getroffen, die in die Billionen gehen! Damit wird das, was bei Pythagoras als intellektuelle Grille eines Sonderlings begann, zu einer Schlüsselfrage unserer Zeit: Was sind und was können mathematische Modelle, die auf Supercomputern implementiert werden? Und wo sind ihre Grenzen?

Um wenigstens ein Gefühl für die Komplexität dieser Fragen zu bekommen, ist es notwendig, das Problem zu simplifizieren. Es lohnt sich in Gedanken eine kurze Zeitreise zu machen. Wir beobachten Galileo Galilei, bei einem Experiment, das in dieser Form nie stattgefunden hat und fragen uns, wie man aus Messresultaten überhaupt eine valide mathematische Beschreibung ableitet.

Die Zahlenwolke

Dass Galilei das Fallgesetz entwickelt hat, indem er Gegenstände vom schiefen Turm von Pisa warf, gehört in das Reich der Legende. Aus Gründen der Anschaulichkeit stellen wir uns das trotzdem vor. Unser gedachter toskanischer Turm ist aber nicht schief sondern gerade und er hat zehn anstatt sechs Stockwerke. Der Italiener fragt sich, wie lange eine Metallkugel wohl benötigt, wenn man sie im dritten Stock loslässt und wartet, bis sie auf dem Boden aufschlägt. Um diese Frage zu beantworten, muss er messen. Aber was? Und wie muss er messen? Galilei entscheidet sich, bestimmte Eigenschaften zu ermitteln und andere nicht. Dieser Punkt ist wichtig, da sich in ihm ein wissenschaftliches Vorverständnis ausdrückt, das angemessen, unvollständig oder auch falsch sein kann. Intuitiv sieht er von der Farbe der Metallkugel ab, auch der Temperatur derselben misst er keine Bedeutung zu. In einer visionären Vorahnung verzichtet er sogar darauf, die Masse der Kugel zu bestimmen. Stattdessen will er die Abwurfhöhe messen. Auch ermittelt er die Zeit, die sie benötigt, bis sie auf dem Boden aufkommt. Alle Werte, die er mit einwandfrei funktionierenden Messinstrumenten erhebt, werden notiert. Jetzt entschließt er sich, die Abwurfhöhe zu ändern. Er klettert in den vierten Stock, wirft und misst – erneut zehn Mal. Das Procedere wiederholt er im fünften, sechsten, siebten und achten Stock. Der alte Mann atmet angestrengt, die obersten Stockwerke spart er sich. Alle Werte hat er sorgfältig in sein Buch geschrieben. Er hat nun vor Augen, was der Wissenschaftsphilosoph Hugo Dingler als Zahlenwolke bezeichnete. Um Ordnung in die Wolke zu bringen, verwendet er ein Koordinatensystem, um etwa die Fallzeit in Abhängigkeit von der Abwurfhöhe einzutragen. Er möchte gerne eine mathematische Funktion finden, die die Messwertverteilung abbildet. Und wieder ist Intuition gefragt. Die Aufgabe ist nicht trivial, da es theoretisch unendlich viele Möglichkeiten gibt. Trotzdem findet er mit sicherem Gespür einen aussichtsreichen Kandidaten. Als im Kern faulem Menschen kommt ihm eine Idee. Wenn er andere Abwurfhöhen in sein Modell einsetzte, könnte er sich vielleicht die anstrengende Kletterei sparen. Als seriöser Wissenschaftler prüft er seine Voraussage noch einmal an der Realität. Er klettert in den neunten Stock, wirft und misst. Und tatsächlich, die Formel erweist sich als richtig. Auch beim Abstieg, als er die Kugel zur Sicherheit noch einmal aus dem zweiten wirft, wird er nicht enttäuscht. Er schließt, dass seine Formel ihre Dienste auch für den ersten und zehnten Stock leisten würde. Stolz verkündet der Wissenschaftler, dass er mit seiner Formel in die Zukunft sehen könne. Selbst wenn man den Turm auf tausend Stockwerke erhöhen würde, wäre er in der Lage zu berechnen, wie lange die Kugel flöge (womit er sich eigentlich schon zu weit aus dem Fenster lehnt). Skeptikern entgegnet er noch, dass jeder Mensch sein Experiment wiederholen könne, um sich von dessen Wahrheit zu überzeugen.

Mathematische Luftnummern

Dieses in seinem Kern nicht schwer zu verstehende Gedankenexperiment, in dem wir das eine oder andere stillschweigend vorausgesetzt oder zurechtgebogen haben, zeigt in verkürzter Form einige wichtige Aspekte seriöser Wissenschaft. Zur seriösen Forschung gehört, dass Wissenschaftler mit normierten Messinstrumenten arbeiten. Das ist eine notwendige Bedingung, damit Experimente “personenunabhängig reproduziert“ werden können. Wenn Galilei proklamiert, dass alle Menschen seine Messungen wiederholen können, dann setzt er genau diese Forderung als gegeben voraus. Alle sollen mit gleichen Maßstäben messen. Das war, anders als oben behauptet, zu Zeiten von Galilei keine Selbstverständlichkeit. Es gab, um ein Beispiel zu nennen, keine zuverlässig funktionierenden Uhren, kein objektivierbares Zeitmaß. Bei Experimenten mit der schiefen Ebene soll Galilei anfänglich ein Kinderlied gesungen haben, um dann zu notieren, bei welcher Silbe die losgelassene Kugel am Boden ankam. Später verwendete er seinen Herzschlag, dann eine Wasseruhr. Darüber hinaus muss ein Wissenschaftler funktionierende von gestörten Messinstrumenten unterscheiden können. Das ist auch in unserer Zeit eine mitunter knifflige Angelegenheit, wie man in der Diskussion um die Überlichtgeschwindigkeit sieht. Sind die gemessenen Neutrinos tatsächlich schneller als das Licht und muss deshalb die spezielle Relativitätstheorie revidiert werden? Eine Revolution! Oder gibt es Messfehler, die sich zum Beispiel fehlerhaft funktionierenden Detektoren verdanken?

Lassen wir jetzt außer acht, dass die heute verwendeten mathematischen Modelle – häufig nicht-lineare Differentialgleichungssysteme – ungleich komplizierter sind, als das Fallgesetz, so reichen die gerade gewonnen Einsichten, um viele kryptische Formelungetüme als zahnlose Tiger zu enttarnen. Wenn etwa in einem mathematischen Modell, das vorgibt, die Entstehung von Spannungen zwischen verfeindeten Staaten zu beschreiben, eine ominöse Größe wie der “Groll“ vorkommt, dann kann man dieses Modell vergessen, da sich Groll anders als Abwurfhöhen und Fallzeiten nicht messen lässt. Ähnlich verhält es sich mit den angesprochenen Gehirnmodellen in denen synaptische Kopplungsstärken zwischen den Nervenzellen auftauchen. Kein Mensch weiß, wie diese zu quantifizieren sind. Dasselbe gilt für in der Finanzmathematik auftauchenden Korrelationskoeffizienten, die günstigenfalls im Einklang mit historischen Daten stehen, aber versagen, wenn es zu unvorhersehbaren Entwicklungen kommt. In diesem Zusammenhang sprechen freundliche Zeitgenossen von rhetorischer Mathematik, die einfach nur Eindruck schinden soll, andere von GIGO-Modellen (Garbage-In-Garbage-Out).

Bis zu dieser Stelle haben wir stillschweigend vorausgesetzt, dass es problemlos ist, die Lösungen des mathematischen Modells zu ermitteln. Das ist jedoch die absolute Ausnahme. In der Regel müssen Lösungen aufwendig genähert werden. Deshalb kommt der Computer ins Spiel. Die Verwendung des Computers bei der Lösung komplizierter Gleichungen ist Fluch und Segen zugleich. Er ist ein Segen, da man mathematische Funktionen berechnen und visualisieren kann, denen man mit Papier und Bleistift auch in Millionen Jahren nicht Herr werden würde. Er ist ein Fluch, da er die erkenntnistheoretische Situation über die Maßen verkompliziert, sodass so manchem Akteur nicht mehr klar ist, was da eigentlich wie berechnet und simuliert wird.

In den Anfängen der Wissenschaft wurde zuerst gemessen und dann modelliert. Heute verfährt man in vielen Fällen andersherum. Die mathematischen Modelle, die dabei zum Einsatz kommen – meist besagte Differentialgleichungssysteme – werden dann diskretisiert und auf dem Computer implementiert. Dort lässt sich mit ihnen vortrefflich spielen. Man kann Anfangs- oder Randwerte variieren, funktionelle Abhängigkeiten verändern oder an den Parametern “drehen“ und sich das Verhalten der “Lösungen“ anschauen. Eine unbeschwerte Reise im Raum der Möglichkeiten. Was sich einfach und verlockend anhört, birgt viele Fallstricke. Zum einen ist gar nicht immer klar, ob die verwendeten mathematischen Modelle überhaupt Lösungen besitzen. Das prominenteste Beispiel sind die für die Klimasimulationen fundamentalen Navier-Stokes-Gleichungen. Bis zum heutigen Tag ist nicht bewiesen, ob eindeutige Lösungen existieren. Das ist ein Millenium-Problem – eines der größten Rätsel der Mathematik. Und selbst wenn sie existierten, ist die Frage strittig, ob diese Gleichungen wirklich die passende Beschreibung für reale Fluide sind. Lassen wir diesen Aspekt außer Acht und nehmen an, dass tatsächlich Lösungen existieren, dann ist in vielen Fällen gar nicht einfach zu entscheiden, ob das, was der Computer berechnet, etwas mit diesen Lösungen zu tun hat. Jeder Computer ist eine endliche Maschine, die in endlicher Zeit immer nur endlich viele Rechenschritte durchführen kann. Das hat zur Konsequenz, dass Zahlen, die unendlich viele Stellen haben, gerundet werden müssen. Diese Rundungen, die auch noch von verschiedenen Computern verschieden bewerkstelligt werden, können massive Konsequenzen haben. Diese Erkenntnis verdanken wir der Chaostheorie genauer dem “computational chaos“. Es ist nicht selten, dass kleinste Veränderungen, Auslassungen oder Fehleinschätzungen zu völlig verschiedenen Lösungen führen. Und Gründe für kleinste Veränderungen gibt es bei der Verwendung von Computern in Hülle und Fülle. Ergebnisse können von der Anzahl der Ziffern, mit denen der Computer rechnet, abhängen, von der verwendeten Gleitkommaarithmetik, sogar von der zum Einsatz gelangenden Programmiersprache. Das gilt besonders im Großrechnerbereich. Japanische Computer arbeiten anders als amerikanische. Simulationen mathematischer Modelle, die empfindlich auf minimale Änderungen reagieren, können sich deshalb sehr unterschiedlich verhalten. Von einem wissenschaftstheoretischen Standpunkt aus gesehen hat das gravierende Folgen. Im Bereich der Simulationen ist eine Normierung, wie wir sie bei den Messinstrumenten kennen, nur in Ansätzen zu erkennen. Das erschwert die „personenunabhängige Überprüfbarkeit“ ungemein.

Das Turing-Trauma

Wenden wir die genannten Kriterien wissenschaftlicher Arbeit einmal auf komplizierte Simulationen an, wie man sie in der Klimaforschung vorfindet. Genauso wie Galilei muss jeder Klimawissenschaftler eine Menge begründeter Vorannahmen machen, welche Zustandsgrößen dem Problem angemessen sind. Zudem sollten diese Größen exakt messbar sein! Wenn man ehrlich ist, weiß heute niemand mit Sicherheit zu sagen, welche Zustandsgrößen in Klimamodellen in welcher Weise exakt zu quantifizieren sind. Erinnert sei an das komplexe Thema der Wolkenbildung und den damit verbundenen Fragen nach der Absorption bzw. Reflexion des Sonnenlichts. Darüber hinaus stellen sich Fragen der Skalierung. Wie eng müssen “Messgitter“ gewählt sein, damit man zu validen Aussagen gelangt? Als nächstes muss das Problem gelöst werden, wie das Modell auf welchem Computer zu implementieren ist. Sind diese Hürden gemeistert, versucht man festzustellen, was die angestellten Berechnungen tatsächlich mit der Wirklichkeit zu tun haben. Dazu müsste man sie idealer Weise mit dieser vergleichen. Galilei konnte immer wieder werfen und messen. Das funktioniert in dieser Form weder bei Simulationen des Klimas noch bei solchen der Volkswirtschaften. Derart komplexen Szenarien lassen sich nicht in einer Laborsituation präparieren. Aus diesem Grund sind wir mit einem erkenntnistheoretischen Problem konfrontiert, das man als Turing-Trauma bezeichnen könnte. Der Logiker Alan Turing artikulierte das sogenannte Halteproblem, das genauso wie die Unvollständigkeitssätze von Kurt Gödel Hilberts mathematische Allmachtsphantasien besiegelte. Aus dem Kontext der Logik herausgelöst kann man es wie folgt ausdrücken: Wenn Sie ein hinreichend komplexes Programm auf einem Computer implementieren, dann wissen sie erst, nachdem es gelaufen ist, wie es sich tatsächlich verhält. Das gilt für verschiedene Eingabekonstellationen, genauso wie für alle Veränderungen an dem Programm, die mit dem Ziel geschaffen wurden, es zu verbessern, die aber tatsächlich auch das Gegenteil bewirken können.

Rufen wir uns an dieser Stelle noch einmal ins Gedächtnis, was Sinn und Zweck eines mathematischen Modells ist. Ein mathematisches Modell ist eine reduzierte Beschreibung der Wirklichkeit, die es uns idealer Weise erlaubt, Ergebnisse zu extrapolieren. Da die Modelle kompliziert sind und nicht mehr per Hand ausgerechnet werden können, müssen ihre genäherten Lösungen mit Computern ermittelt werden. In diesem Kontext arbeitet der Computer wie eine Zeitmaschine! Die Systemzeit ist kürzer als die Realzeit. Genau deshalb kann man im virtuellen Raum Vergangenheit und Zukunft bereisen, immer vorausgesetzt, dass die Simulationsergebnisse mit den Messungen korreliert werden können, um die Validität der Simulation zu gewährleisten. Solche virtuellen Zeitreisen sind übrigens nur dann möglich, wenn das Problem, das mathematisch modelliert wird, reduzibel ist. Das bedeutet, dass es eine gültige reduzierte Beschreibung der Wirklichkeit existiert, die modellhaft die relevanten Aspekte der entsprechenden Fragestellung einfängt. Das ist nicht selbstverständlich. Ist ein Problem nicht reduzibel, hätten Modell und Wirklichkeit dieselbe Komplexität, die Systemzeit entspräche der Realzeit und Vorhersagen wären nicht möglich.

Vor diesem Hintergrund verdankt sich das Turing-Trauma einem methodischen Zirkel. Es findet seine Ursache genau in der Tatsache, dass wir den Computer als virtuelle Zeitmaschine verwenden. Wir wiesen darauf hin, dass das Modell in einer für den Computer verständlichen Sprache artikuliert werden muss. Wie aber prüfen wir, ob die Simulation unseren Ansprüchen genügt? Woher wissen wir, dass die Software keine Fehler hat, dass nicht an den falschen Stellen gerundet wird oder dass sich die Simulation in einer Schleife verfängt? Die Antwort ist frustrierend aber wahr: Nach den Arbeiten von Turing weiß man, dass man die Güte einer Simulation nur dadurch ermitteln kann, dass man sie laufen lässt, um ihre Ergebnisse mit der Realität, über die man ja eigentlich mittels der Simulation etwas erfahren wollte, vergleicht. Das führt das Vorgehen in gewissem Sinne ad absurdum. Natürlich gibt es Simulationen, die mit gegenwärtig gemachten Messungen mehr oder weniger gut korrelieren und die auch noch in der Lage sind, vergangene Messwertverteilungen zu reproduzieren. Nur erlaubt diese Tatsache leider nicht, bedenkenlos weiter auf die Zukunft zu schließen. Es ist wie bei zwei Zügen, die sich eine Weile gemeinsam auf parallelen Gleisen bewegen, bis eine Weiche kommt, die die Wege voneinander scheidet. Der Wert einer Simulation zeigt sich also erst dann, wenn man real an dem Zeitpunkt angekommen ist, dem man virtuell eigentlich vorgreifen wollte.

Damit bekommt die Wahl der passenden Simulationen etwas alchimistisches. Im Schattenreich der verzwickten Beziehungen von Messungen, mathematischen Modellen, deren diskretisierten Formen und numerischen Simulationen bildet sich ein rezeptartiges “Handwerkswissen“ heraus, mit dessen Hilfe in einem Try- and Errorverfahren Modelle selektiert werden – eine fast darwinsche Selektion von Simulationen. Das entspricht der Vorgehensweise der Klimamodellierer, die viele Simulationen parallel laufen lassen und versuchen die guten zu verbessern. Eine Gewähr für wasserdichte Prognosen ist das nicht.

Unter dem Strich sind wir deshalb mit einer verwirrenden Situation konfrontiert, die nachvollziehbar macht, weshalb viele Menschen den Untergangsszenarien mit Missmut begegnen. Mathematische Modelle, die mit dem Zweck geschaffen werden, das Leben versteh und planbar zu machen, bewirken in ihrer überbordenden Vielfalt das genaue Gegenteil. In einem symbolischen Universum tummeln sich solche, die exakt funktionieren und ihre Aufgabe erfüllen. Jeder in die Umlaufbahn geschossene Satellit, der seine berechnete Position einnimmt, zeugt davon. Auf der anderen Seite gibt einen Haufen viel zitierter Modelle, die das Papier nicht wert sind, auf dem sie geschrieben sind. Es gibt Modelle, die funktionieren können, von denen wir aber vielleicht nie erfahren werden, ob sie es wirklich tun. Das alles wäre zu verkraften, wenn ehrlich auf den oft provisorischen Charakter von Simulationen hingewiesen würde. Fehlt diese Bescheidenheit aber und treten Wissenschaftler wie Pythagoras im Gewande eines Zahlenzauberers auf, dann wird es gefährlich. Viele Menschen neigen vor einer komplizierten Formel demütig das Haupt und übersehen, dass wissenschaftliche Propheten auch ganz weltliche Interessen im Blick haben können. Michael Osinski wollte mit seiner missglückten Software Geld verdienen und mancher Wissenschaftler nutzt den sorgsam geschürten Alarmismus, um Forschungsgelder einzuwerben. Klimasimulationen können ein Erkenntnisinteresse bedienen – keine Frage. Als Notwendigkeit nachhaltig zu leben und zu wirtschaften reicht jedoch schon die Erkenntnis, dass die Weltbevölkerung mit exponentieller Geschwindigkeit wächst und unser Lebensraum begrenzt ist. Die Formel, die die vorhersehbare Katastrophe beschreibt, ist seit weit über hundert Jahren bekannt. Um die tödlichen Konsequenzen, die sich aus ihr ergeben, zu verstehen, braucht man noch nicht einmal einen Computer.