Zahlenzauber

Es ist ein Irrglaube, dass die Welt in ihrer Gesamtheit berechenbar ist. Deshalb muss mathematischen Modellen, die Exaktheit suggerieren, wo keine zu finden ist, mit Skepsis begegnet werden.

Was haben Pythagoras und Michael Osinski gemeinsam? Dem ersten Anschein nach nichts. Der Amerikaner Osinski war ein erfolgreicher Programmierer an der Wallstreet, der eine verhängnisvolle Software schrieb, die die Bankenkrise mit verantwortete. Pythagoras kennen wir als Philosophen, der an die Seelenwanderung glaubte, einen mathematischen Satz über rechtwinklige Dreiecke formulierte, seinen Jüngern verbot Bohnen zu essen und ausgedehnte Spaziergänge in die Einsamkeit machte, um verzückt dem Klang der Planeten zu lauschen, wenn diese durch den Weltraum eilen.

Doch trotz der zweieinhalbtausend Jahre die zwischen Pythagoras und Michael Osinski liegen, trotz der gänzlich verschiedenen Lebensformen dieser zwei Menschen – hier ein Philosoph, der unter südlicher Sonne der Kontemplation frönt, dort ein gehetzter Wallstreetjunkie, der sich am schnellen Geld berauscht – existiert ein unsichtbares Band zwischen den beiden. Wahrscheinlich ohne es selbst zu wissen, ist Osinski eine Art Widergänger des Pythagoras und huldigt wie dieser einem fast mystisch verklärten Glauben an die Berechenbarkeit der Welt. Und ein Osinski ist in unserer Zeit keine singuläre Erscheinung. Im Gegenteil. Er ist nur Protagonist einer sich endemisch verbreitenden “wissenschaftlichen“ Weltanschauung. Diese manifestiert sich in der kritiklosen Verwendung mathematischer Verfahren, die unter Verwendung fragwürdiger Formeln eine Exaktheit vorgaukeln, die auf tönernen Füßen steht. Da in diesem Zusammenhang auch noch Großrechner zum Einsatz kommen, auf denen äußerst komplizierte Software implementiert ist, entsteht in der Summe eine numerische Komplexität, die viele ihrer Schöpfer nicht mehr überschauen. Erinnert sei nur an den “Flashcrash“ an der Wallstreet, bei dem die Tradingalgorithmen aus dem Ruder liefen oder an besagte Bankenkrise, die sich in nicht unwesentlichen Teilen fehlerhaften Programmen verdankte. Erinnert sei auch an das falsche Rating, das die Computer von Standard&Poors unlängst ausspuckten und damit Frankreichs bis dato erstklassige Bonität in Frage stellten. Daraufhin zitterten die Börsen bedenklich. In einer global vernetzten Welt sind solche Pannen gefährlich und der Umstand, dass Menschen wie Osinski nicht wie seriöse Wissenschaftler agieren, sondern in ihrem Tun eher an Goethes Zauberlehrling erinnern, dem das Wasser bis zum Hals steht, muss uns beunruhigen. Im Gedicht erledigt der alte Hexenmeister den Spuk, in unserer Zeit ist ein solcher Retter nicht in Sicht. Was läuft da falsch? Die Gründe sind vielfältig und es hilft, einen kurzen Blick zurückzuwerfen.

Die Lehre des Wundermanns

Der spiritus rector des heute verbreiteten Kalkulationismus – des naiven Glaubens an die Berechenbarkeit der Welt – ist besagter Pythagoras.
Sein Schlüsselsatz lautete: “Alles ist Zahl“. Mit dieser Aussage wurde er zum Stammvater eines Zahlenkults, der die Mathematik zum Fetisch machte und Mathematiker zu Hohepriestern. Der Philosoph Bertrand Russell hielt ihn für den einflussreichsten Denker, der je auf Erden gelebt hat. Wenn man in Betracht zieht, welchen Stellenwert die Mathematik in unserer Zeit genießt, ist man geneigt, sich dieser Einstellung anzuschließen. Es erstaunt nicht dass Pythagoras, der von seinen Jüngern als “Wundermann“ bezeichnet wurde, ein ausgeprägtes Ego besaß. Er hielt sich für einen Halbgott. “Es gibt Menschen und Götter und Wesen wie mich“, soll er von sich behauptet haben. Trotz dieser Hybris hatte seine Philosophie einen blinden Fleck und dieser ist auch für alle späteren Weltanschauungen kennzeichnend, die sich unausgesprochen auf ihn beziehen und unterstellen, dass die Tiefenstruktur der Welt mathematisch ist und sich deshalb vollumfänglich in ein symbolisches Korsett zwängen lässt. Heute wie damals wird oft versäumt zu prüfen, ob eine Mathematisierung überhaupt sinnvoll ist.
Nach der Lehre des Pythagoras hatte sich die Welt aus der Zahl Eins entwickelt und alle Dinge entsprachen Zahlen. Ihre Harmonie offenbarte sich darin, dass diese Dinge in einem ganzzahligen Verhältnis zueinander stehen sollten. Diese “Entdeckung“ verdankte Pythagoras dem Studium der Saiteninstrumente. Zupft man eine Saite und teilt sie dann, so erhält man mit dem Verhältnis 2:1 eine Oktave, ein Teilen 3:2 ergibt eine Quinte und 4:3 eine Quarte. Eine schöne Erkenntnis, die jedoch von ihm ohne zu zögern auf das Weltganze ausgeweitet wurde. Von der schwingenden Saite zur Sphärenharmonie der Himmelskörper war es für Pythagoras nur ein kleiner Schritt. Doch schon der Philosoph irrte mehrfach. Johannes Kepler – in seinem Herzen eigentlich auch ein Pythagoräer – beugte sich mutig der Macht des Faktischen: Auf Ellipsen eiern die Planeten um die Sonne, nicht auf göttlichen Kreisen die in harmonischen Beziehungen zueinander stehen. Und schon zu Zeiten von Pythagoras war klar, dass es inkommensurable geometrische Figuren gibt, deren Saitenlängen nicht in einem ganzzahligen Verhältnis zueinander stehen. Ein Jünger – Hippasos von Metapont – war so unvorsichtig, das auszuplaudern und bezahlte seine Schwatzhaftigkeit mit dem Leben. Er wurde von den anderen im Meer ertränkt.

Während die argumentativen Kapriolen des Vorsokratikers schnell zu entlarven sind, ist das bei mathematischen Modellen der Gegenwart schwieriger.
Was sollen wir von komplizierten Formeln halten, die vorgeben zu beschreiben, wie unser Gehirn funktioniert und deren Erschaffer die Überzeugung vertreten, dass chaotische Attraktoren in unseren Köpfen ihr Unwesen treiben und als Zufallsgeneratoren den freien Willen ermöglichen? Wie steht es um Formelsysteme, die angeben, wie Kriege zwischen verfeindeten Staaten zustande kommen? Und sollen wir mathematischen Modellen in den Volkswirtschaften trauen, die an jeder Universität gelehrt werden, die sich aber auf zweifelhafte Annahmen stützen, wie Menschen handeln? Müssen wir darüber hinaus Simulationen des Klimas ernst nehmen, deren Ziel es ist, dieses in 100 (!) Jahren vorauszusagen?
Die Beantwortung solcher Fragen ist kein akademisches Glasperlenspiel! Wie oben angesprochen, agieren die Erschaffer solcher symbolischen Konstrukte nicht im luftleeren Raum. Leichtgläubige Banker verließen sich überall auf der Welt auf eine Software von Michael Osinski, mit der dieser vorgab, die Ausfallwahrscheinlichkeiten von gebündelten Krediten beurteilen zu können. Auf der Basis von Klimamodellierungen werden Anlageentscheidungen getroffen, die in die Billionen gehen! Damit wird das, was bei Pythagoras als intellektuelle Grille eines Sonderlings begann, zu einer Schlüsselfrage unserer Zeit: Was sind und was können mathematische Modelle, die auf Supercomputern implementiert werden? Und wo sind ihre Grenzen?

Um wenigstens ein Gefühl für die Komplexität dieser Fragen zu bekommen, ist es notwendig, das Problem zu simplifizieren. Es lohnt sich in Gedanken eine kurze Zeitreise zu machen. Wir beobachten Galileo Galilei, bei einem Experiment, das in dieser Form nie stattgefunden hat und fragen uns, wie man aus Messresultaten überhaupt eine valide mathematische Beschreibung ableitet.

Die Zahlenwolke

Dass Galilei das Fallgesetz entwickelt hat, indem er Gegenstände vom schiefen Turm von Pisa warf, gehört in das Reich der Legende. Aus Gründen der Anschaulichkeit stellen wir uns das trotzdem vor. Unser gedachter toskanischer Turm ist aber nicht schief sondern gerade und er hat zehn anstatt sechs Stockwerke. Der Italiener fragt sich, wie lange eine Metallkugel wohl benötigt, wenn man sie im dritten Stock loslässt und wartet, bis sie auf dem Boden aufschlägt. Um diese Frage zu beantworten, muss er messen. Aber was? Und wie muss er messen? Galilei entscheidet sich, bestimmte Eigenschaften zu ermitteln und andere nicht. Dieser Punkt ist wichtig, da sich in ihm ein wissenschaftliches Vorverständnis ausdrückt, das angemessen, unvollständig oder auch falsch sein kann. Intuitiv sieht er von der Farbe der Metallkugel ab, auch der Temperatur derselben misst er keine Bedeutung zu. In einer visionären Vorahnung verzichtet er sogar darauf, die Masse der Kugel zu bestimmen. Stattdessen will er die Abwurfhöhe messen. Auch ermittelt er die Zeit, die sie benötigt, bis sie auf dem Boden aufkommt. Alle Werte, die er mit einwandfrei funktionierenden Messinstrumenten erhebt, werden notiert. Jetzt entschließt er sich, die Abwurfhöhe zu ändern. Er klettert in den vierten Stock, wirft und misst – erneut zehn Mal. Das Procedere wiederholt er im fünften, sechsten, siebten und achten Stock. Der alte Mann atmet angestrengt, die obersten Stockwerke spart er sich. Alle Werte hat er sorgfältig in sein Buch geschrieben. Er hat nun vor Augen, was der Wissenschaftsphilosoph Hugo Dingler als Zahlenwolke bezeichnete. Um Ordnung in die Wolke zu bringen, verwendet er ein Koordinatensystem, um etwa die Fallzeit in Abhängigkeit von der Abwurfhöhe einzutragen. Er möchte gerne eine mathematische Funktion finden, die die Messwertverteilung abbildet. Und wieder ist Intuition gefragt. Die Aufgabe ist nicht trivial, da es theoretisch unendlich viele Möglichkeiten gibt. Trotzdem findet er mit sicherem Gespür einen aussichtsreichen Kandidaten. Als im Kern faulem Menschen kommt ihm eine Idee. Wenn er andere Abwurfhöhen in sein Modell einsetzte, könnte er sich vielleicht die anstrengende Kletterei sparen. Als seriöser Wissenschaftler prüft er seine Voraussage noch einmal an der Realität. Er klettert in den neunten Stock, wirft und misst. Und tatsächlich, die Formel erweist sich als richtig. Auch beim Abstieg, als er die Kugel zur Sicherheit noch einmal aus dem zweiten wirft, wird er nicht enttäuscht. Er schließt, dass seine Formel ihre Dienste auch für den ersten und zehnten Stock leisten würde. Stolz verkündet der Wissenschaftler, dass er mit seiner Formel in die Zukunft sehen könne. Selbst wenn man den Turm auf tausend Stockwerke erhöhen würde, wäre er in der Lage zu berechnen, wie lange die Kugel flöge (womit er sich eigentlich schon zu weit aus dem Fenster lehnt). Skeptikern entgegnet er noch, dass jeder Mensch sein Experiment wiederholen könne, um sich von dessen Wahrheit zu überzeugen.

Mathematische Luftnummern

Dieses in seinem Kern nicht schwer zu verstehende Gedankenexperiment, in dem wir das eine oder andere stillschweigend vorausgesetzt oder zurechtgebogen haben, zeigt in verkürzter Form einige wichtige Aspekte seriöser Wissenschaft. Zur seriösen Forschung gehört, dass Wissenschaftler mit normierten Messinstrumenten arbeiten. Das ist eine notwendige Bedingung, damit Experimente “personenunabhängig reproduziert“ werden können. Wenn Galilei proklamiert, dass alle Menschen seine Messungen wiederholen können, dann setzt er genau diese Forderung als gegeben voraus. Alle sollen mit gleichen Maßstäben messen. Das war, anders als oben behauptet, zu Zeiten von Galilei keine Selbstverständlichkeit. Es gab, um ein Beispiel zu nennen, keine zuverlässig funktionierenden Uhren, kein objektivierbares Zeitmaß. Bei Experimenten mit der schiefen Ebene soll Galilei anfänglich ein Kinderlied gesungen haben, um dann zu notieren, bei welcher Silbe die losgelassene Kugel am Boden ankam. Später verwendete er seinen Herzschlag, dann eine Wasseruhr. Darüber hinaus muss ein Wissenschaftler funktionierende von gestörten Messinstrumenten unterscheiden können. Das ist auch in unserer Zeit eine mitunter knifflige Angelegenheit, wie man in der Diskussion um die Überlichtgeschwindigkeit sieht. Sind die gemessenen Neutrinos tatsächlich schneller als das Licht und muss deshalb die spezielle Relativitätstheorie revidiert werden? Eine Revolution! Oder gibt es Messfehler, die sich zum Beispiel fehlerhaft funktionierenden Detektoren verdanken?

Lassen wir jetzt außer acht, dass die heute verwendeten mathematischen Modelle – häufig nicht-lineare Differentialgleichungssysteme – ungleich komplizierter sind, als das Fallgesetz, so reichen die gerade gewonnen Einsichten, um viele kryptische Formelungetüme als zahnlose Tiger zu enttarnen. Wenn etwa in einem mathematischen Modell, das vorgibt, die Entstehung von Spannungen zwischen verfeindeten Staaten zu beschreiben, eine ominöse Größe wie der “Groll“ vorkommt, dann kann man dieses Modell vergessen, da sich Groll anders als Abwurfhöhen und Fallzeiten nicht messen lässt. Ähnlich verhält es sich mit den angesprochenen Gehirnmodellen in denen synaptische Kopplungsstärken zwischen den Nervenzellen auftauchen. Kein Mensch weiß, wie diese zu quantifizieren sind. Dasselbe gilt für in der Finanzmathematik auftauchenden Korrelationskoeffizienten, die günstigenfalls im Einklang mit historischen Daten stehen, aber versagen, wenn es zu unvorhersehbaren Entwicklungen kommt. In diesem Zusammenhang sprechen freundliche Zeitgenossen von rhetorischer Mathematik, die einfach nur Eindruck schinden soll, andere von GIGO-Modellen (Garbage-In-Garbage-Out).

Bis zu dieser Stelle haben wir stillschweigend vorausgesetzt, dass es problemlos ist, die Lösungen des mathematischen Modells zu ermitteln. Das ist jedoch die absolute Ausnahme. In der Regel müssen Lösungen aufwendig genähert werden. Deshalb kommt der Computer ins Spiel. Die Verwendung des Computers bei der Lösung komplizierter Gleichungen ist Fluch und Segen zugleich. Er ist ein Segen, da man mathematische Funktionen berechnen und visualisieren kann, denen man mit Papier und Bleistift auch in Millionen Jahren nicht Herr werden würde. Er ist ein Fluch, da er die erkenntnistheoretische Situation über die Maßen verkompliziert, sodass so manchem Akteur nicht mehr klar ist, was da eigentlich wie berechnet und simuliert wird.

In den Anfängen der Wissenschaft wurde zuerst gemessen und dann modelliert. Heute verfährt man in vielen Fällen andersherum. Die mathematischen Modelle, die dabei zum Einsatz kommen – meist besagte Differentialgleichungssysteme – werden dann diskretisiert und auf dem Computer implementiert. Dort lässt sich mit ihnen vortrefflich spielen. Man kann Anfangs- oder Randwerte variieren, funktionelle Abhängigkeiten verändern oder an den Parametern “drehen“ und sich das Verhalten der “Lösungen“ anschauen. Eine unbeschwerte Reise im Raum der Möglichkeiten. Was sich einfach und verlockend anhört, birgt viele Fallstricke. Zum einen ist gar nicht immer klar, ob die verwendeten mathematischen Modelle überhaupt Lösungen besitzen. Das prominenteste Beispiel sind die für die Klimasimulationen fundamentalen Navier-Stokes-Gleichungen. Bis zum heutigen Tag ist nicht bewiesen, ob eindeutige Lösungen existieren. Das ist ein Millenium-Problem – eines der größten Rätsel der Mathematik. Und selbst wenn sie existierten, ist die Frage strittig, ob diese Gleichungen wirklich die passende Beschreibung für reale Fluide sind. Lassen wir diesen Aspekt außer Acht und nehmen an, dass tatsächlich Lösungen existieren, dann ist in vielen Fällen gar nicht einfach zu entscheiden, ob das, was der Computer berechnet, etwas mit diesen Lösungen zu tun hat. Jeder Computer ist eine endliche Maschine, die in endlicher Zeit immer nur endlich viele Rechenschritte durchführen kann. Das hat zur Konsequenz, dass Zahlen, die unendlich viele Stellen haben, gerundet werden müssen. Diese Rundungen, die auch noch von verschiedenen Computern verschieden bewerkstelligt werden, können massive Konsequenzen haben. Diese Erkenntnis verdanken wir der Chaostheorie genauer dem “computational chaos“. Es ist nicht selten, dass kleinste Veränderungen, Auslassungen oder Fehleinschätzungen zu völlig verschiedenen Lösungen führen. Und Gründe für kleinste Veränderungen gibt es bei der Verwendung von Computern in Hülle und Fülle. Ergebnisse können von der Anzahl der Ziffern, mit denen der Computer rechnet, abhängen, von der verwendeten Gleitkommaarithmetik, sogar von der zum Einsatz gelangenden Programmiersprache. Das gilt besonders im Großrechnerbereich. Japanische Computer arbeiten anders als amerikanische. Simulationen mathematischer Modelle, die empfindlich auf minimale Änderungen reagieren, können sich deshalb sehr unterschiedlich verhalten. Von einem wissenschaftstheoretischen Standpunkt aus gesehen hat das gravierende Folgen. Im Bereich der Simulationen ist eine Normierung, wie wir sie bei den Messinstrumenten kennen, nur in Ansätzen zu erkennen. Das erschwert die „personenunabhängige Überprüfbarkeit“ ungemein.

Das Turing-Trauma

Wenden wir die genannten Kriterien wissenschaftlicher Arbeit einmal auf komplizierte Simulationen an, wie man sie in der Klimaforschung vorfindet. Genauso wie Galilei muss jeder Klimawissenschaftler eine Menge begründeter Vorannahmen machen, welche Zustandsgrößen dem Problem angemessen sind. Zudem sollten diese Größen exakt messbar sein! Wenn man ehrlich ist, weiß heute niemand mit Sicherheit zu sagen, welche Zustandsgrößen in Klimamodellen in welcher Weise exakt zu quantifizieren sind. Erinnert sei an das komplexe Thema der Wolkenbildung und den damit verbundenen Fragen nach der Absorption bzw. Reflexion des Sonnenlichts. Darüber hinaus stellen sich Fragen der Skalierung. Wie eng müssen “Messgitter“ gewählt sein, damit man zu validen Aussagen gelangt? Als nächstes muss das Problem gelöst werden, wie das Modell auf welchem Computer zu implementieren ist. Sind diese Hürden gemeistert, versucht man festzustellen, was die angestellten Berechnungen tatsächlich mit der Wirklichkeit zu tun haben. Dazu müsste man sie idealer Weise mit dieser vergleichen. Galilei konnte immer wieder werfen und messen. Das funktioniert in dieser Form weder bei Simulationen des Klimas noch bei solchen der Volkswirtschaften. Derart komplexen Szenarien lassen sich nicht in einer Laborsituation präparieren. Aus diesem Grund sind wir mit einem erkenntnistheoretischen Problem konfrontiert, das man als Turing-Trauma bezeichnen könnte. Der Logiker Alan Turing artikulierte das sogenannte Halteproblem, das genauso wie die Unvollständigkeitssätze von Kurt Gödel Hilberts mathematische Allmachtsphantasien besiegelte. Aus dem Kontext der Logik herausgelöst kann man es wie folgt ausdrücken: Wenn Sie ein hinreichend komplexes Programm auf einem Computer implementieren, dann wissen sie erst, nachdem es gelaufen ist, wie es sich tatsächlich verhält. Das gilt für verschiedene Eingabekonstellationen, genauso wie für alle Veränderungen an dem Programm, die mit dem Ziel geschaffen wurden, es zu verbessern, die aber tatsächlich auch das Gegenteil bewirken können.

Rufen wir uns an dieser Stelle noch einmal ins Gedächtnis, was Sinn und Zweck eines mathematischen Modells ist. Ein mathematisches Modell ist eine reduzierte Beschreibung der Wirklichkeit, die es uns idealer Weise erlaubt, Ergebnisse zu extrapolieren. Da die Modelle kompliziert sind und nicht mehr per Hand ausgerechnet werden können, müssen ihre genäherten Lösungen mit Computern ermittelt werden. In diesem Kontext arbeitet der Computer wie eine Zeitmaschine! Die Systemzeit ist kürzer als die Realzeit. Genau deshalb kann man im virtuellen Raum Vergangenheit und Zukunft bereisen, immer vorausgesetzt, dass die Simulationsergebnisse mit den Messungen korreliert werden können, um die Validität der Simulation zu gewährleisten. Solche virtuellen Zeitreisen sind übrigens nur dann möglich, wenn das Problem, das mathematisch modelliert wird, reduzibel ist. Das bedeutet, dass es eine gültige reduzierte Beschreibung der Wirklichkeit existiert, die modellhaft die relevanten Aspekte der entsprechenden Fragestellung einfängt. Das ist nicht selbstverständlich. Ist ein Problem nicht reduzibel, hätten Modell und Wirklichkeit dieselbe Komplexität, die Systemzeit entspräche der Realzeit und Vorhersagen wären nicht möglich.

Vor diesem Hintergrund verdankt sich das Turing-Trauma einem methodischen Zirkel. Es findet seine Ursache genau in der Tatsache, dass wir den Computer als virtuelle Zeitmaschine verwenden. Wir wiesen darauf hin, dass das Modell in einer für den Computer verständlichen Sprache artikuliert werden muss. Wie aber prüfen wir, ob die Simulation unseren Ansprüchen genügt? Woher wissen wir, dass die Software keine Fehler hat, dass nicht an den falschen Stellen gerundet wird oder dass sich die Simulation in einer Schleife verfängt? Die Antwort ist frustrierend aber wahr: Nach den Arbeiten von Turing weiß man, dass man die Güte einer Simulation nur dadurch ermitteln kann, dass man sie laufen lässt, um ihre Ergebnisse mit der Realität, über die man ja eigentlich mittels der Simulation etwas erfahren wollte, vergleicht. Das führt das Vorgehen in gewissem Sinne ad absurdum. Natürlich gibt es Simulationen, die mit gegenwärtig gemachten Messungen mehr oder weniger gut korrelieren und die auch noch in der Lage sind, vergangene Messwertverteilungen zu reproduzieren. Nur erlaubt diese Tatsache leider nicht, bedenkenlos weiter auf die Zukunft zu schließen. Es ist wie bei zwei Zügen, die sich eine Weile gemeinsam auf parallelen Gleisen bewegen, bis eine Weiche kommt, die die Wege voneinander scheidet. Der Wert einer Simulation zeigt sich also erst dann, wenn man real an dem Zeitpunkt angekommen ist, dem man virtuell eigentlich vorgreifen wollte.

Damit bekommt die Wahl der passenden Simulationen etwas alchimistisches. Im Schattenreich der verzwickten Beziehungen von Messungen, mathematischen Modellen, deren diskretisierten Formen und numerischen Simulationen bildet sich ein rezeptartiges “Handwerkswissen“ heraus, mit dessen Hilfe in einem Try- and Errorverfahren Modelle selektiert werden – eine fast darwinsche Selektion von Simulationen. Das entspricht der Vorgehensweise der Klimamodellierer, die viele Simulationen parallel laufen lassen und versuchen die guten zu verbessern. Eine Gewähr für wasserdichte Prognosen ist das nicht.

Unter dem Strich sind wir deshalb mit einer verwirrenden Situation konfrontiert, die nachvollziehbar macht, weshalb viele Menschen den Untergangsszenarien mit Missmut begegnen. Mathematische Modelle, die mit dem Zweck geschaffen werden, das Leben versteh und planbar zu machen, bewirken in ihrer überbordenden Vielfalt das genaue Gegenteil. In einem symbolischen Universum tummeln sich solche, die exakt funktionieren und ihre Aufgabe erfüllen. Jeder in die Umlaufbahn geschossene Satellit, der seine berechnete Position einnimmt, zeugt davon. Auf der anderen Seite gibt einen Haufen viel zitierter Modelle, die das Papier nicht wert sind, auf dem sie geschrieben sind. Es gibt Modelle, die funktionieren können, von denen wir aber vielleicht nie erfahren werden, ob sie es wirklich tun. Das alles wäre zu verkraften, wenn ehrlich auf den oft provisorischen Charakter von Simulationen hingewiesen würde. Fehlt diese Bescheidenheit aber und treten Wissenschaftler wie Pythagoras im Gewande eines Zahlenzauberers auf, dann wird es gefährlich. Viele Menschen neigen vor einer komplizierten Formel demütig das Haupt und übersehen, dass wissenschaftliche Propheten auch ganz weltliche Interessen im Blick haben können. Michael Osinski wollte mit seiner missglückten Software Geld verdienen und mancher Wissenschaftler nutzt den sorgsam geschürten Alarmismus, um Forschungsgelder einzuwerben. Klimasimulationen können ein Erkenntnisinteresse bedienen – keine Frage. Als Notwendigkeit nachhaltig zu leben und zu wirtschaften reicht jedoch schon die Erkenntnis, dass die Weltbevölkerung mit exponentieller Geschwindigkeit wächst und unser Lebensraum begrenzt ist. Die Formel, die die vorhersehbare Katastrophe beschreibt, ist seit weit über hundert Jahren bekannt. Um die tödlichen Konsequenzen, die sich aus ihr ergeben, zu verstehen, braucht man noch nicht einmal einen Computer.