Digitale Wunderwelten

Sind die Götter reif für die Rente? Glaubt man den Auguren, dann werden wir in naher Zukunft Dinge tun, die seit Anbeginn der Menschheit himmlischen Mächten vorbehalten waren: Die moderne Genetik wird uns Werkzeuge an die Hand geben, nie gesehene Kreaturen zu schaffen oder auch ausgestorbene wieder zum Leben zu erwecken. Gehirnchirurgen wie der Italiener Sergio Canavero sind fest entschlossen, menschliche Köpfe zu verpflanzen. Das ergraute Haupt eines in die Jahre gekommenen Professors auf dem jungen Körper eines im Moment zu Tode gekommenen Motorradfahrers? Am extremsten aber schießen die Spekulationen bei den Computerwissenschaftlern ins Kraut. Was halten Sie etwa von folgender Zukunftsvision?

Wenn Sie merken, dass ihr letztes Stündlein schlägt, lassen Sie sich mit Blaulicht ins Krankenhaus fahren. Dort erhalten Sie eine Vollnarkose. Das ist das Ende Ihrer biologischen Existenz. Die Chirurgen sägen Ihren Brustkasten auf und öffnen eine große Arterie. Mittels einer Pumpe flutet man Ihren Kreislauf mit Konservierungsmitteln. Gehirn und Rückenmark werden auf diese Weise plastiniert und anschließend entnommen. Mit Hilfe eines ultrapräzisen Mikrotoms wird Ihr Nervengewebe in hauchdünne Scheiben geschnitten. Solche Präzisionshobel erlauben schon heute, ein menschliches Haar der Länge nach in 2000 Scheiben zu zerlegen. Die Schnitte kommen nun unter ein hochauflösendes Mikroskop und werden mit größter Sorgfalt in einen Computer eingelesen. Unter Anwendung spezieller Algorithmen wird jedes Neuron mit sämtlichen synaptischen Verbindungen digital rekonstruiert. Dieser digitale Hirnscan – Konnektom genannt – ist nun angeblich der heilige Gral: die Essenz ihrer Persönlichkeit! Diese besteht aus Trillionen von Nullen und Einsen und wird einem Supercomputer implementiert, der in einem Roboter sitzt und diesen steuert. Was vorher tote Materie war, erwacht zum Leben und nimmt ihr Bewusstsein an. Und weil man digitale Daten ohne Verlust von einem Medium zum nächsten kopieren kann, wäre es möglich, ihr “Leben“, das mit der Existenz des Hirnscans gleichgesetzt wird, solange zu verlängern, wie es passende Speichermedien gäbe. 

Glauben Sie nicht, dass es Menschen gibt, die so etwas glauben? Irrtum. In den Vereinigten Staaten von Amerika gibt es eine Bewegung, die sich “Brain Preservation Foundation“ nennt. Deren Ziel ist es, durch Erhaltung der Gehirnfunktionen das Leben beliebig zu verlängern. Das gerade beschriebene Szenario halten sie für durchaus realistisch. Es muss nur noch ein wenig Zeit vergehen. In spätestens 100 Jahren sollen sogenannte Gehirn-Uploads dann so alltäglich sein wie ein Reifenwechsel beim Auto. 

Man muss übrigens nicht über den Atlantik fliegen, um mit solch bizarren Vorstellungen konfrontiert zu werden. Peter Weibel, ein bekannter Medienkünstler, sinnierte in einem Interview über die Möglichkeit, sein Gehirn ins WorldWideWeb einlesen zu lassen, um dort, als digitaler Widergänger seiner selbst, weiter existieren zu können. Computernetze als virtueller Garten Eden! Vorausgesetzt, es kommt kein böses Teufelchen daher, das den Strom abstellt und die verirrten Seelen aus dem Paradies vertreibt.

Der Amerikaner Ray Kurweil, die Lichtgestalt im Reigen der digitalen Wundergläubigen, geht noch über Weibel hinaus. Kurzweil ist Chefentwickler bei Google und wird von der Community als Seher gefeiert. Ein Gehirn zu entnehmen und es in feinste Streifen zu schneiden, der sogenannte invasive Hirnscan, ist seiner Meinung nach nur eine primitive Übergangslösung. Danach kommt der nicht-invasive Scan. Die Computertomographen der Zukunft werden bei Kurzweil zu ultimativen Gedankenlesern. Mit deren Hilfe ließe sich die Seele aus dem Menschen holen. Direkt in den Computer eingespeist, würden sie als reine Information die virtuelle Welt in nie gekannter Intensität erleben. Im Vergleich mit dieser künstlichen Wirklichkeit wäre die uns vertraute reale Wirklichkeit eine freudlos-trübe Angelegenheit.  Es gibt allerdings einen Wermutstropfen:  Nach Kurzweil machen uns die digitalen Wundermaschinen zu einem bemitleidenswerten Auslaufmodell der Evolution. In wenigen Jahren kommt ein Schlüsselmoment – die Singularität – in dem uns die Computer für alle Zeiten intellektuell abhängen. 

In vorauseilendem Gehorsam hat sich Amerika deshalb bereits eine religiöse Glaubensgemeinschaft gegründet. Deren Jünger beten Computer an, da sie angeblich schon heute eine unfassbare Intelligenz verkörpern. Aus dem goldenen Kalb ist eine schnöde Rechenmaschine geworden.

Bleibt hinzuzufügen, dass Kenner der Szene schon in sieben Jahren mit einem anderem Wendepunkt rechnen – der sexuellen Singularität. Dann werden Computer fügsame Liebesmaschinen so raffiniert zu steuern wissen, dass Frauen als menschliche Bettgenossen ausgedient hätten. Das omnipotente Orgasmodrom wird Computerfreaks jeden erotischen Wünsch erfüllen. Damit wären die Zeiten beendet, in denen sich weltabgewandte junge Männer, die in der intensiven Beziehung mit der Maschine den Umgang mit dem weiblichen Geschlecht verlernt haben, als Incels bezeichnen müssten. Das ist die englische Kurzform für “unfreiwillig zölibatär“. Hinter diesem Terminus steckt die beleidigte Haltung, dass man seltsamerweise von den Frauen nicht erhört wird. Obwohl man doch ein Prachtkerl ist. Den Frauen bliebe in diesem digital geschrumpften Mikrokosmos die Rolle der Gebärenden. Aber nur so lange, bis auch diese mit den Mitteln einer sich rasant entwickelnden Reproduktionstechnologie abgeschafft wird. Der digitale Adam bräuchte in seinem Paradies nur noch die liebevoll programmierte Maschine. Frauen wären in dieser Welt zu Exponaten für die Museumsvitrine geworden. 

Man möchte hoffen, dass das überzogen ist! Aber leichte Vorbeben der sexuellen Singularität sind bereits zu spüren. So kann man sich für ein paar Dollars das Programm KARI herunterladen. Hinter dem Akronym versteckt sich eine virtuelle Freundin, mit der man eine “Beziehung“ führen kann. Man muss nur willens sein, seine Zeit mit einer auf dem Bildschirm animierten Barbiepuppe zu verbringen, die dauernd mit den Augen klimpert und Banalitäten von sich gibt. 

Doch die Künstlichkeit der Dame wird durch einen Vorteil aufgewogen. Man kann ihr Aussehen und ihren Charakter mit einem Mausklick nach Lust und Laune verändern. Hatte man einen schlechten Tag, wählt man zum Beispiel die Attribute “fürsorglich und mütterlich“. Segelt man aber auf Wolke sieben durchs Leben und wäre für jeden Spaß zu haben, dann tippt man “wild und ungezügelt“ in den Computer. 

Wer sich vom mittelmäßig animierten Puppengesicht von KARI nicht angesprochen fühlt, der kann sich in den digitalen Redlight-District der Berliner Firma Memento 3D einkaufen. Mit einer speziellen Brille bewaffnet schaut man einer virtuellen Pornodarstellerin dabei zu, wie sie splitternackt die Hüften kreisen lässt. Memento 3D wirbt damit, die ultimativen Stars der Branche zu lebensechten digitalen Doppelgängern zu machen. Das mag sexy aussehen, aber wirklich handfest ist das nicht. Es handelt sich eher um eine moderne Form der Tantalusqualen. Das, was man sieht und hört, kann man nicht fühlen und greifen. Die Firmenleitung hat das Problem erkannt. Es soll in Zukunft durch “Steckaufsätze“ gelöst werden, die dann die mechanische Liebesarbeit verrichten. 

Frauen und Männer die schon jetzt eine härtere Gangart bevorzugen, greifen deshalb zu den Vollzugsmaschinen Rocky und Roxxxy der Firma True Companion. Die gehen als beischlaffähige Roboter direkt zur Sache. Vorausgesetzt man ist bereit, 10000 Dollar zu zahlen. Angeblich gibt es tausende von Bestellungen. Nachvollziehbar: Neben der Sinnesfreude kommt schließlich auch der intellektuelle Anspruch nicht zu kurz: Wer nach dem Liebesfest noch reden möchte, kann man mit den Robotern diskutieren. Das macht sicher Spaß. So, als würde man Kants Kritik der reinen Vernunft mit Apple Sprachsystem SIRI erörtern.

Schöne neue Welt! Auch wenn man sich mit wenig zufrieden gibt, scheint die sexuelle Singularität auch für schüchterne Computerfreaks noch ein ferner Sehnsuchtspunkt zu sein. Und vor diesem Hintergrund stellt sich dann auch die Schlüsselfrage: Welche der Visionen der digitalen Propheten haben eigentlich Aussicht, real zu werden und was ist komplett gesponnen? Lässt sich dazu heute schon etwas sagen? Werden Hyperintelligenz oder ein ewiges Leben im virtuellen Garten Eden Wirklichkeit werden?

Um uns einer Antwort zu nähern, beginnen wir mit einem Blick in die Werkstätten und Labore der Gehirn- und Computerwissenschaftler. Dort stößt man auf ein erstaunlichen Phänomen,  das als “Erkenntnisparadoxon der künstlichen Intelligenz“ bezeichnet werden könnte. Es ist augenfällig, dass die Maschinen ausgerechnet in Bereichen triumphieren, die bis vor kurzem mit den höchsten geistigen Fähigkeiten des Menschen assoziiert wurden. Zum Beispiel haben selbst Schachgroßmeister heute nicht mehr die geringste Chance gegen einen Schachcomputer neuerer Bauart. Das gilt in vergleichbarer Weise auch für das komplexe Brettspiel Go.  Und selbst bei der bekannten amerikanischen Quizshow Jeopardy! – übersetzt “Gefahr“ – in der Allgemeinwissen und Kombinationsvermögen gefordert sind, hat der Computer die Oberhand gewonnen. Watson, ein von IBM erschaffenes Programm, das auf den neuesten DeepLearning-Algorithmen beruht, schlug die menschlichen Seriengewinner vergangener Jahre vernichtend. Solche Erfolge bestärken weniger kritische Geister in der Überzeugung, dass die Maschinen jetzt das Kommando übernehmen – eine auch bei Intellektuellen verbreitete Vorstellung. Man denke an die Untergangsszenarien, die etwa von Stephen Hawking, Elon Musk oder Richard David Precht verbreitet wurden.  Aber stimmt das? Führen uns die Roboter bald an der Leine durch den Park spazieren? 

Damit kommen wir zur anderen Seite der Medaille. Von Supercomputern gesteuerte Maschinen scheitern bei banalsten Alltagsproblemen. Schauen Sie sich Videos der sogenannten DARPA-Challenge an. Das ist so etwas wie die inoffizielle Weltmeisterschaft der Roboter. Die besten ihres Faches treten gegeneinander an. Es geht darum, Dinge zu tun, die für uns Menschen trivial sind.  So sollen die Roboter eine Türklinge öffnen oder in ein Auto steigen. Trotz erster ungelenker Erfolge: Die DARPA-Challenge ein Panoptikum von Pleiten, Pech und Pannen. Die Maschinen finden die Klinke nicht oder fallen auf den Rücken und stochern hilflos mit den Gliedmaßen in der Luft herum, unfähig, sich wieder aufzurichten. 

Was ist da los? Wie passt das zusammen? Auf der einen Seite beeindruckende intellektuelle Dominanz, die ein Schachgenie wie Gary Kasparow im Duell mit der Maschine zu einem Statisten degradiert. Auf der anderen Seite bis zur Halskrause mit kompliziertester Elektronik vollgestopfte Roboter, die, hätten sie Kleidung an, nicht in der Lage wären, unter Hemd und Pullover einen Hosenknopf zu ertasten, um ihn zu öffnen. 

Das Schwierige scheint also leicht zu sein und das Leichte schwierig! Und ganz allmählich dämmert den Wissenschaftlern, woran das liegen könnte. Man hat das Problem der menschlichen Intelligenz falsch eingeschätzt! Vor etwa 50 Jahren traf sich ein Allstar-Team der Informatik in Dartmouth zu einen Sommerworkshop. Stars der Szene wie Marvin Minsky oder John McCarthy waren der Überzeugung, dass die wesentlichen Probleme menschlichen Denkens von einer intellektuellen Elite in kurzer Zeit gelöst werden könnten. Sie waren so optimistisch, weil ihnen die Schwierigkeiten des Unterfangens noch nicht einmal in Ansätzen bewusst waren. Und mit dieser Fehleinschätzung outeten sie sich unbewusst als Kinder der europäischen Geistesgeschichte. Diese ist maßgeblich von der antiken griechischen Philosophie beeinflusst und zeichnet sich durch einige bemerkenswerte Besonderheiten aus. So genießen Probleme des Alltags bei uns keine große Wertschätzung. Man denke nur an den Vorsokratiker Thales von Milet, der in den Matsch fiel, weil er gedankenverloren zu den Sternen schaute.  Eine Magd lachte ihn aus und stellte die berechtigte Frage, weshalb er den Dingen, die vor seinen Füßen lägen, nicht mehr Aufmerksamkeit schenken würde. Darüber hinaus ist die westliche Philosophie im allgemeinen recht körperfeindlich. Der Körper mit seinen Bedürfnissen und Begierden ist etwas, dass den Denker von wahrer Erkenntnis abhält.  Und wahre Erkenntnis wurde seit den alten Griechen häufig mit mathematischen Einsichten assoziiert: Für Pythagoras war die Welt Zahl. Platon forderte als Seinsgrund göttliche abstrakte Ideen, die wesensgleich mit geometrischen Formen waren. Und später wollte der gläubige Leibniz gleich eine allumfassende Logik entwickeln, mit der sich jedes in natürlicher Sprache formulierbare Problem mit Bleistift und Papier lösen ließe. Bleibt noch hinzuzufügen, dass Galilei der festen Überzeugung war, dass das von Gott “verfasste Buch der Natur“ in mathematischen Lettern geschrieben wäre. 

In der Summe entsteht aus dieser Gemengelage eine paradiesische Weltsicht für Informatiker. Sie fühlen sich in der Überzeugung bestärkt, dass sich die Welt vom Schreibtisch aus mit ihren Rechenmaschinen erobern ließe. Dafür muss ja gewährleistet sein, dass sich die Geheimnisse der Welt in Formeln packen lassen, die von eben diesen Maschinen verarbeitet werden können. Könnte es aber sein, dass unsere philosophischen Traditionen den Blick auf die Wirklichkeit eher trüben als ihn zu schärfen? Trotz der Erfolge angewandter Mathematik, bleibt der Glaube, dass die Welt vollumfänglich kalkulierbar sei, eben nur ein Glaube! Dieser wird aber wie eine axiomatische Wahrheit gehandhabt. Das könnte ein gravierender Fehler sein. Und damit kommen wir wieder zum Alltag mit seinen Wirrnissen. Ausgerechnet viele, der für so trivial gehaltenen Allerweltsgeschehnisse, wollen sich einfach nicht in ein mathematisches Korsett zwängen lassen. Und darüber hinaus fängt man auch endlich an zu verstehen, dass der denkende Mensch nicht nur reiner Geist ist. Unser Körper ist ein notwendiger Teil des Erkenntnisprozesses.

Aber -was macht den Alltag für Informatiker denn so widerborstig? Vergleichen wir die wirkliche Welt mit einer Modellwelt! Zum Beispiel ein unaufgeräumtes Kinderzimmer mit einem Schachspiel! Die Frage, wie sich 50 verschiedene Spielsachen unterschiedlicher Form, Größe und Konsistenz, die wild verstreut im Zimmer liegen, optimal in einer Kiste verstauen lassen, ist ein Problem, dem kein Computer gewachsen ist. Dagegen ist die Modellwelt des Schachspiels genau von der Art, wie Informatiker sie lieben! Sie ist abgeschlossen, mit unterscheidbaren Zuständen und festgelegten Spielregeln. Das ist geronnene Mathematik! So lässt sich trotz der beachtlichen Komplexität des Schachspiels das Spielgeschehen mittels kombinatorischer Überlegungen in der Theorie genau fassen. Natürlich ist der Möglichkeitsraum der spielbaren Partien auch für einen Supercomputer riesig. Lässt man ihn aber die meisterlichen Partien lernen, die schon gespielt wurden, dann kann er den Raum aufgrund seiner Algorithmen sinnvoll beschneiden. In der Praxis wird er zu einem Spieler, dem kein Mensch mehr gewachsen ist. 

Betrachtet man nun die Erfolge der künstlichen Intelligenz, dann fällt auf, dass es nicht selten algorithmisierbare Kunstwelten sind, in denen die Maschinen Erfolge haben. Dieser Punkt ist übrigens auch im Zusammenhang mit dem aktuellen Thema des autonomen Fahrens wichtig. Es ist kein Zufall, dass sich die Testfahrzeuge in erster Linie auf Wüstenstraßen, Flughäfen oder Autobahnen tummeln. Hier gibt es berechenbare Bedingungen, die sich für automatisiertes Fahren eignen. Ob die computerisierten Autos aber dem alltäglichen Chaos gewachsen sein werden, ist noch nicht ausgemacht. Vielleicht geht das mit viel Tamtam zelebrierte Großprojekt aus wie das Hornberger Schießen. Man denke an einen stürmischen Tag im Januar! Berufsverkehr. Heftiges Schneetreiben mit schweren, feuchten Flocken. Es ist schon dunkel. Überall nur brauner Matsch, der auf Scheinwerfern, Sensoren und Verkehrsschildern klebt. Keine idealen Bedingungen für ein allein fahrendes Auto, wenn es sich in einem mehrspurigen Kreisverkehr der Mailänder Innenstadt bewegt. Und dann vielleicht doch lieber einfach stehen bleibt.. . Ist es wirklich sicher, dass sich die Komplexität eines solchen Szenarios in algorithmisierbare Konzepte gießen lässt?

Was macht nun den menschlichen Körper für das Denken so wichtig? Wenn die virtuelle Freundin KARI oder der Lustroboter Rocky den Satz “I love you“ haucht, wissen Sie dann überhaupt, wovon sie reden? Haben diese Worte in irgendeiner Weise etwas mit den Gefühlen zu tun, die wir mit dem Begriff “Liebe“ verbinden? Nein! Und das wird auch in Zukunft so bleiben. Es sei denn, Computer und Roboter hätten einen Körper, der so funktioniert wie unserer. Betrachten wir zur Veranschaulichung das Wort “Ball“! Wie kommt es zu seiner Bedeutung? Jedes normale Kind spielt mit Bällen. Sie werden gerollt, geworfen, gefangen und geschossen. Vielleicht verbinden es auch noch andere Erfahrungen damit: glückliche, schmerzhafte oder erschreckende. Es hat ein wichtiges Fußballspiel gewonnen, einen Ball ins Gesicht bekommen. Oder es wurde beinahe angefahren, als es einem Ball nachsprang, der auf die Straße rollte. 

Alle Erfahrungen, die für einzelne Menschen bewusst oder unbewusst erinnerlich sind, wenn sie das Wort “Ball“ hören, machen nun dessen Bedeutung aus. Einige davon sind einzigartig. Viele aber werden mit anderen Menschen geteilt. Deshalb wissen wir recht genau, was gemeint ist, wenn von Bällen geredet wird: Wir haben vergleichbare körperliche Erfahrungen gemacht, die von wissenden Sprechern mit dem Wort “Ball“ bezeichnet wurden, weil wir vergleichbare Körper besitzen. Und weil wir in vergleichbarer Weise mit Bällen gespielt haben. Daraus ergibt sich in der Summe eine Schnittmenge sensorischer und motorischer Erfahrungen. Und diese macht Kommunikation zwischen uns Menschen möglich . Zumindest bei elementaren Ankererfahrungen. Mit komplizierteren Wörtern wie “Liebe“ wird das bekanntlich schwieriger, da die prägenden Erfahrungen sehr unterschiedlich sein können. Das macht schmerzhafte Missverständnisse zwischen Menschen möglich.  

Ein Roboter, dessen “Körper“ eine völlig andere Sensorik und Motorik hätte, würde andere Erfahrungen machen, die schwerlich mit den menschlichen vergleichbar wären. Und wenn er wie ein Mensch Begriffsbildungen vornehmen würde, dann hätten die Worte eine ganz andere Bedeutung für ihn. Das schließt übrigens nicht aus, dass kluge Maschinen untereinander irgendwann eine eigene Sprache entwickeln könnten, die sie miteinander sprechen. Die Bedeutung des Gesprochenen wäre aber von menschlicher Sprache verschieden. Vor diesem Hintergrund ist deshalb eine gelingende Kommunikation zwischen Mensch und Maschine schwer vorstellbar. 

Was aber machen nun die “sprechenden Maschinen“, die wir schon kennen? KARI und Rocky oder SIRI und ALEXA? Diese Systeme konstruieren keine Bedeutung, wie wir das tun! Sie nutzen vor allen Dingen statistische Korrelationen. Dazu müssen sie ausdauernd trainiert werden. Man füttert sie mit Miriaden von Beispielsätzen die im Internet zu finden sind. Wenn Sie dann “Was ist die Hauptstadt von Deutschland?“ hören, dann folgern sie “Berlin“. Ohne allerdings im geringsten zu wissen, was wir mit dem Wort “Berlin“ verbinden. Diese Bedeutungsblindheit wird solchen Sprachsystemen auch in Zukunft erhalten bleiben. Deshalb wird kein Liebesroboter den Traum vom einfühlsamen Dialog erfüllen. Er ist und bleibt eine Vollzugmaschine. Schlechte Karten für die sexuelle Singularität.

Nehmen wir jetzt den digitalen Hirnscan ins Visier! Auch hier bleibt die Rolle des Körpers unverstanden. Wir erinnern uns: Es wird behauptet, dass man die Funktionsweise eines Nervennetzes vollständig verstanden habe, wenn man exakt angeben kann, in welcher Weise die Neuronen miteinander verschaltet sind. In dieser Sichtweise wäre das Konnektom so etwas wie das Wesen des Menschen. Ließe sich dieses Wissen digitalisieren, sollten moderne Formen der Seelenwanderung und das Existieren im digitalen Garten Eden möglich werden. Herr Kurweil lässt schön grüßen. Aber macht das Sinn? 

Das darf bezweifelt werden. Schon die fundamentale Behauptung, man könne auf der Grundlage des Konnektoms auf die Funktionsweise eines komplexen Nervensystems und damit auch auf das Verhalten schließen, ist fragwürdig. Eine solche Behauptung ist etwa so sinnvoll, als würde man vorgeben zu wissen, wie die Züge fahren, wenn man das Streckennetz der Bundesbahn aus der Luft mit einer Drohne abfotografiert. Diese Information ist unvollständig, solange nicht bekannt ist, wie schnell die Züge sind, wo sie fahren, wie lange sie halten und wie die Weichen gestellt sind. Wie naiv die Gleichsetzung von Konnektom und menschlichem Wesen ist, lehrt uns übrigens ein kleines Würmchen, das auf den Namen C. elegans hört.  

Von diesem Tierchen kennt man jedes Neuron und alle synaptischen Verbindungen seines Nervensystems. Das alles kann man in den Computer eingeben. Aber gelingt es wie erhofft, das Verhalten des Wurms in der Simulation zu imitieren? Nicht wirklich – zur großen Enttäuschung der Forscher. Bei Lichte besehen ist das aber nicht verwunderlich. Jedes Konnektom ist schließlich nur eine Momentaufnahme im Leben eines Individuums! Könnte man vorhersagen, wie ein Film weitergeht, wenn man nur ein Bild betrachtet,  das man von der Leinwand abfotografiert hat? Natürlich nicht. Und genauso ist es mit Lebewesen. Jedes Nervennetz ist ein hochgradig dynamisches System, das sich permanent verändert und zwar in der Auseinandersetzung mit seiner Umwelt, in der es sich bewegt und Erfahrungen macht. Dieser Umbauprozess ist viel komplexer, als es den Informatikern lieb ist. Er umfasst zum Beispiel auch die genetisch gesteuerte Produktion bestimmter Transmittermoleküle, die für die Signalübertragung zwischen Neuronen notwendig sind. Damit müsste aber auch dieser Prozess simuliert werden. Und damit hätte eigentlich das gesamte Tier mit seinem Köper Gegenstand der Simulation zu sein, da sich das Nervensystem in Wechselwirkung mit dem Körper verändert. Das allerdings ist unmöglich. Und was beim Wurm nicht funktioniert, das funktioniert dann beim wesentlich komplexeren Menschen schon einmal gar nicht. 

Auch die phantastisch klingende Idee, dass der Hirnscan eines Menschen, der einem “Roboter“ eingepflanzt worden ist, als “Ich“ in der Maschine weiterlebt, vernachlässigt, dass Hirn und Körper ein sich permanent veränderndes Wechselwirkungsgeflecht sind. Warum? Betrachten wir zur Veranschaulichung die Kopfverpflanzung, die der Gehirnchirurg Sergio Canavero plant. Was würde passieren, wenn man den Kopf des Lebenden auf den toten Körper verpflanzt! Bekommen wir einen Menschen, der sich freut, ein neues Leben erhalten zu haben? Vielleicht im ersten Moment! Aber was dann geschieht, könnte einem Horrorfilm entnommen sein. Es ist nämlich ziemlich wahrscheinlich, dass sich die Identität des Menschen vollständig verändert. Dann wäre allerdings nicht mehr klar, was gemeint ist, wenn er “Ich“ sagt. Warum? 

Der gesamte menschliche Körper ist im Gehirn kartiert, also abgebildet. Wenn der Körper nun ein anderer ist, wird sich auch das komplette Gehirn mit nicht absehbaren Folgen umorganisieren! Der Mensch wird nicht derselbe bleiben. Und jetzt kommen wir zurück zum Roboter. Dieser Umbildungsprozess wäre noch extremer, wenn wir einen Maschinenkörper hätten. Von dem, was wir als unser Wesen betrachten, bliebe nichts mehr übrig. 

Atmen wir einmal durch! Wir merken, dass es anspruchsvoll ist, über die Zukunft der künstlichen Intelligenz nachzudenken. Obwohl wir hier nur einen Teil der möglichen Szenarien hinterfragt haben, ist aber deutlich geworden, dass viele Visionen der digitalen Propheten offensichtlich Luftnummern sind. Das schließt natürlich nicht aus, dass uns die Maschinen, wie heute schon im Schach oder Go, in anderen Bereichen überflügeln werden. Aber welchen? Dazu müssen wir gewissenhaft nachdenken, um das Mögliche vom Unmöglichen zu trennen. Es bleibt also spannend..

Die Mechanik der Täuschung

Lug und Trug sind im Internet mittlerweile dermaßen verbreitet, dass man nicht genau weiß, wo man beginnen soll. Vielleicht beim Cybergrooming? Das ist eine Methode, mit der sich ältere Männer im Internet an junge Mädchen heranpirschen. Dazu legen sie einen sogenannten Fake-Account an. Sie verwenden ein falsches Profilbild und geben sich als junges Mädchen aus. Mit dieser “digitalen Maske“ treiben sie sich dann auf Foren herum, in denen sich Mädchen ihre Reiterlebnisse erzählen und ahnungslos Fotos von sich posten. Meistens bleibt es bei voyeuristischen Betrachtungen. Aber leider nicht immer. So geschehen im schwäbischen Rottweil: Ein 38-jähriger Lastwagenfahrer diente sich einer 13-jährigen zuerst als gleichaltrige Freundin an, dann schmierte er ihr in einer anderen Rolle als 17-jähriger Casanova Honig ums Maul und gab sich zum Schluss als russischer Mafiakiller aus, der mit Mord und Totschlag drohte. Das maliziös inszenierte Ränkespiel überforderte das Mädchen, sodass es sich in seiner Verzweiflung tatsächlich mit ihm traf, worauf sie vom digitalen Puppenspieler vergewaltigt wurde. Der Täter wurde 2013 zu mehr als fünf Jahren Haft verurteilt. Solche Extremereignisse sind zum Glück Ausnahmen. Nichtsdestotrotz hat sich das Prinzip des hinterlistigen Betrugs im Internet etabliert. Viel zu lange wurde nur dessen Transparenz in den Vordergrund gerückt, während man die Möglichkeit der Täuschung anfänglich nicht wahrnahm, sie dann nicht wahrhaben wollte, um jetzt endlich zu begreifen, dass da ein Ungeheuer von der Kette geht: Computerviren und Trojaner allerorten, dreiste Kapitalverbrechen mittels Phishing, dem Abgreifen vertraulicher Bankinformationen. Die Bedrohung durch skrupellose Hacker, die nicht davor zurückschrecken, Computersysteme in Krankenhäusern oder Kraftwerken außer Betrieb zu setzen, um Geld zu erpressen. Computertrolle, die das politische Klima vergiften. Und das ist noch nicht alles. Oft kommt die Hinterlist auf leisen Sohlen. Damit wären wir bei den Strategien vieler sozialer Medien. 

Doch während die meisten Menschen Cybergrooming, das Hacken von Krankenhäusern oder den Diebstahl von Kontendaten moralisch verwerflich finden, verhalten sie sich vergleichsweise ahnungslos, wenn sie von Facebook&Co an der Nase herum geführt werden. Das ist die hohe Kunst der Täuschung. Denn diese verbreitete Arglosigkeit ist im Sinne der Betreiber. Deren Geschäftsmodell hängt schließlich davon ab, dass der Benutzer dessen Komplexität nicht durchschaut und deshalb auch nicht weiß, in welcher Weise mit ihm verfahren wird. 

Um zu verstehen, wie die Verführungsstrategien von Firmen wie Facebook funktionieren, erinnern wir uns am besten an den Onkel, vor dem uns unsere Großeltern als Kinder immer gewarnt haben. Die undurchsichtige Gestalt verschenkt mit einem Lächeln im Gesicht Bonbons, obwohl sie nichts Gutes im Schilde führt. 

In ähnlicher Weise setzt sich die Strategie von Social-Media-Plattformen wie Facebook häufig aus fünf elementaren Bausteinen zusammen: Zuerst wird der Nutzer gelockt. Dann macht man ihn gefügig. Das Entstehen von Abhängigkeiten ist im weiteren Verlauf nicht ausgeschlossen. Endlich greift man die ersehnten Daten ab, um sie zum Schluss zu versilbern. 

Was ist das Lockmittel, mit dem ein Unternehmen wie Facebook arbeitet? Facebook stellt in Aussicht gleich ein Bündel grundlegender menschlicher Bedürfnisse zu befriedigen. Das Unternehmen wirbt damit, weltweit Freunde zu finden und mühelos seine sozialen Beziehungen pflegen zu können. Darüber hinaus fungiert die Plattform potenziell als Partnerportal. Außerdem ist sie hervorragend geeignet, sich selbst als Mensch in Szene zu setzen. Im Gegensatz zum wirklichen Leben, in dem sich Situationen oft ungeplant entwickeln, unterliegt die virtuelle Inszenierung der eigenen Kontrolle – ein unschätzbarer Vorteil im globalen Kampf um Aufmerksamkeit und Ansehen. 

Da das Streben nach Ansehen gerade in unserer Zeit eine so fulminante Triebkraft ist, wollen wir es in Bezug auf die sozialen Medien kurz hinterfragen: Untersuchungen der Verhaltensbiologie belegen, dass Ansehen ganz wörtlich zu verstehen ist! Menschen mit hohem Ansehen werden von anderen Menschen im sozialen Miteinander tatsächlich mehr angesehen, während man Ausgestoßene keines Blickes würdigt! Die Gründe für großes Ansehen waren und sind kulturell allerdings verschieden. In traditionellen Stammesgesellschaften konnte eine heilkundige Frau ein hohes Ansehen genießen oder ein erfolgreicher Jäger. In der Antike ein eloquenter Staatsmann, eine gelehrte Hetäre oder ein Philosoph. Und heute? Natürlich gibt es nach wie vor Menschen, die auf Grundlage dessen, was sie können und leisten, geschätzt werden. Ansehen genießen aber auch viele nur deshalb, weil ihr Gesicht in den Medien allgegenwärtig ist. Der Trick Bilder seines Antlitz zu verbreiten, ist dabei nicht neu. Schon Alexander dem Großen war klar, dass er sein Ansehen vergrößern konnte, indem er massenhaft Bilder von sich selbst in Umlauf brachte. Dazu boten sich damals Münzen an, auf denen sein Konterfei zu sehen war. 

Vor diesem Hintergrund versteht man, welche magnetische Wirkung die millionenfach verbreiteten Titelbilder des heutigen Boulevards und vor allen Dingen das Fernsehen auf Menschen mit histrionischen Persönlichkeitsmerkmalen ausüben. Der Drang sich darzustellen und in Bild und Film überall gesehen zu werden, wird grenzenlos. Und wenn man guckt, wie Menschen im Dschungelcamp freiwillig glitschige Würmer vertilgen oder sich bei einer Castingshow von Dieter Bohlen öffentlich zur Schnecke machen lassen, dann versteht man, dass eine zwanghafte Komponente im Spiel sein muss. Trotzdem ist dieses vom Fernsehen zelebrierte und auch forcierte Spektakel nicht das Ende der Fahnenstange. Es wird durch das Internet getoppt. Jeder, der will, kann sich zum Regisseur seiner eigenen Person aufschwingen. Es genügt, millionenfach Likes, Freunde oder Follower zu generieren, um im Wettbewerb um Aufmerksamkeit und Ansehen oben mitzuschwimmen. Wie man das schafft, ist egal. Zwei halbwegs begabte Mädchen wie Lisa und Lena, die ihre Lippen rhythmisch zur Musik bewegen und dabei Grimassen schneiden, werden zu hofierten Idolen. Das ist die Proliferation des Banalen. 

Wir halten fest: Die Möglichkeit, sich selbst in Text, Bild und Film nach eigenem Gusto zu inszenieren und seine Ich-Botschaften auf der ganzen Welt zu verbreiten, hat etwas ausgesprochen Verführerisches. Und dieser Köder wird von Facebook weidlich genutzt, auch wenn nicht jeder, der dieses Medium verwendet, sein Ego liftet. 

Wie betont, es gehört zum Geschäftsmodell, dass der Genuss dieser “Annehmlichkeiten“ nichts kostet. Trotzdem ist nach der Preisgabe der persönlichen Daten, ein weiteres kleines Opfer fällig: Der Benutzer muss bereit sein, sich maschinenlesbar zu machen. Da Maschinen nicht so klug sind wie Menschen, müssen wir uns freiwillig auf deren Niveau begeben, damit wir systemkompatibel und damit auslesbar werden. 

Aber kommuniziert man auf Portalen wie Facebook nicht mit Menschen? Auch. Das Schnittstellendesign der Benutzeroberfläche ist aber alles andere als beliebig. Damit bei Facebook der Rubel rollt, muss gewährleistet sein, dass das Klickverhalten genau ausgelesen werden kann. Wann wird welches Bild oder welcher Link aktiviert und was folgt dann?  Das sind Daten, die die nachgeschalteten Superrechner brauchen, damit aus eigentlich privaten Informationen prall gefüllte Bankkonten werden. 

Und können in diesem Zusammenhang tatsächlich Abhängigkeiten entstehen? Das steht zu vermuten. Die offensichtlichste ist vielen bekannt: Bequemlichkeit macht unbeweglich. Grundlegende Fertigkeiten werden entweder gar nicht mehr gelernt oder verlernt. Wer es zum Beispiel gewohnt ist, alles, was er sucht, mit seinem Navi zu finden, wird sich schwer tun, wenn die Maschine nicht zur Hand ist. Und wer stundenlang potentielle Sexualpartner auf Tinder nach dem Wisch-und-weg-Verfahren selektiert, dem fehlt die geschmeidige Selbstverständlichkeit auf der Straße spontan einen lockeren Spruch rauszuhauen. 

Darüber hinaus ist es wahrscheinlich, dass echte psychische Abhängigkeiten entstehen können. Unser für Manipulationen empfindliches Dopaminsystem reagiert nämlich auf die Erwartung von Neuigkeiten – nicht auf die Neuigkeiten selbst. Dieser Umstand macht es erklärbar, dass einige Menschen den Eingang ihres Smartphones tausend Mal am Tag überprüfen. Und da sich außerdem viele Menschen über ihre sozialen Beziehungen definieren, kann man sich ausmalen, was es bedeutet, wenn in diesem sensiblen Bereich etwas schief läuft. Werden die realen Beziehungen auf Kosten der virtuellen ausgedünnt, hat es gerade für Heranwachsende fatale Konsequenzen, wenn sie im Netz gemobbt und isoliert werden. 

Nachdem nun der Kunde gelockt und gefügig gemacht wurde und nicht selten auch in Abhängigkeitsverhältnissen verstrickt ist, kommt für viele Anbieter sozialer Netze der ersehnte Moment: die Ernte. Die begehrten Daten müssen heimlich abgegriffen werden, damit sie sich anschließend zu Geld machen lassen. Um sich diesen Mechanismus zu verdeutlichen, hilft es, sich den Computerbildschirm wie eine Trennscheibe zwischen zwei völlig verschiedenen Welten vorzustellen. Vor der Scheibe sitzt ein meist ahnungsloser Mensch, der mit Freunden herumblödelt, mit der Liebsten Geheimnisse austauscht, einen Film guckt oder auch mal eine Werbung checkt. Hinter der Scheibe sieht die Welt allerdings ganz anders aus. Hier treiben Computer- und Kognitionswissenschaftler sowie Statistikkoryphäen ihr Unwesen. Man darf sie sich guten Gewissens im weißen Laborkittel vorstellen. Ihnen geht es schließlich darum, das Nutzerverhalten wissenschaftlich zu erfassen. Die dem Benutzer abgewandte Seite ist deshalb so etwas wie ein ausgeklügelter Experimentalaufbau eines behavioristischen Psychologen. Die Behavioristen waren von der Idee beseelt, die Psychologie auf Reiz-Reaktions-Schemata zu reduzieren und ihr so das Gepräge einer harten Naturwissenschaft zu verpassen. Dazu müssen sich Input- und Outputdaten exakt kontrollieren und protokollieren lassen. 

Sehr anschaulich wird diese verstörende Zweiweltentheorie bei Menschen, die ihre Bücher gerne auf einem Kindle von Amazon lesen. Selbst wenn sie scheinbar alleine mit einer Tasse Tee vor dem Kamin sitzen und schmökern, verfolgt sie der Konzern wie ein Schatten, zeichnet minutiös auf, wann Texte überflogen und wann sie sorgfältig studiert werden. Angeblich werden diese Informationen dazu verwendet, in Zukunft erfolgreichere Bücher zu konstruieren. 

Für die Wissenschaftler von Facebook&Co ist also die Frage interessant, wie ein Nutzer, über den man im Laufe der Zeit immer mehr erfährt, reagiert, wenn er in einem bestimmten Augenblick ein fragliches Item etwa eine Werbeanzeige auf dem Bildschirm sieht. Klickt er, klickt er nicht? Wie lange bleibt er auf der Seite? Und wohin navigiert er dann? Diese wertvollen Datenspuren ergeben für unsere Forscher  so etwas wie eine in der Zeit diskretisierte individuelle Verhaltenskinetik. Diese ist umso aussagekräftiger, je länger sich der Nutzer auf Facebook aufhält. Und damit müssen wir kurz auf Mark Zuckerberg zu sprechen kommen, der nicht müde wird, dem Nutzer einen perfekt auf ihn zugeschnittenen Newsfeed zu versprechen. Der Newsfeed ist so etwas wie das Herzstück vieler sozialer Netzwerke. Hier bekommt man Inhalte und sogenannten Status-Updates der anderen Nutzer zu sehen, außerdem wird man mit Nachrichten versorgt, die den eigenen Interessen entsprechen. Im ersten Moment klingt Zuckerbergs Versprechen unverfänglich. Aber die Motivation ist vermutlich nicht selbstlos. Eine bevorzugt an den eigenen Vorlieben orientierte Darstellung von Nachrichten, die man auch noch selbst durch Filtereinstellungen einengen kann, ist ein selbstbezügliches Optimierungssystem mit dem eigenen Ich als perspektivischem Fluchtpunkt. Deshalb gleicht ein personalisierter Feed von Nachrichten weniger einem Blick in die Welt, als vielmehr einer ausdauernden Beschäftigung mit dem eigenem Spiegelbild. Die ohnehin schon beschränkte Echokammer schnurrt zur Egoblase zusammen. Wie es scheint, ist das vielen nicht unangenehm. Im Gegenteil. Und das ist im Sinne von Facebook, denn die Verweildauer auf der Seite wächst und damit das abschöpfbare Datenvolumen.

Es ist jetzt eine interessante, wenngleich schwierige Frage, welche Daten erhoben werden, wie sie ausgewertet, interpretiert, verwendet und verkauft werden. Geht es tatsächlich nur um personalisierte Werbung?

Zumindest der erste Teil der Frage, sollte sich klären lassen. Nach Paragraph 15 der Datenschutzverordnung muss jeder Nutzer seine Daten in Europa einsehen dürfen. Allerdings verhalten sich viele Konzerne bei Nachfragen wie ein nasses Stück Seife in der Badewanne. Am Anfang wird meist abgewiegelt: Man möge bitte den eigenen Verlauf checken. Hakt man allerdings nach, dann erhält man endlich den sogenannten Clickstream. Das ist sozusagen der umfassende Laborbericht, das digitale Gedächtnis. Jeder gedrückte Like-Button, alle aktivierten Links, jedes betrachtete Bild und jeder geschaute Film sind minutiös aufgeführt und alle Klicks lassen sich mit exakten Zeitangaben versehen. Dazu kommen Seiten, die man vorher besucht hat, samt solcher die man danach anguckte. Alleine diese Datenfülle ist beeindruckend und leider auch verräterisch: Seit der Studie von Michael Kosinski von der University of Cambridge weiß man, wie wenig Information ausreicht, um teils intime Details über Menschen zu erschließen. Der Wissenschaftler zeigte das anhand der Verwendung des Like-Buttons. Nur durch die Analyse der Likes, die ein Nutzer verteilt, lässt sich mit recht großer Sicherheit sein Geschlecht und seine seine Hautfarbe ermitteln sowie seine sexuelle Präferenzen und seine politische Anschauungen. 

Darüber hinaus drängt sich die Frage auf, ob die Analyse der Daten noch weitergehender sein könnte. Das Datenmaterial, das Konzerne wie Facebook en masse generieren, ist schließlich wie geschaffen für die forcierte Bearbeitung mit neuesten KI-Algorithmen, die eine Sache ganz herausragend können: Korrelationen ermitteln. Und in diesem Zusammenhang wird man nervös, wenn man an die letzten Facebookskandale denkt. Nach einer Recherche der New York Times soll Facebook ausgerechnet Firmen wie Google, Amazon, Microsoft und Spotify deutlich mehr Nutzerinformationen zur Verfügung gestellt haben, als bisher bekannt war. Auch passiert es immer wieder, dass zweifelhafte Firmen wie etwa Cambridge Analytica Zugriff auf Facebookkonten bekommen. Welche Korrelationen dann hinter hohen Mauern zu welchem Zweck abgeleitet werden, wird wohl bis auf weiteres das Geheimnis der Firmen bleiben, die mit diesen unseren Daten arbeiten. Sie lassen sich nur ungern in die Karten blicken. 

Vor diesem Hintergrund empfiehlt es sich für den kritischen Nutzer, genau darüber nachzudenken, für welche Zwecke er Computer und Smartphones gebrauchen möchte. 

Wären damit alle Gefahren angesprochen, die im Internet auf uns lauern? Bei weitem nicht! Dunkle Wolken ziehen noch an anderen Stellen auf und verkünden Ungemach. Es geht um raffinierte Fälschungen und klandestine Durchleuchtung. Beginnen wir mit ersteren! 

Obwohl es den meisten nicht bewusst ist: Viele bis dato für unverwechselbar gehaltene Persönlichkeitsmerkmale lassen sich schon heute in Bild und Ton eindrücklich imitieren. Das gilt zum Beispiel für die Stimme. Es reichen bereits 20 Minuten Sprachmaterial, das viele Menschen nichtsahnend im Netz verfügbar machen, damit ein Computer in der Lage ist, eine Stimme recht echt nachzuahmen! Mit Hilfe eines Programms wie VoCo von Adobe, wird jeder Satz, den man mit Tastatur eingibt, mit der Stimme wiedergegeben, die vorher gesampelt also aufgenommen wurde. Damit kann man jemanden Dinge sagen lassen, die er selbst nie sagen würde. Das kann unangenehme Konsequenzen haben. Was würde zum Beispiel passieren, wenn sich Pädophile diese Imitationsfähigkeiten des Computers zunutze machen und vermeintlich mit der Stimme der Eltern auf die Mailbox der Kinder sprechen? 

„Nicole, hier ist Mama. Komme bitte nach dem Reiten um 18 Uhr zu dem Parkplatz am Waldrand! Wir holen Dich ab!“ Auf dem Parkplatz warten aber nicht die Eltern sondern der Verfasser der trügerischen Botschaft. Und damit sind die Möglichkeiten des Betrugs nicht ausgeschöpft! Es ist Stand der Technik, auf der Grundlage von Filmaufnahmen genauestens zu analysieren, in welcher Weise bestimmte Menschen beim Sprechen Ihren Mund bewegen und mit welcher Mimik sie das tun. Und nach der Analyse folgt die Synthese. Im Resultat kann man eine Zielperson in einer computergenerierten Filmaufnahme jeden denkbaren Satz artikulieren lassen: mit ihrer persönlichen Stimme und Ihrer eigenen Mimik! Die Systeme werden in wenigen Jahren perfekt sein. Wer kann vor diesem Hintergrund noch entscheiden was echt ist und was gefälscht wurde? Und was wird das in Zukunft für Konsequenzen haben? Eine Sache auf alle Fälle ist sicher: Authentifizierung wird im digitalen Lügenland zum Herrschaftswissen werden, denn hoch entwickelte digitale Analyseverfahren, mit denen sich der Schwindel aufdecken ließe, stehen dem Gros der Nutzer nicht zur Verfügung. 

Diese verstörende Entwicklung hat sich seit längerem angekündigt, in den letzten Jahren aber unglaublich an Fahrt aufgenommen. Als analoge Fotos noch aufwendig in der Dunkelkammer entwickelt wurden, war viel handwerkliche Finesse notwendig, um ein Bild glaubwürdig zu manipulieren. Das gleiche galt für die früheren Zelluloid- und Polyesterfilme. Aus diesem Grund konnte man als Betrachter lange wenigstens einigermaßen sicher sein, dass das, was auf einem Foto oder im Film zu sehen war, auch tatsächlich so war. Doch schon 1994 konstatierte der Medienwissenschaftler William J. Mitchell, dass die Sicherheit, ein Foto dokumentiere die Wirklichkeit, unwiederbringlich vorbei war. Schon mit damaliger digitaler Technik gelang es, Fotos, auf denen Politiker zu sehen waren, so zu arrangieren, dass der Kontext der Beziehung zwischen den Personen völlig verändert wurde. Aber das war wenig im Vergleich zu gegenwärtigen Möglichkeiten. Im optisch-akustischen Bereich gibt es eigentlich nichts mehr, was sich nicht überzeugend fälschen ließe. Deshalb haben seit neuestem auch vertonte Filme als Dokumentation tatsächlichen Geschehens ausgedient.

Um nun das Thema der Durchleuchtung in den Blick zu nehmen, müssen wir die Perspektive ändern. Es gelingt nämlich nicht nur, Menschen ziemlich perfekt zu imitieren, sie lassen sich mit den passenden Werkzeugen auch präzise analysieren. 

Betrachten wir zur Verdeutlichung eine ganz alltägliche Gesprächssituation! Der Inhalt der Worte ist nur ein kleiner Teil der Information, der zwischen Sprechenden ausgetauscht wird. Viele andere wichtige Dinge schwingen in einer Unterhaltung mit: die Körperhaltung, der räumliche Abstand, das Minenspiel, Stimmlage und Betonung… . Obwohl wir diese sublimen Informationen meist nicht bewusst wahrnehmen, sind sie wichtig, um das Gesagte richtig bewerten und einordnen zu können. Interessanterweise lassen sich sogenannte Deep Learning-Algorithmen so trainieren, dass sie in solchen Situationen viel genauer hinschauen können als Menschen und ihnen deshalb im feingewebten Spiel der Emotionen nichts entgeht. Natürlich verstehen die Computer die Gefühle nicht. Sie lesen aber deren Zeichen! Und das reicht den Menschen, die die Maschinen in ihrem Sinne ge- oder missbrauchen. Sie können mittels dieser Informationen auf die seelische Verfassung der observierten Menschen schließen. So lässt sich etwa das Minenspiel minutiös analysieren. Und Körpersprache und Gangbild zeigen, ob sie sich jemand unsicher fühlt oder in irgendeiner Weise auffällig macht. Auch die Stimme gibt Geheimnisse preis. Sie verrät dem Computer zum Beispiel, ob der Observierte depressiv ist oder Gefahr läuft, an Parkinson zu erkranken. Und als wenn das nicht genug wäre, gibt es mittlerweile Firmen, die vorgeben, Probanden mittels analysierender Algorithmen umfassend charakterisieren und säuberlich in Schubladen einordnen zu können. Es gibt bereits große Unternehmen, die Software dieser Art verwenden, um Bewerber zu bewerten. Man kann sich leicht auszumalen, dass in Zukunft auch Headhunter Sprachdaten im Internet bei der Suche nach geeigneten Persönlichkeiten durchforsten. Es gibt Kritiker, die die Verlässlichkeit der Verfahren bemängeln. Andere, wie die Informatikerin Julia Hirschberg von der Columbia State University, halten die Bewertung der Persönlichkeit auf der Basis von Sprachdaten für seriöse Wissenschaft. Hirschberg selbst hat ein Programm entwickelt, das Lügner besser enttarnt als jeder Mensch. Was passiert, wenn ein solches Werkzeug im Sultanat Brunei in Verhören zur Anwendung kommt, um etwa die sexuelle Präferenz zu erfragen? Dort wurde damit gedroht, Homosexualität mit dem Tode zu bestrafen. 

Wir sind als Gesellschaft also aufgefordert, klare Regeln setzen, sonst sind in naher Zukunft dystopische Szenarien denkbar. Einen kleinen Vorgeschmack gab es bereits 2016, als in Russland die App Find Face auf den Markt kam. Mit dieser App lässt sich ein Foto eines Menschen seinem Profilbild in den sozialen Medien zuordnen. Bis vor kurzem war die App auf das russische Facebook-Pendant VK beschränkt. Das wird wohl nicht so bleiben. Für einen Stalker ist diese App nämlich eine Wunderwaffe: Eine unbekannte hübsche Frau auf der Straße erblickt, schnell ein heimliches Bild gemacht und schon lässt sich herauskriegen, wer sie ist, wenn sie mit Originalbild in den sozialen Medien aktiv ist. Das klingt noch einigermaßen harmlos. Aber es dauerte nicht lange, bis Find Face in einem anderen Kontext zu Anwendung kam. Man enttarnte Pornodarsteller und -darstellerinnen, um sie dann zu erpressen. Doch selbst damit sind mögliche Szenarien nur angerissen. Denken wir an dieser Stelle einmal alles zusammen und stellen uns exemplarisch die folgende Situation vor! 

Ein Krimineller fotografiert einen unbescholtenen Bürger, der aus reiner Neugier das politische Programm einer radikalen Partei an einem Wahlstand durchblättert. Durch Abgleich mit Bildern im Internet ermittelt er dessen Identität. Da es dort auch Sprach- und Filmmaterial von ihm zu finden gibt, prüft er mittels beschriebener Analyseverfahren, ob sein Opfer ängstlich ist und sich deshalb mit einiger Wahrscheinlichkeit erpressen ließe. Wenn dem so wäre, erstellt er ein Video mit Originalstimme und persönlicher Mimik, in dem der Fotografierte extremistische, menschenverachtende Parolen von sich gibt. Er stellt seinem Opfer nun Foto und Video zu, verbunden mit der Aufforderung 50.000 Euro auf ein anonymes Bitcoinkonto zu überweisen. Ansonsten droht er, das Machwerk viral zu verbreiten – mit unabsehbaren Folgen für den persönlichen Ruf des Adressaten. Wollen wir eine solche Entwicklung? Auf alle Fälle sollte uns die Einschätzung von Artem Kukharenko, dem Chef-Entwickler von Find Face, in den Ohren klingen. In einem Interview sagt er, dass durch Software wie Find Face unsere Privatsphäre in großem Maße zerstört wird. Und bei dieser Feststellung machte er nicht den Eindruck als würde ihn das besonders beunruhigen.

Wer anders denkt und sich seine Privatsphäre zumindest in Maßen erhalten will, muss sich deshalb genau überlegen, was er von sich selbst und seinen Nächsten im Netz öffentlich macht. Vermutlich wäre es noch besser, direkt konsequent zu handeln: Um mögliche Manipulationen und Erpressungen auszuschließen, trifft man sich in der realen Welt mit vertrauten Menschen aus Fleisch und Blut und sorgt dafür, dass Handys und Computer ausbleiben. In diesem Sinne war der kürzlich verstorbene Karl Lagerfeld, der sowohl Handy als auch Uhr zeitlebens ablehnte, nicht ein aus der Zeit gefallener Hinterwäldler sondern eher ein Visionär, der seiner Zeit voraus war. Die Zukunft liegt wohl im Altbewährten: dem persönlichen Gespräch von Angesicht zu Angesicht.

Die Wissenswolke

Im globalen Datendurcheinander übernehmen Computer zunehmend die Deutungshoheit. Wissenschaft alter Schule scheint überflüssig zu werden. Das ist nicht verwunderlich in einer Zeit, in der das Wissen, was solide Theorien von windigen Spekulationen unterscheidet, schon länger verlorengeht

“Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“.
Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs vom Schlag getroffen tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leibzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang. Und gerade die Spickzettellektion war eindrücklich: Für ernsthafte Denker gäbe es keine schwierigere und anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr. Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug der Dichter in dieselbe Kerbe. Alles Denken ist Verdichten. Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unstrittiger Allgemeinplatz: Kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet. Nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenfeilspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am bündigen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen überschaubaren Gesetzen zu entwickeln, war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat neue Propheten. Und die verkünden Erstaunliches. Chris Anderson, der ehemalige Chefredakteur des Szenemagazins “Wired“ hat den “Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion hätte ausgedient, heute reichten gigantische Datenwolken und von ungeheuerer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin “Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Widergänger ewig weiter zu existieren. Das World Wide Web als virtueller Garten Eden. Aber ungeachtet davon, auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen mit Selbstverständlichkeit von einer “new kind of science“.

In diesem Zusammenhang wird nicht nur die Theorie gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird der einst revolutionäre Galilei zum Totenwächter einer aus der Mode gekommenen Methode: Ein begehbares Labor, mit echten Messinstrumenten halten radikale Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten ist den Bilderstürmern zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht in diesem Zusammenhang euphorisch von “in-silcio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen “Virealität“. Doch manchmal ist es von Vorteil, die Bedeutung lateinischer Worte, die sich im trendigen Szenejargon verbergen, zu kennen. Im Wort “Simulation“ steckt das lateinische Verb “simulare“, das “ähnlich machen“ bedeutet. “Ähnlich machen“ zu was? Da kommt sie zur Hintertür leider doch wieder hinein – die lästige Widerständigkeit des Wirklichen – die seriöse Wissenschaft zu einem zeitraubenden und anstrengendem Unterfangen macht! Soll eine Simulation nämlich nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen wie der Teufel das Weihwasser und hilflos in der Luft baumeln, einen Erkenntniswert nur heucheln, wäre es hier eigentlich angebracht, Worte wie “Simulation“ und “Experiment“ mit anderen, aber ebenfalls gebräuchlichen Bedeutungen zu versehen. Eine “Simulation“ kann man ja auch als “Vortäuschung“ auffassen und ein “Experiment“ als “Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, belanglos zu sein.

An dieser Stelle berühren wir einen empfindlichen Punkt. Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, allmählich verloren geht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur der sichtbare Ausdruck einer schon lange schwelenden Entwicklung. Seit Jahrzehnten unterscheiden sich nämlich viele “wissenschaftliche“ Gedankengebäude grundlegend von der als Beispiel zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam gefügt, haben etwas nebulös-wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotz dieses Mangels von den Medien als wissenschaftliche Revolutionen gefeiert werden. Erschwerend kommt ein neues Phänomen hinzu, das die Lage noch unübersichtlicher macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz, scheint die intellektuelle Tugend des Verdichtens über- flüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen. Leider sind diese nicht klüger als ihre Entwickler.

Werfen wir zur Veranschaulichung einen kurzen Blick auf die “Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erin nert, die Kybernetik, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und natürlich an die Chaostheorie. All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem, hellen Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien anfänglich seriöse Fragestellungen, die jedoch einen eng umgrenzten Geltungsbereich betrafen. Dieser beschränkte Geltungsbereich wurde dann aber über die Maßen aufgeblasen. So entstanden in kürzester Zeit luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir pars pro toto die Chaostheorie. Auch hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, langfristig nicht prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass sich noch nicht einmal die Zukunft eines extrem vereinfachten Planetensystems aus nur drei Körpern bestimmen lässt. Ursachen der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Weder lassen sich die Startbedingungen der untersuchten Systeme völlig exakt festlegen noch weiß man, wie beliebig kleine Störungen wirken. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch oder den Einfluss des sprichwörtlichen Elektrons am Rande des Universums, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben mehr über die Dynamik der Kugeln machen. Das ist eine grundlegende Erkenntnis: Selbst einfachste Systeme können sich unserem prognostischen Zugriff entziehen.

Und die Chaostheorie hat weitere Verdienste. Der Meteorologe Edward Lorenz stieß auf das sogenannte computational chaos. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter nicht-linearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie in der Rechenmaschine intern gerundet wird. Dieses computational chaos macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal ob es sich um Klimasimulationen handelt oder aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Model und dessen Diskretisierung, von Algorithmisierung und Implementierung des Algorithmus mittels einer Software auf einem Computer, ist eine delikate Angelegenheit. Selbst die spezielle Hardware spielt eine Rolle. Auch in diesem Zusammenhang können also kleine Fehler große Auswirkungen haben.

Das sind in wenigen Worten wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik. Plötzlich war das Chaos allgegenwärtig! Mathematische Konstrukte wie die Seltsamen Attraktoren tauchten im Gehirn auf und machten angeblich den freien Willen möglich oder nach Bedarf auch die Kreativität und überall trieb das das Apfelmännchen sein Unwesen. Doch selbst im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden sondern von ausgewiesenen Spezialisten wie Joseph Ford: Zahlen wurden zu Gründen, die etwas bewirken! Angeblich verdanken sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten. Das ist eine nicht zu laut ausgesprochene Forderung, die vor allen Dingen mit der Quantenmechanik kollidiert. Auf deren Unsinnigkeit hat Max Born schon vor 60 Jahren hingewiesen. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird. Zahlen gehören nämlich zur symbolischen Beschreibungsebene. Sie sind deshalb keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein “T“ aussehen muss, da in dem Wort “Tisch“ ein “T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wie kommt es nun, dass die wissenschaftlichen Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder besagte Elektrodynamik? Bleiben wir bei der Chaostheorie. Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, dass unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, sodass der Überblick schnell verloren ging: Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen “semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kurzer Zeit nicht mehr in der Lage, die “Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich aber weniger einer eigenständigen Reflexion, als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der “high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, dass mit ehrlicher Erkenntnissuche nichts mehr zu tun hat. Die Medien brauchen den Experten, die Experten die Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand zu einer Theorie für Alles und Jedes: je nach Bedarf lässt sich der frei Wille “erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls, … .

Wenn dann schließlich die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation. Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen und nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern Unrecht getan wird, die lege artis arbeiten und denen wir echten Fortschritt zu verdanken haben.

Zu allem Überfluss ist die Situation heute noch unübersichtlicher geworden. Die oben genannten Theorien ließen sich wenigstens noch in Büchern nachlesen und mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern, bekommt das Erkenntnisproblem eine zusätzliche Dimension. Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann. Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist wie angesprochen komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren, das der transsubjektiven Überprüfbarkeit. Dieses sperrige Wortungetüm ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.
Es ist zum Beispiel nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist.

In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil nicht einmal mehr richtig klar ist, was unter einer mathematisch Wahrheit zu verstehen ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften. Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In über 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, sodass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein ehernes Prinzip der Mathematik. Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein ziemlich altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort und die Welt fängt an zu singen, triffst Du nur das Zauberwort“. Egal ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch in einem raffinierten Computeralgorithmus,…. Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt. Genau das beinhaltete die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene “Korrelationsmathematik“ entfernt, mit der Computeralgorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten? Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Das hieße eine Korrelation mit einer kausalen Beziehung zu verwechseln, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiter bedienen, aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine new “kind of science“ und es ist fahrlässig den Prozess der Erkenntnis aus der Hand zu geben.
Aus diesem Grund warnte der verstorbene Frank Schirrmacher 2010 völlig zu recht vor der “systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der “Wolke“ keinen Flugverkehr mehr. Das Problem? Die “Wolke“ war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommenen Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte oder nicht. Der digitale Prophet sprach und ein großer Teil des Luftverkehrs stand still. “Und auf einmal sind wir alle nur noch Zuschauer“, stellte Schirrmacher konsterniert fest. Dem kann man nur zustimmen: Das Wissen was eine valide Theorie von einer spekulativen unterscheidet erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr

Die Komplexitätsfalle

Es ist verhängnisvoll, wenn wir selbst eine Welt schaffen, die wir nicht verstehen. Es wäre zu unserem Vorteil dort, wo es möglich ist, Komplexität zu reduzieren

Der Logiker Kurt Gödel traute seinen Augen nicht. Beim Studium der amerikanischen Verfassung fiel ihm auf, dass es möglich war – vorausgesetzt die Paragraphen wurden geschickt kombiniert – auf legalem Weg aus der Demokratie eine Diktatur zu machen. Diese Einsicht war nicht nur für Amerika brisant sondern auch für ihn selbst: Am nächsten Tag – dem 2. April 1948 – stand seine Prüfung in Staatsbürgerkunde an. Diese musste er als Exilant bestehen, um eingebürgert zu werden und es war wahrscheinlich, dass er mit seinem Wissen nicht hinter dem Berg würde halten können. Am Tag der Entscheidung versuchten seine besten Freunde – Albert Einstein und Oskar Morgenstern – Gödel mit Späßen von seiner spektakulären Erkenntnis abzulenken, doch es half nichts. Der Logiker gehorchte einem starken inneren Zwang und brachte seine Argumente vor. Zu seinem Glück traf er auf den gnädig gestimmten Richter Phillip Forman, der den Beweisgang für eine akademische Schrulle hielt und dem Logiker bereitwillig die notwendigen Papiere aushändigte.

Ist das nur eine Anekdote aus dem akademischen Kuriositätenkabinett oder steckt eine tiefere Wahrheit dahinter? Festzuhalten ist, dass es eines Genies wie Kurt Gödel bedurfte, den Widerspruch offenzulegen, dass ein und dieselbe Verfassung zwei sich ausschließende Staatsformen zulässt. Offenbar war das vor ihm den Juristen nicht aufgefallen. Festzuhalten ist aber auch, dass selbst Kurt Gödel nicht in der Lage gewesen wäre, die Widerspruchsfreiheit komplexerer Regelwerke zu beweisen. Nehmen wir aus aktuellem Anlass das Bündel von Gesetzen, das in Europa diverse Rettungsschirme zu regeln vorgibt und mit dem Anspruch erschaffen wird, auf den Markt in voraussehbarer Weise reagieren zu können. Glaubt wirklich noch jemand, dass es einen Menschen gibt, der die möglichen Konsequenzen eines solchen Regelsystems vollumfänglich überschaut? Ein solches bürokratisches Monstrum hätte in seiner überbordenden Komplexität nicht nur das Gehirn von Kurt Gödel überfordert, den Zeitgenossen für den größten Logiker seit Aristoteles hielten. Selbst eine Taskforce der brillantesten Köpfe, die sich der leistungsfähigsten Computer bedienen dürfte, würde scheitern. Der Grund ist ein Komplexitäts-GAU auf mehreren Ebenen. Das was geregelt werden soll, entzieht sich der exakten Analyse. Heute existieren globale Märkte, äußerst verschachtelte Geldkreisläufe mit Handelsplätzen im virtuellen Raum, in denen Finanztransaktionen gigantischen Ausmaßes im Mikrosekundentakt von Computeralgorithmen durchgeführt werden, deren fehlerfreies Funktionieren nicht garantiert werden kann. Demgegenüber steht eine Gesetzgebung, die den Anschein erweckt, dem Treiben einen geordneten Rahmen zu geben, dabei aber selbst so kompliziert geworden ist, dass auch Experten sich schwertun die Gesetze konkret auszudeuten. Als Beispiel sei an den wochenlangen Streit erinnert, ob der ESM für Deutschland eine Haftungsobergrenze festlegt oder nicht. Da die beiden Sphären zu allem Überfluss nicht getrennt sind, sondern in komplizierter Weise miteinander interagieren, sehen wir uns mit einem undurchschaubaren Wechselwirkungsgeflecht konfrontiert, dessen Verhalten wir nicht verstehen und das in seiner fundamentalen Unvorhersehbarkeit Ängste hervorruft. Wir haben heute nicht mehr das Lebensgefühl des von der Sonne der Vernunft beschienenen Aufklärers, sondern das des verwirrten Steinzeitmenschen, der den rätselhaften Geschehnissen der ihn umgebenden Welt keinen rechten Sinn abtrotzen kann. Im Falle des Steinzeitmenschen war es die unerklärliche Natur – das Unwetter, die Dürre, der Vulkanausbruch – die ihn ängstigte, während wir uns heute in den Nebeln eines Informationsuniversums verlieren, das wir leichtfertig selbst erschaffen. Auf diese Weise machen wir uns zu Sklaven einer überkritischen Komplexität, die vernunftbasiertes Handeln nicht erlaubt, da niemand mehr in der Lage ist, auf der Grundlage von Erfahrungen verlässliche Prognosen für die Zukunft abzugeben.

Wie konnte es soweit kommen und warum wehren wir uns nicht? Das hat im wesentlichen zwei Gründe: Das begriffliche Werkzeug mit dessen Hilfe sich die Problematik zwar nicht lösen aber zumindest sezieren lässt, liegt in den Lehrbüchern der theoretischen Informatik verborgen, die nicht jeder liest. Darüber hinaus gibt es eine Gilde einflussreicher Komplexitätsgewinner, die kein Interesse daran haben, ihr Treiben durchleuchten zu lassen und es vorziehen, im Trüben zu fischen.

In der Algorithmik, einem Teil der theoretischen Informatik, gibt es mehrere Ergebnisse, die in unserem Zusammenhang von Bedeutung sind: Da existieren das Turingsche Halteproblem und der noch umfänglichere Satz von Rice. Beide setzen der sogenannten Programmverifikation Grenzen. Des weiteren ist jeder Programmierer und Anwender mit dem verwirrenden Phänomen der Zeitkomplexität konfrontiert.

Wenn ein Computerfachmann sich daran macht, einen Algorithmus – das ist ein rezeptartiges mathematisches Verfahren – zu programmieren, dann verbindet er mit dieser Tätigkeit einige Wünsche: Er möchte, dass das Programm auch tatsächlich das Problem löst, das es zu lösen vorgibt. Außerdem soll es korrekt sein: Zulässige Eingaben führen automatisch zu richtigen Ergebnissen. Desweiteren will er nicht, dass sich das Programm in einer Schleife aufhängt oder anderweitig ewig läuft. Und ganz allgemein hofft er, seine Ergebnisse in einer vernünftigen Zeitspanne zu erhalten.

Diese Wünsche wirken banal und als Nicht-Informatiker ist man überrascht, dass sich in diesem Feld einige der tiefsten und elementarsten Probleme der Mathematik verbergen. Mit den Wünschen des Programmierers verhält es sich nämlich wie mit dem Wunschzettel eines kleinen Mädchens. Dieses wünscht sich zu Weihnachten ein echtes Pferd und findet dann ein Steifftier mit Mähne unterm Baum. Der britische Logiker Alan Turing bewies, dass es kein allgemeines Verfahren gibt, mit dessen Hilfe sich sicher entscheiden ließe, ob ein gegebenes Programm bei einem bestimmten Input irgendwann anhält oder aber unendlich lang weiterläuft. Erstaunlicherweise kann das schon für einfache auf dem Computer implementierte Funktionen gelten, die jeder Schüler der 10. Klasse nachvollziehen kann. Der Satz von Rice verschärft das Ergebnis von Turing und führt zu der paradox anmutenden Konsequenz, dass fast alle Fragen, die die Berechenbarkeit von Programmen angehen, unberechenbar sind und damit nicht verlässlich entschieden werden können. In der Praxis der realen Softwareentwicklung hat das eine erstaunliche Konsequenz: Es kann kein allgemein algorithmisiertes Prüfverfahren geben, welches ein beliebiges Programm verifiziert. Deshalb ist nicht prinzipiell zu gewährleisten, dass sich ein fragliches Programm entsprechend der Ansprüche, die man an es stellt, verhält. Überall dort, wo Computer, Software und Eingabedaten eine kritische Komplexität überschreiten, sind Pannen möglich. Davon zeugen verschiedenste Weltraumdesaster – abstürzende Nasa-Raumsonden genauso wie explodierende Arianeraketen – die sich unerkannten Softwarefehlern verdankten. Man kann aber auch irdische Probleme ins Auge fassen: Jeder, der mit dem millionenfach verbreiteten Textverarbeitungssystem Word arbeitet, an dem tausende von Programmierern seit Jahrzehnten tüfteln, weiß von diversen Fehlern zu berichten. Ein Word-Programm ist allerdings ein übersichtliches Szenario im Vergleich mit den unterschiedlichsten Hochgeschwindigkeits- Tradingalgorithmen, die weltweit zur Anwendung kommen, um Börsengeschäfte zu tätigen und permanent miteinander interagieren. Da tickt eine Bombe. Im Lichte der Ergebnisse von Turing und Rice ist es geradezu zwangsläufig, dass immer wieder rapide Schwankungen an der Börse auftauchen, die sich auf die Schnelle niemand erklären kann. Dass dann ein Team von Experten monatelang rätselt, was genau beim “Flash-Crash“ an der Wallstreet passierte, als binnen von Minuten die Kurse in den Keller rauschten, lässt sich mit einem Prinzip des unlängst verstorbenen Kybernetikers und Hirnforschers Valentin Braitenberg verdeutlichen. Braitenberg ist der Autor des Buches “Vehicles“, das in Amerika lange Zeit Kultstatus hatte. In diesem Buch proklamiert er das Prinzip der “Simplen Synthese und komplizierten Analyse“. Schon mit einfachsten Mitteln lässt sich ein komplexes Verhalten generieren, das sich aber nur schwierig analysieren lässt. Braitenberg beschreibt in seinem Buch kleine käfergleiche Maschinen, die einfachst programmiert sind und miteinander auf einem Tisch in Wechselwirkung treten. Der beobachtende Mensch meint Liebe, Mitleid, Hass und Agression in den Interaktionen zu erkennen. Aus dem beobachteten komplizierten Verhalten auf die zugrundeliegende Programmstruktur zu schließen ist aber höchst aufwendig, manchmal unmöglich. In extenso begegnen wir diesem Problem bei den angesprochenen vernetzten Computersystemen. Wir sind deshalb gezwungen festzustellen, dass die globalisierte Finanzwirtschaft mit ihren virtuellen Marktplätzen ein erratisches Element enthält, das nicht eliminierbar ist und sich im Schadensfall nur mit größtem Aufwand analysieren lässt.

Diesem digitalen Moloch steht nun eine Gesetzgebung gegenüber, die mit dem idealistischen Anspruch auftritt, das Treiben zu regulieren. Leider hat diese ebenfalls einen “prognostischen Schatten“. In der Informatik entscheidet man zwischen der Existenz und der Effizienz von algorithmischen Lösungen. Die Sätze von Turing und Rice beschäftigen sich mit der Existenz von Lösungen. Bei Fragen der Effizienz gibt es Lösungsalgorithmen. Es stellt sich jedoch die Frage, welche Ressourcen an Speicherplatz und Rechenzeit sie in Anspruch nehmen. Und gerade die Frage nach der Rechenzeit hat ihre Tücken, vor allen Dingen, wenn die Eingaben umfangreicher werden. Dieser Sachverhalt ist auch für die Rechtssprechung von Bedeutung. Vereinfacht gesprochen lassen sich zwei Problemklassen unterscheiden. Es gibt Probleme, die auf einen Zuwachs an Komplexität “gutartig“ reagieren. Mit wachsender Größe nimmt die Rechenzeit in beherrschbarer Weise zu. Mittels der Zinseszinsformel lässt sich die Vermögensentwicklung auf dem Sparbuch berechnen, auch wenn man viel Geld besitzt. Leider gibt es aber auch “bösartige“ Probleme. Mit wachsendem Umfang der Eingangsdaten explodiert die Rechenzeit. Erstaunlicherweise gehören zu den “bösartigen“ Problemen viele banale Fragestellungen. Ist es tatsächlich so schwer herauszubekommen, wie man verschiedene Gegenstände in Schubladen packen muss, damit sie so wenig Platz wie möglich einnehmen? Ist es nicht leicht, Stundenpläne zu entwerfen, die möglichst wenig Freistunden haben? Und in unserem Zusammenhang interessiert uns, was daran kompliziert sein soll, bei einem Bündel von Aussagen deren Widerspruchsfreiheit zu garantieren. Tatsächlich sind diese Fragen einfach zu beantworten, solange das Problem eng umgrenzt ist. Das ändert sich radikal, wenn die Eingabedaten größer werden. Die Anzahl der Fälle, die geprüft werden muss, wächst rasant und damit explodiert die Rechenzeit. Es ist wichtig zu verstehen, dass diese explodierende Rechenzeit eine echte Erkenntnisgrenze darstellt. In der Praxis lässt sich das Problem nicht entscheiden. Nehmen wir als Beispiel einhundert Aussagen, deren Widerspruchsfreiheit wir prüfen wollen. Es reicht nicht, diese paarweise in Beziehung zu setzen und zu schauen, ob sie miteinander verträglich sind. Die Widersprüche können versteckt sein. Man betrachte die drei Sätze: “Gras ist grün“, “Heu ist Gras“, “Heu ist goldgelb“. Und die Verschachtelungen können komplizierter und tiefgründiger sein. Das hat zur Konsequenz, dass exponentiell viele Teilmengen der Ausgangsmenge auf Stringenz geprüft werden müssen. Leider sprengt dieses Problem schon bei ein paar Hundert Aussagen jeden Rahmen und wird in realistischer Zeit unlösbar. Ein Computer von der Größe des Universums müsste selbst bei maximal denkbarer Rechengeschwindigkeit einige Milliarden Jahre lang rechnen, wie die Informatiker Larry Stockmeyer und Albert Meyer zeigten! Dieser Sachverhalt kann als eindrückliche Warnung für alle Politiker betrachtet werden, die Gesetze auf den Weg bringen, die mit der heißen Nadel gestrickt sind. Es steht zu befürchten, dass deren Konsistenz nicht gesichert ist. Der Wunsch alles und jedes regeln zu wollen führt dann dazu, dass sich die Gesetzgebung ad absurdum führt und ihre praktische Anwendbarkeit verliert. Vor diesem Hintergrund ist es nicht überraschend, dass das deutsche Steuerrecht selbst von den Finanzämtern nicht mehr durchgängig angewendet werden kann. Man muss kein Prophet sein, um vorauszusehen, dass der europäischen Rechtssprechung ein vergleichbares Schicksal droht.

Was soll man tun? In einem ganz anderen Bereich, dem Industriedesign, deutet sich eine Lösung an. Die Zauberformel nennt sich „simplicity“. Damit ist gemeint, dass es von Vorteil ist, Benutzeroberflächen so zu gestalten, dass Komplexität für den Anwender auf die wesentlichen Bestandteile reduziert wird. Man muss nicht alles machen, was machbar ist! Doch nichts ist schwieriger, als die Myriaden möglicher Funktionen auf die Essentiellen zu beschränken. Die Firma Apple hat dieses “reduce to the max“-Prinzip zum Leitsatz erkoren und ist deshalb das teuerste Industrieunternehmen der Welt, auch wenn man zugeben muss, dass die Applephilosophie ihren geistigen Vater in Deutschland hat: Es war der Visionär Dieter Rams, der als Designer bei der Firma Braun einen Standard setzte und seiner Zeit um mindestens vierzig Jahre voraus war.

Was kann man im Rahmen der Politik aus diesem Ansatz lernen? Viel. Initiativen zum Bürokratieabbau zeigen in die richtige Richtung. Doch das Problem hat weitere Facetten. Leider gibt es im Wechselspiel von Wirtschaft und Politik Menschen und Institutionen, die von Komplexität und Unübersichtlichkeit profitieren. Auf der gesetzgeberischen Seite denke man an Spezialisten, die sich unverzichtbar machen, da sie sich in dem Wirrwarr, das sie erzeugen, vergleichsweise gut auskennen. In diesem selbstreferentiellen System zementieren ihre Positionen. Minister können häufig wechseln, bevor ein Staatssekretär seine Stelle räumt. Und auf der anderen Seite des Grabens steht der Politik eine entfesselte Finanzwirtschaft gegenüber, die das Prinzip der Unübersichtlichkeit zur Blüte entwickelt hat. Die bewusste Komplizierung von Anlageprodukten und deren Handel ist ein Geschäftsmodell, von dem Insider maximal profitieren. Banken entwickeln kryptische Limits für Wertpapiertransaktionen, damit die von ihnen verwendeten Computer im Handel mit solchen Werten einen geldwerten Zeitvorsprung gewinnen. Geldhäuser wie Goldmann Sachs beschäftigen Physiker, die sogenannten Quants, deren Aufgabe darin besteht, extrem komplizierte Derivatkonstruktionen zu erschaffen, die außer ihren Erschaffern niemand versteht. Genau dieser Punkt ist ihre Existenzberechtigung, eine raffiniert ausgedachte Komplexitätsfalle, die keine andere Funktion hat, als das Unwissen der Kunden zum eigenen Vorteil auszunutzen. Bankintern werden diese Konstrukte als „Black Boxes“ bezeichnet. Sinn und Zweck ist es, die sogenannten “Muppets“ – gutgläubige Kunden – zu schröpfen. Bleibt hinzuzufügen, dass Teile der Finanzwelt auch vor Verbrechen nicht zurückschrecken. Es sei nur an die Manipulation des LIBOR erinnert, ein Zinssatz für den Interbankenhandel, der der Allgemeinheit bis vor kurzem unbekannt war. Auch hier liegt der Reiz für die Banken in der Ausnutzung eines Wissensvorsprungs, denn die Geldmengen, für welche der LIBOR verbindlich ist, sind gigantisch und entsprechend einträglich sind die Geschäfte, wenn man untereinander mauschelt und den Zins in seinem Sinne ändert.

Vom Standpunkt der Allgemeinheit gesehen, ist es ein solches Verhalten nicht nur verantwortungslos – es ist gemeingefährlich. Eine Demokratie lebt davon, dass Bürger und Politiker zumindest prinzipiell in der Lage sind zu verstehen, worüber sie entscheiden. Und welchen Schaden die Quants anrichten, haben wir in den letzten Jahren zu spüren bekommen. Leider sind Kompetenz und Wahrnehmung der Superhirne auf die “Black Boxes“ beschränkt und die alte Berliner Weisheit “Erstens kommt es anders und zweitens als du denkst“ wird ausgeblendet. Doch die Zukunft ist nicht zwangsläufig die harmonische Verlängerung der Vergangenheit. Der Missachtung dieser Tatsache verdanken wir die Weltfinanzkrise, da die realen Szenarien mit ihrer unvorhesehbaren Dynamik in den naiv simulierten Wirklichkeits(t)räumen nicht vorkamen.

Es ist Zeit, die Bremse einzuschlagen. Momentan irren wir alle ohne Kompass durch ein Informationsuniversum, das mit seiner chaotischen Dynamik beträchtliche Konsequenzen für uns haben kann. Deshalb muss Einfachheit dort, wo sie möglich ist, angestrebt werden.

“Das große Ziel der Wissenschaft“ schrieb Gödels Freund Albert Einstein, “ ist es, die größtmögliche Zahl von empirischen Tatsachen durch logische Ableitung aus der kleinsten Zahl von Hypothesen oder Deduktionen zu erfassen.“ Gute Gedanken verdichten viele zusammenhangslose Fakten zu einem sinnvollen Ganzen. Doch das Erarbeiten wertiger Prinzipien benötigt nicht nur in den Wissenschaften Zeit und Anstrengung. Es ist die schwierigst denkbare Aufgabe. In diesem Sinn ist es zu begrüßen, wenn sich das Bundesverfassungsgericht gegen den akzelerierten Zeitgeist stemmt, das Problem des ESM sorgfältig analysiert und mit den Grundrechten der Bundesrepublik Deutschland in Beziehung setzt. Das ist kein Luxus, das ist eine Überlebensnotwendigkeit.

Zahlenzauber

Es ist ein Irrglaube, dass die Welt in ihrer Gesamtheit berechenbar ist. Deshalb muss mathematischen Modellen, die Exaktheit suggerieren, wo keine zu finden ist, mit Skepsis begegnet werden.

Was haben Pythagoras und Michael Osinski gemeinsam? Dem ersten Anschein nach nichts. Der Amerikaner Osinski war ein erfolgreicher Programmierer an der Wallstreet, der eine verhängnisvolle Software schrieb, die die Bankenkrise mit verantwortete. Pythagoras kennen wir als Philosophen, der an die Seelenwanderung glaubte, einen mathematischen Satz über rechtwinklige Dreiecke formulierte, seinen Jüngern verbot Bohnen zu essen und ausgedehnte Spaziergänge in die Einsamkeit machte, um verzückt dem Klang der Planeten zu lauschen, wenn diese durch den Weltraum eilen.

Doch trotz der zweieinhalbtausend Jahre die zwischen Pythagoras und Michael Osinski liegen, trotz der gänzlich verschiedenen Lebensformen dieser zwei Menschen – hier ein Philosoph, der unter südlicher Sonne der Kontemplation frönt, dort ein gehetzter Wallstreetjunkie, der sich am schnellen Geld berauscht – existiert ein unsichtbares Band zwischen den beiden. Wahrscheinlich ohne es selbst zu wissen, ist Osinski eine Art Widergänger des Pythagoras und huldigt wie dieser einem fast mystisch verklärten Glauben an die Berechenbarkeit der Welt. Und ein Osinski ist in unserer Zeit keine singuläre Erscheinung. Im Gegenteil. Er ist nur Protagonist einer sich endemisch verbreitenden “wissenschaftlichen“ Weltanschauung. Diese manifestiert sich in der kritiklosen Verwendung mathematischer Verfahren, die unter Verwendung fragwürdiger Formeln eine Exaktheit vorgaukeln, die auf tönernen Füßen steht. Da in diesem Zusammenhang auch noch Großrechner zum Einsatz kommen, auf denen äußerst komplizierte Software implementiert ist, entsteht in der Summe eine numerische Komplexität, die viele ihrer Schöpfer nicht mehr überschauen. Erinnert sei nur an den “Flashcrash“ an der Wallstreet, bei dem die Tradingalgorithmen aus dem Ruder liefen oder an besagte Bankenkrise, die sich in nicht unwesentlichen Teilen fehlerhaften Programmen verdankte. Erinnert sei auch an das falsche Rating, das die Computer von Standard&Poors unlängst ausspuckten und damit Frankreichs bis dato erstklassige Bonität in Frage stellten. Daraufhin zitterten die Börsen bedenklich. In einer global vernetzten Welt sind solche Pannen gefährlich und der Umstand, dass Menschen wie Osinski nicht wie seriöse Wissenschaftler agieren, sondern in ihrem Tun eher an Goethes Zauberlehrling erinnern, dem das Wasser bis zum Hals steht, muss uns beunruhigen. Im Gedicht erledigt der alte Hexenmeister den Spuk, in unserer Zeit ist ein solcher Retter nicht in Sicht. Was läuft da falsch? Die Gründe sind vielfältig und es hilft, einen kurzen Blick zurückzuwerfen.

Die Lehre des Wundermanns

Der spiritus rector des heute verbreiteten Kalkulationismus – des naiven Glaubens an die Berechenbarkeit der Welt – ist besagter Pythagoras.
Sein Schlüsselsatz lautete: “Alles ist Zahl“. Mit dieser Aussage wurde er zum Stammvater eines Zahlenkults, der die Mathematik zum Fetisch machte und Mathematiker zu Hohepriestern. Der Philosoph Bertrand Russell hielt ihn für den einflussreichsten Denker, der je auf Erden gelebt hat. Wenn man in Betracht zieht, welchen Stellenwert die Mathematik in unserer Zeit genießt, ist man geneigt, sich dieser Einstellung anzuschließen. Es erstaunt nicht dass Pythagoras, der von seinen Jüngern als “Wundermann“ bezeichnet wurde, ein ausgeprägtes Ego besaß. Er hielt sich für einen Halbgott. “Es gibt Menschen und Götter und Wesen wie mich“, soll er von sich behauptet haben. Trotz dieser Hybris hatte seine Philosophie einen blinden Fleck und dieser ist auch für alle späteren Weltanschauungen kennzeichnend, die sich unausgesprochen auf ihn beziehen und unterstellen, dass die Tiefenstruktur der Welt mathematisch ist und sich deshalb vollumfänglich in ein symbolisches Korsett zwängen lässt. Heute wie damals wird oft versäumt zu prüfen, ob eine Mathematisierung überhaupt sinnvoll ist.
Nach der Lehre des Pythagoras hatte sich die Welt aus der Zahl Eins entwickelt und alle Dinge entsprachen Zahlen. Ihre Harmonie offenbarte sich darin, dass diese Dinge in einem ganzzahligen Verhältnis zueinander stehen sollten. Diese “Entdeckung“ verdankte Pythagoras dem Studium der Saiteninstrumente. Zupft man eine Saite und teilt sie dann, so erhält man mit dem Verhältnis 2:1 eine Oktave, ein Teilen 3:2 ergibt eine Quinte und 4:3 eine Quarte. Eine schöne Erkenntnis, die jedoch von ihm ohne zu zögern auf das Weltganze ausgeweitet wurde. Von der schwingenden Saite zur Sphärenharmonie der Himmelskörper war es für Pythagoras nur ein kleiner Schritt. Doch schon der Philosoph irrte mehrfach. Johannes Kepler – in seinem Herzen eigentlich auch ein Pythagoräer – beugte sich mutig der Macht des Faktischen: Auf Ellipsen eiern die Planeten um die Sonne, nicht auf göttlichen Kreisen die in harmonischen Beziehungen zueinander stehen. Und schon zu Zeiten von Pythagoras war klar, dass es inkommensurable geometrische Figuren gibt, deren Saitenlängen nicht in einem ganzzahligen Verhältnis zueinander stehen. Ein Jünger – Hippasos von Metapont – war so unvorsichtig, das auszuplaudern und bezahlte seine Schwatzhaftigkeit mit dem Leben. Er wurde von den anderen im Meer ertränkt.

Während die argumentativen Kapriolen des Vorsokratikers schnell zu entlarven sind, ist das bei mathematischen Modellen der Gegenwart schwieriger.
Was sollen wir von komplizierten Formeln halten, die vorgeben zu beschreiben, wie unser Gehirn funktioniert und deren Erschaffer die Überzeugung vertreten, dass chaotische Attraktoren in unseren Köpfen ihr Unwesen treiben und als Zufallsgeneratoren den freien Willen ermöglichen? Wie steht es um Formelsysteme, die angeben, wie Kriege zwischen verfeindeten Staaten zustande kommen? Und sollen wir mathematischen Modellen in den Volkswirtschaften trauen, die an jeder Universität gelehrt werden, die sich aber auf zweifelhafte Annahmen stützen, wie Menschen handeln? Müssen wir darüber hinaus Simulationen des Klimas ernst nehmen, deren Ziel es ist, dieses in 100 (!) Jahren vorauszusagen?
Die Beantwortung solcher Fragen ist kein akademisches Glasperlenspiel! Wie oben angesprochen, agieren die Erschaffer solcher symbolischen Konstrukte nicht im luftleeren Raum. Leichtgläubige Banker verließen sich überall auf der Welt auf eine Software von Michael Osinski, mit der dieser vorgab, die Ausfallwahrscheinlichkeiten von gebündelten Krediten beurteilen zu können. Auf der Basis von Klimamodellierungen werden Anlageentscheidungen getroffen, die in die Billionen gehen! Damit wird das, was bei Pythagoras als intellektuelle Grille eines Sonderlings begann, zu einer Schlüsselfrage unserer Zeit: Was sind und was können mathematische Modelle, die auf Supercomputern implementiert werden? Und wo sind ihre Grenzen?

Um wenigstens ein Gefühl für die Komplexität dieser Fragen zu bekommen, ist es notwendig, das Problem zu simplifizieren. Es lohnt sich in Gedanken eine kurze Zeitreise zu machen. Wir beobachten Galileo Galilei, bei einem Experiment, das in dieser Form nie stattgefunden hat und fragen uns, wie man aus Messresultaten überhaupt eine valide mathematische Beschreibung ableitet.

Die Zahlenwolke

Dass Galilei das Fallgesetz entwickelt hat, indem er Gegenstände vom schiefen Turm von Pisa warf, gehört in das Reich der Legende. Aus Gründen der Anschaulichkeit stellen wir uns das trotzdem vor. Unser gedachter toskanischer Turm ist aber nicht schief sondern gerade und er hat zehn anstatt sechs Stockwerke. Der Italiener fragt sich, wie lange eine Metallkugel wohl benötigt, wenn man sie im dritten Stock loslässt und wartet, bis sie auf dem Boden aufschlägt. Um diese Frage zu beantworten, muss er messen. Aber was? Und wie muss er messen? Galilei entscheidet sich, bestimmte Eigenschaften zu ermitteln und andere nicht. Dieser Punkt ist wichtig, da sich in ihm ein wissenschaftliches Vorverständnis ausdrückt, das angemessen, unvollständig oder auch falsch sein kann. Intuitiv sieht er von der Farbe der Metallkugel ab, auch der Temperatur derselben misst er keine Bedeutung zu. In einer visionären Vorahnung verzichtet er sogar darauf, die Masse der Kugel zu bestimmen. Stattdessen will er die Abwurfhöhe messen. Auch ermittelt er die Zeit, die sie benötigt, bis sie auf dem Boden aufkommt. Alle Werte, die er mit einwandfrei funktionierenden Messinstrumenten erhebt, werden notiert. Jetzt entschließt er sich, die Abwurfhöhe zu ändern. Er klettert in den vierten Stock, wirft und misst – erneut zehn Mal. Das Procedere wiederholt er im fünften, sechsten, siebten und achten Stock. Der alte Mann atmet angestrengt, die obersten Stockwerke spart er sich. Alle Werte hat er sorgfältig in sein Buch geschrieben. Er hat nun vor Augen, was der Wissenschaftsphilosoph Hugo Dingler als Zahlenwolke bezeichnete. Um Ordnung in die Wolke zu bringen, verwendet er ein Koordinatensystem, um etwa die Fallzeit in Abhängigkeit von der Abwurfhöhe einzutragen. Er möchte gerne eine mathematische Funktion finden, die die Messwertverteilung abbildet. Und wieder ist Intuition gefragt. Die Aufgabe ist nicht trivial, da es theoretisch unendlich viele Möglichkeiten gibt. Trotzdem findet er mit sicherem Gespür einen aussichtsreichen Kandidaten. Als im Kern faulem Menschen kommt ihm eine Idee. Wenn er andere Abwurfhöhen in sein Modell einsetzte, könnte er sich vielleicht die anstrengende Kletterei sparen. Als seriöser Wissenschaftler prüft er seine Voraussage noch einmal an der Realität. Er klettert in den neunten Stock, wirft und misst. Und tatsächlich, die Formel erweist sich als richtig. Auch beim Abstieg, als er die Kugel zur Sicherheit noch einmal aus dem zweiten wirft, wird er nicht enttäuscht. Er schließt, dass seine Formel ihre Dienste auch für den ersten und zehnten Stock leisten würde. Stolz verkündet der Wissenschaftler, dass er mit seiner Formel in die Zukunft sehen könne. Selbst wenn man den Turm auf tausend Stockwerke erhöhen würde, wäre er in der Lage zu berechnen, wie lange die Kugel flöge (womit er sich eigentlich schon zu weit aus dem Fenster lehnt). Skeptikern entgegnet er noch, dass jeder Mensch sein Experiment wiederholen könne, um sich von dessen Wahrheit zu überzeugen.

Mathematische Luftnummern

Dieses in seinem Kern nicht schwer zu verstehende Gedankenexperiment, in dem wir das eine oder andere stillschweigend vorausgesetzt oder zurechtgebogen haben, zeigt in verkürzter Form einige wichtige Aspekte seriöser Wissenschaft. Zur seriösen Forschung gehört, dass Wissenschaftler mit normierten Messinstrumenten arbeiten. Das ist eine notwendige Bedingung, damit Experimente “personenunabhängig reproduziert“ werden können. Wenn Galilei proklamiert, dass alle Menschen seine Messungen wiederholen können, dann setzt er genau diese Forderung als gegeben voraus. Alle sollen mit gleichen Maßstäben messen. Das war, anders als oben behauptet, zu Zeiten von Galilei keine Selbstverständlichkeit. Es gab, um ein Beispiel zu nennen, keine zuverlässig funktionierenden Uhren, kein objektivierbares Zeitmaß. Bei Experimenten mit der schiefen Ebene soll Galilei anfänglich ein Kinderlied gesungen haben, um dann zu notieren, bei welcher Silbe die losgelassene Kugel am Boden ankam. Später verwendete er seinen Herzschlag, dann eine Wasseruhr. Darüber hinaus muss ein Wissenschaftler funktionierende von gestörten Messinstrumenten unterscheiden können. Das ist auch in unserer Zeit eine mitunter knifflige Angelegenheit, wie man in der Diskussion um die Überlichtgeschwindigkeit sieht. Sind die gemessenen Neutrinos tatsächlich schneller als das Licht und muss deshalb die spezielle Relativitätstheorie revidiert werden? Eine Revolution! Oder gibt es Messfehler, die sich zum Beispiel fehlerhaft funktionierenden Detektoren verdanken?

Lassen wir jetzt außer acht, dass die heute verwendeten mathematischen Modelle – häufig nicht-lineare Differentialgleichungssysteme – ungleich komplizierter sind, als das Fallgesetz, so reichen die gerade gewonnen Einsichten, um viele kryptische Formelungetüme als zahnlose Tiger zu enttarnen. Wenn etwa in einem mathematischen Modell, das vorgibt, die Entstehung von Spannungen zwischen verfeindeten Staaten zu beschreiben, eine ominöse Größe wie der “Groll“ vorkommt, dann kann man dieses Modell vergessen, da sich Groll anders als Abwurfhöhen und Fallzeiten nicht messen lässt. Ähnlich verhält es sich mit den angesprochenen Gehirnmodellen in denen synaptische Kopplungsstärken zwischen den Nervenzellen auftauchen. Kein Mensch weiß, wie diese zu quantifizieren sind. Dasselbe gilt für in der Finanzmathematik auftauchenden Korrelationskoeffizienten, die günstigenfalls im Einklang mit historischen Daten stehen, aber versagen, wenn es zu unvorhersehbaren Entwicklungen kommt. In diesem Zusammenhang sprechen freundliche Zeitgenossen von rhetorischer Mathematik, die einfach nur Eindruck schinden soll, andere von GIGO-Modellen (Garbage-In-Garbage-Out).

Bis zu dieser Stelle haben wir stillschweigend vorausgesetzt, dass es problemlos ist, die Lösungen des mathematischen Modells zu ermitteln. Das ist jedoch die absolute Ausnahme. In der Regel müssen Lösungen aufwendig genähert werden. Deshalb kommt der Computer ins Spiel. Die Verwendung des Computers bei der Lösung komplizierter Gleichungen ist Fluch und Segen zugleich. Er ist ein Segen, da man mathematische Funktionen berechnen und visualisieren kann, denen man mit Papier und Bleistift auch in Millionen Jahren nicht Herr werden würde. Er ist ein Fluch, da er die erkenntnistheoretische Situation über die Maßen verkompliziert, sodass so manchem Akteur nicht mehr klar ist, was da eigentlich wie berechnet und simuliert wird.

In den Anfängen der Wissenschaft wurde zuerst gemessen und dann modelliert. Heute verfährt man in vielen Fällen andersherum. Die mathematischen Modelle, die dabei zum Einsatz kommen – meist besagte Differentialgleichungssysteme – werden dann diskretisiert und auf dem Computer implementiert. Dort lässt sich mit ihnen vortrefflich spielen. Man kann Anfangs- oder Randwerte variieren, funktionelle Abhängigkeiten verändern oder an den Parametern “drehen“ und sich das Verhalten der “Lösungen“ anschauen. Eine unbeschwerte Reise im Raum der Möglichkeiten. Was sich einfach und verlockend anhört, birgt viele Fallstricke. Zum einen ist gar nicht immer klar, ob die verwendeten mathematischen Modelle überhaupt Lösungen besitzen. Das prominenteste Beispiel sind die für die Klimasimulationen fundamentalen Navier-Stokes-Gleichungen. Bis zum heutigen Tag ist nicht bewiesen, ob eindeutige Lösungen existieren. Das ist ein Millenium-Problem – eines der größten Rätsel der Mathematik. Und selbst wenn sie existierten, ist die Frage strittig, ob diese Gleichungen wirklich die passende Beschreibung für reale Fluide sind. Lassen wir diesen Aspekt außer Acht und nehmen an, dass tatsächlich Lösungen existieren, dann ist in vielen Fällen gar nicht einfach zu entscheiden, ob das, was der Computer berechnet, etwas mit diesen Lösungen zu tun hat. Jeder Computer ist eine endliche Maschine, die in endlicher Zeit immer nur endlich viele Rechenschritte durchführen kann. Das hat zur Konsequenz, dass Zahlen, die unendlich viele Stellen haben, gerundet werden müssen. Diese Rundungen, die auch noch von verschiedenen Computern verschieden bewerkstelligt werden, können massive Konsequenzen haben. Diese Erkenntnis verdanken wir der Chaostheorie genauer dem “computational chaos“. Es ist nicht selten, dass kleinste Veränderungen, Auslassungen oder Fehleinschätzungen zu völlig verschiedenen Lösungen führen. Und Gründe für kleinste Veränderungen gibt es bei der Verwendung von Computern in Hülle und Fülle. Ergebnisse können von der Anzahl der Ziffern, mit denen der Computer rechnet, abhängen, von der verwendeten Gleitkommaarithmetik, sogar von der zum Einsatz gelangenden Programmiersprache. Das gilt besonders im Großrechnerbereich. Japanische Computer arbeiten anders als amerikanische. Simulationen mathematischer Modelle, die empfindlich auf minimale Änderungen reagieren, können sich deshalb sehr unterschiedlich verhalten. Von einem wissenschaftstheoretischen Standpunkt aus gesehen hat das gravierende Folgen. Im Bereich der Simulationen ist eine Normierung, wie wir sie bei den Messinstrumenten kennen, nur in Ansätzen zu erkennen. Das erschwert die „personenunabhängige Überprüfbarkeit“ ungemein.

Das Turing-Trauma

Wenden wir die genannten Kriterien wissenschaftlicher Arbeit einmal auf komplizierte Simulationen an, wie man sie in der Klimaforschung vorfindet. Genauso wie Galilei muss jeder Klimawissenschaftler eine Menge begründeter Vorannahmen machen, welche Zustandsgrößen dem Problem angemessen sind. Zudem sollten diese Größen exakt messbar sein! Wenn man ehrlich ist, weiß heute niemand mit Sicherheit zu sagen, welche Zustandsgrößen in Klimamodellen in welcher Weise exakt zu quantifizieren sind. Erinnert sei an das komplexe Thema der Wolkenbildung und den damit verbundenen Fragen nach der Absorption bzw. Reflexion des Sonnenlichts. Darüber hinaus stellen sich Fragen der Skalierung. Wie eng müssen “Messgitter“ gewählt sein, damit man zu validen Aussagen gelangt? Als nächstes muss das Problem gelöst werden, wie das Modell auf welchem Computer zu implementieren ist. Sind diese Hürden gemeistert, versucht man festzustellen, was die angestellten Berechnungen tatsächlich mit der Wirklichkeit zu tun haben. Dazu müsste man sie idealer Weise mit dieser vergleichen. Galilei konnte immer wieder werfen und messen. Das funktioniert in dieser Form weder bei Simulationen des Klimas noch bei solchen der Volkswirtschaften. Derart komplexen Szenarien lassen sich nicht in einer Laborsituation präparieren. Aus diesem Grund sind wir mit einem erkenntnistheoretischen Problem konfrontiert, das man als Turing-Trauma bezeichnen könnte. Der Logiker Alan Turing artikulierte das sogenannte Halteproblem, das genauso wie die Unvollständigkeitssätze von Kurt Gödel Hilberts mathematische Allmachtsphantasien besiegelte. Aus dem Kontext der Logik herausgelöst kann man es wie folgt ausdrücken: Wenn Sie ein hinreichend komplexes Programm auf einem Computer implementieren, dann wissen sie erst, nachdem es gelaufen ist, wie es sich tatsächlich verhält. Das gilt für verschiedene Eingabekonstellationen, genauso wie für alle Veränderungen an dem Programm, die mit dem Ziel geschaffen wurden, es zu verbessern, die aber tatsächlich auch das Gegenteil bewirken können.

Rufen wir uns an dieser Stelle noch einmal ins Gedächtnis, was Sinn und Zweck eines mathematischen Modells ist. Ein mathematisches Modell ist eine reduzierte Beschreibung der Wirklichkeit, die es uns idealer Weise erlaubt, Ergebnisse zu extrapolieren. Da die Modelle kompliziert sind und nicht mehr per Hand ausgerechnet werden können, müssen ihre genäherten Lösungen mit Computern ermittelt werden. In diesem Kontext arbeitet der Computer wie eine Zeitmaschine! Die Systemzeit ist kürzer als die Realzeit. Genau deshalb kann man im virtuellen Raum Vergangenheit und Zukunft bereisen, immer vorausgesetzt, dass die Simulationsergebnisse mit den Messungen korreliert werden können, um die Validität der Simulation zu gewährleisten. Solche virtuellen Zeitreisen sind übrigens nur dann möglich, wenn das Problem, das mathematisch modelliert wird, reduzibel ist. Das bedeutet, dass es eine gültige reduzierte Beschreibung der Wirklichkeit existiert, die modellhaft die relevanten Aspekte der entsprechenden Fragestellung einfängt. Das ist nicht selbstverständlich. Ist ein Problem nicht reduzibel, hätten Modell und Wirklichkeit dieselbe Komplexität, die Systemzeit entspräche der Realzeit und Vorhersagen wären nicht möglich.

Vor diesem Hintergrund verdankt sich das Turing-Trauma einem methodischen Zirkel. Es findet seine Ursache genau in der Tatsache, dass wir den Computer als virtuelle Zeitmaschine verwenden. Wir wiesen darauf hin, dass das Modell in einer für den Computer verständlichen Sprache artikuliert werden muss. Wie aber prüfen wir, ob die Simulation unseren Ansprüchen genügt? Woher wissen wir, dass die Software keine Fehler hat, dass nicht an den falschen Stellen gerundet wird oder dass sich die Simulation in einer Schleife verfängt? Die Antwort ist frustrierend aber wahr: Nach den Arbeiten von Turing weiß man, dass man die Güte einer Simulation nur dadurch ermitteln kann, dass man sie laufen lässt, um ihre Ergebnisse mit der Realität, über die man ja eigentlich mittels der Simulation etwas erfahren wollte, vergleicht. Das führt das Vorgehen in gewissem Sinne ad absurdum. Natürlich gibt es Simulationen, die mit gegenwärtig gemachten Messungen mehr oder weniger gut korrelieren und die auch noch in der Lage sind, vergangene Messwertverteilungen zu reproduzieren. Nur erlaubt diese Tatsache leider nicht, bedenkenlos weiter auf die Zukunft zu schließen. Es ist wie bei zwei Zügen, die sich eine Weile gemeinsam auf parallelen Gleisen bewegen, bis eine Weiche kommt, die die Wege voneinander scheidet. Der Wert einer Simulation zeigt sich also erst dann, wenn man real an dem Zeitpunkt angekommen ist, dem man virtuell eigentlich vorgreifen wollte.

Damit bekommt die Wahl der passenden Simulationen etwas alchimistisches. Im Schattenreich der verzwickten Beziehungen von Messungen, mathematischen Modellen, deren diskretisierten Formen und numerischen Simulationen bildet sich ein rezeptartiges “Handwerkswissen“ heraus, mit dessen Hilfe in einem Try- and Errorverfahren Modelle selektiert werden – eine fast darwinsche Selektion von Simulationen. Das entspricht der Vorgehensweise der Klimamodellierer, die viele Simulationen parallel laufen lassen und versuchen die guten zu verbessern. Eine Gewähr für wasserdichte Prognosen ist das nicht.

Unter dem Strich sind wir deshalb mit einer verwirrenden Situation konfrontiert, die nachvollziehbar macht, weshalb viele Menschen den Untergangsszenarien mit Missmut begegnen. Mathematische Modelle, die mit dem Zweck geschaffen werden, das Leben versteh und planbar zu machen, bewirken in ihrer überbordenden Vielfalt das genaue Gegenteil. In einem symbolischen Universum tummeln sich solche, die exakt funktionieren und ihre Aufgabe erfüllen. Jeder in die Umlaufbahn geschossene Satellit, der seine berechnete Position einnimmt, zeugt davon. Auf der anderen Seite gibt einen Haufen viel zitierter Modelle, die das Papier nicht wert sind, auf dem sie geschrieben sind. Es gibt Modelle, die funktionieren können, von denen wir aber vielleicht nie erfahren werden, ob sie es wirklich tun. Das alles wäre zu verkraften, wenn ehrlich auf den oft provisorischen Charakter von Simulationen hingewiesen würde. Fehlt diese Bescheidenheit aber und treten Wissenschaftler wie Pythagoras im Gewande eines Zahlenzauberers auf, dann wird es gefährlich. Viele Menschen neigen vor einer komplizierten Formel demütig das Haupt und übersehen, dass wissenschaftliche Propheten auch ganz weltliche Interessen im Blick haben können. Michael Osinski wollte mit seiner missglückten Software Geld verdienen und mancher Wissenschaftler nutzt den sorgsam geschürten Alarmismus, um Forschungsgelder einzuwerben. Klimasimulationen können ein Erkenntnisinteresse bedienen – keine Frage. Als Notwendigkeit nachhaltig zu leben und zu wirtschaften reicht jedoch schon die Erkenntnis, dass die Weltbevölkerung mit exponentieller Geschwindigkeit wächst und unser Lebensraum begrenzt ist. Die Formel, die die vorhersehbare Katastrophe beschreibt, ist seit weit über hundert Jahren bekannt. Um die tödlichen Konsequenzen, die sich aus ihr ergeben, zu verstehen, braucht man noch nicht einmal einen Computer.