Die Komplexitätsfalle

Es ist verhängnisvoll, wenn wir selbst eine Welt schaffen, die wir nicht verstehen. Es wäre zu unserem Vorteil dort, wo es möglich ist, Komplexität zu reduzieren

Der Logiker Kurt Gödel traute seinen Augen nicht. Beim Studium der amerikanischen Verfassung fiel ihm auf, dass es möglich war – vorausgesetzt die Paragraphen wurden geschickt kombiniert – auf legalem Weg aus der Demokratie eine Diktatur zu machen. Diese Einsicht war nicht nur für Amerika brisant sondern auch für ihn selbst: Am nächsten Tag – dem 2. April 1948 – stand seine Prüfung in Staatsbürgerkunde an. Diese musste er als Exilant bestehen, um eingebürgert zu werden und es war wahrscheinlich, dass er mit seinem Wissen nicht hinter dem Berg würde halten können. Am Tag der Entscheidung versuchten seine besten Freunde – Albert Einstein und Oskar Morgenstern – Gödel mit Späßen von seiner spektakulären Erkenntnis abzulenken, doch es half nichts. Der Logiker gehorchte einem starken inneren Zwang und brachte seine Argumente vor. Zu seinem Glück traf er auf den gnädig gestimmten Richter Phillip Forman, der den Beweisgang für eine akademische Schrulle hielt und dem Logiker bereitwillig die notwendigen Papiere aushändigte.

Ist das nur eine Anekdote aus dem akademischen Kuriositätenkabinett oder steckt eine tiefere Wahrheit dahinter? Festzuhalten ist, dass es eines Genies wie Kurt Gödel bedurfte, den Widerspruch offenzulegen, dass ein und dieselbe Verfassung zwei sich ausschließende Staatsformen zulässt. Offenbar war das vor ihm den Juristen nicht aufgefallen. Festzuhalten ist aber auch, dass selbst Kurt Gödel nicht in der Lage gewesen wäre, die Widerspruchsfreiheit komplexerer Regelwerke zu beweisen. Nehmen wir aus aktuellem Anlass das Bündel von Gesetzen, das in Europa diverse Rettungsschirme zu regeln vorgibt und mit dem Anspruch erschaffen wird, auf den Markt in voraussehbarer Weise reagieren zu können. Glaubt wirklich noch jemand, dass es einen Menschen gibt, der die möglichen Konsequenzen eines solchen Regelsystems vollumfänglich überschaut? Ein solches bürokratisches Monstrum hätte in seiner überbordenden Komplexität nicht nur das Gehirn von Kurt Gödel überfordert, den Zeitgenossen für den größten Logiker seit Aristoteles hielten. Selbst eine Taskforce der brillantesten Köpfe, die sich der leistungsfähigsten Computer bedienen dürfte, würde scheitern. Der Grund ist ein Komplexitäts-GAU auf mehreren Ebenen. Das was geregelt werden soll, entzieht sich der exakten Analyse. Heute existieren globale Märkte, äußerst verschachtelte Geldkreisläufe mit Handelsplätzen im virtuellen Raum, in denen Finanztransaktionen gigantischen Ausmaßes im Mikrosekundentakt von Computeralgorithmen durchgeführt werden, deren fehlerfreies Funktionieren nicht garantiert werden kann. Demgegenüber steht eine Gesetzgebung, die den Anschein erweckt, dem Treiben einen geordneten Rahmen zu geben, dabei aber selbst so kompliziert geworden ist, dass auch Experten sich schwertun die Gesetze konkret auszudeuten. Als Beispiel sei an den wochenlangen Streit erinnert, ob der ESM für Deutschland eine Haftungsobergrenze festlegt oder nicht. Da die beiden Sphären zu allem Überfluss nicht getrennt sind, sondern in komplizierter Weise miteinander interagieren, sehen wir uns mit einem undurchschaubaren Wechselwirkungsgeflecht konfrontiert, dessen Verhalten wir nicht verstehen und das in seiner fundamentalen Unvorhersehbarkeit Ängste hervorruft. Wir haben heute nicht mehr das Lebensgefühl des von der Sonne der Vernunft beschienenen Aufklärers, sondern das des verwirrten Steinzeitmenschen, der den rätselhaften Geschehnissen der ihn umgebenden Welt keinen rechten Sinn abtrotzen kann. Im Falle des Steinzeitmenschen war es die unerklärliche Natur – das Unwetter, die Dürre, der Vulkanausbruch – die ihn ängstigte, während wir uns heute in den Nebeln eines Informationsuniversums verlieren, das wir leichtfertig selbst erschaffen. Auf diese Weise machen wir uns zu Sklaven einer überkritischen Komplexität, die vernunftbasiertes Handeln nicht erlaubt, da niemand mehr in der Lage ist, auf der Grundlage von Erfahrungen verlässliche Prognosen für die Zukunft abzugeben.

Wie konnte es soweit kommen und warum wehren wir uns nicht? Das hat im wesentlichen zwei Gründe: Das begriffliche Werkzeug mit dessen Hilfe sich die Problematik zwar nicht lösen aber zumindest sezieren lässt, liegt in den Lehrbüchern der theoretischen Informatik verborgen, die nicht jeder liest. Darüber hinaus gibt es eine Gilde einflussreicher Komplexitätsgewinner, die kein Interesse daran haben, ihr Treiben durchleuchten zu lassen und es vorziehen, im Trüben zu fischen.

In der Algorithmik, einem Teil der theoretischen Informatik, gibt es mehrere Ergebnisse, die in unserem Zusammenhang von Bedeutung sind: Da existieren das Turingsche Halteproblem und der noch umfänglichere Satz von Rice. Beide setzen der sogenannten Programmverifikation Grenzen. Des weiteren ist jeder Programmierer und Anwender mit dem verwirrenden Phänomen der Zeitkomplexität konfrontiert.

Wenn ein Computerfachmann sich daran macht, einen Algorithmus – das ist ein rezeptartiges mathematisches Verfahren – zu programmieren, dann verbindet er mit dieser Tätigkeit einige Wünsche: Er möchte, dass das Programm auch tatsächlich das Problem löst, das es zu lösen vorgibt. Außerdem soll es korrekt sein: Zulässige Eingaben führen automatisch zu richtigen Ergebnissen. Desweiteren will er nicht, dass sich das Programm in einer Schleife aufhängt oder anderweitig ewig läuft. Und ganz allgemein hofft er, seine Ergebnisse in einer vernünftigen Zeitspanne zu erhalten.

Diese Wünsche wirken banal und als Nicht-Informatiker ist man überrascht, dass sich in diesem Feld einige der tiefsten und elementarsten Probleme der Mathematik verbergen. Mit den Wünschen des Programmierers verhält es sich nämlich wie mit dem Wunschzettel eines kleinen Mädchens. Dieses wünscht sich zu Weihnachten ein echtes Pferd und findet dann ein Steifftier mit Mähne unterm Baum. Der britische Logiker Alan Turing bewies, dass es kein allgemeines Verfahren gibt, mit dessen Hilfe sich sicher entscheiden ließe, ob ein gegebenes Programm bei einem bestimmten Input irgendwann anhält oder aber unendlich lang weiterläuft. Erstaunlicherweise kann das schon für einfache auf dem Computer implementierte Funktionen gelten, die jeder Schüler der 10. Klasse nachvollziehen kann. Der Satz von Rice verschärft das Ergebnis von Turing und führt zu der paradox anmutenden Konsequenz, dass fast alle Fragen, die die Berechenbarkeit von Programmen angehen, unberechenbar sind und damit nicht verlässlich entschieden werden können. In der Praxis der realen Softwareentwicklung hat das eine erstaunliche Konsequenz: Es kann kein allgemein algorithmisiertes Prüfverfahren geben, welches ein beliebiges Programm verifiziert. Deshalb ist nicht prinzipiell zu gewährleisten, dass sich ein fragliches Programm entsprechend der Ansprüche, die man an es stellt, verhält. Überall dort, wo Computer, Software und Eingabedaten eine kritische Komplexität überschreiten, sind Pannen möglich. Davon zeugen verschiedenste Weltraumdesaster – abstürzende Nasa-Raumsonden genauso wie explodierende Arianeraketen – die sich unerkannten Softwarefehlern verdankten. Man kann aber auch irdische Probleme ins Auge fassen: Jeder, der mit dem millionenfach verbreiteten Textverarbeitungssystem Word arbeitet, an dem tausende von Programmierern seit Jahrzehnten tüfteln, weiß von diversen Fehlern zu berichten. Ein Word-Programm ist allerdings ein übersichtliches Szenario im Vergleich mit den unterschiedlichsten Hochgeschwindigkeits- Tradingalgorithmen, die weltweit zur Anwendung kommen, um Börsengeschäfte zu tätigen und permanent miteinander interagieren. Da tickt eine Bombe. Im Lichte der Ergebnisse von Turing und Rice ist es geradezu zwangsläufig, dass immer wieder rapide Schwankungen an der Börse auftauchen, die sich auf die Schnelle niemand erklären kann. Dass dann ein Team von Experten monatelang rätselt, was genau beim “Flash-Crash“ an der Wallstreet passierte, als binnen von Minuten die Kurse in den Keller rauschten, lässt sich mit einem Prinzip des unlängst verstorbenen Kybernetikers und Hirnforschers Valentin Braitenberg verdeutlichen. Braitenberg ist der Autor des Buches “Vehicles“, das in Amerika lange Zeit Kultstatus hatte. In diesem Buch proklamiert er das Prinzip der “Simplen Synthese und komplizierten Analyse“. Schon mit einfachsten Mitteln lässt sich ein komplexes Verhalten generieren, das sich aber nur schwierig analysieren lässt. Braitenberg beschreibt in seinem Buch kleine käfergleiche Maschinen, die einfachst programmiert sind und miteinander auf einem Tisch in Wechselwirkung treten. Der beobachtende Mensch meint Liebe, Mitleid, Hass und Agression in den Interaktionen zu erkennen. Aus dem beobachteten komplizierten Verhalten auf die zugrundeliegende Programmstruktur zu schließen ist aber höchst aufwendig, manchmal unmöglich. In extenso begegnen wir diesem Problem bei den angesprochenen vernetzten Computersystemen. Wir sind deshalb gezwungen festzustellen, dass die globalisierte Finanzwirtschaft mit ihren virtuellen Marktplätzen ein erratisches Element enthält, das nicht eliminierbar ist und sich im Schadensfall nur mit größtem Aufwand analysieren lässt.

Diesem digitalen Moloch steht nun eine Gesetzgebung gegenüber, die mit dem idealistischen Anspruch auftritt, das Treiben zu regulieren. Leider hat diese ebenfalls einen “prognostischen Schatten“. In der Informatik entscheidet man zwischen der Existenz und der Effizienz von algorithmischen Lösungen. Die Sätze von Turing und Rice beschäftigen sich mit der Existenz von Lösungen. Bei Fragen der Effizienz gibt es Lösungsalgorithmen. Es stellt sich jedoch die Frage, welche Ressourcen an Speicherplatz und Rechenzeit sie in Anspruch nehmen. Und gerade die Frage nach der Rechenzeit hat ihre Tücken, vor allen Dingen, wenn die Eingaben umfangreicher werden. Dieser Sachverhalt ist auch für die Rechtssprechung von Bedeutung. Vereinfacht gesprochen lassen sich zwei Problemklassen unterscheiden. Es gibt Probleme, die auf einen Zuwachs an Komplexität “gutartig“ reagieren. Mit wachsender Größe nimmt die Rechenzeit in beherrschbarer Weise zu. Mittels der Zinseszinsformel lässt sich die Vermögensentwicklung auf dem Sparbuch berechnen, auch wenn man viel Geld besitzt. Leider gibt es aber auch “bösartige“ Probleme. Mit wachsendem Umfang der Eingangsdaten explodiert die Rechenzeit. Erstaunlicherweise gehören zu den “bösartigen“ Problemen viele banale Fragestellungen. Ist es tatsächlich so schwer herauszubekommen, wie man verschiedene Gegenstände in Schubladen packen muss, damit sie so wenig Platz wie möglich einnehmen? Ist es nicht leicht, Stundenpläne zu entwerfen, die möglichst wenig Freistunden haben? Und in unserem Zusammenhang interessiert uns, was daran kompliziert sein soll, bei einem Bündel von Aussagen deren Widerspruchsfreiheit zu garantieren. Tatsächlich sind diese Fragen einfach zu beantworten, solange das Problem eng umgrenzt ist. Das ändert sich radikal, wenn die Eingabedaten größer werden. Die Anzahl der Fälle, die geprüft werden muss, wächst rasant und damit explodiert die Rechenzeit. Es ist wichtig zu verstehen, dass diese explodierende Rechenzeit eine echte Erkenntnisgrenze darstellt. In der Praxis lässt sich das Problem nicht entscheiden. Nehmen wir als Beispiel einhundert Aussagen, deren Widerspruchsfreiheit wir prüfen wollen. Es reicht nicht, diese paarweise in Beziehung zu setzen und zu schauen, ob sie miteinander verträglich sind. Die Widersprüche können versteckt sein. Man betrachte die drei Sätze: “Gras ist grün“, “Heu ist Gras“, “Heu ist goldgelb“. Und die Verschachtelungen können komplizierter und tiefgründiger sein. Das hat zur Konsequenz, dass exponentiell viele Teilmengen der Ausgangsmenge auf Stringenz geprüft werden müssen. Leider sprengt dieses Problem schon bei ein paar Hundert Aussagen jeden Rahmen und wird in realistischer Zeit unlösbar. Ein Computer von der Größe des Universums müsste selbst bei maximal denkbarer Rechengeschwindigkeit einige Milliarden Jahre lang rechnen, wie die Informatiker Larry Stockmeyer und Albert Meyer zeigten! Dieser Sachverhalt kann als eindrückliche Warnung für alle Politiker betrachtet werden, die Gesetze auf den Weg bringen, die mit der heißen Nadel gestrickt sind. Es steht zu befürchten, dass deren Konsistenz nicht gesichert ist. Der Wunsch alles und jedes regeln zu wollen führt dann dazu, dass sich die Gesetzgebung ad absurdum führt und ihre praktische Anwendbarkeit verliert. Vor diesem Hintergrund ist es nicht überraschend, dass das deutsche Steuerrecht selbst von den Finanzämtern nicht mehr durchgängig angewendet werden kann. Man muss kein Prophet sein, um vorauszusehen, dass der europäischen Rechtssprechung ein vergleichbares Schicksal droht.

Was soll man tun? In einem ganz anderen Bereich, dem Industriedesign, deutet sich eine Lösung an. Die Zauberformel nennt sich „simplicity“. Damit ist gemeint, dass es von Vorteil ist, Benutzeroberflächen so zu gestalten, dass Komplexität für den Anwender auf die wesentlichen Bestandteile reduziert wird. Man muss nicht alles machen, was machbar ist! Doch nichts ist schwieriger, als die Myriaden möglicher Funktionen auf die Essentiellen zu beschränken. Die Firma Apple hat dieses “reduce to the max“-Prinzip zum Leitsatz erkoren und ist deshalb das teuerste Industrieunternehmen der Welt, auch wenn man zugeben muss, dass die Applephilosophie ihren geistigen Vater in Deutschland hat: Es war der Visionär Dieter Rams, der als Designer bei der Firma Braun einen Standard setzte und seiner Zeit um mindestens vierzig Jahre voraus war.

Was kann man im Rahmen der Politik aus diesem Ansatz lernen? Viel. Initiativen zum Bürokratieabbau zeigen in die richtige Richtung. Doch das Problem hat weitere Facetten. Leider gibt es im Wechselspiel von Wirtschaft und Politik Menschen und Institutionen, die von Komplexität und Unübersichtlichkeit profitieren. Auf der gesetzgeberischen Seite denke man an Spezialisten, die sich unverzichtbar machen, da sie sich in dem Wirrwarr, das sie erzeugen, vergleichsweise gut auskennen. In diesem selbstreferentiellen System zementieren ihre Positionen. Minister können häufig wechseln, bevor ein Staatssekretär seine Stelle räumt. Und auf der anderen Seite des Grabens steht der Politik eine entfesselte Finanzwirtschaft gegenüber, die das Prinzip der Unübersichtlichkeit zur Blüte entwickelt hat. Die bewusste Komplizierung von Anlageprodukten und deren Handel ist ein Geschäftsmodell, von dem Insider maximal profitieren. Banken entwickeln kryptische Limits für Wertpapiertransaktionen, damit die von ihnen verwendeten Computer im Handel mit solchen Werten einen geldwerten Zeitvorsprung gewinnen. Geldhäuser wie Goldmann Sachs beschäftigen Physiker, die sogenannten Quants, deren Aufgabe darin besteht, extrem komplizierte Derivatkonstruktionen zu erschaffen, die außer ihren Erschaffern niemand versteht. Genau dieser Punkt ist ihre Existenzberechtigung, eine raffiniert ausgedachte Komplexitätsfalle, die keine andere Funktion hat, als das Unwissen der Kunden zum eigenen Vorteil auszunutzen. Bankintern werden diese Konstrukte als „Black Boxes“ bezeichnet. Sinn und Zweck ist es, die sogenannten “Muppets“ – gutgläubige Kunden – zu schröpfen. Bleibt hinzuzufügen, dass Teile der Finanzwelt auch vor Verbrechen nicht zurückschrecken. Es sei nur an die Manipulation des LIBOR erinnert, ein Zinssatz für den Interbankenhandel, der der Allgemeinheit bis vor kurzem unbekannt war. Auch hier liegt der Reiz für die Banken in der Ausnutzung eines Wissensvorsprungs, denn die Geldmengen, für welche der LIBOR verbindlich ist, sind gigantisch und entsprechend einträglich sind die Geschäfte, wenn man untereinander mauschelt und den Zins in seinem Sinne ändert.

Vom Standpunkt der Allgemeinheit gesehen, ist es ein solches Verhalten nicht nur verantwortungslos – es ist gemeingefährlich. Eine Demokratie lebt davon, dass Bürger und Politiker zumindest prinzipiell in der Lage sind zu verstehen, worüber sie entscheiden. Und welchen Schaden die Quants anrichten, haben wir in den letzten Jahren zu spüren bekommen. Leider sind Kompetenz und Wahrnehmung der Superhirne auf die “Black Boxes“ beschränkt und die alte Berliner Weisheit “Erstens kommt es anders und zweitens als du denkst“ wird ausgeblendet. Doch die Zukunft ist nicht zwangsläufig die harmonische Verlängerung der Vergangenheit. Der Missachtung dieser Tatsache verdanken wir die Weltfinanzkrise, da die realen Szenarien mit ihrer unvorhesehbaren Dynamik in den naiv simulierten Wirklichkeits(t)räumen nicht vorkamen.

Es ist Zeit, die Bremse einzuschlagen. Momentan irren wir alle ohne Kompass durch ein Informationsuniversum, das mit seiner chaotischen Dynamik beträchtliche Konsequenzen für uns haben kann. Deshalb muss Einfachheit dort, wo sie möglich ist, angestrebt werden.

“Das große Ziel der Wissenschaft“ schrieb Gödels Freund Albert Einstein, “ ist es, die größtmögliche Zahl von empirischen Tatsachen durch logische Ableitung aus der kleinsten Zahl von Hypothesen oder Deduktionen zu erfassen.“ Gute Gedanken verdichten viele zusammenhangslose Fakten zu einem sinnvollen Ganzen. Doch das Erarbeiten wertiger Prinzipien benötigt nicht nur in den Wissenschaften Zeit und Anstrengung. Es ist die schwierigst denkbare Aufgabe. In diesem Sinn ist es zu begrüßen, wenn sich das Bundesverfassungsgericht gegen den akzelerierten Zeitgeist stemmt, das Problem des ESM sorgfältig analysiert und mit den Grundrechten der Bundesrepublik Deutschland in Beziehung setzt. Das ist kein Luxus, das ist eine Überlebensnotwendigkeit.