Die Wissenswolke

Im globalen Datendurcheinander übernehmen Computer zunehmend die Deutungshoheit. Wissenschaft alter Schule scheint überflüssig zu werden. Das ist nicht verwunderlich in einer Zeit, in der das Wissen, was solide Theorien von windigen Spekulationen unterscheidet, schon länger verlorengeht

“Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“.
Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs vom Schlag getroffen tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leibzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang. Und gerade die Spickzettellektion war eindrücklich: Für ernsthafte Denker gäbe es keine schwierigere und anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr. Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug der Dichter in dieselbe Kerbe. Alles Denken ist Verdichten. Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unstrittiger Allgemeinplatz: Kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet. Nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenfeilspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am bündigen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen überschaubaren Gesetzen zu entwickeln, war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat neue Propheten. Und die verkünden Erstaunliches. Chris Anderson, der ehemalige Chefredakteur des Szenemagazins “Wired“ hat den “Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion hätte ausgedient, heute reichten gigantische Datenwolken und von ungeheuerer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin “Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Widergänger ewig weiter zu existieren. Das World Wide Web als virtueller Garten Eden. Aber ungeachtet davon, auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen mit Selbstverständlichkeit von einer “new kind of science“.

In diesem Zusammenhang wird nicht nur die Theorie gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird der einst revolutionäre Galilei zum Totenwächter einer aus der Mode gekommenen Methode: Ein begehbares Labor, mit echten Messinstrumenten halten radikale Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten ist den Bilderstürmern zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht in diesem Zusammenhang euphorisch von “in-silcio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen “Virealität“. Doch manchmal ist es von Vorteil, die Bedeutung lateinischer Worte, die sich im trendigen Szenejargon verbergen, zu kennen. Im Wort “Simulation“ steckt das lateinische Verb “simulare“, das “ähnlich machen“ bedeutet. “Ähnlich machen“ zu was? Da kommt sie zur Hintertür leider doch wieder hinein – die lästige Widerständigkeit des Wirklichen – die seriöse Wissenschaft zu einem zeitraubenden und anstrengendem Unterfangen macht! Soll eine Simulation nämlich nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen wie der Teufel das Weihwasser und hilflos in der Luft baumeln, einen Erkenntniswert nur heucheln, wäre es hier eigentlich angebracht, Worte wie “Simulation“ und “Experiment“ mit anderen, aber ebenfalls gebräuchlichen Bedeutungen zu versehen. Eine “Simulation“ kann man ja auch als “Vortäuschung“ auffassen und ein “Experiment“ als “Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, belanglos zu sein.

An dieser Stelle berühren wir einen empfindlichen Punkt. Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, allmählich verloren geht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur der sichtbare Ausdruck einer schon lange schwelenden Entwicklung. Seit Jahrzehnten unterscheiden sich nämlich viele “wissenschaftliche“ Gedankengebäude grundlegend von der als Beispiel zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam gefügt, haben etwas nebulös-wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotz dieses Mangels von den Medien als wissenschaftliche Revolutionen gefeiert werden. Erschwerend kommt ein neues Phänomen hinzu, das die Lage noch unübersichtlicher macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz, scheint die intellektuelle Tugend des Verdichtens über- flüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen. Leider sind diese nicht klüger als ihre Entwickler.

Werfen wir zur Veranschaulichung einen kurzen Blick auf die “Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erin nert, die Kybernetik, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und natürlich an die Chaostheorie. All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem, hellen Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien anfänglich seriöse Fragestellungen, die jedoch einen eng umgrenzten Geltungsbereich betrafen. Dieser beschränkte Geltungsbereich wurde dann aber über die Maßen aufgeblasen. So entstanden in kürzester Zeit luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir pars pro toto die Chaostheorie. Auch hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, langfristig nicht prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass sich noch nicht einmal die Zukunft eines extrem vereinfachten Planetensystems aus nur drei Körpern bestimmen lässt. Ursachen der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Weder lassen sich die Startbedingungen der untersuchten Systeme völlig exakt festlegen noch weiß man, wie beliebig kleine Störungen wirken. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch oder den Einfluss des sprichwörtlichen Elektrons am Rande des Universums, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben mehr über die Dynamik der Kugeln machen. Das ist eine grundlegende Erkenntnis: Selbst einfachste Systeme können sich unserem prognostischen Zugriff entziehen.

Und die Chaostheorie hat weitere Verdienste. Der Meteorologe Edward Lorenz stieß auf das sogenannte computational chaos. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter nicht-linearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie in der Rechenmaschine intern gerundet wird. Dieses computational chaos macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal ob es sich um Klimasimulationen handelt oder aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Model und dessen Diskretisierung, von Algorithmisierung und Implementierung des Algorithmus mittels einer Software auf einem Computer, ist eine delikate Angelegenheit. Selbst die spezielle Hardware spielt eine Rolle. Auch in diesem Zusammenhang können also kleine Fehler große Auswirkungen haben.

Das sind in wenigen Worten wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik. Plötzlich war das Chaos allgegenwärtig! Mathematische Konstrukte wie die Seltsamen Attraktoren tauchten im Gehirn auf und machten angeblich den freien Willen möglich oder nach Bedarf auch die Kreativität und überall trieb das das Apfelmännchen sein Unwesen. Doch selbst im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden sondern von ausgewiesenen Spezialisten wie Joseph Ford: Zahlen wurden zu Gründen, die etwas bewirken! Angeblich verdanken sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten. Das ist eine nicht zu laut ausgesprochene Forderung, die vor allen Dingen mit der Quantenmechanik kollidiert. Auf deren Unsinnigkeit hat Max Born schon vor 60 Jahren hingewiesen. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird. Zahlen gehören nämlich zur symbolischen Beschreibungsebene. Sie sind deshalb keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein “T“ aussehen muss, da in dem Wort “Tisch“ ein “T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wie kommt es nun, dass die wissenschaftlichen Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder besagte Elektrodynamik? Bleiben wir bei der Chaostheorie. Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, dass unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, sodass der Überblick schnell verloren ging: Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen “semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kurzer Zeit nicht mehr in der Lage, die “Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich aber weniger einer eigenständigen Reflexion, als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der “high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, dass mit ehrlicher Erkenntnissuche nichts mehr zu tun hat. Die Medien brauchen den Experten, die Experten die Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand zu einer Theorie für Alles und Jedes: je nach Bedarf lässt sich der frei Wille “erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls, … .

Wenn dann schließlich die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation. Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen und nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern Unrecht getan wird, die lege artis arbeiten und denen wir echten Fortschritt zu verdanken haben.

Zu allem Überfluss ist die Situation heute noch unübersichtlicher geworden. Die oben genannten Theorien ließen sich wenigstens noch in Büchern nachlesen und mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern, bekommt das Erkenntnisproblem eine zusätzliche Dimension. Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann. Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist wie angesprochen komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren, das der transsubjektiven Überprüfbarkeit. Dieses sperrige Wortungetüm ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.
Es ist zum Beispiel nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist.

In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil nicht einmal mehr richtig klar ist, was unter einer mathematisch Wahrheit zu verstehen ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften. Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In über 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, sodass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein ehernes Prinzip der Mathematik. Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein ziemlich altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort und die Welt fängt an zu singen, triffst Du nur das Zauberwort“. Egal ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch in einem raffinierten Computeralgorithmus,…. Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt. Genau das beinhaltete die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene “Korrelationsmathematik“ entfernt, mit der Computeralgorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten? Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Das hieße eine Korrelation mit einer kausalen Beziehung zu verwechseln, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiter bedienen, aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine new “kind of science“ und es ist fahrlässig den Prozess der Erkenntnis aus der Hand zu geben.
Aus diesem Grund warnte der verstorbene Frank Schirrmacher 2010 völlig zu recht vor der “systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der “Wolke“ keinen Flugverkehr mehr. Das Problem? Die “Wolke“ war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommenen Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte oder nicht. Der digitale Prophet sprach und ein großer Teil des Luftverkehrs stand still. “Und auf einmal sind wir alle nur noch Zuschauer“, stellte Schirrmacher konsterniert fest. Dem kann man nur zustimmen: Das Wissen was eine valide Theorie von einer spekulativen unterscheidet erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr