Die Macht der Meme

Die banalen Verschwörungstheorien der Coronagegner sind mindestens so infektiös wie das Virus und könnten dafür sorgen, dass die Pandemie wieder Fahrt aufnimmt. Die Vereinfachung komplexer Sachverhalte ist gefährlich

Um den englischen Säulenheiligen Isaac Newton öffentlich zu kritisieren, brauchte man zu Beginn des 19. Jahrhunderts Mut oder Größenwahn. Der junge Charles Babbage besaß beides. Als Student in Cambridge stieß er sich an der von Newton verwendeten umständlichen Notation, in der dieser die Infinitesimalrechnung dargestellt hatte. Der Deutsche Gottfried Wilhelm Leibniz hatte das eleganter gelöst. Das Undenkbare geschah. Babbage und ein paar Kommilitonen gelang es, den Widerstand der britischen Traditionalisten zu brechen. Die Notation setze sich auch auf der Insel durch! Wie konnte das geschehen? Als Erklärung könnte eine Theorie des britischen Evolutionsbiologen Richard Dawkins dienen, die sich auch auf gegenwärtige Verschwörungstheorien übertragen lässt. Dawkins erfand den Begriff des Mems. Während das Gen die Replikationseinheit der biologischen Evolution ist, unterstellte Dawkins, dass das Mem als Replikationseinheit der kulturellen Evolution fungiert. Als Beispiele für Meme nennt Dawkins: „Ideen, Melodien, Gedanken, Schlagworte, Kleidermoden, die Kunst, Töpfe zu machen oder Bögen zu bauen“. Dem sei hinzugefügt, dass auch das Bedürfnis, Dinge einfacher und effizienter zu gestalten, Ursache memetischer Replikation ist. Deshalb stand selbst in England die umständliche Newtonsche Fluxionsrechnung auf verlorenem Posten und musste dem Kalkül von Leibniz weichen. Solche gedanklichen Elaborate kann man metaphorisch als Viren des Geistes bezeichnen. Sie springen durch Kontakt von Mensch zu Mensch. Wie schnell sie sich in den Köpfen verbreiten, ist von vielen Faktoren abhängig: den Kommunikationswegen, der Kommunikationsgeschwindigkeit und  der Viralität. Der Begriff der Viralität, der im Kontext der sozialen Medien verwendet wird, lehnt sich an das biologische Vorbild der Infektiosität an. 

Viral werden Gedanken oder der Austausch von Fertigkeiten, wenn sie starke Bedürfnisse zu befriedigen versprechen. Solche Bedürfnisse können profaner Natur sein. Man denke an Neugier oder Schadenfreude. Aber auch der Wunsch mit raffinierten Tricks Arbeit zu vermeiden, findet Anklang. Dabei geht es heute wie damals nur selten darum, einen eleganten mathematischen Formalismus zu finden. Meist stehen Alltagsfertigkeiten wie Kochen, Backen oder Handwerken im Mittelpunk. Wie schält man mühelos einen Ananas? Doch unser Bedürfnis, Dinge zu vereinfachen, birgt auch eine Gefahr. Man muss sorgfältig zwischen Fertigkeiten und Erklärungen unterscheiden! Bei Erklärungen gibt einen gefährlichen Graben, der das Geniale vom Trivialen trennt. Wie sagte Einstein? “So einfach wie möglich aber nicht einfacher!“ Auch beim Erklären sind Effizienz und Einfachheit eine Ursache für Viralität. Es ist aber ein grundlegender Unterschied, komplexe Phänomene in einer reduzierten Gestalt zusammenzufassen oder Komplexität in einer einfachen Form zu banalisieren und damit zu negieren. Ein herausragendes Beispiel für die erstgenannte Tugend sind die Maxwell-Gleichungen der Elektrodynamik -vier elegante Formeln mit denen sich ein immenser Bereich physikalischer Phänomene beschreiben lässt. Solche Meisterstücke der Denkkunst sind das Ergebnis einer langen Anstrengung. Die Kunst besteht darin, das Irrelevante auszuschließen. Information durch Exformation. Der fatale Hang Wesentliches nicht vom Unwesentlichen zu unterscheiden und Komplexität aus Denkfaulheit auf Banalitäten zu reduzieren, ist genau das Gegenteil. Das erinnert an die Verlautbarungen der Verschwörungstheoretiker in der Corona-Krise. Diese schämen sich nicht, eine schwierige und unübersichtliche Situation, die zumindest in Teilen wissenschaftliches Neuland ist, in einer durchsichtigen Räuberpistole zu trivialisieren: Bill Gates, der klandestine Strippenzieher auf der Weg zur Weltherrschaft. Man könnte versucht sein, eine solche Form der Naivität zu belächeln. Aber leider erfüllen auch diese Geschichten ein tiefliegendes Bedürfnis nach Einfachheit. Deshalb sind sie gefährlich.Warum kommen sie überhaupt zu Stande? Dem Phänomen könnte ein von dem Neurowissenschaftler Michael Gazzaniga untersuchter Mechanismus zugrunde liegen. Trotz widersprüchlicher Informationen neigen Menschen dazu, diese in einer nur für sie selbst konsistenten Geschichte zusammenzudenken, auch wenn sie im Resultat wenig mit der Wirklichkeit zu tun hat. In Ermangelung besserer Alternativen greifen sie dabei gerne auf Erklärungsprinzipien zurück, die ihnen persönlich geläufig sind. Wenn Exponentialfunktionen, Wahrscheinlichkeiten und statistisches Grundwissen nicht zum intellektuellen Werkzeugkasten gehören, dann ist nachvollziehbar, die sie in sich selbst erlebten Gefühle und Wirkmechanismen der Außenwelt als “Erklärung“ überzustülpen. Das ist ein rudimentäres Kausalprinzip, das man schon aus dem animistischen Denken kennt. Obwohl solche defizitären Erklärungen leicht zu erkennende Mängel haben, muss man ihnen mit Respekt begegnen. Sie sind hochinfektiöse Meme, die sich mit Lichtgeschwindigkeit im Internet ausbreiten und in kritiklosen Köpfen einen fruchtbaren Nährboden finden. Als Brandbeschleuniger gesellt sich zu fataler Leichtgläubigkeit noch intellektueller Hochmut. Man redet sich ein, Teil einer Elite zu sein, die das “System“ durchschaut. Deshalb gehört man nicht zu den einfältigen Marionetten, die von arglistigen Puppenspielern manipuliert werden. 

Das ist ein gefährlicher Cocktail aus Kompetenzillusion und Selbstgefälligkeit, der  narkotisierend wirkt. Und der Rausch könnte uns alle betreffen. Es wäre fatal. wenn aus der Viralität gefällig-eingängiger Ideen die reale Infektion mit Viren erfolgt, da  grölende Teilnehmer auf den Anti-Corona-Demonstrationen nicht nur ihre Meme in der Welt verbreiten sondern auch ihre Viren. 

Marco Wehr ist Physiker und Philosoph in Tübingen

Von den Bienen lernen

Es ist gefährlich, einem Plan zu folgen, wenn es keinen Plan gibt. In solchen Fällen ist es besser, sich die Natur zum Vorbild zu nehmen

Die Coronaepidemie ist bekannt und fremd zu gleich. Epidemien gibt es seit Menschengedenken, wobei gerade die der jüngeren Zeit sorgfältig untersucht wurden. Man bemüht sich aus deren Dynamik für die Zukunft zu lernen. Das gilt für SARS, MERS und Ebola genauso wie für die Vogel- und Schweinegrippe.
Fremd ist das momentane Szenario, weil jede Epidemie ihr eigenes, unverwechselbares Gesicht hat. Das macht Corona unheimlich.
In diesem Zusammenhang kann man an den chinesischen Strategen Sun Tsu denken. Dieser schrieb schon vor zweieinhalbtausend Jahren: “Wenn Du Deinen Feind kennst und Dich selbst, brauchst Du das Ergebnis von 100 Schlachten nicht zu fürchten.“ Dieses Zitat aus dem Buch “Die Kunst des Krieges“ lässt sich auch im Umkehrschluss lesen und damit auf die momentane Situation übertragen. Kennst Du weder Dich, noch die Gefahr, ist das beängstigend.
Obwohl in einem weltumspannenden Kraftakt die Erbsubstanz des Virus in kürzester Zeit sequenziert worden ist und bereits nach Wochen erste Nachweisverfahren zur Verfügung standen, gibt es nach wie vor viele Bereiche, in denen wir auf Mutmaßungen angewiesen sind: Es lässt sich schlecht abschätzen, wieviele Menschen tatsächlich in den verschiedenen Ländern infiziert sind. Es wird diskutiert, ob Genesene völlig immunisiert sind. Es ist nicht klar, warum mehr Männer sterben als Frauen. Und es gibt bis dato nur begründete Vermutungen über Inkubationszeiten.

Außerdem weiß man nicht genau, welche Symptome für die Krankheit wirklich charakteristisch sind.
Neben offenen Fragen, die die Krankheit betreffen, lässt sich nur grob abschätzen, wie wir als Bevölkerung mit den Belastungen der Quarantäne umgehen werden. Zuletzt ist die Frage, wie lange wir den Shutdown aushalten können, ohne die Wirtschaft nachhaltig zu schädigen, offen. Das ist in der Summe verstörend. Für ein solches Geschehen gibt es kein vorher geschriebenes Drehbuch.

Deshalb stellt sich in diesem Zusammenhang eine paradox wirkende Schlüsselfrage: Wie soll man in einer so unübersichtlich erscheinenden Situation rational handeln, wenn viele Daten, die die Grundlage rationaler Entschlüsse sein könnten, fehlen? An dieser Stelle ist es zuerst geboten, zwischen Wissen und Unwissen zu unterscheiden. Auf der Habenseite stehen die Erfahrungen, die wir mit Epidemien gemacht haben. Aus diesen Erfahrungen resultieren die Pandemiepläne, die lange in den Schubladen schlummerten. Wir wissen aufgrund epidemiologischer Expertise, dass die verschiedensten Kontaktsperren und Quarantänemaßnahmen wirken, wenn sie konsequent gehandhabt werden.

Wir wissen allerdings nicht, welche Folgen sozialer und wirtschaftlicher Art diese Maßnahmen haben werden. Für diese Frage gibt es kein valides mathematisches Modell. Das Problem ist hyperkomplex. Weder weiß man, welche Variablen hinreichend und notwendig sind, um die augenblickliche Situation zu beschreiben. Und noch weniger lässt sich angeben, welche Werte die Variablen haben müssten, damit wir so an den Stellschrauben drehen könnten, dass sich das System in unserem Sinne stabilisiert.

In solchen Fällen muss man sich von herkömmlichen Strategien der Planbarkeit verabschieden. Es bleibt einem nur noch die Möglichkeit, mit einem der Evolution entlehnten Prinzip zu arbeiten. Um dieses Prinzip zu verdeutlichen, wechseln wir den

Blickwinkel und fassen exemplarisch die ungewöhnliche Unternehmenstrategie von Götz Werner ins Auge. Herr Werner ist der Gründervater der Drogeriemarktkette dm. Werner – ein Querdenker – hat konsequent mit einem zentralen Managementdogma gebrochen. Nachdem seine Firma stürmisch gewachsen war und aus zigtausend Filialen bestand, erkannte Werner, dass es keinen Sinn mehr machte, diese Filialen zentral vom Unternehmenssitz in Karlsruhe zu steuern. Das Steuerungsproblem war zu komplex geworden und er wollte sich keiner gefährlichen Kontrollillusion hingeben. Deshalb entließ er seine Filialleiter in die Selbstverantwortung. Da die besonderen Begebenheiten vor Ort überall unterschiedlich waren, sollten sie selbst herausfinden, welche Strategie die beste ist. Anfangs sträubten sich die Führungskräfte vor soviel Selbstverantwortung. Mittlerweile ist das Prinzip etabliert. Diese Vorgehensweise erinnert an die Evolution, weil sich die verschiedenen Filialen an spezifische marktwirtschaftliche Nischen anpassen. Eine Adaptionsleistung, die mit zentraler Steuerung nicht zu leisten ist.

Übertragen auf die Coronakrise können wir es als großen Vorteil ansehen, dass wir 16 verschiedene Bundesländer haben, die mit graduell unterschiedlichen Strategien an das Problem herangehen. Das ist aber nur dann ein Vorteil, wenn die Länder nicht in Konkurrenz sondern in Kooperation arbeiten! In diesem Sinne geht es nicht darum, ob Markus Söder oder Armin Laschet mit ihren Vorgehensweisen Recht haben. Die Epidemie ist nicht die geeignete Bühne, um einen Hahnenkampf zu inszenieren. Es geht vielmehr darum, Ergebnisse zu vergleichen und zu den spezifischen Entstehungsbedingungen in Beziehung zu setzen. Damit dieser wechselseitige Lernprozess funktionieren kann, ist es aber notwendig, dass die Daten schnellstmöglich in vergleichbarer Weise dokumentiert werden, um sie allen Beteiligten zugänglich zu machen. Man hat allerdings den Eindruck, dass gerade bei der Erhebung und Darstellung der Daten einiges nicht so rund läuft, wie es laufen sollte.

Unabhängig von der Forderung bei der Erhebung und Darstellung von Daten einen vergleichbaren Standard zu setzen, wäre es lohnend, wenn sich die Politik an methodisch sorgfältig ausgeführter Wissenschaft orientieren würde. Es ist gängige Praxis,in einem Experimentalszenario möglichst wenige Größen zu variieren, während man die anderen konstant hält. Nur so lässt sich feststellen, wie das System auf Änderungen reagiert. Übertragen auf die momentane Situation würde das bedeuten, dass man ausgehend von den momentan geltenden Quarantänemaßnahmen, zum Beispiel das Wirtschaftsgeschehen erst in wohldefinierten Bereichen wieder aktiviert und dabei die Verdopplungszeiten genau im Blick behält. Auf diese Weise kann man bei Bedarf gegensteuern oder aber auch mehr Leine zu geben.

Wenn die verschiedenen Bundesländer diese Strategie verwirklichen würden, wobei sie eben nicht gleichgeschaltet vorgehen dürfen, wäre es die Aufgabe der Bundesregierung und ihrer beratenden Institute diese Daten zu sammeln, auszuwerten, zu interpretieren und in konkrete Handlungsempfehlungen umzusetzen. Das wäre eine Form systemischen Lernens. Das ist allerdings ein anderer Ansatz als der, welcher gerade zur Diskussion steht. Für die augenblickliche Situation gibt es keinen Masterplan. Zentralistische Anweisungen zu geben und dabei zu suggerieren einen Plan zu haben, obwohl es keinen Plan gibt, könnte deshalb ein Fehler sein. Man denke an einen Strategen, der unbekanntes Terrain erkunden lassen möchte und dazu 16 Späher zur Verfügung hat. Macht es Sinn, diese alle auf demselben Weg ins Feld zu schicken? Oder ist es besser, die Kundschafter auf 16 verschiedenen Wegen loszuschicken und nur sicherzustellen, dass sie Leib und Leben behalten, damit sie in der Lage sind später ihre Erfahrungen auszutauschen? Genauso machen es übrigens die Bienen, die auf verschiedensten Wegen nach Futter suchen, um dann den anderen von ihrem Erfolg zu “erzählen“. Es ist allerdings entscheidend, dass sie bei ihren Exkursionen am Leben bleiben. Das ist die Forderung, die an alle gemeinsam zu stellen ist.

Unterm Strich haben wir wohl keine andere Wahl, als mit kollektiven Tasten – einer vernunftgeleiteten Trial-and-Error-Strategie – einen gemeinsamen Lernprozess in Gang zu setzen, mit dessen Hilfe wir die Grenzen des Möglichen ausloten können, um auf diese Weise aus der Krise zu kommen.

Marco Wehr ist Physiker und Wissenschaftstheoretiker. Er hat lange zur Chaostheorie und Komplexität gearbeitet

Die Wissenswolke

Im globalen Datendurcheinander übernehmen Computer zunehmend die Deutungshoheit. Wissenschaft alter Schule scheint überflüssig zu werden. Das ist nicht verwunderlich in einer Zeit, in der das Wissen, was solide Theorien von windigen Spekulationen unterscheidet, schon länger verlorengeht

“Ein echter Denker weiß, wie man einen perfekten Spickzettel schreibt“.
Gunther Hoske war am Wilhelm-Dörpfeld-Gymnasium in Wuppertal eine Legende. Als der Lehrer auf dem Bahnsteig des Elberfelder Bahnhofs vom Schlag getroffen tot zusammenbrach, standen an unserer Schule die Uhren still. Hoske sprach zehn Sprachen und war in Leibzig Assistent von Ernst Bloch gewesen, bevor er in den Westen kam. Wer das Glück hatte, von dem freundlichen Mann in Philosophie unterrichtet zu werden, zehrte davon ein Leben lang. Und gerade die Spickzettellektion war eindrücklich: Für ernsthafte Denker gäbe es keine schwierigere und anspruchsvollere Aufgabe, als einen Wust von Informationen auf die essentiellen zu verdichten. Das Wesentliche vom Unwesentlichen zu scheiden, Wissen immer weiter zu komprimieren, bis man es gedanklich fest in der Hand hält, um dann im Umkehrverfahren den gesammelten Stoff aus dem Kondensat wieder zu entfalten, war nach Hoske die Königsdisziplin des Denkens. Wie wahr. Wenn sich Goethe für die Länge seines Briefes bei Schiller entschuldigte, weil er zu wenig Zeit fand, sich kurz zu fassen, dann schlug der Dichter in dieselbe Kerbe. Alles Denken ist Verdichten. Auch in den Naturwissenschaften und in der Mathematik war dieser Standpunkt ein unstrittiger Allgemeinplatz: Kein Physiker, der nicht von einem ehrwürdigen Schauer ergriffen wird, wenn er die Maxwellschen Gleichungen betrachtet. Nur vier Formeln, die die gesamte nicht-relativistische Elektrodynamik beschreiben: Radiowellen, die durch den Äther jagen, Turbinen, die Strom erzeugen, der Hufeisenmagnet in der Hand des neugierigen Kindes, das Eisenfeilspäne auf dem Papier bewegt. Das gesammelte Panoptikum elektromagnetischer Phänomene ist in den magisch anmutenden Gleichungen geronnen. Und kein Mathematiker, der sich nicht am bündigen Euklidschen Beweis erfreut, der zeigt, dass es unendlich viele Primzahlen gibt.

Elementare Prinzipien zu finden, eine beinahe unüberschaubare Gesamtheit beobachtbarer Phänomene aus wenigen überschaubaren Gesetzen zu entwickeln, war lange Inbegriff gedanklicher Eleganz und Schönheit. Aber jetzt mehren sich kritische Stimmen. Das traditionelle Wechselspiel von theoretischer Spekulation und harten experimentellen Fakten, das die wissenschaftliche Revolution erst möglich machte, wird für einige Apologeten des digitalen Wandels zum alten Hut. Unsere Zeit hat neue Propheten. Und die verkünden Erstaunliches. Chris Anderson, der ehemalige Chefredakteur des Szenemagazins “Wired“ hat den “Tod der Theorie“ ausgerufen: Verdichtende Erkenntnis sei von gestern, das Wechselspiel von Induktion und Deduktion hätte ausgedient, heute reichten gigantische Datenwolken und von ungeheuerer Rechenpower angetriebenes algorithmisches Durchforsten, um Korrelationen herauszudestillieren. Das Magazin “Wired“ ist oft für phantastische, aber nicht immer sorgfältig begründete Spekulation zu haben. Unlängst wurde ernsthaft erörtert, wie man sein Gehirn vor dem Tod ins Netz einlesen kann, um dort als digitaler Widergänger ewig weiter zu existieren. Das World Wide Web als virtueller Garten Eden. Aber ungeachtet davon, auch ernsthaftere Zeitgenossen wie der Informatiker und Mathematiker Stephen Wolfram, den man in Princeton lange für den neuen Einstein hielt, sprechen mit Selbstverständlichkeit von einer “new kind of science“.

In diesem Zusammenhang wird nicht nur die Theorie gemeuchelt, auch dem ehrwürdigen Experiment, der tragenden Säule wissenschaftlicher Erkenntnis, geht es an den Kragen. So wird der einst revolutionäre Galilei zum Totenwächter einer aus der Mode gekommenen Methode: Ein begehbares Labor, mit echten Messinstrumenten halten radikale Vordenker unserer Zeit für einen Anachronismus. Wissenschaftliches Beobachten ist den Bilderstürmern zu umständlich. Heute wird lieber mit Großrechnern simuliert. Gabriele Gramelsberger, die ein Buch über den Wandel der Wissenschaft im Zeitalter des Computers geschrieben hat, spricht in diesem Zusammenhang euphorisch von “in-silcio-Experimentalsystemen“. Virtualität und Realität werden gleichbedeutend, verschwimmen in der nebulösen “Virealität“. Doch manchmal ist es von Vorteil, die Bedeutung lateinischer Worte, die sich im trendigen Szenejargon verbergen, zu kennen. Im Wort “Simulation“ steckt das lateinische Verb “simulare“, das “ähnlich machen“ bedeutet. “Ähnlich machen“ zu was? Da kommt sie zur Hintertür leider doch wieder hinein – die lästige Widerständigkeit des Wirklichen – die seriöse Wissenschaft zu einem zeitraubenden und anstrengendem Unterfangen macht! Soll eine Simulation nämlich nur den geringsten Erkenntniswert besitzen, dann muss sich unzweideutig zeigen lassen, dass es eine nachprüfbare Beziehung zwischen Simulationsergebnissen und tatsächlichen Messungen gibt. Da aber viele Simulationen die Auseinandersetzung mit der Wirklichkeit scheuen wie der Teufel das Weihwasser und hilflos in der Luft baumeln, einen Erkenntniswert nur heucheln, wäre es hier eigentlich angebracht, Worte wie “Simulation“ und “Experiment“ mit anderen, aber ebenfalls gebräuchlichen Bedeutungen zu versehen. Eine “Simulation“ kann man ja auch als “Vortäuschung“ auffassen und ein “Experiment“ als “Wagnis“. Damit wären viele Simulationen Vortäuschungen, die das Wagnis eingehen, belanglos zu sein.

An dieser Stelle berühren wir einen empfindlichen Punkt. Ist es möglich, dass wir in einer Zeit leben, in der das Wissen, was Erkenntnis von Vermutungen unterscheidet, allmählich verloren geht? Dann wären wir definitiv in einer intellektuellen Krise. Wahrscheinlich führt an dieser Einsicht kein Weg vorbei. Die Symptome sind allerdings nicht neu. Was wir heute sehen, ist nur der sichtbare Ausdruck einer schon lange schwelenden Entwicklung. Seit Jahrzehnten unterscheiden sich nämlich viele “wissenschaftliche“ Gedankengebäude grundlegend von der als Beispiel zitierten Maxwellschen Theorie der Elektrodynamik. Sie sind selten sorgsam gefügt, haben etwas nebulös-wolkiges, gleichen eher rasch zusammengeklatschten Konglomeraten, die aber trotz dieses Mangels von den Medien als wissenschaftliche Revolutionen gefeiert werden. Erschwerend kommt ein neues Phänomen hinzu, das die Lage noch unübersichtlicher macht: Die beinahe beliebig große Verfügbarkeit von Speicherplatz, scheint die intellektuelle Tugend des Verdichtens über- flüssig zu machen. Langwieriges Nachdenken wird lieber schnell rechnenden Algorithmen übertragen. Leider sind diese nicht klüger als ihre Entwickler.

Werfen wir zur Veranschaulichung einen kurzen Blick auf die “Theorien“, die als weltbewegende Umbrüche gefeiert wurden. Es sei an die Informationstheorie erin nert, die Kybernetik, die Katastrophentheorie, die Theorie der Künstlichen Intelligenz, Artifical Life, die Komplexitätstheorie, die Theorie der Kritizität und natürlich an die Chaostheorie. All diesen Welterklärungsentwürfen war gemeinsam, dass sie wie die Silvesterraketen in den Erkenntnishimmel schossen, um dort, nach kurzem, hellen Lichterschein, zu verglühen. Warum nur? Tatsächlich gab es im Zentrum der Theorien anfänglich seriöse Fragestellungen, die jedoch einen eng umgrenzten Geltungsbereich betrafen. Dieser beschränkte Geltungsbereich wurde dann aber über die Maßen aufgeblasen. So entstanden in kürzester Zeit luftig-assoziierte Wissenswolken, in denen sich nur wenige ernsthafte Kondensationskeime verbargen.

Betrachten wir pars pro toto die Chaostheorie. Auch hier begann alles mit bemerkenswerten Phänomenen, bevor die Theorie aus dem Ruder lief. In ihrem Zentrum stand die verblüffende Einsicht, dass ausgerechnet Systeme, die früher als Inbegriff von Stabilität und Vorhersagbarkeit galten, langfristig nicht prognostizierbar sind. Das gilt etwa für unser Planetensystem oder das Billardspiel, wenn die Kugeln ohne Reibung laufen würden. Stammvater der Theorie ist der französische Mathematiker Henri Poincaré, einer der letzten Universalisten der Mathematik, der Ende des neunzehnten Jahrhunderts bewies, dass sich noch nicht einmal die Zukunft eines extrem vereinfachten Planetensystems aus nur drei Körpern bestimmen lässt. Ursachen der Nichtvorhersehbarkeit scheinbar einfacher physikalischer Systeme, die auf dem Papier durch deterministische Differentialgleichungen beschrieben werden, sind Messungenauigkeiten, die sich mit rasender Geschwindigkeit vergrößern. Weder lassen sich die Startbedingungen der untersuchten Systeme völlig exakt festlegen noch weiß man, wie beliebig kleine Störungen wirken. Nehmen wir ein idealisiertes reibungsfreies Billardspiel: Wenn es nicht möglich ist, alle Orte der Kugeln und deren Impulse mit beliebiger Genauigkeit zu messen und man außerdem Störungen, wie einen Windhauch oder den Einfluss des sprichwörtlichen Elektrons am Rande des Universums, nicht exakt quantifizieren kann, dann lassen sich schon nach relativ kurzer Zeit keine genauen Angaben mehr über die Dynamik der Kugeln machen. Das ist eine grundlegende Erkenntnis: Selbst einfachste Systeme können sich unserem prognostischen Zugriff entziehen.

Und die Chaostheorie hat weitere Verdienste. Der Meteorologe Edward Lorenz stieß auf das sogenannte computational chaos. Durch eine Zufallsentdeckung wurde er darauf aufmerksam, dass bei der Berechnung bestimmter nicht-linearer Differentialgleichungen, wie sie in der Meteorologie vorkommen, der Computer zu völlig verschiedenen Ergebnissen kommt, je nachdem, wie in der Rechenmaschine intern gerundet wird. Dieses computational chaos macht Simulationen komplizierter Prozesse zu einer Herkulesaufgabe. Egal ob es sich um Klimasimulationen handelt oder aufwendige Berechnungen in den Wirtschaftswissenschaften – das Zusammenspiel von mathematischem Model und dessen Diskretisierung, von Algorithmisierung und Implementierung des Algorithmus mittels einer Software auf einem Computer, ist eine delikate Angelegenheit. Selbst die spezielle Hardware spielt eine Rolle. Auch in diesem Zusammenhang können also kleine Fehler große Auswirkungen haben.

Das sind in wenigen Worten wichtige Einsichten, die wir der Chaostheorie verdanken. Dann allerdings entwickelte sie eine verhängnisvolle Dynamik. Plötzlich war das Chaos allgegenwärtig! Mathematische Konstrukte wie die Seltsamen Attraktoren tauchten im Gehirn auf und machten angeblich den freien Willen möglich oder nach Bedarf auch die Kreativität und überall trieb das das Apfelmännchen sein Unwesen. Doch selbst im Kernbereich der Theorie, die eigentlich streng wissenschaftlich sein sollte, passierten gravierende Fehler, die gerade nicht von wissenschaftlichen Laien gemacht wurden sondern von ausgewiesenen Spezialisten wie Joseph Ford: Zahlen wurden zu Gründen, die etwas bewirken! Angeblich verdanken sich erratische Bahnkurven von Teilchen dem Umstand, dass deren Anfangsbedingungen durch irrationale Zahlen beschrieben werden. Da irrationale Zahlen unendlich lang sind, würde das aber bedeuten, dass sich die Anfangsbedingungen prinzipiell mit unendlicher Genauigkeit messen lassen müssten. Das ist eine nicht zu laut ausgesprochene Forderung, die vor allen Dingen mit der Quantenmechanik kollidiert. Auf deren Unsinnigkeit hat Max Born schon vor 60 Jahren hingewiesen. Noch maßgeblicher ist aber der elementare Kategorienfehler, der hier sichtbar wird. Zahlen gehören nämlich zur symbolischen Beschreibungsebene. Sie sind deshalb keine kausalen Gründe, die etwas bewirken und damit physikalisches Verhalten bedingen. Wenn man sagen würde, dass ein Tisch wie ein “T“ aussehen muss, da in dem Wort “Tisch“ ein “T“ vorkommt, dann merkt jeder schnell, dass an dieser Argumentation etwas nicht stimmt. In der Chaostheorie ist dieser Fehler nicht so offensichtlich aber trotzdem vorhanden. Deshalb ist sie in ihrem Kern eine zahlenmystische Konstruktion im Geiste des Pythagoras.

Wie kommt es nun, dass die wissenschaftlichen Modetheorien einen anderen erkenntnistheoretischen Status haben als etwa Quantenmechanik, Relativitätstheorie oder besagte Elektrodynamik? Bleiben wir bei der Chaostheorie. Bei dieser zeigt sich, dass Trugschlüsse dadurch entstanden, dass unterschiedlichste Forschungsgebiete hektisch und unreflektiert miteinander vermengt wurden, sodass der Überblick schnell verloren ging: Klassische Mechanik, Elektrodynamik, Analysis, Komplexitätstheorie, Metamathematik, Theoretische Informatik, Stochastik, Biologie, Neurowissenschaften und Philosophie vermischten sich in ihr zu einer undurchsichtigen Melange.

Die Gründe für die Entstehung eines solchen “semantischen Konglomerats“ muss man in den veränderten Kommunikationsstrukturen der wissenschaftlichen Gemeinschaft suchen, die auf das individuelle Verhalten der Wissenschaftler zurückwirken. Früher wurden Theorien von einem überschaubaren Kreis von Forschern entwickelt, die sich persönlich kannten und die Theorie in großem Umfang überschauten. Das ist heute anders. Hat das Interesse einen kritischen Punkt überschritten, entstehen diese in einem weltumspannenden Kommunikationsnetz mit lawinenartiger Geschwindigkeit. Einzelne Forscher sind schon nach kurzer Zeit nicht mehr in der Lage, die “Theorie“ in Gänze zu überschauen. In einem vom Publikationsfieber getriebenen Arbeitsalltag werden deshalb zwangsläufig Ergebnisse im guten Glauben für die eigene Arbeit übernommen. Deren Plausibilität verdankt sich aber weniger einer eigenständigen Reflexion, als vielmehr einem Mehrheitsvotum von Forschern, die in der wissenschaftlichen Gemeinschaft etabliert sind. Bei der Verwendung der Ergebnisse schwingt die Hoffnung mit, dass sich zumindest eine der Koryphäen die Mühe gemacht hat, die leichtfertig übernommenen Vermutungen zu hinterfragen. Aber auch Autoren der “high ranking journals“ vervielfältigen arglos Ansichten, ohne sie selbst hinreichend geprüft zu haben. Werden diese an exponierter Stelle oft genug wiederholt, verdichten sie sich zur verbindlichen Lehrmeinung. Die Elaborate laufen dann völlig aus dem Ruder, wenn sie von den Medien entdeckt werden und zu einer weltanschaulichen Sensation aufgeblasen werden. Es entsteht ein rückgekoppeltes System, dass mit ehrlicher Erkenntnissuche nichts mehr zu tun hat. Die Medien brauchen den Experten, die Experten die Medien, die den eigenen Forschungsgegenstand ins helle Licht rücken. Welcher Forscher, der beim anstrengenden Einwerben von Forschungsmitteln auch immer Wissenschaftsmanager in eigener Sache ist, widersteht der Versuchung, einen großen Ballon aufzublasen? Und so wird der eigene Forschungsgegenstand zu einer Theorie für Alles und Jedes: je nach Bedarf lässt sich der frei Wille “erklären“, das Bewusstsein, das Nahen eines Herzinfarkts und das Börsengeschehen, Erdbebenprognosen liegen in greifbarer Nähe, die Erklärung des Klimas ebenfalls, … .

Wenn dann schließlich die Luft aus dem Ballon entweicht, wechselt die wissenschaftliche Karawane, von der Öffentlichkeit unbemerkt, den Forschungsgegenstand und zieht heimlich weiter zur nächsten Sensation. Das betrifft selbstverständlich nicht alle Bereiche der Wissenschaft, aber einige. Und leider sind es gerade die spekulativen und nicht sauber gearbeiteten Theorien, die eine besondere mediale Aufmerksamkeit erfahren, womit den Heerscharen von Wissenschaftlern Unrecht getan wird, die lege artis arbeiten und denen wir echten Fortschritt zu verdanken haben.

Zu allem Überfluss ist die Situation heute noch unübersichtlicher geworden. Die oben genannten Theorien ließen sich wenigstens noch in Büchern nachlesen und mit wissenschaftstheoretischen Erkenntniswerkzeugen bewaffnet, konnte man ihnen zu Leibe rücken. Das ist jetzt nicht mehr ohne weiteres möglich. Die genannten wissenschaftstheoretischen Mängel bleiben virulent, aber durch die Verfügbarkeit von gigantischen Massenspeichern, bekommt das Erkenntnisproblem eine zusätzliche Dimension. Die Datenmengen, die analysiert werden sollen, sind so riesig, dass der Computer zunehmend an die Stelle der Wissenschaftler tritt, mit Konsequenzen, die im Moment noch niemand abschätzen kann. Der Computer in den Wissenschaften ist nämlich immer Fluch und Segen zugleich. Die Zahlenfresser sind ein Segen, da sie Berechnungen möglich machen, die Menschen mit der Hand niemals ausführen könnten. Das hat sich seit den Tagen Johannes Keplers nicht geändert, der jahrelang an seinen Planetenbahnen rechnete, bis ihn sein Tübinger Freund Wilhelm Schickardt mit einer Rechenmaschine beglückte.

Ein Fluch sind Computer, weil sie es extrem erschweren, die Relevanz einer Berechnung verlässlich zu beurteilen. In gewisser Weise kann man einen Hochleistungsrechner als eine Art Black Box begreifen, bei der auch der Klügste nicht mit Sicherheit zu beurteilen weiß, in welcher Weise die verschiedenen Verarbeitungsebenen ineinandergreifen und was das für Konsequenzen hat. Die Beziehung von mathematischem Modell, dessen diskretisierter Form, der zur Anwendung gelangenden Soft- und Hardware ist wie angesprochen komplex und kann in der Summe ein ehernes wissenschaftliches Prinzip unterminieren, das der transsubjektiven Überprüfbarkeit. Dieses sperrige Wortungetüm ist eine Forderung aus der Welt der Labore. Dort bedeutet es, dass verschiedene Wissenschaftler mit identisch funktionierenden, normierten Messinstrumenten in der Lage sein sollten, Experimente zu wiederholen und deren Ergebnisse zu bestätigen. Von diesen kristallinen Normierungsbedingungen sind Simulationswissenschaftler noch weit entfernt.
Es ist zum Beispiel nicht ausgeschlossen, dass verschiedene Großrechner bei identischen Fragestellungen zu verschiedenen Ergebnissen kommen. Wer hat dann recht? Das ist eine Frage, die nicht so einfach zu beantworten ist.

In seiner ganzen Wucht traf der Black-Box-Charakter der Maschine die reine Mathematik, die bis heute angeschlagen ist, weil nicht einmal mehr richtig klar ist, was unter einer mathematisch Wahrheit zu verstehen ist. Das ist ein Brand im Maschinenhaus der reinsten aller Wissenschaften. Der Stein des Anstoßes war der Computerbeweis des Vierfarbenproblems von Kenneth Appel und Wolfgang Haken. In über 1200 Stunden Rechenzeit zeigten die beiden Wissenschaftler, dass immer vier Farben reichen, um jede beliebige Landkarte so zu kolorieren, sodass nie zwei Länder mit der gleichen Farbe eine gemeinsame Grenze haben. Leider verstieß der Computerbeweis gegen ein ehernes Prinzip der Mathematik. Ein Beweis sollte immer so aufgebaut sein, dass ein kundiger Spezialist in der Lage ist, ihm zu folgen und seine Folgerichtigkeit zu beurteilen. Das ist aber in dem Augenblick, in dem ein Großrechner zum Einsatz kommt, in menschlichen Zeitspannen nicht mehr möglich. Aus diesem Grund wird der Beweis von Puristen vehement abgelehnt. Eine Entscheidung steht bis zum heutigen Tage aus. Doch völlig unabhängig von der Tatsache, dass der Computer in bestimmten Dimensionen kaum zu hinterfragen ist, gibt es eine weitere Tendenz, die uns nachdenklich stimmen muss. Es wächst die Gefahr, dass mittels der Großrechner trotz aller Fortschrittseuphorie ein ziemlich altertümliches Wissenschaftsverständnis wiederbelebt wird.

„Schläft ein Lied in allen Dingen, die da träumen fort und fort und die Welt fängt an zu singen, triffst Du nur das Zauberwort“. Egal ob in diesem Gedicht von Joseph von Eichendorff, in einem japanischen Haiku, in den Maxwellschen Gleichungen der Physik, im mathematischen Beweis, im gekonnten Aphorismus, auch in einem raffinierten Computeralgorithmus,…. Meisterschaft und Eleganz zeigen sich immer dort, wo mit größter gedanklicher Mühe das Wesentliche vom Unwesentlichen getrennt wird, wo Erkenntnis zur dichtesten Form gerinnt und sich kaleidoskopische Fülle ableiten lässt. Genau das beinhaltete die Spickzettellektion von Gunther Hoske. Wie weit von diesem seit Jahrtausenden bewährten Denkideal ist die jetzt so gepriesene “Korrelationsmathematik“ entfernt, mit der Computeralgorithmen die Myriaden im Internet gespeicherten Daten sklavisch nach Zusammenhängen durchforsten? Sicher, wenn Kinder viel Eis essen, gibt es viele Waldbrände. Aber Eis essende Kinder sind nicht die Ursachen von Feuersbrünsten. Das hieße eine Korrelation mit einer kausalen Beziehung zu verwechseln, was auch manchmal vorkommt. Wenn man in Rechnung stellt, dass Kinder bei Hitze durstig sind und nach Abkühlung lechzen und dieselbe Hitze Holz trocken und entzündlich macht, kommt man der Sache näher. Die Interpretation von Korrelationen und das Bemühen, sie in eine kausale Beziehung zu bringen, sind also nach wie vor Domänen des denkenden Menschen. Dieser darf sich natürlich des Computers als Zuarbeiter bedienen, aber die gedankliche Arbeit, die geleistet werden muss, um Daten zu Erkenntnis zu kondensieren, ist dieselbe wie vor hundert Jahren. In diesem Sinne gibt es weder einen Tod der Theorie noch eine new “kind of science“ und es ist fahrlässig den Prozess der Erkenntnis aus der Hand zu geben.
Aus diesem Grund warnte der verstorbene Frank Schirrmacher 2010 völlig zu recht vor der “systematischen Selbstentmächtigung moderner Gesellschaften durch mathematische Modelle“. Aufhänger war der Ausbruch des isländischen Vulkans Eyjafjallajökull. Für mehrere Tage gab es im Bereich der “Wolke“ keinen Flugverkehr mehr. Das Problem? Die “Wolke“ war lange ein digitales Konstrukt und verdankte sich weniger konkret vorgenommenen Messungen. Sie war das Ergebnis einer britischen Simulation, bei der zumindest in den ersten Tagen nicht so richtig klar war, ob diese mit den realen Gegebenheiten übereinstimmte oder nicht. Der digitale Prophet sprach und ein großer Teil des Luftverkehrs stand still. “Und auf einmal sind wir alle nur noch Zuschauer“, stellte Schirrmacher konsterniert fest. Dem kann man nur zustimmen: Das Wissen was eine valide Theorie von einer spekulativen unterscheidet erodiert in den Wissenschaften seit längerem. Der Erkenntniswert komplexer Simulationen ist in vielen Fällen fragwürdig, was gerne verschwiegen wird. Jetzt bahnt sich zu allem Überfluss noch an, dass der denkende Forscher durch die Maschine ersetzt werden soll. Dabei ist das exakte Gegenteil richtig: Die Tugenden menschlichen, verdichtenden Denkens sind dringlicher denn je und definitiv der einzige Garant, in der riesigen Wissenswolke nicht völlig die Orientierung zu verlieren.

Marco Wehr

Die Welt ist keine Scheibe

Es gibt viele Dinge, die man nicht lernt, wenn man viel Zeit vor den Bildschirmen von Fernsehern und Computern verbringt

Wir schmunzeln über die Seefahrer, die vor etwa 500 Jahren nach Westen aufbrachen und von rasender Angst gepeinigt waren. Viele glaubten, die Erde wäre eine Scheibe und wenn man sich zu weit hinausbewegte, würde man mit seinem Schiff in einen brodelnden Abgrund fallen. Heute wissen wir es besser: die Erde ist eine Kugel. Es gibt keinen Abgrund. Finden wir es genauso zum Schmunzeln, wenn heute ein Großteil der Menschen die Welt zu einer Scheibe macht, obwohl sie eine Kugel ist? Sicher, in Zeiten von Corona ist der Computer zwangsweise das Kommunikationsmittel der Wahl. Doch auch in weniger aufregenden Zeiten ist es für für viele normal, einen großen Teil des Tages vor einem zweidimensionalen Bildschirm zu verbringen. Es gibt gute Gründe am Sinn dieser Normalität zu zweifeln. Aber Vorsicht! Man läuft Gefahr als Hinterwälder beschimpft zu werden, wenn man den exzessiven Umgang mit Fernsehen, Computer und Smartphones kritisiert. Viele wollen schließlich schnellstmöglich in die Zukunft rasen. Verständlich, dass technikaffine Manager wie Timotheus Höttges von der Telekom dafür plädieren, Kindern am besten schon in der Vorschule Grundlagen des Programmierens beizubringen. Das mag vernünftig erscheinen, wenn man es als vorrangiges Erziehungsziel betrachtet, junge Menschen so zu formen, dass sie mit ihrer digitalen Expertise die Konkurrenzfähigkeit des Industriestandorts Deutschlands sichern. Vertritt man den Standpunkt, dass das Leben aus mehr als Nullen und Einsen besteht und es darum geht, junge Menschen zu ertüchtigen, ihr Leben in Eigenverantwortung zu gestalten, dann darf man an diesem Ziel Zweifel äußern. Hier prallen Weltanschauungen aufeinander. Gerne weisen digitale Adepten darauf hin, dass es kompliziert sei, zu beweisen, dass etwa ausgedehnter Computergebrauch nachteilig wäre. Im Gegenteil: Kinder die sechs Stunden am Tag am Computer zocken, zeigen ein besseres Reaktionsverhalten und auch die Finger, die im Stakkato die Konsole bearbeiten, sind im Gehirn besser repräsentiert als die einer Vergleichsgruppe. Solchen Verteidigungsbemühungen muss man allerdings eine wissenschaftstheoretische Binsenweisheit entgegenhalten: Messen und bewerten lässt sich nur, was sich messen und bewerten lässt! Diese Einsicht hat gerade für viele komplexere Fragestellungen der Psychologie und Kognitionswissenschaften Konsequenzen, da sich diese nicht ohne weiteres in ein angemessenes Experimentaldesign pressen lassen. Man denke an die umjubelten bildgebenden Verfahren, mit denen man die Hirnaktivität bei einer bestimmten Aufgabenstellung misst. Leider muss man reglos in einem Tomographen liegen! Genau aus diesem Grund lässt sich mit diesem Messverfahren zum Beispiel wenig über Menschen in Bewegung herausbekommen. Man kann nicht mit einer solchen tonnenschweren Maschine auf dem Kopf durch die Welt tanzen. Das beherrschbare Experimentalszenario bestimmt also den Raum beantwortbarer Fragen. 

Wenn es nun für bestimmte komplexe Fragestellungen keine detaillierten Antworten existieren, dann heißt das nicht, dass es sie nicht gibt. Vielleicht liegen sie einfach außerhalb der momentan verfügbaren wissenschaftlichen Möglichkeiten. In solchen Fällen ist begründetes Argumentieren erlaubt und notwendig. Was lässt sich dazu sagen, dass sich Milliarden von Menschen den halben Tag mit zweidimensionalen Modellwelten auseinandersetzen?

Da steht an erster Stelle die Einsicht, dass Menschen sehr effizient funktionieren. Fertigkeiten, die wir üben, entwickeln sich. Alles, was nicht gebraucht wird, bildet sich zurück: “Use it or lose it“.  Dieses Prinzip ist fundamental. Es gilt für Kleinkinder genauso wie für Greise. 

So ist es eindrücklich, dass Säuglinge zu Leistungen in der Lage sind, die uns Erwachsene überfordern. Sie können zum Beispiel alle Sprachlaute dieser Erde unterscheiden. Ihr Gehirn ist überbestimmt. Es gibt anfänglich mehr synaptische Verbindungen zwischen den Neuronen als später gebraucht werden. Das ist evolutionär sinnvoll. Ein Kind kann als Inuit auf die Welt kommen oder als Indio. Es muss gewährleistet sein, dass es sich seiner Kultur optimal anpasst. Richtet sich sein Fokus nun auf die ihn umgebenden Sprachlaute, dann bedingt das “Use-it-or-lose-it-Prinzip“, dass es sich für genau diese sensibilisiert. Die Fähigkeit, andere Laute zu diskriminieren, verschwindet. Aber nicht nur Babys sind anpassungsfähig. Pflegeheimbewohner, die beginnen, mit Hanteln zu arbeiten, verdoppeln in kurzer Zeit ihre Kraft und selbst kognitive Fähigkeiten lassen sich im Alter trainieren.

Welche Fertigkeiten werden bei Kindern gefördert, die vor einem Bildschirm sitzen? Wenn das Programm anspruchsvoll ist, lernen sie einer inszenierten Handlung zu folgen. Informieren sie sich im Internet, werden sie klüger. Wenn sie zocken, entwickelt sich eine spezifische Auge-Hand-Koordination. Was für Fertigkeiten aber werden vernachlässigt, sodass die Gefahr besteht, dass sie verkümmern oder sich gar nicht erst entwickeln? Da gibt es an erster Stelle ein sinnliches Defizit: Aus Monitoren dampfen keine Gerüche, man schmeckt nichts und aus der Mattscheibe kommen keine Hände, die einen berühren. Außerdem ist der innere Sinn, die sogenannte Propriozeption, beim Sitzen in einer Art gelangweilten Stand-by-Modus. 

Noch eindrücklicher ist das interaktive Defizit. Hier muss uns ein Experiment des Psychologen Richard Held aus dem Jahre 1962 als Warnung dienen. Er zeigte, dass ein Kätzchen, das die Augen gerade aufgeschlagen hat, blind bleibt, wenn es nicht auf den eigenen Beinen herumlaufen darf und man es stattdessen durch die Welt trägt! Gerade die Entwicklung der Tiefenwahrnehmung ist auf Bewegung angewiesen. Deshalb stürzen die Kinder eher selten, die die viel auf Bäume klettern. Verletzen tun sich oft die, die noch nie auf einem Baum gewesen sind und es dann einmal versuchen. 

Das interaktive Defizit hat aber auch noch eine abstraktere Komponente: Der Bewegungsraum ist ein Bedeutungsraum! Dinge bekommen nicht allein dadurch Bedeutung, dass wir sie passiv betrachten. Mitentscheidend sind Handlungserfahrungen! Was ein Ball ist, weiß nur, wer mit Bällen gespielt hat, der weiß wie sie rollen, wie sie hüpfen und wie sie sich fangen lassen. Das erfährt man sicher nicht dadurch, dass man mit den Augen einer zweidimensionalen Projektion eines Balls auf einem Bildschirm folgt. Warum? Damit sind wir beim wichtigen Thema der Simulation. Das menschliche Gehirn ist eine hochkomplizierte Simulationsmaschine, die man allerdings gebrauchen und kallibrieren muss, damit sie funktioniert. Warum kann man Bälle fangen? Weil das trainierte Gehirn die Flugbahn schneller berechnet, als der Ball fliegt, sodass man sich rechtzeitig positionieren kann. Welche Konsequenzen es hat, wenn man körperliche Fertigkeiten nicht mehr übt, erleben wir gerade in der Ausbildung künftiger Chirurgen. Den digital natives müssen an der Universität einfachste Handfertigkeiten beigebracht werden. Andernfalls wären sie nicht in der Lage, mit Nadel und Faden eine Naht zu ziehen. Das ist ein neues Phänomen. Basteln ist out.

Elementar aber trotzdem komplex ist auch die soziale Simulation. Betrachten wir ein gewöhnliches Gespräch! Bei diesem werden nicht nur Worte ausgetauscht. In jedem Gespräch gibt es eine sublime Aura körpersprachlicher Signale, die von den Gesprächspartnern meist unbewusst gesendet und empfangen werden. Die Lautstärke der Stimme, die Stimmlage, die Art und Weise Pausen und Betonungen zu setzen, das Minenspiel, der Gesprächsabstand, die Körperhaltung, .. . All diese Signale sind wichtig, das Gehörte zu interpretieren. Dieser Prozess ist wiederum davon abhängig, was in der Vergangenheit bereits gesprochen wurde! Es gibt also zwischen Gesprächspartnern eine interdependente Semantik, die nur diese fühlen und und in Maßen zu deuten wissen. Was hat das mit Simulation zu tun? Angenommen, man möchte im Gespräch einen heiklen Punkt ansprechen, ohne den anderen zu verletzen. Man muss seine Worte also mit Bedacht wählen. Bevor man den Mund aufmacht, versucht man deshalb, sich in die Rolle des anderen hineinzuversetzen und simuliert, wie er sich fühlen würde, wenn man den intendierten Satz ausspricht, was nur vor dem Hintergrund des gemeinsam Erlebten möglich ist.

Wahrscheinlich ist diese soziale Simulation die anspruchsvollste Leistung des menschlichen Gehirns überhaupt und Kinder müssen dieses schwierige Wechselspiel in realen Gesprächen ausdauernd üben, um kompetente und einfühlsame Sprecher zu werden. Entscheidende Teile dieses Wechselspiels finden aber nicht statt, wenn Menschen vor Computern oder Fernsehern sitzen. Da ist niemand, der reagiert, da ist niemand, mit dem man eine persönliche Geschichte kreieren kann. Deshalb steht zu befürchten, dass sich diese wichtigen Fertigkeiten bei Kindern nur unzureichend entwickeln oder bei Erwachsenen degenerieren. Beschränkt man die Zeit vor dem Bildschirm auf wenige Stunden am Tag, ist vermutlich kein Schaden zu befürchten. Sind es aber sechs bis zwölf Stunden, müssen bei uns die Alarmglocken schrillen und wir sollten uns die Frage stellen, warum wir die Welt zur Scheibe machen, obwohl wir wissen, dass sie eine Kugel ist.

Marco Wehr ist Philosoph und Physiker. Er leitet in Tübingen das Philosophische Labor (www.das-philosophische-labor.de)