Wer kontaminiert hier eigentlich wen?

Es geht ein Rauschen durch den Blätterwald. Es wird geschrieben, dass die hochpotenten mRNA-Vakzine, die bei der Corona-Impfung zur Anwendung kommen, mit DNA kontaminiert sind und deshalb die Möglichkeit besteht, dass sie den Geimpften in unvorhersehbarer Weise schädigen. Es ist aber eher so, dass die Gehirne von Lesern und Zuschauern mit einer fragwürdigen Botschaft kontaminiert werden. Diese ist wissenschaftlich nicht haltbar.

Mit und durch die Corona-Pandemie hat sich vieles geändert. Zum Beispiel die Themen, die abends am Stammtisch die Runde machen. Kaffeekränzchen und Kegelklubs reden sich plötzlich über die Unterschiede von Vektor-  und mRNA-Vakzinen oder die Vorteile von Tot- und Lebendimpfstoffen die Köpfe heiß. Begriffe, die vorher keiner kannte, sind in aller Munde: Inzidenz, Prävalenz, R- und ct-Wert, Polymerasekettenreaktion oder Antigen-Test .   

Aber nicht nur die Themen, auch der Stellenwert von Nachrichten aus Wissenschaft hat sich verändert. Nehmen wir zum Beispiel das Thema Impfung; früher vor allem interessant für Mediziner und für Eltern vor dem Besuch beim Kinderarzt.  In Vor-Pandemie-Zeiten waren fundamentalistische Impfgegner eine kleine, sektiererische, weitgehend isolierte Esoteriker-Truppe ohne jede politische Strahlkraft. 

Mittlerweile gehört das Sähen von Misstrauen gegen die Impfung zum propagandistischen Standardrepertoire von Rechs- und Linkspopulisten rund um den Globus.  Die Agenda dahinter ist simpel:  Das Vertrauen in die Institutionen offener Gesellschaften soll grundsätzlich erschüttert werden. Das Thema COVID-Impfung ist in diesem Zusammenhang nur ein kleiner Mosaikstein, aber er passt wunderbar zum Mantra aller Verschwörungstheoretiker, was da lautet: „Ihr werdet vom System belogen“.  Es ist sicher kein Zufall, dass hier Trump, Wagenknecht, Bolsonaro und die AfD in dasselbe Horn stoßen. 

Vor diesem Hintergrund ist das öffentliche Interesse an Themen rund um Corona ein zweischneidiges Schwert. Denn mit den Fakten aus der Welt der Wissenschaft ist das so eine Sache.  Die Originalquellen, wissenschaftliche Publikationen, sind schwer verdaulich. Sie wurden von Spezialisten für Spezialisten geschrieben. Sie verdanken sich Methoden, die für Fachfremde schwer zu durchschauen sind, sie bedienen sich oft einer – im Wortsinn – exklusiven Terminologie, sie erfordern intime Kenntnisse in Physik, Biologie, Medizin, Mathematik und Statistik, die weit über gängiges Schulwissen hinausgehen. Den „Endverbraucher“ erreichen diese Nachrichten meist über Umwege.  Und das ist die Crux: Auf dem Weg von der Quelle ans Ziel werden Botschaften wie beim Kindergeburtstagsspiel “Stille Post“ gerne bis zur Unkenntlichkeit verzerrt.  

Und doch gibt es auch für Laien (und für fachfremde Journalisten)  ein paar Faustregeln, die hilfreich sind, um Nachrichten aus der Welt der Wissenschaft  einordnen zu können. Bevor man sich den Kopf über Inhalte zerbricht, kann es nicht schaden, erst einmal von „außen“ auf die Botschaft zu schauen und nach den drei magischen W’s zu fragen:  

  • Woher stammt die Nachricht. Wer oder was ist die Quelle? 
  • Wer betreibt ihre Verbreitung?  
  • Wie reagieren die Spezialisten (des betreffenden Fachgebiets), die “experts in the field“, auf die Geschichte ?   

Nehmen wir zur Erörterung die Geschichte von der DNA-Kontamination der mRNA-Impfstoffe (und der damit angeblich verbundenen Gefahren), die zur Zeit die Runde macht – in Fernsehsendern wie dem MDR genauso wie in Lokalzeitungen wie dem Tübinger Schwäbischen Tagblatt. Es werden Ängste geweckt: Der mRNA-Impfstoff soll mit fremder DNA verunreinigt sein. Diese Geschichte ist ein erhellendes Lehrstück, um zu verstehen, wie hilflos Teile der Medien im Umgang mit Nachrichten aus der Wissenschaft sind. Gleichzeitig lässt sich zeigen, wie sich der Geschichte hinter der Nachricht auf den Grund gehen ließe.  Beginnen wir mit Punkt eins:

Wo und wer ist Quelle der Nachricht?

Es war der amerikanische Genetiker Kevin McKernan, der die Geschichte ins Rollen brachte. Zusammen mit einigen Mitarbeitern veröffentlichte er im Frühjahr 2023 eine Untersuchung über die RNA- und DNA-Zusammensetzung in vier Proben des RNA-Impfstoffes der Firma  BionTech/Pfizer.

Doch entgegen aller wissenschaftlichen Gepflogenheiten wurde diese Arbeit von ihren Autoren einfach ins Internet gestellt.[1] Es ist in den Wissenschaften aus gutem Grund üblich, wichtige Ergebnisse in wissenschaftlichen Zeitschriften zu publizieren, die vor die Veröffentlichung ein sogenanntes peer-review-Verfahren setzen. Seröse Zeitschriften prüfen eine wissenschaftliche Nachricht durch interne und externe Gutachter auf Herz und Nieren.  So hätte ein Gutachter in diesem Fall etwa gefordert, die Herkunft der vier Impfstoffproben offenzulegen, die von McKernan in seiner Studie untersucht worden waren.. 

Der schale Geschmack des Zweifels intensiviert sich, wenn wir nachverfolgen, wie der Autor seine Ergebnisse auch noch in einem weiteren Medium verbreitet hat, das mit Wissenschaft und wissenschaftlichen Gepflogenheiten nichts am Hut hat:[2] Das Online- und Print-Journal EpochTimes wird  in den USA seit 2016 dem rechtspopulistischen bis rechtsextremistischen Spektrum zugeordnet. Die Zeitschrift glänzt unter anderem durch zahlreiche Artikel, die den Klimawandel leugnen. Über die deutsche Online-Ausgabe lesen wir: „[Sie] gewährt seit 2015 einen bedeutenden Raum für xenophobe Ressentiments sowie für die Positionen der Alternative für Deutschland. Häufig verbreitet sie Verschwörungserzählungen“  [3][4][5]  Auch die beiden Co-Autoren von McKernans Online-Artikel in der EpochTimes lassen nicht Gutes ahnen: Womit wir bei Punkt zwei wären:

Wer verbreitet die Nachricht?

Kevin McKernan ist Genetiker. Er war früher Mitarbeiter im  Human Genome Project, hat sich seither aber nach eigenen Angaben vor allen mit der Genomik von Cannabis beschäftigt.  Heute betreibt er ein Privatunternehmen namensMedicinal Genomics, was DNA-Test-Kits und Labormaterialien an Cannabis-Firmen verkauft. Mit Publikationen auf dem Gebiet der Virologie, Immunologie oder der Impfstoffentwicklung ist er bisher nicht in Erscheinung getreten.[6] Immerhin muss man ihm zu Gute halten, dass er als Genetiker zumindest die in seiner Publikation zu Grunde liegenden Methoden beherrschen sollte. 

Die beiden Co-Autoren des Epoch Times – Artikels sollten dagegen umso misstrauischer machen. Der eine ist der emeritierte Mainzer Virologe Sucharit Bakthi, eine Ikone der Querdenker-Bewegung, der andere, der Osteopath Joseph Mercola, ist eine verdächtige Gestalt der amerikanischen Alternativmedizin-Szene. Er vermarktet erfolgreich Nahrungsergänzungsmittel und medizinische Geräte, die bisher jeden Wirksamkeitsnachweis schuldig geblieben sind. Mercola tritt fundamentalistisch auf und propagiert auf seiner Webseite zahlreiche fragwürdige alternativmedizinische Verfahren. Er wurde von der New York-Times als einer der zwölf einflussreichsten Verbreiter von Fake-News und Fehlinformationen rund um die Corona-Pandemie bezeichnet.[7][8]

Die Skepsis wächst noch weiter, wenn man die Protagonisten in den Blick nimmt, die in Deutschland der Geschichte von der “DNA-Kontamination“ aufgegriffen haben:  

Da wäre zunächst die “Ärztinnen und Ärzte für individuelle Impfentscheidung (ÄFI) e. V.“,  ein Verein, in dem insbesondere Homöopathen und Anthroposophen engagiert sind und der sich nach eigenen Angaben gegen verpflichtende Impfungen einsetzt. De facto muss man die Organisation allerdings eher dem Spektrum der Impfskeptiker zurechnen. [9] , [10]  Von der überwiegenden Majorität der Ärzte wird der Verein, seine Ziele und vor allem seine wissenschaftliche Expertise äußert kritisch gesehen. 

Des Weiteren wäre da noch Prof. Dr. Brigitte König, externe Professorin der Medizinischen Fakultät an der Universität Magdeburg und hauptberuflich Gesellschafterin des Magdeburger Labors MMD. König hat der Zeitschrift Cicero, einem Magazin, das durch eine ziemlich tendenziöse Berichterstattung zur COVID-Pandemie aufgefallen ist, ein Interview zum Thema gegeben. Im Netz fällt sie vor allem durch impfkritische Interviews und durch Auftritte auf ziemlich obskuren Veranstaltungen wie dem sogenannten  „Impfausleitungskongress“ aus.[11][12]  Ihre Firma bietet die Kryokonservierung von Blutproben an, ein Service, der auf einschlägigen Webseiten empfohlen wird, um mögliche Impfschäden „vorbeugend“ zu dokumentieren –  um dann gegebenenfalls vor Gericht damit Schadenersatz zu erstreiten. Profitabel ist das Geschäft aber zunächst vor allem für dem Anbieter der Kryokonservierung, da es keinerlei Evidenz gibt, dass diese Methode das hält, was auf der Webseite versprochen  wird. [13]

Eben diese Professorin König kommunizierte in Sachen DNA-Kontamination offensichtlich auch mit Jürgen O. Kirchner, einem dubiosen Biologen, der als Wissenschaftler weitgehend unbekannt ist, dafür aber eine Obsession für das Thema Covid-Impfung entwickelt hat. Unter dem Pseudonym David O. Fischer veröffentlicht er ziemlich schräge Publikationen mit ebenso schrillen, wie irreführenden Titeln: “Corona-Genimpfstoffe: Das Überschreiten einer roten Linie“, “Die mRNA-Maschine: Protokoll einer wahren Tragödie“ oder – zum Thema – “Beschmutzt:  DNA Verunreinigungen im RNA-Impfstoff“[14]

Ausgerechnet dieser Kirchner alias Fischer scheint auch der geistige Vater einer kleinen Anfrage der AfD an den deutschen Bundestag zum  Thema “DNA-Kontamination“   zu sein. [15]  Nun hat sich gerade die AfD – vorsichtig ausgedrückt – bisher nicht gerade als eine besonders “wissenschaftsaffine“ Partei hervorgetan. Es ist also nicht ganz unwahrscheinlich, dass solche Anfragen von einer politischen Agenda motiviert werden, die weit über das eigentliche, medizinische Thema hinausgeht. 

Bleibt also noch der Punkt drei

Wie reagieren die Spezialisten? 

Um es kurz zu machen: Sie reagieren mehr oder weniger gar nicht! Im Gegensatz zu einschlägigen, eher einseitig interessierten Kreisen der Öffentlichkeit, scheinen die Experten McKernans Arbeit nicht besonders ernst zu nehmen. Es gibt dazu keine breite Diskussion in der Fachwelt und bis dato auch keine wissenschaftliche Publikation in einer Fachzeitschrift. [16] Alles Verschwörer? Weltweit?

Soweit der Blick von außen. Natürlich enthebt einen das nicht von der Pflicht, sich mit dem Problem auch inhaltlich auseinanderzusetzen. Auch blinde Hühner können Körner finden, nicht jedes Vorurteil ist zwangsläufig ein Fehlurteil und auch Menschen, die uns nicht sympathisch sind, können in der Sache recht haben. 

Aber was, wenn die eigene Expertise dazu nicht ausreicht?  Nun, ein Journalist würde das Naheliegende tun und einen Experten fragen. In Städten wie Tübingen wäre das niederschwellig möglich. Trotz dem CureVac – Fehlschlag im Rennen um den COVID-Impfstoff ist unser kleines Städtchen immer noch ein Zentrum der internationalen mRNA-Forschung. Und wer es gerne neutraler haben möchte, kann auch nebenan zur Universität gehen.  Auch dort gibt es hervorragende Genetiker, Virologen und Immunologen. 

Was würde ein Experte antworten?  Eine vernünftige Kommunikation zum Thema  Plasmid-DNA in mRNA-Impfsoffen in etwa folgendermaßen aussehen: 

  1. Bevor wir uns in Details verstricken, sollte geklärt werden, welche Risiken durch eine Kontamination durch Fremd-DNA überhaupt entstehen können 

Und hier lauert vielleicht schon die erste Überraschung: Mit an Sicherheit grenzender Wahrscheinlichkeit hat eine potentielle Verunreinigung mit Fremd-DNA nichts mit beobachteten, tatsächlichen oder unterstellten Nebenwirkungen der Impfung zu tun. Neben den üblichen kurzfristigen Impfreaktionen wie Fieber, Gliederschmerzen, Müdigkeit oder Lymphknoten-schwellungen gibt es momentan nur einige wenige und vor allem sehr seltene schwere Nebenwirkungen, die der BionTech/Pfizer-Impfung eindeutig zuzuschreiben sind.  Diese Nebenwirkungen, anaphylaktische Schocks, Herzmuskel- oder Herzbeutelentzündung oder das sogenannte Thrombose-mit-Thrombozytopenie-Syndrom sind nicht nur selten, sie werden aller Wahrscheinlichkeit nach auch durch Autoimmunreaktionen ausgelöst, die durch den Impfstoff und nicht durch mögliche DNA-Verunreinigungen  getriggert werden. Bei anderen Nebenwirkungen, wie der Gesichtsnervenlähmung oder dem sogenannten Guillain-Barre-Syndrom, wurden bisher ohnehin nur  Assoziationen mit anderen COVID-Impfstoffen, nicht aber mit mRNA-Impfungen beschrieben. 

Immer wieder taucht in der Öffentlichkeit die Behauptung auf, dass die COVID-Impfung zu einer gestiegenen Mortalität in den geimpften Bevölkerungsgruppen geführt habe.  Diese Frage ist intensiv untersucht worden. Bis heute gibt es keinerlei Hinweise, dass das der Fall ist. Im Gegenteil:  Ein ganze Reihe großer Studien aus Norwegen, Israel, den USA, Ungarn, Großbritannien und den Niederlanden zeigt übereinstimmend,  dass die Nicht-COVID-assoziierte Mortalität nach COVID-Impfung im Vergleich zu Nicht-Geimpften sogar etwas geringer ist.[17] Aber selbst wenn es umgekehrt wäre: Es ist kein plausibler Mechanismus erkennbar,  der diesen Effekt ausgerechnet durch den Einfluss der Fremd-DNA erklärt und nicht durch den Impfstoff selbst. Dasselbe gilt übrigens auch für das berühmt-berüchtigte “Post-Vac-Syndrom“.  Hier gibt es zu allem Überfluss das  Problem, dass der Begriff “Post-Vac“ bis heute keine medizinisch klar umrissene Bezeichnung einer Erkrankung ist. Es ist noch vollkommen unklar, ob es sich beim “Post-Vac-Syndrom“ überhaupt um ein einheitliches Krankheitsbild mit einheitlicher Ursache handelt.  Auffällig ist in jedem Fall, dass Deutschland, das Land, in dem das Problem in der Öffentlichkeit vergleichsweise breite Beachtung findet, auch das  Land ist, welches bei weitem die meisten Verdachtsfälle meldet.[18] Und selbst für das “Post-Vac-Syndrom“ – so es sich doch um ein einheitliche monokausale Erkrankung handeln sollte – würde gelten:  Gerade weil  postuliert wird, dass es sich bei “Post-Vac“ um eine dem Long-COVID-Syndrom analoge Erkrankung handelt,  wäre es hoch wahrscheinlich, dass diese Krankheit eine Reaktion auf den Impfstoff selbst ist(der ja das Virus partiell imitiert) und nicht durch Verunreinigungen mit Fremd-DNA ausgelöst wird.[19]

  • Wo liegt dann die potentielle Gefahr, die von Verunreinigungen mit Fremd-DNA ausgehen könnte? 

Die  Gefahr, die von Fremd-DNA ausgehen könnte, besteht darin, das DNA – zumindest theoretisch – in unser Genom integriert werden und die betroffenen Zellen verändern kann. Jahre nach einer solcher Veränderung des Genoms bestünde dann – wieder zumindest theoretisch – das Risiko, dass sich die  Zelle in Richtung Krebszelle verändern könnte.  Solche Effekte würden sich allerdings auf einer Zeitskala von Jahren, nicht von Wochen oder Monaten abspielen.

  • Wie groß ist dieses Risko in unserem speziellen Fall ? 

Wie hoch ist ein solches Risiko prinzipiell ? Und wie hoch ist es im vorliegenden konkreten Fall? Eines sollte man vorab wissen: Fremd-DNA in unserem Körper ist keine Ausnahme, sie ist die Regel. Etwa 8% unseres Genoms (fast 300.000.000 Basenpaare) bestehen aus Bruchstücken viraler DNA. Die große Mehrzahl davon stammt von sogenannten endogenen Retroviren (ERV), die aus Infektionen stammen, die unsere Vorväter- und -mütter irgendwann einmal durchgemacht hatten und uns nun über die Keimbahn vererbt haben.[20]  

Die Bedeutung dieser DNA für uns und unsere Gesundheit, wird immer noch lebhaft diskutiert. Lange Zeit gab es die Befürchtung, dass solche DNA das Risiko für bestimmte, allerdings vergleichsweise seltene Krebserkrankungen, sogenannte Lymphome, erhöhen könnte. Ob und in welchen Maß ein solcher Effekt tatsächlich existiert,  ist immer noch unklar, auch weil die Evolution schädliche virale DNA auf lange Sicht meist wieder eliminiert, wenn diese sich merklich negativ auf unsere Überlebenschancen auswirkt. In jüngerer Zeit gibt es sogar Hinweise, dass diese DNA auch positive Effekte haben könnte. ERV-DNA, die sich im Laufe von Millionen von Jahren in das Genom unserer Vorfahren geschlichen hat, scheint dem frühen Embryo zu helfen, akute Virusinfektionen abzuwehren.[21]

Nun, das wäre die Vogelperspektive der Evolution. Zurück zum Leben im Hier und Jetzt.

Nicht nur auf diesem Weg, auch im Lauf eines individuellen Menschenlebens nimmt fast jeder von uns virales Genmaterial  in größeren Mengen auf. Jeder Mensch macht viele Virusinfektionen durch. Im Gegensatz zu den RNA-Viren (wie dem Corona-Virus) werden wir das genetische Material von DNA-Viren nach überstandener akuter Infektion oft nicht wieder los, denn virale DNA kann sich zwischen unseren Genen einnisten und dort “überwintern“. Es sei aber betont, dass im Rahmen solcher Infektionen in der Regel immer nur bestimmte Typen von Körperzellen betroffen, nicht aber Ei- und Samenzellen, so dass wir solche DNA in der Regel nicht weiterverberben. In uns schlummern also die Gene von  Windpocken- , Herpes- und Warzen-, Polyoma-, Cytomegalie- Ebstein-Barr– und manchen Typen von Hepatitis-Viren.[22]

Auch diese Fremd-DNA erhöht nicht zwangsläufig das Krebs-Risiko. Viele DNA-Viren sind keine „Tumorviren“ und selbst innerhalb der vielleicht wichtigsten Klasse von Tumorviren, den Papillom-Viren, ist nur eine Minderheit der über 70 bekannten Typen mit einen erhöhten Krebsrisiko assoziiert. 

Woran liegt das? Im Fall der Papillom-Viren sind es bestimmte komplette und funktionsfähige Virus-Gene, die in einer Körperzelle abgelesen werden müssen, damit deren Genprodukte, Proteine, die Zelle so verändern können, dass sie sich schließlich in Richtung einer Krebszelle entwickelt. Bei anderen Viren wie dem Hepatis-C–  oder dem Epstein-Barr-Virus ist der Zusammenhang mit der Krebsentstehung noch nicht vollkommen verstanden.  Es scheint so zu sein, dass diese Viren eher indirekt wirken, weil sie in toto latent aktiv sind und so eine chronische Entzündung auslösen, wobei das entzündliche Milieu  dann das Risiko der Entstehung  von Krebszellen erhöht.  

Wir fassen zusammen: Wenn wir auf die DNA-Viren schauen, dann gibt es tatsächlich einige Arten von Viren, die krebsauslösend wirken können. Die Mehrzahl tut das nicht. Nicht jede Form von Fremd-DNA ist also zwangsläufig mit einem Krebsrisiko verbunden.  Virus-DNA ist vor allen Dingen dann gefährlich, wenn es sich komplette und intakte Gene von Viren handelt, die analog wie körpereigene “Krebsgene“ wirken: Medizinisch ausgedrückt: Die Umformung der Normalzelle zur Tumorzelle und die Aufrechterhaltung des transformierten Zustands sind von der Expression bestimmter viraler Gene (Genexpression) abhängig. Die viralen Genprodukte bewirken zum einen eine unkontrollierte Zell-Proliferation, indem sie negative Zellzyklus-Regulatoren der Wirtszellen außer Kraft setzen. Zum anderen verhindern sie den programmierten Zelltod, mit dem geschädigte oder in ihrer Regulation gestörte Zellen aus der Zellpopulation entfernt werden.

Ein möglicher weiterer  Mechanismus der Krebsentstehung nach Infektion mit DNA-Viren wäre die chronische Entzündung, die z.B. durch Viren wie dem Hepatitis C-Virus ausgelöst wird, wenn es sich im Körper latent vermehrt.

Wir nähern uns langsam unserem konkreten Fall an: 

Um welche Art von Fremd-DNA handelt es sich bei den Sequenzen, die in dem Corona-Impfstoff entdeckt wurden? Hat diese DNA irgendeine der Eigenschaften, die wir bei den DNA-Tumorviren beobachten? 

Die Antwort ist ziemlich eindeutig: Nein, hat sie nicht.  Und zwar gleich aus mehreren Gründen: 

McKernan und seine Mitstreiter teilen mit, sie hätten in dem Pfizer-BioNTech COVID-19-Impfstoff Verunreinigung durch Plasmid-DNA[23] und dabei insbesondere eine DNA-Sequenz gefunden, die ursprünglich aus dem Affenvirus SV40stammt. [24] In sozialen Medien wurde diese Nachricht dann in unnachahmlicher Zuspitzung unter anderem wie folgt kolportiert: „Krebs-Virus SV40 in Pfizer-Impfstoff gefunden“. [25]

Was ist wahr? Der SV– oder Simian-Virus-40 ist tatsächlich ein Affenvirus. Seine natürlichen Wirte sind vor allem asiatische Makaken und Rhesusaffen. Er kann auch Menschen infizieren. Die Infektion bleibt jedoch in den meisten Fällen symptomlos. Wie andere Polyomaviren kann SV40 unter bestimmten Bedingungen in bestimmten Wirten und in Zellkulturen auch Tumore bzw. Tumorzellen auslösen. Diese (transformierende) Wirkung des SV40 beruht vor allem auf einem bestimmten Gen, dem sog.  großen T-Antigen, das auch benutzt wird, um Zellen in Zellkulturen zu immortalisieren.[26] Aber selbst wenn Onkogene des SV40 bei der Transformation von humanen Zellen in Krebszellen in der Zellkultur[27] eine Rolle spielen sollten, im Menschen selbst gibt es bisher keinen klaren Hinweis darauf, dass SV40 die Entstehung von Krebs fördern könnte.[28]

Interessanterweise ist nämlich die Debatte um die Bedeutung von Kontaminationen von Impfstoffen mit SV40-Virennichts Neues.  Ben Sweet und Maurice Hilleman entdeckten SV40-Viren in Zellkulturen von Nierenzellen aus Rhesusaffen[29], die in der 1950er und frühen 60er Jahren zur Herstellung von Polio-Impfstoffen verwendet wurden. Zwischen 1955 bis 1963 wurden daher vermutlich Millionen Menschen mit oralen und injizierbaren Impfstoffen geimpft und dabei mit SV40 infiziert.[30] Aus diesem Grund  gab dann eine ganze Reihe von epidemiologischen Studien, die klären sollten, ob Menschen, die mit diesen Polio-Impfstoffen geimpft worden waren, ein erhöhtes Krebsrisiko haben. Das Ergebnis: In keiner Studien konnte ein Zusammenhang zwischen Polio-Impfung und Krebs gefunden werden![31]  Wir gehen heute also davon aus, dass selbst eine Infektion mit dem kompletten SV40-Virus das Krebsrisiko bei Menschen nicht messbar erhöht.[32]

Nun wurde in den COVID-Impfstoffen aber gar kein komplettes SV40-Virus gefunden.[33] Man fand auch kein intaktes Gen, wie zum Beispiel das große T-Antigen, was als Tumor-Gen wirken könnte[34].  Die DNA-Sequenzen, die entdeckt wurden, sind nur kleine Schnipsel, keine vollständigen Gene:  Einer dieser Schnipsel enthält einen sogenannten Promoter eines Gens aus SV40.  Promotoren sind keine Gene. Promotoren sind DNA-Sequenzen, die (unter ganz bestimmten Umständen), die Aktivierung von Genen betreiben können, die im Genom in unmittelbarer Nachbarschaft hinter dem Promotor liegen. 

Rein theoretisch könnten sich also SV40-Promtoren genau an die Stelle in unserem Genom einbauen, an der ein körpereigenes Proto-Onkogen liegt und dieses dann aktvieren.[35] Rein theoretisch. Tatsächlich gibt es zur Zeit aber keinerlei  Hinweise dafür, dass so etwas wirklich passiert! Es gibt noch nicht einmal Hinweise, dass es solche Fremd-DNA unter den konkreten Umständen einer COVID-Impfung überhaut bis in den Zellkern schafft, dorthin, wo unsere Gene sitzen.  Die Wahrscheinlichkeit ist schon deswegen äußerst gering, weil der Impfstoff in Muskeln injiziert wird und Muskelzellen sog. post-mitotische Zellen sind, also Zellen, die sich nicht mehr teilen. Bei solchen Zellen ist es extrem unwahrscheinlich, dass Fremd-DNA, die von der Zelle in ihr Zell-Plasma aufgenommen wurde, von dort in den Zellkern gelangt. [36]

Und selbst wenn es der SV40-Promotor in den Zellkern schaffen würde, dann wäre der passgenaue Einbau der Plasmid-DNA  in unser Genom ein weiteres unfassbar unwahrscheinliches Ereignis:  Der Promoter müsste sich ja genau an der richtigen Stelle in einer Kette von ca. 3,2 Milliarden Basenpaaren einfügen! Somit bleibt festzustellen: Die medial inszenierte Panik steht auf tönernen Füßen. 

Zum Schluss sei noch eine Bemerkung gestattet: Verunreinigungen mit Plasmid-DNA sind nichts, was wir nur bei der Verwendung von mRNA-Impfstoffen erwarten würden. Solche Verunreinigungen sind grundsätzlich bei allen Medikamenten möglich, die mit gentechnischen Mitteln mit Hilfe von Bakterien-Plasmiden in großem Stil in Zellkulturen hergestellt werden. Solche Medikamente gibt seit fast 40 Jahren (!) und sie werden immer zahlreicher.[37] Das ist auch der Grund dafür, warum die EMA [38] solche Verunreinigungen nicht grundsätzlich für bedenklich hält, sondern nur Grenzwerte tolerabler Mengen an Plasmid-DNA festlegt. 

Man fragt sich also, warum politische Akteure wie etwa die AfD  das Thema Fremd-DNA in Medikamenten ausgerechnet jetzt, im Kontext der COVID-Impfung, aufgreifen und es mit großem Tamtam in den Bundestag bringen. Wenn es ihnen so wichtig erscheint, warum nicht schon viel früher?  Ist es Unwissenheit? Oder vielleicht doch die durchsichtige politische Instrumentalisierung eines Scheinriesens, der aus der Distanz der öffentlichen Wahrnehmung geeignet sein mag, Furcht einzuflößen, bei wissenschaftlicher Betrachtung aber immer mehr zu einer Petitesse zusammenschrumpft? 


[1] Kevin McKernan et al. (2023) OSF Preprints | Sequencing of bivalent Moderna and Pfizer mRNA vaccines reveals nanogram to microgram quantities of expression vector dsDNA per dose (https://osf.io/b9t7m/)

[2] Joseph MercolaKevin McKernanSucharit BhakdiThe Epoch TimesThe Healthcare Channel, 11 Jun. 2023

[3] Zitat aus: Wikipedia

[4] Andrew McCullough: Right Wing Extremism and The Epoch Times in Atlantic Canada, The Brunswickan, 3. Februar 2021

[5] Benedikt Herber: „Epoch Times“: Eine stetige Quelle der Wutzeit.de, 13. September 2017

[6] www.pubmed.ncbi.nlm.nih.gov 

[7] Frenkel, Sheera (July 24, 2021). „The Most Influential Spreader of Coronavirus Misinformation Online“. The New York Times. ISSN 0362-4331. Retrieved July 24, 2021.

[8] „The Disinformation Dozen“ (PDF). Center for Countering Digital Hate. March 24, 2021. Archived (PDF) from the original on March 27, 2021.

[9] Jakob Simmank: Einmal tief durchatmen, bitte. In: Die Zeit. 14. November 2019.

[10] Nicola Kuhrt: „Anti-Impfpflicht-Demo“ wird zum Schaulaufen von Verschwörungstheoretikern. In: MedWatch. 16. September 2019.

[11] Prof. Brigitte König – Impfausleitungskongress: https.//www.impfausleitungskongress.com/interviews/prof-brigitte-könig/. Als Veranstalterin dieses Kongress firmiert eine gewisse Alina Lesenich, laut Eigenwerbung „ganzheitliche Gesundheitsbotschafterin, Unternehmerin und Gründerin der BODY-MIND-SOUL ACADEMY“  

[12]  DISKUSSION 🇩🇪🇦🇹🇨🇭: Mit Prof. Dr. Brigitte König, Magdeburg – Toxische Spikes sind mRNA Injektionsschäden (rumble.com)

[13] https://evidenzdervernunft.solutions/impfschaden/. Zitat auf der Webseite: „Kryokonservierung von Blut (…) Sie haben einen stillen Zeugen (…) geschaffen. Sie können sich um die Wiederherstellung Ihrer Gesundheit kümmern, ohne den Beweis auf einen potentiellen Schadensersatz-Anspruch zu verwischen. Dazu lassen Sie sich Blut abnehmen. Das Blut wird durch Einfrieren in flüssigem Stickstoff aufbewahrt. In Absprache mit dem Labor MMD GmbH & KG in Magdeburg können wir Ihnen die Möglichkeit offerieren, Ihr Blut sachgerecht einfrieren zu lassen (…)  – bitte auch direkt mit dem Labor MMD GmbH & KG Magdeburg, Frau Prof. König, vereinbaren.“

[14] https://www.genimpfstoffe.com

[15] www.bundestag.de/dokumente/ textarchiv/2023/kw38-pa-petitionen-965232. Am 18. September 2023 wurde in der öffentlich abgehaltenen 79. Sitzung des Petitionsausschusses durch den Begleiter der Petentin Susanne Wilschrey, Dr. Jürgen Otto Kirchner, Ergebnisse molekularbiologischer Analysen verschiedener

Chargen des Präparates Comirnaty vorgestellt (www.bundestag.de/dokumente/ textarchiv/2023/kw38-pa-petitionen-965232).

[16] Es findet sich im Netz ein Hearing des Senats des Bundesstaates South Carolina mit dem Onkologen Prof. Buckhaults zum Thema. Buckhaults bestätigt zwar  die Plasmid-Verunreinigung, stellt aber gleichzeitig fest, dass die medizinische Relevanz dieser Beobachtung bisher vollkommen unklar ist. Man sollte hier aber in Betracht ziehen, dass solche Hearing durchaus auch Gründe haben, die jenseits der Medizin liegen: South-Carolina ist republikanisch regiert und dem sehr konservativen Vorgesetzten des Senats kommt vermutlich jedes Thema gelegen, was das Potential hat,  Entscheidungen der demokratischen Bundesregierung und ihrer Behörden (wie der FDA) in Misskredit zu bringen.  

[17] 85. Ruiz, PLD et al.: Short-term safety of COVID-19 mRNA vaccines with respect to all-cause mortality in the older population in Norway Vaccine 2023;41(2):323-332; Benbassat J et al.: 2022 Covid-19 vaccination is associated with reduced non-COVID in-hospital mortality. Prev Med 2022;164;  Xu S et al.: COVID-19 Vaccination and Non-COVID-19 Mortality Risk – Seven Integrated Health Care Organizations, United States, December 14, 2020-July 31, 2021. MMWR Morb Mortal Wkly Rep. 2021;70(43):1520- 1544;  Xu S et al.: A safety study evaluating non-COVID-19 mortality risk following COVID-19 vaccination. Vaccine 2023;41(3):844-854; Bardenheier BH et al.: Adverse events following mRNA SARS-CoV-2 vaccination among U.S. nursing home residents. Vaccine 2021;39 (29):3844-3851; Pálinkás A, J. Sándor J: Effectiveness of COVID-19 Vaccination in Preventing All-Cause Mortality among Adults during the Third Wave of the Epidemic in Hungary: Nationwide Retrospective Cohort Study. Vaccines (Basel) 2022;10(7):1009; Nafilyan V et al.: Risk of death following COVID-19 vaccination or positive SARS-CoV-2 test in young people in England. Nat Commun 2023;14:1541; de Gier B et al.: Effect of COVID-19 vaccination on mortality by COVID-19 and on mortality by other causes, the Netherlands. 2022, Vaccine 2023.

[18] . Finterer J, Scorza FA: A retrospective analysis of clinically confirmed long post-COVID vaccination syndrome. J Clin Transl Res. 2022;8(6):506-508 94. Finsterer J: A Case Report: Long Post-COVID Vaccination Syndrome During the Eleven Months After the Third Moderna Dose. Cureus. 2022;14(12)

[19] COVID-19, post-acute COVID-19 syndrome (PACS, “long COVID”) and post-COVID19 vaccination syndrome (PCVS, “post-COVIDvac-syndrome”): Similarities and differences. Felix Scholkmann, Christian-Albrecht May. Pathol Res Pract. 2023 Jun; 246:

[20] Je nach  Erbsubstanz  unterscheidet man zwei Typen von Viren, DNA-Viren, deren genetisches Material aus DNA besteht, und RNA-Viren, deren Gene aus RNA sind. Fremde RNA wird im Körper rasch abgebaut und hat keine längerfristigen Konsequenzen. (Ein Ausnahme sind sog. Retroviren (Bsp. HIV). Das sind RNA-Viren, die ein Enzym, die reverse Transkriptase,  besitzen, was ihren RNA in DNA umkopieren kann. Diese retrovirale DNA kann dann auch im Körper verbleiben und ebenfalls aktiv werden)

[21] Chuong EB, Rumi MA, Soares MJ, Baker JC (March 2013). „Endogenous retrovirusesfunction as species-specific enhancer elements in the placenta“ . Nature Genetics. 45 (3): 325–329; Villarreal LP, Villareal LP (February 1997). On viruses, sex, and motherhood. Journal of Virology. 71 (2): 859–865

[22] = Papillom-Viren

[23] Plasmide sind kleine, ringförmige DNA-Moleküle. Sie kommen hauptsächlich in Bakterien vor und werden unter natürlichen Bedingungen zwischen verschiedenen Zellen ausgetauscht. Die Biotechnologie nutzt sie U:A: als Klonierungsvektoren, um bestimmte Gene zu vervielfältigen: In das Plasmid wird das jeweilige Fremdgen eingebaut, welches sich dann bei Teilung mit vermehrt.

[24] McKernan; siehe oben.

[25] Found: Cancer-Promoting Simian Virus 40 (SV40) in Pfizer Vials, read another headline shared in a screenshot on Instagram. (Quelle: Associated Press Fact Check, DNA-Kontamination) 

[26] Immortalisieren: Voraussetzung, um Körperzellen  längerfristig  in Kultur halten zu können, gleichzeitig ein Schritt in Richtung einer Entwicklung zu einer Krebszelle 

[27] andere Bedingungen, andere Zellen 

[28] W. C. Hahn, R.A. Weinberg et al: Creation of human tumour cells with defined genetic elements. In: Nature Band 400, Nummer 6743, Juli 1999, S. 464–468; . K. V. Shah: SV40 and human cancer: a review of recent data. In: International Journal of Cancer. 120; 2, Januar 2007, S. 215–223 (Review). 

[29] Sog. VERO-Zellen sind typischen Wirtskulturzelle, um Viren im Reagenzglas zu vermehren. 

[30] Dazu das U.S. Center of Disease Control: “From 1955 to 1963, an estimated 10-30% of polio vaccines administered in the US were contaminated with simian virus 40 (SV40). The virus came from monkey kidney cell cultures used to make polio vaccines at that time. Most of the contamination was in the inactivated polio vaccine (IPV), but it was also found in oral polio vaccine (OPV). After the contamination was discovered, the U.S. government established testing requirements to verify that all new lots of polio vaccines were free of SV40.”

[31] Pankhurst et al. (2001) Thirty-five year mortality following receipt of SV40-contaminated polio vaccine during the neonatal period. British Journal of Cancer; Engels et al. (2003) Cancer Incidence in Denmark Following Exposure to Poliovirus Vaccine Contaminated With Simian Virus 40. Journal of the National Cancer Institute; Engels et al. (2003) Childhood exposure to simian virus 40-contaminated poliovirus vaccine and risk of AIDS-associated non-Hodgkin’s lymphoma. International Journal of Cancer; Rollison et al. (2004) Case-Control Study of Cancer among US Army Veterans Exposed to Simian Virus 40-contaminated Adenovirus Vaccine. American Journal of Epidemiology.

[32] Frank Destefano, Paul A. Offit, Allison Fisher: Vaccine Safety. In: Stanley A. Plotkin et al. (Hrsg.): Plotkin’s Vaccines. 7.Auflage. Elsevier, Philadelphia 2017, S. 1590ff. 

[33] Die Verunreinigung des Polio-Impfstoffes mit dem SV40 entstand dadurch, dass das Impfvirus in Affenieren-Zellen kultiviert wurde, die auch mit SV40 co-infiziert waren. Solche Zellkulturen werden bei der Produktion des COVID-Impfstoffes von Pfizer nicht benutzt. 

[34] Der korrekte Terminus wäre: Proto-Onkogen. Proto-Onkogene sind körpereigene Gene, die mit der Kontrollen des Zellwachstums zu tu haben und die durch Mutationen überaktiv werden und Krebswachstum fördern können. 

[35] Hierzu muss man wissen: Selbst die pathologische Aktivierung eine einzelnen „Krebsgens“ reicht nicht aus, um eine Zelle zur Krebszelle zu machen. Es müssen weitere Schritte dazu kommen. 

[36] Parry et al. (2021) No evidence of SARS-CoV-2 reverse transcription and integration as the origin of chimeric transcripts in patient tissues. PNAS; Zhang et al. (2023) LINE1-Mediated Reverse Transcription and Genomic Integration of SARS-CoV-2 mRNA Detected in Virus-Infected but Not in Viral mRNA-Transfected Cells. Viruses.

[37] Seit Mitte der 1980er Jahre, anfangen mit Faktor VIII-Präparaten zur Gerinnunghemmung und mit Humaninsulin. 

[38] EMA: European Medicine Agency (europäische Zulassungsbehörde für Medikamente) 

Wozu Tierversuche?

Eine von den Tierversuchsgegnern lancierte Kampagne versucht Tierversuche in der EU zu verbieten. Wissen diese wirklich, was sie tun? Das hätte nicht nur für die Forschung katastrophale Konsequenzen. Es würde auch Menschenleben kosten. Ein Plädoyer zum Gegensteuern. Von MARTIN BLEIF


Der Hintergrund

Ukraine, China, Klimakrise, Inflation – wozu da ein Text über Tierversuche? Wen interessiert das eher randständige Thema, außer Wissenschaftler und die organisierte Gegnerschaft? Der Anlass ist ein bisher wenig beachtetes Bürgeransinnen an die EU-Kommission und das EU-Parlament. Die Bürgerinitiative „Save cruelty-free cosmetic  – Für den Schutz kosmetischer Mittel ohne Tierquälerei und ein Europa ohne Tierversuche“ [1] hatte bis zum 31.08.2022 gut 1,2 Millionen Unterschriften gesammelt und damit das nötige Quorum von 1 Million erreicht.  Nun muss die EU-Kommission reagieren und sich mit dem Ansinnen beschäftigen. Die Forderungen der Initiative sind weitreichend: Sie verlangt nichts weniger als einen Fahrplan zur Abschaffung aller Tierversuche in der EU noch vor Ende der laufenden Legislaturperiode“. Die Forderungen sind durchaus ernst zu nehmen. Im Gegensatz zu früheren Kampagnen verfügt die jetzige Initiative über ein beträchtliches Budget von knapp 2,2 Millionen Euro.  Woher kommt das viele Geld? Etwa ein Drittel des Budgets (rund 716.000 Euro) wurde von der Tierschutzorganisation PETA beigesteuert. Weitere 26 % setzen sich aus Beiträgen von diversen internationalen Tierschutz- und Tierversuchsgegner-Organisationen zusammen.Erstaunlicherweise gibt es aber auch andere Player: Mehr als 26 % des Geldes (rund 570.000 Euro) stammt vom britischen Verbrauchsgüterkonzern Unilever, zu dem die Marke DOVE gehört. Weitere 15 % stammen von der Kosmetikfirma „The Body Shop“ (rund 310.000 Euro). [2] Honi soit qui mal y pense.

Ich möchte nicht falsch verstanden werden: Ich bin ein Anhänger der Demokratie, an geeigneter Stelle durchaus auch ihrer basisdemokratischen Elemente. Und ich habe ein herzliches und emotionales Verhältnis zu Tieren – nicht nur zu meinem gemütlichen und verschmusten Kater Sam.  Aber wenn Menschen zu komplexen Fragen Entscheidungen treffen, ohne „im Thema“ zu sein, und wenn „das Thema“ gleichzeitig so sehr geeignet ist – unter Umgehung der Großhirnrinde – direkt an unsere gefühligen Bäuche zu appellieren, dann besteht die Gefahr, dass am Ende aus Plebiszit blanker Populismus wird – mit fatalen Folgen. Tatsächlich ist das Thema Tierversuche ziemlich komplex. Ohne eine gewisse Kenntnis der Geschichte der Medizin sowie der Biologie und ohne ein Grundverständnis für die Methodik der Forschung kann es nicht beurteilt werden. Mein Zutrauen zu den Kenntnissen der EU-Bevölkerung (und einiger ihrer Volksvertreter) zu den genannten Themen hat nun aber durch eine unlängst publizierte Umfrage der EU zum Thema Gentechnik einen herben Dämpfer erlitten: Immerhin antworteten knapp zwei Drittel der Erwachsenen der europäischen Union auf die Frage, ob natürliche Tomaten Gene enthalten würden, mit einem klaren Nein! [3] Zwei Drittel der Bevölkerung fehlen damit offensichtlich die grundlegendsten Kenntnisse in Biologie.

In der Medizin gibt es die wichtige Errungenschaft des sogenannten „informed consent“ (zu Deutsch etwa „informierte Einwilligung“): Bevor ein Patient behandelt werden darf, muss er hinreichend über die Art der Behandlung, ihre Ziele, ihre Chancen und Risiken informiert worden sein. Was innerhalb der Medizin recht ist, sollte nur billig sei, wenn Menschen über das Schicksal der medizinischen Forschung in Europa entscheiden. Denn ein generelles EU-weites Verbot von Tierversuchen hätte ohne Zweifel massive Risiken und Nebenwirkungen.  

Information tut Not, denn die Kampagnen der organisierten Tierversuchsgegner, spielen fast alle mit gezinkten Karten – ob mutwillig oder aus Ahnungslosigkeit – das sei dahingestellt. 

Strenggenommen sind mit dem Für und Wider von Tierversuchen zwei Fragen verbunden, die sinnvollerweise getrennt und nacheinander beantwortet werden müssen. 

Die erste Frage lautet: Sind Tierversuche nützlich und notwendig oder sind sie überflüssig?  (Wenn sie überflüssig sind, dann brauchen wir nicht weiter zu diskutieren und sollten sie besser heute als morgen abschaffen)[4].  

Wenn wir aber anerkennen, dass der Verzicht auf Tierversuche die Forschung und die Entwicklung der Medizin substantiell behindert, dann müssen wir uns einem ethischen Dilemma stellen.  Diese zweite Frage muss dann lauten:  Sind Tierversuche nach Prinzip der Verhältnismäßigkeit legitim und ethisch gerechtfertigt oder müssen sie ohne Wenn und Aber verboten werden, auch wenn das Menschenleben kostet? Die erste Frage kann nur die Biologie und die Medizin beantworten. Die zweite Frage beinhaltet ein ethisches Problem, das eine Gesellschaft im Diskurs lösen muss.  

Wir müssen ehrlich sein. Leider kenne ich keine Tierschutzorganisation, die gegen Tierversuche trommelt, aber eingesteht, dass dieses ethische Dilemma überhaupt besteht. Stattdessen kommunizieren alle organisierten Kampagnen immer wieder dieselben Mythen, um dem Publikum einzureden, der Verzicht wäre zum Nulltarif zu haben. Die Argumentation der kategorischen Gegner von Tierversuchen ist ebenso schlicht wie falsch. Sie “erledigen“ die erste Frage, indem sie einfach behaupten: „Die moderne biologische und medizinische Forschung ist nicht auf Tierversuche angewiesen.“ [5] In diesem Kontext ziehen sich drei fundamentale Irrtümer wie ein roter Faden durch die unselige Debatte und diese Irrtümer möchte ich im Folgenden korrigieren:


Irrtum Nummer Eins: Tierversuche in der Grundlagenforschung sind „zweckfreie Neugierforschung“

„In der Grundlagenforschung geht es per Definition um die Vermehrung des Wissens, um das Streben des Menschen nach Erkenntnis. Anwendbare Ergebnisse sind nicht das erste Ziel. Ihr Zweck ist also nicht die Heilung und Behandlung von Krankheiten, sondern die Forschung selbst. Diese zweckfreie Neugierforschung macht inzwischen etwa die Hälfte aller Tierversuche aus.  Um den Selbstzweck in der Öffentlichkeit zu verschleiern, wird zur Rechtfertigung oft die Heilung kranker Menschen in Aussicht gestellt. Die Forschungsergebnisse würden irgendwann in ferner Zukunft einmal Menschen helfen. Doch solche Behauptungen können leicht erfunden werden, denn niemand kontrolliert sie.“ („Ärzte gegen Tierversuche“) [6]  

Wenn ich so etwas lese, dann muss ich jedes Mal tief durchschnaufen. Die Ignoranz, die meine „Kollegen“[7] hier gegenüber den Wurzeln ihres eigenen Fachs und der Methodik und Geschichte der Forschung an den Tag legen, ist atemberaubend. Diese Ignoranz ist so fundamental, dass ich beim Irrtum Nummer Eins ein wenig ausholen muss:   

Als die Mutter meines Schwiegervaters an einem kühlen und zugigen Frühlingstag des Jahres 2016 zu Grabe getragen wurde, kam der Pfarrer bei der Trauerrede ins Stocken. Es ging um die Familie.  Meine Schwieger-Großmutter hatte das gesegnete Alter von 96 Jahren erreicht und alle Geschwister waren vor ihr gestorben: Und jetzt wusste niemand unter den Anwesen inklusive des Pfarrers mehr genau, wie viele es wirklich gewesen waren. Die Angaben schwankten zwischen elf und zwölf Brüdern und Schwestern. 

Heute sind zwölf Geschwister etwas Außerordentliches, eine Zahl, die keiner so schnell vergisst.  Im Jahr 1900 war dem nicht so: Auch meine beiden Großmütter, geboren 1896 und 1897, waren alt geworden. Auch sie hatten viele (neun respektive elf) Geschwister. Allein, von den Geschwistern habe ich die wenigsten kennengelernt.  Die Mehrzahl hat das Erwachsenenalter nicht erreicht. Nicht etwa, dass auf meiner Familie ein besonderer Fluch gelastet hätte.  Die durchschnittliche Lebenserwartung im Jahr 1900 im Deutschland, damals technologisch und medizinisch eines der am höchsten entwickelten Länder der Welt,[8] lag nur bei knapp über 40 Jahren. Das waren kaum 10 Jahre mehr als in der Jungsteinzeit, 12.000 Jahre früher. Heute ist die Lebenserwartung doppelt so hoch. Diese erfreuliche Entwicklung hat sicher mehrere Gründe. Einer davon ist die spektakuläre Entwicklung des Wissens in der Biologie und der Medizin im Laufe der letzten 120 Jahre. 

Und der Beitrag der Grundlagenforschung an dieser Entwicklung ist essentiell, eben – im wahrsten Sinne des Wortes – grundlegend!   

Es geht in diesem Abschnitt um zweierlei. Erstens ist klarzumachen, warum die Grundlagenforschung – von Ausnahmen abgesehen – eine notwendige Voraussetzung für angewandte Forschung ist. Und zweitens soll deutlich werden, warum Tierversuche in der Grundlagenforschung des 20. Jahrhunderts eine ganz zentrale Rolle gespielt haben und immer noch spielen.  Zwei Fragen, zwei Beispiele: 

Das erste Beispiel dreht sich um die Suche nach dem „Geheimnis der Geheimnisse“ der Biologie, dem Geheimnis der Entstehung der Arten, ein biologische Grundfrage par exellence.[9] Charles Darwin glaubte mit dem Buch, das er im Jahr 1859 der Öffentlichkeit vorgelegt hatte, dieses Geheimnis zumindest in Grundzügen enträtselt zu haben.[10] Das berühmteste Werk der Biologie ist Grundlagenforschung „as its best“.  Aber die Lösung war nicht vollständig. Was Darwin fehlte, war eine schlüssige Theorie der Vererbung.  Den ersten fehlenden Teil des Puzzles lieferte schon wenige Jahre später der damals kaum bekannte Mönch und Naturforscher Gregor Mendel mit seinen Forschungen zur Vererbung verschiedener Merkmale von Erbsen.[11] Mendel macht unzählige Kreuzungsexperimente, und fand, dass Erbinformation in Form kleiner, diskreter Pakete weitergegeben werden. Auch Mendels Arbeit war natürlich „Grundlagenforschung pur“. Ihm ging es nicht um Erbsen, ihm ging es um grundlegende Gesetze der Vererbung, die für alle gelten, für Erbsen, Mäuse und für Menschen. Die Erbsen waren Mendels experimentelles Model.

Hier ist eine kurze Zwischenbemerkung nötig:

Wer über die Methodik der Forschung redet, muss verstehen, was ein experimentelles Modell ist: Viele biologische Phänomene können wir nicht direkt beim Menschen untersuchen. Aus ethischen, sehr oft aber vor allem aus praktischen Gründen. Experimente mit Menschen sind oft auch gar nicht nötig. Und sie wären sogar kontraproduktiv, nämlich immer dann, wenn es um die Aufklärung universeller biologischer Phänomene geht, die bei allen oder vielen Tierarten ähnlich organisiert sind. Die Vererbungsgesetze sind so ein universelles Phänomen. Daher waren in diesem Fall selbst Erbsen ein geeignetes Modell für uns Menschen. Mendel hätte die ‚Mendelschen Regeln‘ übrigens nie entdeckt, hätte er Kreuzungsexperimente mit Menschen gemacht.[12]  Trotzdem gelten sie natürlich auch für uns.

Mit Hilfe von Modellorganismen können wir, wenn sie intelligent gewählt sind, allgemeinere Fragen beantworten, die weit über den Modellorganismus hinausgehen.  Das übrigens ist eine direkte Konsequenz aus der Evolutionstheorie (Grundlagenforschung!): Wir sind graduelle Weiterentwicklungen von Lebewesen, die vor vielen hundert Millionen Jahre existiert haben. Eine ganze Reihe wichtiger grundlegender Funktionsprinzipien aller Lebewesen sind so essentiell, dass sie alle Veränderungen überdauert haben. So ist der genetische Code universell. Es gibt ihn seit drei Milliarden Jahren. Es sind immer und in jedem Lebewesen die drei gleichen DNA-Buchstaben, die für eine bestimmte Aminosäure codieren. Die Grundstruktur der DNA, die berühmte „Doppelhelix“, und die Grundprinzipien der Übersetzung biologischer Information von der DNA über die  RNA in Proteine sind universell, egal ob wir Menschen oder Regenwürmer untersuchen. Vieles, was wir über die grundlegende Bedeutung des programmierten Zelltods wissen, verdanken wir Experimenten mit dem winzigen Fadenwurm c. elegans.  Von keinem Tier haben wir mehr über die Anordnung unserer Gene gelernt, als von der kleinen Fruchtfliege Drosophila. Bei anderen Phänomenen brauchen wir Modellsysteme mit Tieren, die uns näher verwandt sind. Ein Immunsystem, was dem unseren hinreichend ähnlich ist, entstand erst mit der Evolution der Säugetiere. Wesentliche Erkenntnisse über die Funktion des menschlichen Immunsystems stammen daher aus Arbeiten mit Mäusen. Dank der Ratten wissen wir inzwischen ziemlich gut über die Neurobiologie des menschliches Geruchssystems Bescheid.  Übertragbarkeit ist also immer eine Frage des Tiermodells und der Art des Rätsels, das wir mit Hilfe des Modells lösen wollen. Die überwiegende Mehrzahl aller Nobelpreise, die seit dem Jahr 1900 im Fach Biologie/Medizin vergeben wurden, beruhen direkt oder indirekt auf Tierversuchen. Seit 1985 wurde kein Preis mehr vergeben, der nichts mit Tierversuchen zu tun hatte![13]  

Schon der erste Nobelpreis für Medizin aus dem Jahr 1900 für Emil von Behring, vergeben für die Entwicklung der Serumtherapie, basierte auf Tierversuchen. Die Serumtherapie fand aber binnen weniger Jahre auch den Weg in die Klinik und rettete zigtausenden Kindern das Leben, die vorherig elend an der Diptherie erstickt waren.[14] Robert Kochs Entdeckungen zur Übertragung der Tuberkulose beruhen auf Tierversuchen, genau wie Entwicklung des Penicillins durch Flemming, Chain und Florey. Oder die Etablierung der Herzkathedermethode, die im Jahr 1956 mit dem Nobelpreis geadelt wurde. Alle diese Beispiele fanden auf kurzem Weg in die medizinische Anwerbung. 

Tierversuchen verdanken wir aber auch ganz grundlegende Einsichten in die Biologie, etwa in die Organisation und Funktion unserer Gene (Morgan, Nirenberg, Roberts, Sharp), die Mechanismen der Entwicklung eines Embryos (Spemann, Wieschaus, Nüsslein-Vollhardt) oder die Funktionsweise des Immunsystems (Ehrlich, Metschnikow, Benacerraf, Köhler, Milstein, Zinkernagel). Diese Arbeiten lieferten echtes Grundlagen-Wissen, was dann indirekt gewaltigen Einfluss auf die Entwicklung der Medizin genommen hat.  

Das Tierversuche für Grundlagenforschung in der Biologie und der Medizin essentiell waren (und sind) steht also völlig außer Frage !

Nun aber zurück zu unseren Beispielen und zum Geheimnis der Vererbung: Gregor Mendel hatte herausgefunden, dass es so etwas wie vererbbare „Elemente“ geben muss, die unsere körperlichen Merkmale bestimmen. Nur wusste lange niemand, wo diese lokalisiert sind und wie sie funktionieren. Versuche mit Seeigeln (Tiermodell!) von Theorie Boveri legten nahe, das diese “Elemente“ auf den Chromosomen im Zellkern liegen. Aber erst Oswald Avery hat dann im Jahr 1944 (auch mit Hilfe von Tierversuchen) herausgefunden, dass die Nukleinsäuren im Zellkern das Material sind, aus dem die „Elemente  der Vererbung“ – unsere Gene – bestehen. Neun Jahre später haben dann Francis Crick, Maurice Wilkins und James Watson, die Struktur der DNA entschlüsselt und damit den Weg zum Verständnis der Funktion der Gene geebnet.  Knapp 20 Jahr später, Mitte der 70er Jahre, waren die wesentlichen Aspekte der Funktionsweise von Genen verstanden. Salopp formuliert: DNA macht RNA macht Proteine!  Bis in die 70er Jahre war das alles reinste und klarste Grundlagenforschung – scheinbar meilenweit weg vom Krankenbett. Dass wir heute wissen, was Gene sind, wie sie funktionieren, auf welche Weise sie Körper, Identität und Verhalten beeinflussen, das sind Dinge, die wir dieser Forschung verdanken. Man kann das für wichtig halten oder auch nicht. 

In unserem Kontext ist entscheidend, dass nur 15 Jahre später, seit Mitte der 80er Jahre, die Genetik aus der Medizin nicht mehr wegzudenken ist! Genetik ist nicht nur die Grundlage für die Diagnose erblicher Erkrankungen. Ohne Genetik würden wir die Krebserkrankungen nicht einmal im Ansatz verstehen! Die genetische Diagnostik von Tumorerkrankungen ist inzwischen die Basis für die Auswahl zielgerichteter Therapien. Es gibt kein Feld der Medizin von der Augen- bis zur Zahnheilkunde, in dem die Genetik keine Rolle spielen würde. Und nicht nur das. Die Gen-Technologie eröffnet mit Hilfe sogenannter rekombinanter DNA die Möglichkeit eine ganze neuen Kategorie von Medikamenten herzustellen, Medikamente, die bis in die 80er Jahre des letzten Jahrhunderts undenkbar waren. 

Und mit diesen Medikamenten kommen wir jetzt zum zweiten Beispiel. Es zeigt, dass der Weg von der Grundlagenforschung zur Therapie noch viel kürzer und geradliniger sein kann:

Es war zur Mittagszeit irgendwann im Mai des Jahres 1994. Ich war damals PJ-Student an der Kinderklinik der Universität Tübingen. Die Stationsärzte waren schon in die Kantine entschwunden und ich sollte mich noch um einen Neuzugang kümmern. Als ich in das Untersuchungszimmer der Station kam, lag dort ein blasser, schläfriger, schmaler, ausgetrockneter zwölfjähriger Junge, der kaum noch die Augen aufmachen konnte. Die ratlose Mutter vermutete einen Blaseninfekt, da der Junge in letzter Zeit oft zur Toilette gemusst hatte. Dem Jungen ging es ganz offensichtlich schlecht. Ich legte ihm einen Zugang und nahm Blut- und Urinproben ab. Weil mich die Neugier trieb und ich nicht auf die Werte aus dem Labor warten wollte, tauchte ich einen Teststreifen in die Reste des Urins im Becher. Spätestens als sich dieser rasch tief dunkel verfärbte, war auch dem blutigen Anfänger klar, was los war. Das Kind hatte die Zuckerkrankheit und war von einem diabetischen Koma nicht mehr weit entfernt. Wenige Minuten später stand der zuständige Oberarzt, ein erfahrener Diabetologe, im Zimmer und nach ein paar Stunden, sehr viel Flüssigkeit und etlichen Einheiten Insulin war der Junge wieder ziemlich munter.  75 Jahre früher wäre die Geschichte tödlich ausgegangen. Auch die damaligen Ärzte hätten die Diagnose Typ 1 Diabetes schnell gestellt. Dann wäre ihnen aber nichts anderes übrig geblieben, als sich mit der Mutter ans Bett zu setzen und dem Kind beim Sterben zuzusehen.  Juvenile Diabetes[15] war bis zum 11. Januar des Jahres 1922 nicht nur eine unheilbare, sondern oft auch eine ziemlich rasch zum Tode führende Krankheit. 

Diabetes ist seit der Antike bekannt, aber bis ins Jahr 1889 wusste niemand in welchem Teil des Körpers die Krankheit entsteht. Es gab unterschiedliche Mutmaßungen. Viele favorisierten eine Nierenerkrankung, bis Oscar Minkowski und Joseph von Mering die Probe aufs Exempel machten.  Sie narkotisierten einen Hund und entfernten seine Bauchspeicheldrüse. Als das Tier aus Narkose erwachte und sich erholte, mussten die beiden feststellen, dass der Hund tatsächlich eine Zucker-Erkrankung entwickelte. Es war dieser Tierversuch, der einer 2.000 Jahre währenden Diskussion über den Entstehungsort der Krankheit ein Ende machte. Doch damit war die Krankheit nur eingegrenzt, ihre Entstehung und Genese weder geklärt, noch eine Therapie in Sicht.  Physiologen wie Edgar Sharpey vermuteten, dass eine einzelne chemische Substanz, die in der Bauchspeicheldrüse produziert würde, für die Kontrolle der Zuckerhaushalts verantwortlich ist.   Im Jahr 1869 hatte Paul Langerhans Schnitte von Bauchspeicheldrüsen unter dem Mikroskop beobachtet und festgestellt, dass in der Drüse seltsame Zellinseln zu finden sind. (Grundlagenforschung!).  Sharpey vermutete die Quelle der ominösen zuckerregulierende Substanz in diesen Inseln. Aber vorschnelle Versuche, Diabeteskranke mit Extrakten aus der Bauchspeicheldrüse zu behandeln, blieben erfolglos.  33 Jahre nach der wegweisenden Operation von Minkowski und von Mering wollten Frederick Grant Banting und Charles H. Best endlich der „Inselzell-Hypothese“ auf dem Grund gehen. Nach Monaten mühevoller Arbeit im Labor gelang ihnen die Isolierung eines wirksamen Extrakts aus den Bauchspeicheldrüsen tierischer Feten. Sie nannten den Stoff zunächst „Isletin“.  Im Juli 1921 wagten sie es und wiederholten dann den Tierversuch von Mering und Minkowskis, dieses Mal aber mit einer entscheidenden Modifikation. Wieder entfernten sie die Bauchspeicheldrüse eines Hundes.  Jetzt folgt der zweite Schritt. Analog zu den Vorversuchen stellten sie aus den zerkleinerten Langerhans’schen Inseln der Hunde-Drüse einen Extrakt her, mit dem sie den diabetischen Hund behandelten. Tatsächlich gelang es ihnen, dessen Blutzuckerspiegel signifikant wieder abzusenken. Das Tier wurde zunehmend muntererer und Banting und Best überschritten damit die Schwelle von der Grundlagen-  zur anwendungsbezogenen Forschung:  

Das geschah gerade rechtzeitig für einen kleinen Jungen namens Theodore Ryder. Theodore war fünf Jahre alt und wog nur noch 12,5 Kg, als er ins Toronto General Hospital aufgenommen wurde. Er war auch schon in einem nahezu komatösen Zustand und weder die Ärzte noch die Eltern gaben einen Pfifferling auf sein Leben.  Zu seinem Glück startete im Juli 1922 die weltweit erste Insulin-Therapie eines Diabetikers: Theodores Blutzuckerspiegel fiel schon in der ersten Stunden dramatisch. Bald konnte er aufstehen. Und ein paar Wochen später wurde er nach Hause entlassen, munter, auch wenn er lebenslang von weiteren Injektionen abhängig blieb. Theodore schrieb später an Banting: „Lieber Doktor Banting, ich wünschte, Sie könnten mich jetzt sehen. Ich bin ein kräftiger Junge und fühle mich prächtig. Ich kann auf Bäume klettern. Margaret würde Sie auch gerne sehen. Alles Liebe, Teddy Ryder.“  Theodore starb im Jahr 1993 nach 71 Jahren Diabetes-Therapie ohne nennenswerte diabetesbedingte Komplikationen im Alter von 76 Jahren. 

Schon ein Jahr später wurden Frederick Banting und James MacLeod für ihrer Arbeit mit dem Nobelpreis in der Kategorie Physiologie und Medizin ausgezeichnet. Ungewöhnlich schnell. Offensichtlich hatte auch das Nobelpreis-Komitee die große Tragweite ihrer Experimente erkannt. Millionen Menschen mit Diabetes Typ 1 verdanken seither der Insulin-Therapie ein einigermaßen normales Leben. 

Ich habe diese Geschichte nicht nur erzählt, weil sie zeigt, dass der Weg von der Grundlagenforschung ans Krankenbett auch kurz und gerade sein kann.  Ohne Grundlagenforschung keine Insulinbehandlung. Die Geschichte hat aber noch einen weiteren bedenkenswerten Aspekt. Bis in die 1980er Jahre war es unmöglich, Insulin synthetisch herzustellen. Man musste das lebensrettende Medikament aus der Bauchspeicheldrüse von Rindern oder Schweine isolieren. (An dieser Stelle kann ich mir eine Frage an radikale Tierschützer nicht verkneifen: Hätten Sie die Rinder und Schweine geopfert, um mit Insulin behandeln zu können – oder lieber die Diabetiker?).   

Jetzt kommt die Wendung:  Ohne die Grundlagenforschung zur DNA von Oswald Avery, Watson und Crick, ohne die Grundlagenforschung zur Entschlüsselung des genetischen Codes, ohne die Grundlagenforschung von Fred Sanger, die uns ermöglicht hat DNA zu „lesen“ und ohne die Grundlagenforschung von Paul Berg und Herbert Boyer zur Technik des Klonierens rekombinanter DNA, die es erlaubt fremde DNA in Zellen einzuführen und dort entsprechende Eiweiße zu produzieren, müssten wir auch heute noch unzählige Rinder und Schweine töten, um Diabetiker mit Insulin zu versorgen!

Es kam zum Glück anders: Im Jahr 1982, nur 30 Jahre nach der Entdeckung der Doppelhelix, meldete die Firma Genentech ihr erstes Patent zur Herstellung von Humaninsulin auf gentechnischer Basis an.  Es war übrigens auch diese Technik (aus der Grundlagenforschung) die nur weniger Jahre später Menschen mit der Bluterkrankheit aus einem furchtbaren Dilemma befreite. Blutern fehlt ein gerinnungsförderndes Eiweiß im Blut, was dazu führt, dass sie spontan lebensbedrohliche Blutungen entwickeln. Bis in die zweite Hälfe der 1980er Jahre mussten Bluter mit Präparaten behandelt werden, die aus gepooltem menschlichem Blut gewonnen wurden. Etwas anderes gab es nicht. Blutpoolpräparate waren aber in dieser Zeit mit großer Wahrscheinlichkeit mit dem HIV-Virus verseucht. Bevor gentechnisch hergestellte Faktor VIII-Präparate zur Verfügung standen, hieß die Alternative für viele Bluter nur: Jetzt an der Blutung oder später an AIDS sterben!  

So viel zum Thema „zweckfreie Neugierforschung“! Vieleicht kommen selbst die Kollegen von den „Ärzten gegen Tierversuche“ an dieser Stelle ins Grübeln und überdenken ihre Geringschätzung der Grundlagenforschung.  Denn merke: Grundlagenforschung rettet auch Tierleben![16]  

Grundlagenforschung ist wichtig. Und Tiermodelle sind für die Grundlagenforschung wichtig.  Wenn wir verstehen, wie der Körper funktioniert und wie Krankheiten funktionieren, dann können wir aus diesem Wissen Kapital schlagen und Technologien zu Behandlung entwickeln, die ebenfalls funktionieren. Eine Grundvoraussetzung ist das Verständnis für die normalen Funktionen des Körpers. 

Kommen wir also zu Irrtum Nummer Zwei:  


Irrtum Nummer  Zwei:   Ergebnisse auf Tierversuchen sind nicht auf Menschen übertragbar („Das Tier ist kein geeignetes „Modell“ für den Menschen“) [17]

Auf der Homepage der Tierschutzorganisation PETA lesen wir: „Das erschreckende Ergebnis einer Studie von 2018  lautet, dass nur 3,4 Prozent der onkologischen Medikamente, also der Präparate gegen Krebs, eine Zulassung zur Anwendung am Menschen erhielten und das, obwohl sie in Tierversuchen erfolgreich und sicher waren.“ [18]  

Dasselbe in Grün aus der Feder der „Ärzte-gegen-Tierversuche“„Die wissenschaftliche Faktenlage ist deutlich: Bis zu 95 % aller Medikamente, die sich im Tierexperiment als wirksam erwiesen haben, scheitern, wenn sie erstmals am Menschen erprobt werden (Klinische Phase 1-3).“ [19]

Auf den ersten, unbedarften Blick mögen diese Zahlen vielleicht erschreckend wirken. Aber jeder, der auch nur ein Fünkchen Ahnung hat, wie Medikamente entwickelt werden, merkt sofort, wie unwissend oder wie demagogisch solche Argumente sind. Die Entwicklung von Medikamenten ist ein langsamer, steiniger Prozess! In der Krebsmedizin geht man von mindestens 10 Jahren Entwicklungszeit aus. Und die Kosten belaufen sich mittlerweile auf mehr als eine Milliarde Euro. Soviel Zeit und Geld sind notwendig, bis aus einer Idee ein neues Medikament wird.[20]

Im vorigen Abschnitt wurde gezeigt, warum die rationale Entwicklung einer erfolgreichen, neuen Therapie auf Grundlagenforschung angewiesen ist. Man beginnt mit Experimenten, um zu verstehen, wie ein gesunder Körper funktioniert. Dann folgen Experimente, um den Mechanismus der Entstehung einer Krankheit zu entschlüsseln.  Das Verständnis dieser „Pathogenese“ ist dann die Voraussetzung für Konzepte aus denen eine Behandlungsansatz entstehen könnte. Bis zu dieser Stelle: Grundlagenforschung.

In der Medizin gibt es aber keine Garantie dafür, dass ein schönes Konzept, was am Reißbrett erdacht wird, in der Praxis auch funktioniert. Die Hindernisse auf dem Weg zu einem tauglichen Medikament oder Therapiekonzept sind vielfältig. Damit komme ich zu der zweiten Kategorie von Tierversuchen.  Das sind diejenigen Experimente, die gemacht werden, um herausfinden, ob eine schöne Idee, ein Medikament, oder eine andere Art von Therapieverfahren in der Praxis auch tatsächlich funktioniert. 

In diesem Zusammenhang  werden oft unzählige Kandidaten, die zum Beispiel aufgrund biochemischer Kriterien ausgewählt wurden, in geeigneten Zellkulturen auf ihre Wirkung getestet.  Von manchmal über 10.000 Substanzen, die in dieser ersten präklinischen Phase erprobt werden, schaffen es vielleicht 100 bis in den Tierversuch. Der Rest landet auf dem großen Müllhaufen der Wissenschaftsgeschichte. Auch im Tierversuch geht es zunächst um Wirksamkeit (Krebszellen, die vereinzelt in Kulturen schwimmen, verhalten sich oft ganz anders als Zellen, die solide Tumore in Tieren wie Mäusen bilden).  Daneben rückt aber immer stärker auch die Untersuchung der Verträglichkeit der Substanzen in den Fokus. Was hilft schon das beste Krebsmedikament, wenn sich bei der Behandlung des Patienten seine Leber auflöst?  Neben der Organverträglichkeit geht es im Tierversuch auch um Dinge wie die Verteilungskinetik, die erreichbaren Gewebekonzentrationen und um die Wege, die ein Körper finden muss, um das Medikament wieder loszuwerden. All das lässt sich (momentan) nur in lebenden   Organismen (meist Mäusen) untersuchen. 

Naturgemäß bleiben natürlich auch hier wieder Kandidaten auf der Strecke. Merke: Was in der Zellkultur wirkt, muss nicht im Tiermodell wirken, und was im Tiermodell wirkt, ist noch lange kein geeignetes Medikament für Menschen. So stimmt es zwar, wenn die PETA-Aktivisten schreiben, dass „nur 3,4 Prozent der onkologischen Medikamente, die im Tierversuch „erfolgreich“ waren, am Ende eine Zulassung zur Anwendung am Menschen erhielten.  Das ist aber keineswegs ein Argument gegen Tierversuche.[21] Es zeigt nur, dass die Entwicklung von Medikamenten ein schwieriges Geschäft ist.

Selbst wenn Tierversuche mit Medikamenten eins zu eins auf den Menschen übertragbar wären (was sie nicht sind und was niemand je behauptet hat), müssten die klinischen Studien am Menschen nach erfolgreichen Tierversuchen vor einer Zulassung beim Menschen noch weitere Fragen klären:   Zunächst muss in sogenannten Phase I-Studien an wenigen gesunden oder an kranken Patienten ohne etablierte Alternativen die Dosis ermittelt werden, die den optimalen Kompromiss zwischen Wirkung und Nebenwirkung darstellt.  Auch hier bleiben wieder Kandidaten auf der Strecke, wenn kein akzeptabler Kompromiss gefunden werden kann. In Phase II-Studien mit einigen Dutzend Patienten müssen die übrig geblieben Kandidaten dann zeigen, ob sie geeignet sind, mit der ermittelten Dosierung im Patienten eine ausreichende Wirkung zu erzielen. Erst dann folgen große Phase-III Studien, die das potenzielle Medikament an hunderten von Patienten im Vergleich zu Placebos oder aber in Konkurrenz zu einer bereits etablierten Therapie testen. Es kann als durchaus sein, dass ein Kandidat wirkt, aber am Ende durchfällt, weil er der bisherigen Standardbehandlung nicht überlegen ist. Es kann auch sein, dass die Phase III-Studie zwar ein Fehlschlag ist und dem Medikament die Zulassung verweigert wird, eine nachträgliche Untersuchung aber zeigt, dass das Medikament bei einer bestimmten Untergruppe der Patienten (z.B. mit speziellen genetischen Veränderungen im Tumor) doch wirksam ist und weitere Studien dann zur Zulassung für ein anders definiertes Patientenkollektiv führen.[22]

Zellkulturversuche und Tierversuche treffen eine Vorauswahl. Alles was dabei durchfällt, können wir getrost ad actalegen. Der Rest sind Chancen, nicht mehr, nicht weniger. Aber diese Vorauswahl ist notwendig, denn sie reduziert die Zahl der potentiellen Kandidaten von vielen Tausenden auf ein vielleicht zwei bis drei Dutzend. Das ist nicht nur aus ethischen, sondern auch aus praktischen Gründen notwendig. Kontrollierte randomisierte Phase III-Studien, der Königsweg zum Wirkungsnachweis und zur Zulassung, dauern Jahre und kosten Millionen von Euro. Es ist unmöglich, hier blind all das zu testen, was in der Zellkultur vielleicht den Schimmer einer Wirkung zeigt. 

Diese Form der Medikamentenentwicklung ist etwa Neues. Sie ist ein Kind der Medizin des 20. Jahrhunderts.  Sie ist – wie betont – mühsam, und Rückschläge sind vorprogrammiert. Es gibt für diesen Prozess aber weder eine gangbare Abkürzung, noch eine vernünftige Alternative.  

Der französische Dichter Voltaire schrieb im 18. Jahrhundert: „Ärzte geben Medikamente, von denen sie wenig wissen, in Menschenleiber, von denen sie noch weniger wissen, zur Behandlung von Krankheiten, von denen sie überhaupt nicht wissen.“ [23] Leider hatte Voltaire damals vollkommen recht. Arzneimittelbehandlung war von Hippokrates bis Voltaire und noch bis an die Schwelle ins 20. Jahrhundert fast ausschließlich „Schütt und Guck – Medizin“.  Kein Wunder, dass von den unzähligen „Medikamenten“ aus den Arzneybüchern des 16. oder 17. Jahrhundert praktisch nichts übriggeblieben ist. Dort waren fast alle Unappetitlichkeiten dieser Welt zu finden: Gifte wie Arsen und Quecksilber oder gar Rabenkot und getrocknete Fledermausflügel.

Erst im 19. Jahrhundert begann die Chemie überhaupt eindeutig definierte Arzneistoffe zu isolieren und zu produzieren. Ihre Zahl blieb aber bis ins die erste Hälfe des 20. Jahrhunderts überschaubar: 1805 Morphium, dann 1820 Koffein, 1828 Nikotin, 1831 Atropin, 1832 Codein, 1831 Chloroform, 1853 Acetylsalicylsäure, 1863 Barbitursäure und 1893 Aminophenazon. Man mach sich klar: Von Hippokrates bis ins Jahr 1800 gab es kein einziges chemisch klar definiertesArzneimittel, dann ganze neun Substanzen in fast 100 Jahren.[24] Im Jahr 2022 waren dann in Deutschland 49.700 verschiedene verschreibungspflichtige Medikamente zugelassen![25]  

Liebe Kollegen von den „Ärzten gegen Tierversuche“:   Genau umgekehrt wird ein Schuh draus:  Es gibt heute kein einziges zugelassenes Medikament in der Onkologie, bei dessen Entwicklung keine Tierversuche zum Einsatz kamen (Das gilt übrigens für fast alle anderen Medikamente, die der Medizin heute zur Verfügung stehen). 

Bereits im letzten Abschnitt wurde erläutert, das Übertragbarkeit etwas ist, was man nicht losgelöst vom Kontext eines konkreten Models und einer konkreten Fragestellung beurteilen kann.  In der Grundlagenforschung gilt:  Je basaler der physiologische Mechanismus ist, der untersucht werden soll, desto breiter ist die potenzielle Übertragbarkeit.  

Ich hoffe in diesem Abschnitt klar gemacht zu haben, dass sich die Frage der Übertragbarkeit im Zusammenhang mit der Entwicklung von Medikamenten vor allem auf qualitative Effekte wie Wirkung und Nebenwirkungen einer Substanz bezieht, wobei in der Regel gilt: Substanzen, die im Tierversuch wirkungslos oder zu toxisch sind, scheiden vor der klinischen Prüfung am Patienten aus. Umgekehrt ist auch nachvollziehbar, dass eine ganze Reihe der Substanzen, die sich im Tiermodell bewährt haben, auf dem Weg bis zur Zulassung als Medikament noch auf der Strecke bleiben. 

Wenn Tierversuchsgegner nun argumentieren, dass Tierversuche nutzlos oder gar gefährlich seien, weil trotz Tierversuchen immer wieder Nebenwirkungen auftreten und in sehr seltenen Fällen sogar Medikamente wieder von Markt genommen werden müssen, dann ist das in etwa so intelligent wie die Behauptung, dass Sicherheitsgurte gefährlich seien, weil auch Menschen, die angeschnallt Auto fahren, ab und zu tödlich verunglücken. 

Tierversuche in der Medikamentenentwicklung sind wichtig, weil sie die Zahl der potenziellen Kandidaten eingrenzen und weil sie Risiken minimieren – nicht beseitigen.  Es gibt in der Medizin keine wirksame Therapie, die völlig ohne Risiken und Nebenwirkungen ist. Selbst wer eine Tablette Aspirin gegen seine Kopfschmerzen einnimmt, geht damit ein minimales, aber reales Risiko ein, eine Hirnblutung zu erleiden.  Therapien machen Sinn, wenn ihr potenzieller Nutzen die Risken übersteigt. Die ärztliche Kunst besteht darin, die Behandlungsstrategie auszuwählen, die für den konkreten Patienten in der konkreten Situation das beste Nutzen-Risken-Verhältnis hat. Ein mehr oder weniger großes Restrisiko gibt es immer. Das augenfälligste Beispiel ist die Chirurgie. Nahezu jede größere Operation birgt das Risiko, dass der Patient daran verstirbt. Wenn das Mortalitätsrisiko durch die Operation aber bei 0,1% liegt, aber das Risiko bei Verzicht auf den Eingriff an der Erkrankung zu versterben bei 10 %, dann macht die Operation natürlich Sinn.  Die Chirurgie liefert übrigens auch Beispiele für eine dritte Kategorie von Tierversuchen, die oft übersehen wird. Ich rede von Versuchen mit Tieren, die der Entwicklung, Erprobung und Einübung neuer, innovativer OP-Techniken dienen. Eine wesentliche Verbesserung der chirurgischen Technik der letzten 20 Jahre war die Entwicklung der minimalinvasiven Chirurgie mit Hilfe von Endoskopen. Nahezu jede Gallenblasen-OP, aber auch viele große Darmkrebsoperationen werden heute mit dieser Technik durchgeführt, die deutlich geringere Komplikationsraten als die konventionellen Verfahren hat. Die notwenige Expertise dafür haben die Chirurgen zum Beispiel bei Operationen an Schweinen erworben.  

Güterabwägungen zwischen Chancen und Risiken müssen bei jeder Behandlung mit Medikamenten getroffen werden, gerade in der Krebsmedizin. Das Risiko an der Hochdosischemotherapie im Rahmen der Behandlung einer Leukämie zu sterben mag bei bis zu 5% liegen, ohne diese Therapie sterben aber fast alle. Auch bei harmloseren Medikamenten gibt es Risiken, die sich selbst durch Studien mit Menschen nicht völlig ausräumen lassen. Menschen sind verschieden. Ihre Gene unterscheiden sich. Manche Menschen reagieren aufgrund genetischer Dispositionen mit hefigsten Nebenwirkungen auf ein Medikament in einer Dosierung, die von tausend anderen problemlos vertragen wird. Es gibt allergische Reaktionen auf Medikamente, die individuell und unvorhersagbar sind. Alle diese Dinge kann man im Rahmen der Forschung zur Zulassung nicht ausschließen – weder durch Tierversuche noch Studien am Menschen. Das alles sind aber keine Argumente gegen den Einsatz von Tierversuchen im Rahmen der Entwicklung solcher Therapien. 

Fassen wir diesen Abschnitt in einem Satz zusammen: Die Behauptung, dass Tierversuche bei der Entwicklung von Medikamenten sinnlos oder gar gefährlich seien, ist falsch! 

Kommen wir zu drittem Irrtum: 

Irrtum Nummer drei:  Tierversuche sind verzichtbar, weil vollständig ersetzbar

„Wir leben im 21. Jahrhundert mit wunderbaren Möglichkeiten und sollten diese konsequent und nachhaltig nutzen! Die verfügbaren innovativen [alternativen] Methoden haben den Mensch und dessen individuelle Krankheiten im Fokus und müssen nicht den fehlerhaften Umweg über „Versuchstiere“ machen. Bevölkerungs- und Patientenstudien, Obduktionen und Zellkulturen sind dabei nur der Anfang. Zu Zeiten von Computersoftware mit „künstlicher Intelligenz“, bildgebenden Verfahren und mikrofeinen Messmöglichkeiten ist es völlig inakzeptabel, weiterhin an einer veralteten und irrelevanten Methode festzuhalten. Personalisierte Forschung ist das Stichwort. Mit einem Patienten entnommener Hautzellen lassen sich über den Weg der sogenannten „induzierten pluripotenten Stammzellen“ (Nobelpreis 2012) verschiedene, spezialisierte Organzellen herstellen, die sich weiter zu Miniorganen entwickeln, anschließend isoliert oder zusammen mit anderen Organen auf Multi-Organ-Chips gepflanzt und erforscht werden. Gibt man dann auf solche Miniorgane oder Multi-Organ-Chips ein Medikament, lässt sich untersuchen, wie es bei diesem Patienten wirkt. Wir können also bereits am Modell eines (kranken) Menschen forschen.“ Quelle: Arzte gegen Tierversuche

Zu diesem Zitat sei eine kurze Vorbemerkung gestattet: In ihrer Begeisterung für die „wunderbaren Möglichkeiten des 21. Jahrhunderts“ und insbesondere für die pluripotenten Stammzellen, sind die Kollegen vom Glanz der Innovation offensichtlich so geblendet, dass sie in ihrer Euphorie zwei Dinge übersehen haben:  Erstens war Entwicklung pluripotenter Stammzellen reinste Grundlagenforschung[26], also genau die Art von Forschung, die oben noch „als zweckfreie Neugierforschung“ verunglimpft wurde. Die Erkenntnisse sind grundlegend und die Zellen haben ohne Zweifel auch großes Potential in der Medizin, aber bis heute gibt es noch keine etablierte Therapie, die auf diesen Stammzellen beruht. Trotzdem war die Entdeckung sicher nobelpreiswürdig.  Sie feiern die beiden Nobelpreisträger John Gurdon und Shinya Yamanaka also zu Recht, scheinen aber – zweitens –  geflissentlich zu übersehen, dass dieser Nobelpreis auf Tierversuchen beruht. Gurdon entkernte zunächst die Eizellen von Fröschen und ersetzte die Zellkerne durch Kerne von ausdifferenzierten Kaulquappen, aus denen sich dann normale Frösche entwickelten. Er bestätige die Möglichkeiten seiner Technik später dann durch Klonierungsexperimenten mit größeren Säugetieren. Sein Co-Preisträger Yamanaka  arbeitete vor allem am Mausmodell.[27]

Auch dieses Zitat der „Ärzte gegen Tierversuche“ zeugt also wieder von Unkenntnis oder ist als Versuch gezielter Augenwischerei zu werten, um einer unangenehmen Diskussion auszuweichen. Die Aktivisten wollen dem Publikum weißmachen, ein Verzicht auf Tierversuche sei folgenlos, weil es wunderbare, tierversuchsfreie, „alternative Methoden“ gibt, die all das ersetzen können, was bisher im Tiermodell erforscht wurde. 

Auch PETA stößt ins selbe Horn und berichtet von Krebszellen von Patienten, die außerhalb des Körpers auf Chips wachsen und es möglich machen sollen, verschiedene Kombinationen von Chemotherapien in vitro für individuelle Patienten zu testen, vergessen aber zu erwähnen, dass bisher alle Versuche gescheitert sind, solche Tests in der klinischen Routine zu etablieren. 

Es ist befremdlich, dass Tierversuchsgegner immer dann eine grenzenlos naive Wissenschaftsgläubigkeit an den Tag legen, wenn es ihnen in die Karten spielt. Wenn dieselbe Wissenschaft aber unisono erklärt, warum es bis auf weiteres nicht ohne Tierversuche geht, dann glaubt man ihr kein Wort.[28]  Die Fama vor der vollständigen Ersetzbarkeit von Tierversuchen ist eine Mär und eine bewusste die Täuschung des Publikums. 

Was viele Leser an dieser Stelle vielleicht überraschen wird:  Tierversuche sind schon heute verboten, wenn es alternative Methoden gibt, die geeignet sind, das gestellte Problem zu bearbeiten.  Wenn ein Wissenschaftler einen Antrag auf Genehmigung stellt, muss er nachweisen, dass er seine Fragestellung mit anderen Methoden nichtbeantworten kann.[29]

Es wäre müßig und würde den Rahmen sprengen, bei jeder der vielen genannten tierversuchsfreien Methoden deren Grenzen offenzulegen, obwohl sie im Rahmen ihrer Möglichkeiten auch wertvoll sein können. 

Ich versuche stattdessen das Problem in allgemeinerer Form zu erklären:  Von Albert Einstein stammt die schöne Bemerkung, man solle ein wissenschaftliches Problem so einfach wie möglich erklären, aber nicht einfacher! Diese Maxime gilt auch für die Auswahl geeigneter experimenteller Modelle und das Design von Experimenten: So einfach wie möglich, aber so komplex wie nötig.  Manchmal macht es gar keinen Sinn, mit Tiermodellen zu arbeiten. Kein Wissenschaftler reißt sich um Tierversuche, wenn er es einfacher haben kann. Tierversuche sind komplex, vergleichsweise teuer und auch anderweitig aufwändig. Nicht zuletzt nimmt das Schreiben von Tierversuchsanträgen oft viele Wochen in Anspruch. Je komplexer ein Modell, desto schwieriger ist es, die Versuchsbedingungen so zu kontrollieren, dass Ergebnisse nicht durch verdeckte Störgrößen kontaminiert oder verzerrt werden. Jeder vernünftige Wissenschaftler wird also das einfachste Modell wählen, das seiner Fragestellung angemessen ist. 

Nehmen wir zum Beispiel die Genetik.  Wie komplex ein experimentelles Modell sein muss, hängt ganz davon ab, was über DNA oder Gene in Erfahrung gebracht werden soll.  Der Schweizer Friedrich Miescher kam vollkommen ohne Tiere aus, als er nach dem Stoff suchte „aus dem die Gene sind“.  Er besorgte sich eitrige Verbände aus dem Tübinger Universitätsklinikum und isolierte daraus das, was später als Nukleinsäure identifiziert wurde. In diesem Fall waren ein paar abgestorbene weiße Blutkörperchen ein geeignetes „Modell“.  Wer herausfinden möchte, was ein bestimmtes Gen mit einer lebenden Zelle anstellt, der muss zumindest mit lebenden Zellen arbeiten. Grundlegende Erkenntnisse darüber, wie die Sprache der Gene in die Sprache der Eiweiße übersetzt wird, stammen von Arbeiten mit dem kleinen Darmbakterium Escherichia coli. Nur Bakterien, aber trotzdem wertvolle Erkenntnisse, die auf Menschen übertagbar sind.  

Ein weiteres Beispiel: Ende der 1970er Jahre begann sich abzuzeichnen, dass Krebs möglicherweise eine Erkrankung ist, die durch Veränderungen normaler körpereigener Gene ausgelöst wird.  Allerdings hatte bis dato niemand ein „körpereigenes Krebsgen“ nachweisen können. Nach monatelangen frustrierenden Versuchen gelang es schließlich Chiaho Shih, einem Post-Doktoranden im Labor von Bob Weinberg, durch die Übertragung von DNA-Bruchstücken menschlicher Blasenkrebszellen in gesunde Bindegewebszellen von Mäusen, diese in Zellen zu verwandeln, die in der Zellkultur alle Anzeichen bösartigen Wachstums zeigten.  Der Beweis war erbracht. Bob Weinberg und sein Team wurden dafür mit dem Nobelpreis ausgezeichnet. Sie kamen an dieser Stelle ohne Tierversuche aus, weil sie die Vorgänge innerhalb einzelner Zellen untersuchen wollten.[30] In diesem Fall wäre es sogar töricht, ein Modell zu wählen, das komplizierter als eine einzelne Zelle ist. 

Bei vielen Problemen muss der Bogen aber weiter gespannt werden. Wer wissen möchte, wie sich ein bestimmtes Gen oder eine Substanz auf ein Organ, ein Organsystem oder einen ganzen Organismus auswirkt, der muss auch mit Organen, Organsystemen oder Organismen arbeiten. Wer sich für Wechselwirkungen zwischen Organen interessiert, der braucht zwingend komplexere Modelle, die die verschiedenen Organe in einem System integrieren. Eine Herzmuskelzelle ist kein Herz. Sie schlägt nicht im Takt des Reizleitungssystems und pumpt auch kein Blut. Modifikationen des Blutdrucks können nur in Modellen untersucht werden, die auch einen Blutdruck haben.  Die Reaktionen eines Immunsystems auf einen Impfstoff, kann nur in einem Modell untersucht werden, was über ein Immunsystem verfügt. Und aufgepasst: ein paar Lymphozyten auf einem Chip sind noch lange kein Immunsystem, wie die Damen und Herren von PETA vielleicht glauben. [31] Auch eine Nervenzelle ist noch lange kein Gehirn.  Organoide oder Zell-Chips sind wichtige Innovationen. Sie schließen eine Lücke und sind, was ihre Komplexität angeht, zwischen klassischer Zellkultur und Tierversuch einzuordnen: Sie können die Möglichkeiten der in vitro-Experimente erweitern und an der einen oder anderen Stelle Tierversuche auch ersetzen.  Trotzdem ist ein Leber-Chip noch lange keine Leber und ein Brain-Chip erst recht kein Gehirn. Da sich aber Herzen, Lungen, Leber, Nieren, Gehirne oder das Immunsystem bis auf Weiteres nicht isolieren und einzeln oder gar in Kombination in Reagenzgläser stecken lassen, bleibt uns bei entsprechender Fragestellung nichts anderes übrig, als hier die Schwelle zum Tierversuch zu überschreiten und mit einem kompletten lebendigen Organismus zu arbeiten.[32]

Zum Schluss zwei Beispiele, die deutlich herausstreichen, was ich meine. Das eine ist aus der Grundlagenforschung, das andere aus der angewandten Forschung:    

Wenn ich die genetischen Grundlagen des  Kurzzeitgedächtnisses untersuchen möchte, dann brauche ich ein Modell, was zumindest über eine einfache Form von Kurzeitgedächtnis verfügt.  Wie so etwas aussehen kann, zeigen die  Experimente, die sich Chip Quinn und Yadin Dudai ausgedacht haben. Dieses Duo setzte Fruchtfliegen in eine kleine Kammer und bot ihnen nacheinander zwei verschiedene Gerüche an. Einer der Gerüche war dabei stets mit einem unangenehmen kleinen Stromstoß verbunden. Nach einer gewissen Lernperiode mussten die Fliegen in eine zweite Kammer umziehen, an deren beiden Enden jeweils einer der beiden Gerüche wahrzunehmen war. Nicht-konditionierte Tiere verteilten sich gleichmäßig in diesen Kammern, während die konditionierten Tiere konsequent die Ecke mieden, der der Geruch entströmte, der mit dem Stromstoß assoziiert gewesen war. Unter tausenden von Fliegen entdeckten Quinn und Dudai schließlich Varianten, die trotz entsprechender Konditionierung nicht in der Lage waren, die Ecke mit dem „gefährlichen“ Geruch zu meiden. Molekulargenetische Untersuchungen brachten es ans Licht: Diese Dunce-Varianten der Fruchtfliege[33] trugen ein defektes Gen, dass den Abbau eines Botenstoffs namens cAMP hemmt, was die Gedächtnisbildung unmöglich machte. Wenn die funktionelle Rolle einzelner Gene in einem komplexem Funktionsgefüge wie dem Gehirn oder bei der Entwicklung eines Embryos aufgeklärt werden soll, dann bleibt einem meist nichts anderes übrig, als diese Gene im Kontext eines kompletten Organismus zu manipulieren. Oft werden solche Versuche auch mit Mäusen durchgeführt. Diese transgenen Knock-out- oder Knock-In-Mäuse haben uns inzwischen einiges über die Entstehungsgeschichte von Krankheiten wie der Alzheimer-Krankheit verraten. Bei dieser fürchterlichen Erkrankung stehen wir deswegen möglichweise an der Schwelle zur Einführung wirksamer Medikamente. [34]

Ein letztes Beispiel für ein medizinisches Problem, die sich aufgrund der beteiligten Kompetenten nur im Tierversuch bearbeiten lässt, kommt aus meinem Fachgebiet:  Nachdem es lange Zeit wenig Neues auf dem Gebiet der medikamentösen Krebstherapie gab, zeichnet sich seit einigen Jahren ein ganz neuer Therapieansatz ab. Es gibt inzwischen eine Reihe von Medikamenten, deren Wirkung darauf beruht, dass sie die dem körpereigenen Immunsystem helfen, Krebszellen zu erkennen und effektiver zu bekämpfen.[35] Nun gibt es Indizien, dass es möglicherweise eine gute Idee sein könnte, solche Medikamente oder auch Impfungen gegen Krebszellen, mit einer lokalen Strahlentherapie zu kombinieren. Viele Details zu Timing der Kombination, zu Dosierungen, Auswahl der geeigneten Impfstrategie oder der geeigneten Tumore sind aber ungeklärt. Wer solche Fragen bearbeiten möchte, braucht Experimente, die ein Immunsystem und Tumorgewebe in einem System integrieren, damit die gewünschten Wechselwirkungen beobachtet werden können.  Wer nicht direkt an Menschen herumprobieren möchten, kann hier nur auf Tiermodelle ausweichen, denn in einem Reagenzglas sind beide Komponenten bisher nicht zusammen zu bringen. 

Fassen wir zusammen: Tierversuchsgegner mögen es gerne plakativ. Ein oft  gehörter und wiederholter Satz lautet: „Ein Mensch ist keine 75-kg-Ratte“. Ich habe inzwischen hoffentlich genug über das Problem der Übertagbarkeit von Erkenntnissen aus experimentellen Modellen geschrieben, um verständlich gemacht zu haben, dass das bei vielen Fragen irrelevant ist.  Auch ihrer naiven Begeisterung für die vollumfängliche Verwendung von “tierversuchsfreien-Methoden“[36] muss man mit Skepsis begegnen. Hier wird nämlich die „Unähnlichkeit“ der Modelle und die fehlende „Übertragbarkeit“ der Erkenntnisse plötzlich nicht mehr thematisiert. Noch mal in aller Deutlichkeit: Hundert menschliche Gehirnzellen auf einer Glasplatte sind kein Gehirn! Da kann es wesentlich klüger und zielführender sein, mit einem Wirbeltier zu experimentieren, das ein Gehirn besitzt, etwa einer Maus. Wie man es auch dreht und wendet, in den “Argumentationen“ der Tierversuchsgegner wird mit zweierlei Maß gemessen. Ist das Ahnungslosigkeit oder mutwillige Augenwischerei? 

Ich hoffe es ist klar geworden:  Der völlige Verzicht auf Tierversuche wäre für die weitere Entwicklung der Medizin und der Biologie ein riesiges Problem. Um ganz deutlich sagen: Diese Maßnahme würde viele Menschenleben kosten! 

Und trotzdem müssen wir uns, um auf den Anfang dieses Artikels zurückzukommen, der Frage stellen,  ob Tiersuchen moralisch vertretbar sind. Diese Debatte ist wichtig. Nur sollte sie ehrlich und nicht mit gezinkten Karten geführt werden. Dazu ein paar Anmerkungen: 


Nachklang:  Ein paar persönliche Gedanken zur Legitimität von Tierversuchen 

„Aber auch wenn man den Menschen in den Fokus der ethischen Vertretbarkeit von Tierversuchen stellt, ist diese Methode der falsche Weg. Denn es gibt kein ethisches Dilemma „Tierleid statt Menschenleid“, stattdessen zahlreiche wissenschaftliche Belege dafür, dass der Tierversuch dem Menschen Schaden statt Nutzen bringt.“[37]

Wir haben gesehen: Diese Behauptung ist falsch! Es gibt dieses ethische Dilemma und wir sollten ehrlich sein und uns der Debatte stellen. Dabei kann man eher fundamentalistisch-kategorisch oder pragmatisch-abwägend vorgehen. 

„Antispeziesismus“  oder . . .

Radikale Tierversuchsgegner bevorzugen meist die fundamentalistische Variante der Argumentation: Da wäre zum Beispiel der berühmt-berüchtigte „Speziesismus-Vorwurf“:  Hören wir die Stimme von PETA: 

Speziesismus ist die Diskriminierung von nicht-menschlichen Tieren [….] . So wie die Diskriminierung von Menschen aufgrund ihres Geschlechts, ihrer Herkunft, einer Beeinträchtigung, ihres Alters oder ihrer sexuellen Orientierung verursacht der Speziesismus großes Leid bei den Betroffenen. Einfach ausgedrückt, werden im Speziesismus Menschen gegenüber anderen Tieren bevorzugt […]. Speziesismus basiert auf der fehlgeleiteten Annahme, eine bestimmte Spezies sei wichtiger als eine andere.“ [38]

Der Begriff Speziesismus wurde 1970 von dem Psychologen Richard Ryder einführt und spielt vor allem im Denken des Philosophen Peter Singer eine Rolle. Singer verweist auf die Evolutionstheorie und das stammesgeschichtliche Kontinuum der Arten und geißelt daher – in Analogie zu Rassismus und Sexismus – eine weitere vermeintliche Unart des Menschen, den „Speziesismus“.  „Speziesismus“ bedeutet für ihn „Chauvinismus zugunsten der eigenen Art“.  Nach Singers Ansicht geht aus dem Gleichheitsprinzip und der Evolutionsgeschichte hervor, dass wir Lebewesen weder aufgrund ihrer Rassen- oder Geschlechtszugehörigkeit, noch aufgrund ihrer Artzugehörigkeit diskriminieren dürfen. Damit hebt er die Grenze zwischen Menschen und anderen Tieren auf.

Diese fundamentalistische, kategorische Methode der Argumentation hat einen Riesenvorteil. Wer so denkt, muss sich keiner weiteren Diskussion stellen, muss nicht differenzieren und vermeidet lästige Güterabwägungen. Der „Antispeziesist“ scheint moralisch a priori auf der richtigen Seite zu stehen. Tierversuche müssen verboten werden – immer und egal zu welchem Preis. Wer die Logik dieser Argumentation ernst nimmt, darf menschliche Interessen und die Interessen anderer Tiere (egal welcher)  grundsätzlich nicht gegeneinander abwägen. 

Bei Licht besehen und mit Blick auf all die Tierarten, die unsere Erde bevölkern, sorgt das Konzept des „kategorischen Antispeziesismus“ in der Anwendung schnell für gewaltige Probleme, und führt meiner Ansicht nach in nicht aufzulösende praktische Antinomien und Konflikte. Wer argumentiert, es gäbe keine legitimen Gründe, eine Grenze zwischen Menschen und Menschenaffen zu ziehen, der darf auch keine Grenze zwischen Schimpansen und Pavianen, Pavianen und Lemuren, Lemuren und Löwen, zwischen Mäusen und Amseln, zwischen Kolibris und Krokodilen, zwischen Eidechsen und Kröten, Forellen und Krustentieren, Krustentieren und Tintenfischen ziehen. Irgendwann führt sich das Argument des evolutionären Quasi-Kontinuums selbst ad absurdum – spätestens beim Bandwurm und der Amöbe! 

Es gibt unzählige Situationen, in denen wir gar nicht anders können, als zwischen verschiedenen Tierarten zu differenzieren. Als es noch keine Möglichkeit gab, Insulin gentechnisch herzustellen, mussten dafür Schweine sterben. War das artchauvinistisch motivierter Massenmord oder eine legitime Maßnahme, die unzähligen Diabetikern das Leben gerettet hat?  Auf Fleisch, selbst aufs Rasenmähen,[39] werden hartgesottene Tierrechtler vielleicht verzichten können. Sie werden aber ins Grübeln kommen, wenn sie vor der Frage stehen, ob sie sich einer Zecke entledigen sollen oder ob sie ihre Bandwurmerkrankung oder Amöbenruhr mit den entsprechenden Medikamenten behandeln dürfen und damit unweigerlich den Tod dieser Tiere in Kauf nehmen? 

Wenn wir akzeptieren, dass wir in bestimmten Fragen Grenzen zwischen Arten ziehen dürfen, ja müssen, dann liefern die Biologie und mehr noch die Psychologe und die Kulturwissenschaften einige gute Argumente dafür, eine solche Grenze zwischen Menschen und anderen Tierarten zu ziehen. Denn gewisser Hinsicht haben Menschen einige Alleinstellungmerkmale im Vergleich zu anderen Tieren. Wir sind zum Beispiel die einzige Tierart, die Texte wie diesen schreibt und die sich über das Problem des Speziesismus überhaupt Gedanken macht. Menschen verfügen über Maximen, Ideen und Konzepte, die allen anderen Tierarten fremd sind. 

Menschen aller Kulturen kennen zum Beispiel das Prinzip der „Nothilfe“:  Wenn andere Menschen in Lebensgefahr sind, dann ist ein Gebot der Moral im Rahmen unserer Möglichkeiten zu helfen. Diese Maxime ist die Grundlage von individueller Nothilfe, reicht bei uns aber bis zu der Installation staatlicher, solidarischer Gesundheitssysteme. Natürlich gibt es andere Tierarten, die ebenfalls instinktiv Artgenossen helfen. Viele tun es aber auch nicht. Wenn wir dieses moralische Prinzip der Nothilfe aber auf andere Tierarten ausdehnen würden, dann würden wir sofort in eine fürchterliche Zwickmühle geraten: Wem sollten wir denn helfen? Dem Reh, das vom Wolf bedroht wird oder hungrigen Wolf, der das Reh reißen muss, damit sein Nachwuchs nicht verhungert?

Im Außenverhältnis zur Natur  propagieren wir gerne das Prinzip des ökologischen Gleichgewichts. Das bedeutet,  Ökosysteme soweit als möglich sich selbst zu überlassen und so wenig wie möglich in die natürlichen Mechanismen einzugreifen, die sie im Gleichgewicht halten. Zur Erhaltung des ökologischen Gleichgewicht gehört auch, dass manche Tiere andere fressen. Ich glaube, selbst radikale Tierschützer würden nicht auf die Idee kommen, hier zu intervenieren. 

Umgekehrt fänden es die meisten Menschen aber vermutlich monströs, das Prinzip des sich selbst steuernden ökologischen Gleichgewichts (was wir in Bezug auf die Natur für wichtig und erstrebenswert halten)  auf die Kontrolle der menschlichen Population zu übertragen.  Im Gegenteil, es Teil unserer ethischen Kultur, dass wir Menschenleben, wo immer wir können, schützen, dass wir verhindern, dass unsere Mitmenschen räuberischen Fleischfressern zum Opfer fallen, dass wir Alten, Kranken und Schwachen helfen und sie am Leben erhalten. Selbst Geburtenkontrolle wird als problematisch empfunden, wenn sie mit Zwangsmaßnahmen verbunden ist. Das bedeutet natürlich nicht, dass wir uns um Bevölkerungswachstum keine Gedanken machen sollten. Aber wir wollen unser Wachstum nicht mit den  Mitteln kontrollieren, mit denen die Natur im Tierreich agiert und die wir dort gutheißen.  

Was ich damit sagen möchte: Wir können einige humane ethische Prinzipien, nicht einfach eins zu eins auf andere Tierarten ausdehnen – schon gar nicht auf alle. Umgekehrt können wir manche biologische Prinzipien, die wir im Binnenverhältnis anderer Tierarten akzeptieren und sogar gutheißen, weil sie für Erhaltung des Ökosystems  wichtig sind, nicht eins zu eins auf die  Menschheit übertagen. Tierrecht ist nicht gleich Menschenrecht! 

Das bedeutet keinesfalls, dass Tiere keine Rechte hätten und dass wir mit ihnen verfahren können, als wenn wenn sie Dinge wären. Deshalb gibt es schließlich Tierschutzgesetze! Und Tierschutzgesetze beruhen auf …

. . .  Güterabwägungen!

Ein kluger Richter muss vieles beachten. Er muss bei schlimmen Vergehen manchmal zur Keule greifen und bei kleinen Vergehen Augenmaß bewahren.  Er hat darauf zu achten, dass seine Entscheidungen im Kontext des herrschenden Rechtssystems angemessen sind und nicht kontradiktorisch sein dürfen.  Und er muss das Prinzip der Verhältnismäßigkeit im Auge behalten. Wenn wir nun darüber entscheiden wollen, ob Tierversuche gerechtfertigt und verhältnismäßig sind, müssen wir zwei Güter gegeneinander abwägen, die Rechte der Tiere und den Nutzen der Tierversuche, von denen im Übrigen auch Tiere profitieren, denn es gibt schließlich die Veterinärmedizin.  Wer entscheiden muss, ob ein kategorisches Verbot von Tierversuchen einen Sinn macht, der sollte aber auch für einen Moment den Tunnel verlassen und seinen Blick auf unser Verhältnis zu anderen Tieren im Allgemeinen richten.  Ich behaupte, wer das tut, wird zum dem Schluss kommen, dass ein generelles Verbot von Tierversuchen nicht zu rechtfertigen ist. Ich versuche diese Behauptung im letzten Abschnitt dieses Textes zu begründen: 

Hier ein paar Zahlen: 

Im Jahr 2012 wurden in Deutschland 2.503.682 Tiere zu wissenschaftlichen Zwecken eingesetzt. Das klingt nach ziemlich viel. Die Zahl relativiert sich aber beim näheren Hinsehen[40]:

  • Nur 1.859.475 Tiere wurden tatsächlich in Tierversuchen verwendet. Die 644.207  verbleibenden Tiere wurden ohne Versuchseingriffe für wissenschaftliche Zwecke getötet um , zum Beispiel Zellen für die Zellkulturen zu gewinnen

Wir sollten auch wissen, um welche Tiere es geht: 

  • 75% aller Versuchstiere waren Mäuse, 7,7% Ratten und 10,3% Fische. Diese drei Tierarten stellen also zusammengenommen 93%  aller Versuchstiere.  Mit großem Abstand folgen Kaninchen (2,5%),  Vögel (1,4%) und Nutztiere wie Rinder, Schweine und Schafe (0,9 %).  Primaten und Hunde machen jeweils nur etwa 0,1%  aller Versuchstiere aus.

Die Zahl der Tierversuche stagniert seit über 10 Jahren, obwohl die Zahl Publikationen im Bereich Biologie und Medizin in dieser Zeit deutlich gestiegen ist und obwohl sich die Ausgaben des Bundes für Forschung fast verdoppelt haben. Die Wissenschaft scheint das berühmte „3-R Prinzip (Replace, Reduce, Refine)[41] also durchaus ernst zu nehmen und entwickelt immer mehr tierversuchsfreie Methoden.  

Zur besseren Einordung sollte wir auch wissen, was überhaupt unter den Begriff „Tierversuch“ zu verstehen ist: Werfen wir dazu einen Blick in das Schweizer Tierschutzgesetz. Tierversuche sind dort definiert als: 

Jede Massnahme, bei der lebende Tiere verwendet werden mit dem Ziel: 

1. eine wissenschaftliche Annahme zu prüfen, 

2. die Wirkung einer bestimmten Massnahme am Tier festzustellen, 

3. einen Stoff zu prüfen, 

4, Zellen, Organe oder Körperflüssigkeiten zu gewinnen oder zu prüfen, ausser wenn dies im Rahmen der landwirtschaftlichen Produktion, der diagnostischen oder kurativen Tätigkeit am Tier oder für den Nachweis des Gesundheitsstatus von Tierpopulationen erfolgt, 

5. artfremde Organismen zu erhalten oder zu vermehren[42],

6.  der Lehre sowie der Aus- und Weiterbildung zu dienen.“ [43]

Wenn zum Beispiel eine Biologin Steinböcke beobachtet, um eine wissenschaftliche Hypothese zu prüfen, wenn eine Verhaltensforscherin Ton-Aufnahmen macht, um die Rufe von Murmeltieren zu analysieren oder wenn eine Hirnforscherin Hunde mit ihren Frauchen und Herrchen ins Institut einlädt, damit sie dort eine Denkaufgabe lösen sollen, dann sind auch das Tierversuche .[44]

Wer über die Legitimität von Tierversuchen streitet, sollte sich aber auch ein paar andere Zahlen vergegenwärtigen, um ein Gefühl für die Größenordnung und die Relationen des Problems zu bekommen:[45]

  1. Laut Statistischem Bundesamt werden in Deutschland in der Lebensmittelproduktion pro Jahr über 50.000.000 Rinder, Schafe und Schweine und über 700.000.000 Hühner geschlachtet. Statisch betrachtet verzehrt jeder Deutsche im Lauf seines Lebens also 700 Hühnchen, „verbraucht“ dagegen aber nur zwei Mäuse für Tierversuche. 
  2. Über 4.000.000 Wildtiere fallen der Jagd zum Opfer.
  3. Über 220.000 größere Wildtiere sterben im Straßenverkehr. Das ist allerdings nur die Zahl der offiziell gemeldeten Unfälle. Die Dunkelziffer liegt vermutlich deutlich über 1.000.000. Damit ist allerdings nur das Großwild erfasst. Unfälle mit kleineren Tieren, mit Kaninchen, Mäusen, Igeln, Vögeln, Reptilien und Amphibien werden überhaupt nicht registriert.  Ihre Zahl übersteigt die Zahl der Versuchstiere sicher bei weitem. 
  4. Von Fischen, die wir fangen, von den Ratten und Mäusen (dem Versuchstier schlechthin), die wir als „Schädlinge“ eliminieren, ist in dieser Statistik erst gar nicht die Rede. Schlagfallen für Mäuse sind in Deutschland erlaubt und frei verkäuflich. Wollten wir im Rahmen eines Tierversuchs eine Maus mit einer Schlagfalle töten, dann würde der Antrag vom zuständigen Regierungspräsidium abgelehnt und postwendend zurückgeschickt. 
  5. Die Zahl der in Windkraftanlagen getöteten Vögel in Deutschland wird auf über 100.000 Tieren geschätzt. Das ist jetzt kein Plädoyer gegen die Windkraft, denn geschätzt über 15 Millionen Vögel sterben durch Kollision mit Glasscheiben. Und wer will schon auf Fenster verzichten.  

Vielleicht illustriert nichts unser widersprüchliches Verhältnis zu Tieren besser, als die Zahl unserer Haustiere: Im Jahr 2022 lebten in Deutschland 15.200.000 Hauskatzen und mehr als 10.000.000 Hunde. Meine eigene Katze verzehrt fast 100g Fleisch pro Tag also 36,5 kg im Jahr. Das ist mehr, als ich selbst esse. Hochgerechnet auf Deutschland vertilgen Katzen also 554.800 Tonnen Fleisch im Jahr! Die Singvögel und Mäuse, die sie nebenher erledigen, sind nicht mitgerechnet. Und dann gibt es noch die Hunde: Gregory Okin von der UCLA hat einmal ausgerechnet, dass der Fleischverbrauch der Hunde und Katzen der Vereinten Staaten etwa hoch ist, wie der gesamte Fleischkonsum der Bevölkerung Frankreichs.[46] Und dabei werden nicht nur Schlachtabfälle zu Tierfutter verarbeitet. Wieder auf Deutschland bezogen: Die Liebe zu unseren Haustieren kostet weit mehr Tieren das Leben, als alle Tierversuche zusammen! 

Diese Zahlen zeigen zweierlei: 

  1. Wenn wir uns über unser Verhältnis zu Tieren und zum Tierschutz Gedanken machen, dann sind Tierversuche ein Randproblem.
  2. Unser Verhältnis zu Tieren ist – vorsichtig ausgedrückt – höchst widersprüchlich. Wir messen mit zweierlei Maß.  Nicht nur im Verhältnis von Mensch zu Tier, sondern auch was die Rechte der Tieren gegeneinander angeht. Es wird in Deutschland sicher viele „Anti-Speziesisten“ geben, in deren Haushalten ein Hund oder eine Katze leben. 

Noch doppelbödiger als das Verhältnis zum Tier, ist das Verhältnis zu Tierversuchen –   zumindest wenn wir Umfragen im Auftrag von Tierrechtsorganisationen glauben dürfen. Demnach sprechen sich fast 75% der Bevölkerung gegen Tierversuche aus.[47] Gleichzeitig konsumieren aber 94 % der deutschen Bevölkerung regelmäßig Fleisch: 75% Tierversuchsgegner und 94 % Fleischesser, das passt nicht zusammen, zumindest nicht, wenn wir akzeptieren, dass Tierversuche einen Sinn haben. Wir sollten deshalb akzeptieren, dass wir im Verhältnis zu anderen Tieren ohne Güterabwägungen nicht auskommen. Wenn wir uns eingestehen, dass bei ethischen Entscheidungen, die unser Verhältnis zu anderen Tieren betreffen, die Abwägung von Nutzen und Schaden eine Rolle spielen muss, dann wären ausgerechnet die Tierversuche so ziemlich das Letzte was wir verbieten sollten. 


[1] Der Name der Organisation ist ein wenig irreführend, da in Deutschland bereits seit 1998 Tierversuche für die Entwicklung von Kosmetika verboten sind und seit dem 11. März 2009 auch Tierversuche mit Bestandteilen kosmetischer Mittel verboten wurden. Darüber hinaus dürfen kosmetische Mittel, deren Bestandteile nach diesem Zeitpunkt im Tierversuch getestet worden sind, auch nicht mehr verkauft werden. (vgl. Bundesministerium für Ernährung und Landwirtschaft)

[2] https://www.tierversuche-verstehen.de/eu-buergerinitiative-ein-europa-ohne-tierversuche/

[3] NATÜRLICH enthalten Tomaten Gene, wie alle anderen Lebewesen auch. Viren enthalten Gene, Bakterien, Pilze, Pflanzen und Tiere, kurzum alles, was lebt und je gelebt hat, weil Gene die Grundvoraussetzung des Lebens sind. Sie repräsentieren die Information zum Bau eines Individuums, die bei der Vererbung weitergegeben wird. Sie sind die Grundlage des Plans, der die individuelle Entwicklung vom befruchteten Ei hin zum fertigen Wesen steuert und sie sind das Programm, dass die Funktionen eines jeden Organismus steuert. Gene sind die Grundvoraussetzung von Leben. 

[4] Stellt sich allerdings die Frage, warum Wissenschaftler Tierversuche machen, wenn die angeblich nichts bringen, denn die Wissenschaft ist in nichts mehr verliebt als in das Gelingen. Die Wissenschaft arbeitet der Wahl ihrer Methoden ähnlich rigoros wie die Evolution: Alles,  was unbrauchbar, ineffizient, unzuverlässig und umständlich ist  wird ausselektiert, sobald Besseres zur Verfügung steht. 

[5] Faltblatt des Deutschen Tierschutzbundes e.V. zu Tierversuchen (https://www.tierschutzbund.de/fileadmin/user_upload/Downloads/Broschueren/Fakten_zu_Tierversuchen.pdf)

[6] Grundlagenforschung – Ärzte gegen Tierversuche (aerzte-gegen-tierversuche.de)

[7] Strenggenommen sind nur ein Minderheit der Mitglieder der „Ärzte gegen Tierversuche“ approbierte Mediziner und diese repräsentieren wiederum nur einen winzigen Bruchteil der in Deutschland tätigen Ärzte. 

[8] ca. 30 % aller Nobelpreise in den Naturwissenschaften zwischen 1900 und 1933 gingen an deutsche Wissenschaftler.

[9] Der britische Astronom  Sir John Frederick William Herschel (1792 –1871) bezeichnete die Entstehung neuer Arten als das „Geheimnis der Geheimnisse“  und Charles Darwin hatte das aufgegriffen.

[10] Charles Darwin. On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. John Murray, London 1859.

[11] Mendel, G. (1866): Versuche über Pflanzen-Hybriden. Verhandlungen des naturforschenden Vereines in Brünn, S. 3-47.

[12] Nicht nur, weil unser Generationszyklus viel zu lang ist, sondern weil Menschen im Gegensatz zu Erbsen kaum klar sichtbare Merkmale haben, die nur durch ein einziges Gene eindeutig bestimmt sind.  

[13] Eine schöne Übersicht dazu findet sind bei: Mai Thi Nguyen Kim. Die kleinste gemeinsame Wirklichkeit (2020) Droemer Verlag; S.303ff, 

[14] Hier kommt noch ein anderer Aspekt in Spiel: Auch Herstellung von Antiseren war bis in die Mitte der 1980er Jahre nur in Tieren möglich. Für polyklonale Antiseren gilt das bis heute,

[15] Juveniler Diabetes = Typ 1 Diabetes; eine Autoimmunkrankheit

[16] Das gilt natürlich auch für fast alle in der Veterinärmedizin eingesetzte Medikamente, die meistens aus der Humanmedizin stammen und mit Hilfe von Tierversuchen entwickelt wurden (Hier passt dann u.U. auch der Übertragbarkeitseinwand endgültig nicht mehr)

[17] vgl. Homepage:  Ärzte gegen Tierversuche

[18] vgl. Ermöglichen Tierversuche wirklich die Heilung bei Krebs? (peta.de); Wong CH, Siah KW, Lo AW. Estimation of clinical trial success rates and related parameters. Biostatistics. 2019;20(2):273-286. 

[19] www.aerzte-gegen-tierversuche.de/Nachteile Tierversuche – Ärzte gegen Tierversuche (aerzte-gegen-tierversuche.de)

[20] Matthias Klüglich. Medikamentenentwicklung, 2018, Cantor Verlag.

[21] Das schreibt auch übrigens die Quelle, auf die sich PETA hier beruft mit keinem Wort (Wong CH et al. Estimation of clinical trial success rates and related parameters. Biostatistics. 2019;20(2):273-286).

[22] So erhielt der z.B. Wirkstoff Imatinib, der einen echten Durchbruch bei der Behandlung der chronisch myeloischen Leukämie (CML) darstellt, später auch eine Zulassung für die Behandlung sogenannter gastrointestinaler Stromatumore, als man feststellte, dass diese Krebsform eine ähnliche genetische Veränderung aufweist wie die CML.  Auch die Immuntherapie mit sogenannten Checkpoint-Inhibitoren, ist ein Beispiel dafür, wie ein Medikament, das ursprünglich (2022) nur für die Behandlung von „schwarzen Hauttuoren“ (Melanomen) zugelassen wurde, inzwischen bei sehr vielen Tumorerkrankungen eingesetzt wird.

[23] Voltaire, zitiert nach Siddartha Mukherjee, Gesetze der Medizin, S 87, 2016. S. Fischer Verlag. 

[24] Klüglich (s.o.)  2018, S. 16

[25] www.statista.de

[26] Gurdons Beiträge zum Thema stammen aus den frühen 1960er Jahren.

[27] vgl. Gurdon et al, Journal of Embryology and Experimental Morphology, 1962; 10; 622-40; Yamanaka et al. Cell 2066; 126: 663 – 676; Cell 2007;; 3131: 1-12; eine allgemeinverständliche Kurzdarstellung z.B. in  DÄB Oktober 2012.

[28] Ich empfehle hier die Webseite ‚Tierversuche -verstehen‘, (https://www.tierversuche-verstehen.de) die von einer Allianz der wesentlichen deutschen Forschungsorganisationen getragen wird. (Alexander von Humboldt Stiftung, Nationale Akademie der Wissenschaften Leopoldina, DAAD, Deutsche Forschungsgemeinschaft DFG, Fraunhofer-Gesellschaft, Helmholtz-Gemeinschaft, Hochschulrektoren-Konferenz, Leibniz-Gesellschaft Max-Plank Gesellschaft und Wissenschaftsrat): 

[29] z.B. EU-Richtlinie 2010/63/EU     

[30] Wobei der Zelle aus Tieren stammten, indirekt als sehr wohl wieder Tierversuche beteiligt waren.

[31] vgl. die PETA-Homepage, auf der ein solches  Modell vorgestellt wurde, was angeblich Arbeiten mit Tieren in der Immunologie obsolet machen würde.

[32] Zwar gibt es inzwischen Organoide oder kleine Tumorzellknoten in Kultur, aber diese sind weit entfernt von den komplexen Verhältnisse in einem  echten Organ. Bisher ist es  nicht gelungen ganze Organen in wie Nieren, Lebern, Herzen oder gar Gehirne im Reagenzglas zu züchten – und das wird bis auf weiteres auch so bleiben.

[33] von engl. dunce = Dummkopf

[34] vglz.B. Uhlmann et al. Nat Neurosci, 2020 Dec;23(12):1580-1588. Acute targeting of pre-amyloid seeds in transgenic mice reduces Alzheimer-like pathology later in life; Jucker & Walker, Nature., 2013 Sep 5; 501(7465): 45–51. Self-propagation of pathogenic protein aggregates in neurodegenerative diseases

[35] Für die Entwicklung dieser sog. Check-Point-Inhibitoren haben James Alison und Tasuku Honjo im Jahr 2018  den Nobelpreis gewonnen. Auch diese Forschung beruht ganz wesentlich auf Tierversuchen. 

[36] Die ich hier überhaupt nicht kleinreden möchte. Darunter gibt es sehr raffinierte und intelligente Methoden, die die Möglichkeiten der Forschung erheblich erweitern. 

[37] vgl. Wissenschaftliche Argumente – Ärzte gegen Tierversuche (aerzte-gegen-tierversuche.de)

[38] Zitiert nach PETA-Homepage

[39] Bei dem unweigerlich das eine oder andere Insekt unter das Messer kommt. 

[40] vgl. https://www.DPZ.eu

[41] Replace (ersetzen), Reduce (verringern) , Refine (verbessern = lindern) ist das sog. 3-R-´Prinzip, eine ethische Richtschnur zum Umgang mit Tierversuchen, die Wissenschaftler verpflichtet die Versuche eben – soweit wie möglich –  zu begrenzen, zu ersetzen und die Leiden der Tieren zu minimieren. 

[42] Gemeint sind hier vor allem sog. transgene Tiere

[43] In Deutschland ist das sehr ähnlich.

[44] Home – Animalfree Research (animalfree-research.org)

[45] vgl. Statistisches Bundesamt, Bundesamt für Risikobewertung und Deutscher Jagdverband

[46] Okin G. Plos ONE, 2017; 12(8): Environemetal impacts of food consumption by dog and cats. 

[47] vgl. entsprechende Pressemeldungen der „Ärzte gegen Tierversuche“ und Menschen für Tierrechte“ ; Vorsicht: Bei solchen Umfragen sollten wir sehr genau nachsehen, wie und was eigentlich in wessen Auftrag gefragt wurde.  

Retten wir das Klima? Oder beruhigen wir nur unser Gewissen?

                

In Deutschland steht die Energiewende ganz oben auf der Agenda. Aber ist der deutsche Ansatz auch effektiv? Werden die Gelder dort eingesetzt, wo Sie den größten ökologischen Nutzen generieren? Das darf bezweifelt werden. Zeit zum Umdenken

Eine Kritik von Marco Wehr


Es hätte ein entspannter Abend sein können. Die junge Familie saß auf der Terrasse eines thailändischen Restaurants in der Tübinger Belthlestraße beim Essen, als der Vater ein Auto hörte, das nach seinem Gefühl zu rasant beschleunigte. Der 35-jährige Mann sprang auf, ergriff einen Stuhl und stellte sich auf die Straße, um den vermeintlichen Temposünder zum Anhalten zu bewegen. Als dieser es wagte, ihn zu umfahren, verpasste er dem Renault Clio mit dem Metallstuhl einen kräftigen Hieb. Die hintere Scheibe zersplitterte und die B-Säule wurde beschädigt. Es kam zum Gerichtsverfahren. Die Richterin bezichtigte den Mann der Selbstjustiz. Aber dieser zeigte keine Reue. Er sei ein moralischer Avantgardist mit einem Master in nachhaltiger Mobilität. In naher Zukunft würden die meisten Menschen sein Verhalten für normal halten. 

Nur hundert Meter weiter, im Schlossbergtunnel, kam es vor Jahren zu einem ähnlichen Vorfall. Der Tunnel wurde ursprünglich von Fußgängern, Rad-, Mofa- und Mopedfahrern gleichermaßen genutzt, bis Oberbürgermeister Boris Palmer die motorgetriebenen Fahrzeuge aus diesem verdammte. Ein Tübinger Medizinprofessor wollte Sinn und Zweck dieser Maßnahme nicht einsehen. Er wagte es, den Tunnel mit seiner kleinen Tochter auf einem Motorroller zu durchfahren. Das fand das Missfallen eines Fahrradfahrers, der Mädchen und Professor ins Gesicht spuckte. 

In beiden Fällen irritiert die Selbstgerechtigkeit der eingebildeten Umweltschützer und diese ist noch nicht einmal durch Fakten gestützt. Auf die Frage der Richterin, wie der Angeklagte sicher sein konnte, dass das Auto so schnell gewesen wäre, entgegnete der Mann, dass er Geschwindigkeit mit den Ohren erkennen könnte. Er hätte lange als Pizzakurier gearbeitet und wüsste deshalb, wovon er redet. Mit ein bisschen Physik, einem Blatt Papier und einem Bleistift in der Hand, hätte man allerdings zeigen können, dass die Version des Angeklagten, so wie sie in der lokalen Presse zu lesen war, wenig plausibel war. Und der Professor rechnete genüsslich aus, dass auch der Palmersche Bann mit Umweltschutz nichts zu tun hat. 

Ein Zigarettenraucher, der völlig legal mit der Kippe in der Hand durch den Tunnel schlendert, emittiert gemäß seiner Rechnung mehr gefährliche Schadstoffe als ein Junge auf seinem Töff-Töff, der nun, auf dem Weg zur Schule, zu einem kilometerlangen Umweg gezwungen wird, was der Umwelt schadet.

Man begegnet in diesen skurrilen Geschichten also einer als Rationalität getarnten Irrationalität, selbst wenn man von der moralischen Selbsterhöhung der Protagonisten absieht. Ist diese ökologische Irrationalität nur auf vereinzelte Fanatiker beschränkt, die über das Ziel hinausschießen? Nein, diese ist weiter verbreitet als man denkt, auch wenn sie nicht immer so plakativ daherkommt, wie in den genannten Beispielen. Die ökologische Bewegung, vertreten durch die Partei der Grünen aber auch durch die einst großen Volksparteien, hat zwar dir richtigen Ziele, wendet aber nicht immer die wirkungsvollsten Methoden an, um sie zu erreichen. Das gilt im Kleinen wie im Großen. Gut gemeint, ist nicht zwangsläufig gut gemacht. 

Bleiben wir einen letzten Moment in Tübingen und ziehen die Blende etwas weiter auf, dann könnte auch die unlängst geplante Stadtbahn als Beispiel dienen. Für dieses hart umkämpfte Prestigeprojekt, das durch einen Bürgerentscheid gestoppt wurde, hätten 280 Millionen Euro in die Hand genommen werden müssen. Gespart hätte das Mammutunternehmen etwa 6000 Tonnen CO2 im Jahr. Ist das viel? Es mag überraschend klingen: Würden die Tübinger den Luftdruck ihrer Autoreifen regelmäßig prüfen und beim Einseifen unter der Dusche das Wasser abstellen, ließe sich dieselbe Menge CO2 vermeiden. Diese Maßnahmen kosten nichts. Wäre das umkämpfte Vorzeigeprojekt also sein Geld wert? Daran darf man Zweifel hegen. Ganz prinzipiell sollte man nicht vergessen, dass der Klimawandel ein globales Problem ist. Es geht nicht darum, dass Tübingen das Wettrennen um die erste klimaneutrale Stadt gewinnt, egal, was es kostet.

In vergleichbarer Weise darf man die Frage stellen, ob die gigantischen Summen, die in die deutsche Energiewende gesteckt werden, sinnvoll investiertes Kapital sind. Man mache sich bitte einmal die Dimensionen klar! Die deutsche Energiewende ist schon heute das größte Infrastrukturprojekt der BRD nach dem zweiten Weltkrieg. 

In der Summe werden Billionen von Euro investiert werden. Hilft dieses Geld den globalen CO2-Ausstoß merklich zu reduzieren? Das Zwischenergebnis stimmt nicht optimistisch. Bis dato ist die Energiewende wenig effizient. Bei der CO2-Vermeidung dümpelt Deutschland im europäischen Mittelfeld.  Zu allem Überfluss haben wir mittlerweile den höchsten Strompreis der Welt, eine extreme Belastung für Industrie und Privathaushalte. Sind wir trotzdem auf dem richtigen Weg? 

Diese Frage kann nur beantwortet werden, wenn eine andere geklärt wird: 

Wie muss man eigentlich die vorhandenen finanziellen Mittel einsetzen, um so effizient wie möglich den CO2-Ausstoß zu minimieren? 

Diese zentrale Frage ist leicht zu verstehen. Aber sie birgt Abgründe. 

Um diese auszuloten, setzen wir uns zuerst mit dem Begriff der Effizienz auseinander. Effizient wird gehandelt, wenn man mit den vorhandenen Mitteln, das Optimum herausholt. Man stelle sich zur Veranschaulichung eine Mutter und ihre Kinder in einer Hungersnot vor. Die Mutter hat 100 Euro zur Verfügung, um Nahrungsmittel für sich und ihren Nachwuchs zu kaufen. Wäre es effizient, das Geld in ein Rinderfilet zu investieren, das überteuert auf dem Schwarzmarkt erworben wird? Oder wäre es klüger, preiswerte, hochkalorische Lebensmittel, wie Linsen, Reis oder Nudeln zu kaufen? Die Antwort liegt auf der Hand. 

Vergleichbar ist es in der Umweltpolitik. Verantwortlich wird nur da gehandelt, wo das Geld betreffs des Klimawandels eine möglichst große ökologische Wirkung entfaltet. Dabei muss noch betont werden, dass die verfügbaren finanziellen Mittel immer endlich sind. Daraus ergibt sich eine wichtige Schlussfolgerung: Das Geld, das man für wenig effiziente Maßnahmen ausgibt, fehlt, um die wirkungsvollen zu finanzieren! Damit stellt sich die nächste wichtige Frage: Was sind wirkungsvolle Maßnahmen? Um zu einer Antwort zu gelangen, müsste man eine valide Priorisierung vornehmen. Wo wird in den nächsten Jahrzehnten am meisten CO2 emittiert werden und wie könnten wir effizient intervenieren? Weicht man der Beantwortung dieser Frage aus, kann man das Klimaproblem definitiv nicht lösen. Deshalb sollte sie im Zentrum der öffentlichen Diskussion stehen. Tut sie aber nicht. Einige wenige Spezialisten zerbrechen sich die Köpfe, aber im medialen Diskurs ist sie eigentlich nicht existent. Und als handlungsleitender Gegenstand deutscher Politik fungiert sie ebenfalls nicht. 

Zwar wird manchmal resigniert darauf hingewiesen, dass die beiden größten CO2-Emittenten China und die USA sich immer wieder um verbindliche Reduktionsziele drücken, weshalb Europa respektive Deutschland eine Vorbildfunktion zukommen muss. Ein zentrales Problem wird in diesem Zusammenhang aber beharrlich ausgeblendet. In etwa 30 Jahren werden 10 Milliarden Menschen auf der Erde leben! Besonders Indien und Nigeria wachsen schnell. Überschlägt man den Energiebedarf der Menschheit im Jahre 2050, wird zusätzlich die Energie benötigt, die dem Output von 20000 – 40000 Kohlekraftwerken entspräche. In Deutschland klopfen wir uns auf die Schulter, weil wir planen, 100 Kraftwerke vom Netz zu nehmen.

Bekämpfen wir denn nun in Deutschland, sieht man erst einmal von globalen Überlegungen ab, effektiv den Klimawandel? Dazu werfen wir einen genaueren Blick auf unsere Energiewende! In deren Zentrum steht ein öffentlich wenig hinterfragtes Paradigma: Die Erneuerbaren müssen ausgebaut werden, koste es was es wolle. Das macht uns angeblich unabhängig von Gas-, Kohle- und Atomkraftwerken. So klingt es unisono aus den Mündern grüner Leitgestirne wie Luisa Neubauer oder Robert Habeck. Selbst Szene-Philosoph Richard David Precht bläst in dasselbe Horn. Das scheint im ersten Moment auch einzuleuchten. Windräder und Sonnenkollektoren haben schließlich keinen Schornstein, aus dem dreckige Luft herausquillt. Aber das blütenweiße Image bekommt schnell Flecken, wenn man hinter die Kulissen guckt. Winde und Sonne sind schließlich unstete Gefährten. Man sollte sich genau überlegen, ob man sich ihnen auf Gedeih und Verderben anvertrauen will. 

“Kräht der Hahn auf dem Mist, ändert sich das Wetter oder es bleibt wie es ist“, sagt schon der Volksmund, der damit in metaphorischer Weise der Chaostheorie vorgreift. Diese belegt, dass das Wetter ein schon mittelfristig nicht verlässlich zu prognostizierendes Phänomen ist. Das ist aber schlecht, wenn man nur mit den Erneuerbaren den steten Energiehunger eines Industrielandes stillen will. Tatsächlich besteht massiver Handlungsbedarf, wenn es dunkel und windstill ist. Das ist dann der heimliche Auftritt der öffentlich Geschmähten: Vor allem Kohle, Gas und Uran liefern den fehlenden Strom. Täten sie es nicht, hätten wir ein ernstes Problem. 

Leider verhagelt uns das dann in der Konsequenz die CO2-Bilanz. Noch immer werden in Deutschland für eine Kilowattstunde Energie etwa 500 Gramm CO2 in die Atmosphäre gepustet. Im Gesamtzusammenhang gesehen, haben Windräder und Solarpanele bis zum heutigen Tage also doch einen Schornstein, auch wenn man ihn nicht direkt sieht. Und Elektroautos, die diesen Energiemix tanken, haben einen Auspuff. Weshalb diese trotzdem hartnäckig als Null-Emissionsfahrzeuge bezeichnet werden, bleibt das Geheimnis deutscher und europäischer Politik. 

Wir halten fest: Die deutsche Energiewende ist bis jetzt nicht nur wenig effizient, sie ist auch extrem teuer, da der Kraftwerkspark sozusagen in doppelter Ausführung vorliegen muss. Außerdem gibt es zu denken, dass die absolut zentrale Frage, wie die vorhandenen Mittel eingesetzt werden müssten, um möglichst effektiv gegen den globalen Klimawandel vorzugehen, öffentlich nicht ernsthaft diskutiert wird.

Dass die momentane Situation unbefriedigend ist, wissen natürlich auch die Protagonisten der Energiewende. Doch gemäß ihrer Überzeugung gibt es eine Lösung: Man bräuchte ja nur genug Speicher zu bauen, dann wäre das Problem erledigt. Dann könnten diese bei Dunkelflaute in die Bresche springen, wenn sie vorher mit überschüssigem Strom geladen worden wären, den sie dann wieder ins Netz speisten. Die Dreckschleudern wären überflüssig. Das klingt erstmal nach einer guten Idee. Welche Speicher kämen dafür in Frage? 

Obwohl der Wettstreit um die effizienteste Technologie eigentlich noch gar nicht wirklich begonnen hat, wurde auch hier schon eine paradigmatische Entscheidung getroffen. Der grüne Wasserstoff soll es richten. Andere Möglichkeiten werden kaum oder gar nicht diskutiert. Ist das klug und der Komplexität des Problems angemessen?

Wieder lohnt es sich, genauer hinzuschauen. Wir unterscheiden zum besseren Verständnis zwei unterschiedliche Speicherphilosophien. Betrachten wir zuerst die bekannten Erdgasspeicher! In diesen Speichern können gigantische 230 Terawattstunden Energie gespeichert werden. Es muss betont werden, dass deren Füllstand allein vom Zu- und Abfluss des Erdgases abhängt. Sie sind deshalb von den Leistungsschwankungen der Windräder und Solarpanele entkoppelt. Aus diesem Grund werden sie hier als nicht-volatile Speicher bezeichnet.

Im Gegensatz dazu nutzen volatile Speicher anfallende Stromüberschüsse. Wenn der Wind bläst und die Sonne vom Himmel brennt, werden die Speicher gefüllt. Die gespeicherte Energie kann dann ins Netz eingespeist werden, wenn die Witterungsbedingungen ungünstig sind. Etabliert sind in diesem Zusammenhang Pumpspeicherkraftwerke. Überschüssiger Strom wird verwendet, Wasser in ein hochgelegenes Speicherbecken zu pumpen. Wird Energie gebraucht, lässt man Wasser in Rohren ins Tal schießen. Die kinetische Energie treibt Turbinen an, die  über Generatoren Strom erzeugen. Natürlich lässt sich überschüssige Energie auch in Akkus speichern. Oder man produziert etwa besagten grünen Wasserstoff, indem man mit dem überschüssigen Strom einen sogenannten Elektrolyseur betreibt. Die Wassermoleküle werden in Wasserstoff und Sauerstoff zerlegt. Der Wasserstoff wird gespeichert. Bei Bedarf verstromt man den Wasserstoff in einem speziellen Wasserstoffkraftwerk oder einer Brennstoffzelle. Da die Energie, die benötigt wird, das Wasser im Elektrolyseur “aufzubrechen“, aus erneuerbaren Energiequellen kommt, ist das Verfahren CO2-neutral. Strom wird also benötigt, um Wasserstoff herzustellen, der später genutzt wird, um wieder Strom zu erhalten. In dieser Prozesskette gehen heute etwa 60% Prozent der eingespeisten Energie verloren.

Jetzt stellen sich im Zusammenhang mit der politisch angestrebten Lösung eines volatilen Wasserstoffspeichers einige Fragen. Wie groß müsste dessen Kapazität sein? Was würde er kosten? Und ist Wasserstoff die optimale  Lösung? Oder gäbe es Alternativen?

Um zu verstehen, dass die Frage nach der Kapazität der Speicherarchitektur delikat ist, müssen wir kurz überlegen, was passieren würde, wenn der Bedarf an Energie nicht mehr aus den Speichern gedeckt werden könnte. Dann bestünde die Möglichkeit eines Black-Out. Der hätte fatale Konsequenzen. Wenn der Strom nicht fließt, kann Trinkwasser nicht zum Verbraucher gepumpt werden. Abwässer fließen nicht ab. In Märkten mit elektronischen Kassen lässt sich nichts mehr einkaufen. Waren verderben, da die Kühlketten nicht mehr funktionieren. Fahrzeuge können nicht mehr betankt werden. Und nach wenigen Tagen lassen sich Handys nicht mehr verwenden. Die komplette Kommunikationsinfrastruktur bricht zusammen. 

Wie groß müsste die Kapazität eines volatilen Speichers sein, um diesen Alptraum unter allen Umständen zu vermeiden? Die Antwort ist schwierig. Eigentlich müsste man tief in eine Kristallkugel schauen können, um in der Zukunft jede Form von Unwägbarkeit auszuschließen. Das Wetter ist chaotisch. Die Speicher füllen sich recht erratisch. Im Gegensatz dazu leeren sie sich planbar in Abhängigkeit vom Bedarf. Wie stellt man sicher, dass sich dieser Bedarf immer decken lässt?  

Würde es reichen, sich die Dynamik des Wetters in den letzten paar Jahrzehnten anzuschauen? Dann macht man eine Modellrechnung und multipliziert die ermittelte notwendige Kapazität etwa mit dem Faktor drei und wähnt sich auf der sicheren Seite? Eine solche Vorgehensweise wäre riskant, da der analysierte Zeitraum für repräsentativ gehalten wird. Das könnte ein Irrglaube sein. Hier nur ein Beispiel:

Im April des Jahres 1815 gab es auf der fernen indonesischen Insel Sumbawa einen verheerenden Vulkanausbruch. Als der Tambora explodierte, forderte diese Katastrophe 100000 Menschenleben. Da die Kommunikationsstruktur mit der heutigen nicht vergleichbar war, blieb der Ausbruch zuerst eine kaum wahrgenommene Katastrophe am “Ende der Welt“.  Aber das sollte nicht lange so bleiben. 1816 folgte das berüchtigte “Jahr ohne Sommer“. Die bei der Eruption in die Stratosphäre geschossenen Schwefelverbindungen hatten sich nämlich über den Globus ausgebreitet und veränderten nun massiv das Wetter. Selbst im Hochsommer wurde es schon nachmittags dunkel und es regnete die ganze Zeit. Den ersten Schnee gab es im August. Die Folge waren miserable Ernten, denen fürchterliche Hungersnöte folgten. 

Ist ein solcher Ausbruch heute gänzlich unwahrscheinlich? Oder wäre es ein Gebot der Klugheit, eine solche Möglichkeit mit ins Kalkül zu ziehen? Tatsächlich hielten Vulkanologen solche Ereignisse bisher für selten. Dem widersprechen neueste Studien. Der Forscher Michael Sigl von der Universität Bern wertete mit Kollegen akribisch Eisbohrkerne aus, die wie ein Klimagedächtnis funktionieren. Die Ergebnisse müssen uns zu denken geben. Die Wahrscheinlichkeit, dass wir in den nächsten dreißig Jahren eine vergleichbare Katastrophe erleben könnten, liegt bei 6 Prozent! Haben Sie beim Würfeln schon einmal zwei Sechsen hintereinander geworfen? Bestimmt. Die Wahrscheinlichkeit eines verheerenden Ausbruchs ist mehr als doppelt so groß! Verständlich, dass Vulkanologen darauf drängen, sich mit solchen Szenarien auseinanderzusetzen. Gehör finden sie bislang nicht.

Eine so große Wahrscheinlichkeit bei der Energieplanung zu vernachlässigen, könnte verhängnisvoll sein. Sind wir vor diesem Hintergrund gut beraten, uns nur auf volatile Speicher zu verlassen? Vernünftig wäre es wohl eher, volatile und nicht-volatile Speicher gemeinsam zu nutzen, wobei dann die Frage beantwortet werden muss, wie die nicht-volatilen Speicher möglichst CO2-neutral betrieben werden könnten. 

Unabhängig von der existentiellen Forderung, eine Speicherarchitektur zu schaffen, die elastisch auf verschiedenste Herausforderungen reagieren kann, müssen wir jetzt erneut die Frage nach der Effizienz stellen. Diesmal sollen allerdings die wahrscheinlichen Kosten der geplanten Wasserstoffpeicher mit berücksichtigt werden. Was würde eine komplexe Infrastruktur aus Windrädern, Solarmodulen, Elektrolyseuren, Wasserstoffspeichern, Wasserstoffkraftwerken, Brennstoffzellen und Leitungen wohl kosten? In diesem Zusammenhang gibt es ein Problem: Viele Pilotanlagen zur Herstellung von grünem Wasserstoff befinden sich noch in der Erprobungsphase. Deren bisherige Kapazitäten müssten aber um mehrere Zehnerpotenzen vergrößert werden, um den ehrgeizigen Plänen zu genügen! Was das kosten würde, lässt sich im Moment kaum seriös abschätzen. Deshalb müssen wir über den Daumen peilen. Dazu kann man sich in einem ersten Schritt an einer Technologie orientieren, deren Preise bekannt sind. Das gilt etwa für die Akkutechnologie. Wollte man eine Speicherarchitektur von ungefähr 100 Terawattstunden Kapazität bauen, eine solche Größenordnung wird von einigen Experten für sinnvoll gehalten, und würde man dann  Akkuspeicher zu den gängigen Marktpreisen verwenden, käme man auf die unvorstellbare Summe von rund 50 Billionen Euro! Selbst wenn die Wasserstoffarchitektur deutlich billiger wäre, handelt es sich hier ohne Frage um eine Multi-Billionen-Euro Investition! Wie soll man das finanzieren? Vor allen Dingen in 12 Jahren, so wie es Luisa Neubauer vorschwebt.

Gemessen an der Zielsetzung Geldmittel effizient einzusetzen, um einen größtmöglichen ökologischen Nutzen zu generieren, darf man deshalb Sinn und Zweck der deutschen Energiewende in Zweifel ziehen. Die Maßnahmen sind extrem teuer und es stellt sich die Frage, ob sich das Geld nicht sinnvoller einsetzen ließe. Die ökologische Kosten/Nutzen-Rechnung überzeugt bisher nicht. 

Vor diesem Hintergrund ist es schwer verständlich, warum mit einer gewissen Starrsinn der eingeschlagene Weg weiter beschritten wird. 

Warum kapriziert man sich etwa auf den im Umgang komplizierten Wasserstoff? Dieser diffundiert in Leitungen und Speicherbehälter, die mit der Zeit brüchig werden können. Außerdem muss Wasserstoff, damit man ihn handhaben kann, in vielen Anwendungen gekühlt werden und unter großem Druck stehen. Nicht unwesentliche Teile der vorhandenen Infrastruktur müssten deshalb neu gebaut werden, um mit diesem Gas umgehen zu können. Warum macht man das? Weshalb wird nicht mit derselben Intensität auch über Lösungen nachgedacht, die die bereits vorhandene Infrastruktur in größerem Umfang nutzen könnten, um dann mit geringerem finanziellen Einsatz zum Ziel zu kommen?

Um nur ein Beispiel zu nennen: der verstorbene Chemienobelpreisträger George Olah sprach sich dezidiert gegen die Verwendung von Wasserstoff aus. Er plädierte eindringlich für das viel einfacher zu handhabende Methanol, das sich gleichfalls klimaneutral herstellen lässt. Mit Methanol können Autos genauso betrieben werden wie Heizungen, wenn sie mit recht geringem Aufwand angepasst werden. Große Teile der vorhandenen Infrastruktur werden nicht überflüssig, sie könnten weiter verwendet werden. Da stellt sich die Frage, warum es in Deutschland nicht zu einem offenen Wettstreit der Ideen kommt, damit wir gemeinsam die beste Lösung finden?

Haben wir bis hierher vor allen Dingen über die Energiewende in Deutschland nachgedacht, müssen wir nun noch einmal auf das zentrale Problem zu sprechen kommen: Was tun wir eigentlich, um den globalen Klimawandel zu bekämpfen? 

Konsequent zu Ende gedacht, müsste eine so komplexe Infrastruktur, wie wir sie gerade für Deutschland beschrieben haben, ja auch auch in Ländern wie Nigeria, dem Sudan oder Indien gebaut werden. Denn genau dort begegnen wir in wenigen Jahren den maßgeblichen Herausforderungen. Aber ist es realistisch, dass dort in kurzer Zeit Parks aus Sonnenkollektoren und Windrädern errichtet werden, wobei es gleichzeitig Leitungsnetze gibt, die die Stromversorgung überall sicher stellen und zudem noch potente Speichersysteme installiert werden, die die überlebensnotwendige Versorgungssicherheit gewährleisten? Das klingt doch recht utopisch. Eher besteht  die Gefahr, dass der gewaltige Energiehunger solcher Länder durch Verfeuerung billiger fossiler Brennstoffe gestillt werden wird. Dafür würden mit recht großer Wahrscheinlichkeit tausende Kraftwerke gebaut werden, während wir uns in Deutschland in der Rolle gefallen, für sehr viel Geld einige wenige abzuschalten.

Das ist paradox, wenn man das Klimaproblem ernst nimmt. 

Um ein Bild zu gebrauchen: Gesetzt den Fall, ein großes Bauernhaus mit Stall und Scheune steht in Flammen, dann schicken wir den Großteil der Feuerwehrleute in den Garten, um den Geräteschuppen zu löschen, während sich am Haupthaus nur einige wenige mit einer Eimerkette versuchen. 

Warum handeln wir so inkonsequent? Damit sind wir wieder am Anfang. Es ist etwas anderes, sich ökologisch zu fühlen, als ökologisch zu handeln. Das erste gibt einem das angenehme Gefühl, die richtigen Ziele zu verfolgen, birgt aber die große Gefahr, der Komplexität des Themas nicht gerecht zu werden. Doch wenn wir das Klimaproblem effizient lösen wollen, haben wir keine andere Wahl, als dicke Bretter zu bohren.

Aus diesem Grund muss die gesamte Energiewende gedanklich aufgeschnürt werden. Es muss alles auf den Prüfstand und es muss ohne Denkverbote mit offenem Visier ausdauernd diskutiert, probiert und getestet werden. In diesem kreativen Wettstreit sollte der Rat von Spezialisten in den Medien mindestens so oft gehört werden, wie der omnipräsenter Talkshow-Berühmtheiten. 

Die in Deutschland präferierten regenerativen Energien, Wasserstoff als Speichermedium, die einseitige Favoritisierung  der E-Mobilität, wären in diesem Tableau nur Wahlmöglichkeiten unter vielen. Alle Optionen müssen durchdacht  werden und in dem Bewusstsein diskutiert werden, dass der Klimawandel ein Problem ist, das den gesamten Planeten Erde betrifft und nicht nur unser Land. 

In diesem Zusammenhang wäre mit Nachdruck zu prüfen, wie der wirksame Emissionszertifikatehandel global ausgeweitet werden könnte. Als nächstes müssten die ärmeren Länder im Kampf um die Klimaerwärmung mit ins Boot geholt werden, um sie bei dem Ziel zu unterstützen, einen menschenwürdigen Wohlstand zu entwickeln. Das ist zum einen aus humanitären Gründen geboten. Es wäre aber auch ein wesentlicher Teil der Lösung des CO2-Problems. Gerade arme Länder haben eine rasante Bevölkerungsentwicklung. Kinder sind dort die einzige Form der Altersabsicherung. Es ist aber eine demographische Tatsache, dass Frauen mit wachsendem Wohlstand weniger Kinder bekommen. Und weniger Menschen benötigen weniger Energie. Die Unterstützung dieser Länder darf allerdings nicht darin bestehen, einfach ein Füllhorn mit Geld auszuschütten, das dann, wie leider schon öfter erlebt, von Regierungskasten privatisiert wird. Klüger wäre es, gemeinsam win-win-Situationen zu schaffen, zum Beispiel in Staaten, die hervorragende klimatische Bedingungen haben, in denen aber gleichzeitig verlässliche Verwaltungsstrukturen bestehen und Parlamente demokratisch legitimiert sind. Für diesen Ansatz spräche unter ökologischen Gesichtspunkten nicht nur, dass dort etwa die Nutzung der Sonnenenergie wesentlich effizienter wäre. Würde man diese Energie im nächsten Schritt verwenden, um CO2-neutrale Kraftstoffe in großem Maßstab herzustellen, dann wären diese mit bewährter Technologie einfach zu transportieren und es gäbe in den europäischen Ländern schon eine komplett entwickelte Infrastruktur, um diese zu verwenden. Und die Erzeugerländer würden natürlich auch selbst von der Energie partizipieren

Man wundert sich, warum solche Denkansätze nicht mit Nachdruck verfolgt werden, auch wenn noch viele Fragen zu klären sind. Warum agieren wir immer noch national und so wenig effizient? Warum versäumen wir, einen wirklich wichtigen und global orientierten Beitrag zur Lösung des Klimaproblems zu leisten? Das sind Fragen, die auf eine Antwort warten.

Dr. Marco Wehr ist Physiker und Philosoph. Er arbeitet als Schriftsteller und Redner. Zudem ist Marco Wehr Gründer und Leiter des Philosophischen Labors in Tübingen (www.philab.de)

Kontaminierte Worte – Braucht es die Empfindsamkeitspolizei?

„Kontaminierte Worte“:   Braucht es die Empfindsamkeitspolizei? 

“Wenn ich mit dem N-Wort konfrontiert werde, dann hält für mich einen Moment die Welt an. Ich fühle mich sofort hineingezogen in historische Kontexte uns stelle meine Beziehung zu anderen Menschen in Frage“.  So schreibt Jasmin Blunt, Deutschlehrerin aus Ulm.  Das “N-Wort“ scheint für sie eine Art Menetekel zu sein, ein böses Wort, was an und für sich die Aura dunkler Magie verbreitet, eine giftige Aura, die nur durch Ausradieren getilgt werden kann. Allein die Tatsache, dass dieses Wort gleich mehrfach in dem berühmten Nachkriegsroman Tauben im Gras von Wolfgang Koeppen auftaucht, bewog sie offensichtlich dazu, eine Petition mit dem Ziel zu starten, das Buch von der Leseliste für Schüler zu streichen. 

Jasmin Blunt ist nicht alleine. Und auch das “N-Wort“ nur eines unter vielen “bösen, kontaminierten Wörtern“, wenn wir den zahlreicher werdenden “sensitivity readern“ glauben dürfen. In jüngerer Zeit ist eine anschwellende Obsession für Worte zu beobachten, die angeblich derart vergiftet sind, dass sie vollständig aus unserem  Vokabular getilgt werden sollten. 

Eines der vielen Probleme dieses Zeitgeistphänomens ist, dass sich diese neue Form der “Sprachhygiene“ nicht nur auf den aktuellen Sprachgebrauch stürzt, sondern zunehmend auf alles, was je geschrieben und publiziert wurde. Texte aller Art werden geprüft und einer verbalen Dekontamination unterzogen, um die “toxischen Begriffe“ zu eliminieren:   

In Astrid Lindgrens Klassiker Pipi Langstrumpf soll “Negerkönig“ durch “Südseekönig“ ersetzt werden. Der Ravensburger Verlag hat nach „vielen negativen Rückmeldungen“ zu zwei Jugendbüchern zum Filmstart von „Der junge Häuptling Winnetou“ die Titel zurückgezogen. Grund dafür: Heftige Vorwürfe aus dem Netz, wonach der Karl-May-Stoff „kolonialistische“ und „rassistische“ Vorurteile schüre und ein Fall von unerwünschter „kultureller Aneignung“ sei. Ein Indikatorwort und der Stein des Anstoßes: Der Begriff „Indianer“.  Auch der britische Pippin-Verlag hat unlängst die Kinderbücher Roald Dahls einem Vollwaschgang unterzogen. Dabei wurden  hunderte  Änderungen an Formulierung und Charakteren vorgenommen: Das Adjektiv „fett“ wurde durch „kräftig“ ersetzt (Vorsicht Body Shaming !),  „small men“ wurden – ganz im Sinne der Genderneutralität – zu „small people“.  Eine  Supermarktkassiererin und eine Sekretärin mutierten auf wundersame Weise zur Wissenschaftlerin und zur Businessfrau. Aus dem Satz „Frauen kreischen, Männer werden weiß im Gesicht“ wurde „Frauen kreischen, Männer werden blass im Gesicht“. Das offensichtlich anstößige Adjektiv   „white“ durch das englische „pale“  (gleichbedeutend mit blass) ersetzt.  Über den Grund für die Verbannung einer Farbe kann meine begrenzte Phantasie nur spekulieren:  Ist weiß anstößig, weil damit weiße Suprematie verherrlicht wird oder dürfen Hautfarben ganz grundsätzlich nicht mehr beim Namen genannt werden?  Halb im Scherz und halb verzweifelt fragt der Zeit-Kolumnist Harald Martenstein:  Hören wir von nun Schlager-Klassiker wie „Bleiche Rosen aus Athen“ oder die Musik der Hip-Hop Band „Enormes Brot“ ? Kommen Dick und Doof in Zukunft als „Mehrgewichtig  und Andersbegabt“ auf den Bildschirm ?  

Man könnte das alles augenzwinkernd als Zeitgeistmode abtun, wenn nicht die Idee der Identifikation und Indexierung “böser“- weil potentiell verletzender – Worte, wenn nicht das ganze Konzept des “sensitivity reading“  – mit anschließender Säuberung – durchaus Risiken und Nebenwirkungen hätte: Der Dahl-Übersetzer Andreas Steinhöfel bringt ein wesentliches Problem auf den Punkt:  “Ich nehme mir nicht den Text und arbeite den um. Das ist Kunst- und Geschichtsverfälschung. Und das ist vor allem das, was mich am meisten erbost dabei: Das sind Maßnahmen, wie man sie nur aus totalitären Systemen kennt.“  Das sieht nicht nur Steinhöfel so, sondern auch einer, der sich weiß Gott mit totalitärer Zensur auskennt: Auch der Schriftsteller Salman Rushdie hat sich mit scharfen Worten gegen die sprachpolizeilichen Säuberungen in Roald Dahls Texten gewendet. 

Aber nicht nur deswegen ist das Thema der Rede wert: Hinter der ganzen Idee des „sensitivity reading“ steckt ein erschreckend unterkomplexes Verständnis von Sprache, Etymologie und Kommunikation.  Die Idee beruht auf einem großen Missverständnis, weil sie offensichtlich ignoriert wie Sprache und wie Literatur funktioniert.

Reden wir zunächst über Sprache:  Wenn wir Texte, ganze allgemein Sprache, verstehen wollen, dann können wir die Analyse auf drei verschiedenen Ebenen vollziehen. Sprache hat drei Dimensionen, die Syntaktik, “als die Untersuchung der formalen Beziehungen der Zeichen untereinander“; die Semantik, „als die Untersuchung der Beziehungen zwischen Zeichen und die Gegenständen“ und die Pragmatik, “als die Untersuchung der Beziehungen zwischen Zeichen und dem Interpretierenden“. Das ist kein Hexenwerk, sondern Deutsch Oberstufe oder Grundstudium Germanistik/Linguistik. Die Syntax, die sich mit der formalem, grammatschen Struktur befasst, ist in unserem Zusammenhang außen vor. 

Bei der Semantik wird es interessant. Hier geht es um “die Beziehung der Zeichen (=Worte) zu ihren Designaten und darum zu den Objekten, die sie notieren oder denotieren können“  – jedoch ohne die Interpreten miteinzubeziehen. Wir können es sein bisschen einfacher haben:  Landläufig wird semantische Dimension oft mit der “lexikalischen Wortbedeutung“ gleichgesetzt. Grob verkürzt: “Die Semantik ist das, was zu dem Begriff im Wörterbuch zu finden ist“.   Nehmen wir ein Wort wie “Hund“.  Im Duden lesen wir dazu: “kleine bis mittelgroße Säugetiere ……“, aber auch “umgangssprachliche, saloppe Bezeichnung für Mann“ oder “kastenförmiger Förderwagen im Bergbau“.   Trotz dieser Vieldeutigkeit setzt die Semantik der sinnvollen Verwendung eines Begriff Grenzen: Wenn ich Katze meine, dann kann ich nicht Hund sagen. 

Mehr aber auch nicht!  Denn der Blick ins Lexikon macht noch eines klar: Die dürren Angaben sind immer nur ein grober Rahmen, der die unzähligen individuellen Konnotationen und Assoziationen, die Menschen haben, wenn sie Worte verwenden oder mit Worten konfrontiert werden, nie vollständig abbilden kann. Oder, um es mit dem berühmten Sprachwissenschaftler Umberto Eco zu sagen: “Man sollte den dargestellten Gegenstandes mit den Vorstellungs- und Wahrnehmungsmodellen des Gegenstands nie verwechseln“.  Und diese “Vorstellungs- und Wahrnehmungsmodelle“ sind nicht nur individuell unterschiedlich. Sie können auch von Situation zu Situation stark variieren. 

Und hier kommt die Pragmatik ins Spiel.  Bei der Pragmatik  geht es um die Bedeutung eines Wortes  in einer ganz konkreten (Kommunikations)-Situation, kurz gesagt, es geht darum, was in der konkreten Situation gemeint ist. Und das kann bei ein und demselben Wort vollkommen unterschiedlich ausfallen: 

Wenn ich meinem Nachbarn und seinen jungen Golden Retriever treffe und sage “Das ist aber ein süßer Hund“, dann mache ich ein Kompliment. Wenn die Bayern über einen ihrer früheren Ministerpräsidenten sagen “A Hund war er scho“ , dann transportiert das Wort “Hund“ durchaus ambivalente Gefühle.  Und wenn ich meinen Gegenüber aus dem Nahen Osten “Du Hund“ nenne, dann leite ich damit unter Umständen eine Prügelei  ein.  

Die gleichen Worte können also sehr unterschiedliche Bedeutungen haben und vor allem ganz unterschiedliche Absichten vermitteln, je nachdem, wer sie wie und in welchem Zusammenhang verwendet.

Und jetzt müssen wir über  Literatur reden. Zum kleinen Einmaleins des Lesens gehört, dass ich mir klar mache, dass es einen Unterschied gibt zwischen der Perspektive des Autors und der Perspektive der Figuren im Text.  Der Tübinger Komparatist  Jürgen Wertheimer drückt das so aus: “Es ist ein gewaltiger Unterschied, ob einer wie Koeppen sprachliche Verwahrlosung konkret zeigt, oder sich ihrer strategisch bedient“. 

Eigentlich eine Binsenweisheit. Jedem kindlichen Leser von “Pippi Langstrumpf“ ist klar, dass Pippi sich die Welt mit ihren Taten und Worten “so macht, wie es ihr gefällt“- und nicht Astrid Lindgren.  Pippi ist Pippi, weil sie wie Pippi redet und handelt. Die Schurken sind Schurken, weil sie wie Schurken reden und handeln. Niemand bei Verstand würde auf die Idee kommen, dass alle die vielen Figuren eines Buches oder Theaterstücks nur die Perspektive und die Einstellungen ihres Schöpfers, des Autors, kommunizieren. Wenn also jemand wie die TAZ-Kommentatorin Simone Dede Ayivi schreibt, ein Buch wie “Tauben im Gras“ gehöre nicht in die Schule, weil “der Roman rassistische Sprache reproduziert“ ,  dann zeigt dieses Argument nur wie groß die Scheuklappen der Fans des “sensitivity reading“  inzwischen geworden sind.  

Denkt man die Logik von Ayivis Argumentation bis ans Ende, dann dürfen wir Schülern (und Studenten?) keine Texte mehr zumuten, in denen Nazis auftreten, die wie Nazis reden und keine Filme mehr, die Rassisten zeigen, die sich wie Rassisten benehmen. Klassiker wie “Mississippi Burning“ oder “In the heat of the night” müssten nach dieser verqueren Logik genauso auf den Index, wie Rolf Hochhuths “Stellvertreter“  oder Brechts “Furcht und Elend der Dritten Reiches“.

Es kommt noch dicker. Denn wieso soll es den nicht-fiktionalen Texten besser gehen als den fiktionalen. Wie dürften dann in der Schule auch keine originalen Quellen mehr lesen, die aus der Feder von Rassisten, Nationalsozialisten, Faschisten oder wem auch immer stammen, wenn “sie rassistische (oder nazistische oder faschistische oder … ) Sprache reproduzieren“.  Eine Analyse von Goebbels Sportpalastrede im Fach Geschichte oder eine Kritik der Eugenik am Beispiel eines Textes von Francis Galton im Biologieunterricht – Alles tabu!

So geht Auslöschung von Geschichte! 

Kommen wie von Sprache und Literatur zur Sprachgeschichte.  Im Lauf der Zeit kann sich die Semantik von Begriffen verändern, manchmal so radikal, dass die ursprüngliche Wortbedeutung vollkommen vergessen und auch irrelevant wird.  Nehmen wir das Adjektiv „geil“.  Niemand hat mir den Bedeutungswandel dieses Wortes so drastisch vor Augen geführt, wie meine 75-jährige Schwiegermutter, als sie aus dem Kindergarten kam und begeistert von der „geilen Ausführung“ berichtete, die die Kleinen zum Nikolaustag abgeliefert hätten.   Ende der 1970 Jahre wäre ich als gestandener Teenager noch errötet, hätte die vier Buchstaben in den Mund genommen. „Geil“ hieß damals nichts anderes als ‚sexuell höchst erregt‘.  Im Mittehochdeutschen bedeute „geil“ noch „von wilder Kraft, mutwillig, üppig, lustig“, später dann „übermütig oder froh“.  Im Lauf der Zeit mutierte es zu „lüstern“ und heute heißt es schlicht „toll, schön, super“. 

Auch das berühmt-berüchtigte “N-Wort“ ist dem Wandel unterworfen.Es stimmt eben nicht, wenn Jasmin Blunt sagt: “Das N-Wort (…) bedeutete schon immer, dass man Menschen ausgrenzt, sie entmenschlicht und ihnen die Menschenrechte abspricht.“ Ich darf hier Asfa-Wossen Asserate zitieren: “Bis vor dreißig Jahren gehörte im Deutschen das Wort »Neger« – abgeleitet von niger, dem lateinischen Wort für schwarz – zum allgemeinen Sprachschatz.“      Seit dem 17. Jahrhundert wurden Menschen mit schwarzer Hautfarbe in vielen europäischen Sprachen mit Begriffen bezeichnet, die sich vom lateinischen Wort “niger“ (=schwarz) ableiten (Was damals wohl irgendwie nahelag, da wir heute  zumindest Menschen mit weißer (heller) Hautfarbe immer noch als “Weiße“ bezeichnen).  “Niger“ wurde im Englischen zu  “Negro“, zu “Negre“ im Französischen “Negro“ im Spanischen und im Deutschen eben zu –  “Neger“.  Hier löste er den älteren Begriff “Mohr“ ab, wobei sich die Gelehrten streiten, ob „Mohr“ eher auf das griechische „moros“ für „töricht“ oder „dumm“ oder das lateinische „maurus“ für „schwarz“, „dunkel“ und „afrikanisch“ zurückgeht – oder auf beides. 

Wenn das Bedürfnis besteht, Menschen nach Hautfarben zu bezeichnen, dann muss die Sprache dafür ein Wort finden. 

Heute ist der Begriff “Neger“ im Deutschen fast so negativ konnotiert wie das englische “nigger“.  Im Duden von 1984 heißt es:

“Neger, die der negriden Rasse zugehörigen Bewohner Afrikas, heute wegen der damit oft verbundenen abwertenden Bed. als Afrikaner od. Schwarze bezeichnet.“

Natürlich würde ich daher das ‚N-Wort‘ heute  – wenn überhaupt nötig – nur noch im Rahmen des Zitierens verwenden. Aber bis in die 1970er Jahre wurde das Wort durchaus auch völlig neutral verstanden. Schauen wir in ein Lexikon des Jahres 1975:

 “Neger [aus span. “Schwarzer“], im gewöhnlichen Sprachgebrauch die dunkelhäutigen Bewohner Afrikas südl. der Sahara bis zum Kapland sowie die Nachkommen der nach Nordafrika, Arabien und bes. nach Westindien, Nord- und Südamerika verschleppten Sklaven. Die N. bilden die kennzeichnendsten Gruppen des negriden Rassenkreises (→ Negride). → afrikanische Sprachen.“ 

Sprache verändert sich. 

Das wäre die letzte Lektion. Wenn wir Texte aus den Vergangenheit lesen, dann können wir sie nur verstehen, wenn wir sie an der Semantik der Begriffe ihrer Zeit messen.  Wem fällt denn – abgesehen vom “N-Wort“ –  irgendein anderer Begriff ein, der im Deutschland der frühen 1950er Jahre zur Bezeichnung von Menschen mit dunkler Hautfarbe und Afroamerikanischer Abstammung  gebräuchlich gewesen wäre?  Alles Rassisten? 

War Irmgard Keun eine Rassistin, als sie schrieb:  

“Luftschlangen wurden geworfen, Menschen saßen in Staub und Rauch, Neger waren auch da, ich durfte neben einem sitzen.“ ? 

War Erich Kästner ein Rassist, wenn er in seinem ‚Zauberlehrling‘ schilderte:  

 “Mitten in dem vergnügten Gewimmel der heimkehrenden Sportler standen drei Neger.“? 

Auch das, also ein Gefühl für das Phänomen Sprachwandel und für die Tücken bei der Interpretation von Texten aus anderen Zeiten und anderen Kulturen, ist etwas, was Schule (und Uni)  Jugendlichen beibringen sollte. Wenn wir aber die selbsternannten “Sprachhygieniker“ mit ihren Desinfektionssprays in die Bibliotheken lassen, dann ist es damit vorbei.

Zum Schluss zurück zum Anfang, zum vermeintlichen “Skandalbuch“ ‚Tauben im Gras‘:  Innerhalb des Kaleidoskops von Krieg und Nazismus verstörter, geängstigter und in Widersprüche verwickelter Menschen, das Wolfgang Koeppen ausbreitet, ist der schwarze GI Washington, der seine deutsche Freundin Carla bedingungslos liebt und mir ihr das Kind seiner Liebe großziehen will, die am wenigsten gebrochene, vielleicht die einzig uneingeschränkt positive Figur. Washington liebt Carla, obwohl diese ihre Beziehung zumindest über lange Strecken eher “instrumentell“ sieht.  Er liebt sie, obwohl sie das Kind ihrer Liebe zunächst hinter seinem Rücken abtreiben möchte. Carla will abtreiben, weil sie glaubt, dass die Welt, so wie sie ist, für Kinder aus einer Ehe von Schwarz und Weiß weder in Deutschland noch in den USA ein guter Platz ist. Koeppen schildert Rassismus in Nachkriegsdeutschland und in den USA. Er tut dies erstaunlich hellsichtig, für jemanden, der bis dato nie in den USA war und den Großteil seines Lebens in Kaiserreich und Drittem Reich verbracht hat.  Seine Schilderung wird an keiner Stelle affirmativ –  ganz im  Gegenteil:   Die widerlichste Figur im Roman ist Carlas Mutter: Frau Behrendt ist eine larmoyante, böse, weiße, alte Nazi-Ziege. Bezeichnenderweise ist sie es, die gegen Ende des Buches einen rassistischen Mob zum Versuch der Lynchjustiz anstachelt, weil sie den verhassten Schwiegersohn in spe fälschlicherweise als Taximörder bezichtigt.  Mit fatalen Folgen:

 “Die Steine  flogen auf die horizontblaue Maschine. Sie trafen Carla und Washington, sie trafen Richard Kirsch, der hier Amerika verteidigte, das freie, brüderliche Amerika, indem er den Gefährten beistand, die ruchlose geworfenen Steine trafen Amerika und Europa, sie schändeten den oft berufenen europäischen Geist, sie verletzten die Menschheit, sie trafen den Traum von Paris, den Traum von Washington‘s Inn, den Traum ‚Niemand ist unerwünscht‘, aber sie konnten den Traum nicht töten, der stärker als jeder Steinwurf ist, und sie trafen einen kleinen Jungen, der mit dem Schrei Mutter zum horizontblauen Wagen gelaufen ist“ 



1. ZDF: “Tauben im Gras“: Lehrerin verweigert Lektüre im Unterricht – ZDFheute

2. Neuausgabe von Roald Dahl – Empfindsamkeitspolizei oder gerechte Sprache? deutschlandfunkkultur.de

3. Martenstein – Zeit-Magazin 3/2023

4. Zeit – Magazin 3/2023

5. Zitiert nach : Neuausgaben von Roald Dahl – „Empfindsamkeitspolizei“ oder gerechtere Sprache? | deutschlandfunkkultur.de

6. Charles William Morris (Hrsg.): Grundlagen der Zeichentheorie, Ästhetik der Zeichentheorie. Fischer, Frankfurt am Main 1988; Charles William Morris. Signs, Language and Behaviour. 

7. inf-schule | Einführung – Sprache als Zeichensystem » Syntax, Semantik, Pragmatik

8. Morris, ebenda

9. TAZ-Kommentar von Simone Dede Ayivi. Sie ist Autorin und Theatermacherin

10. ZDF, „Tauben im Gras“ Lehrerin verweigert Lektüre im Unterricht“ – ZDF heute

11.  Asfa-Wossen Asserate: Draußen nur Kännchen: Meine deutschen Fundstücke, 3. Auflage, Verleger: Scherz, Frankfurt/Main 2010, Seite 164.

12. „Neger“. In: dtv-Lexikon. Ein Konversationslexikon in 20 Bänden. Band 13. München 1975, S. 76.

13. Irmgard Keun: Kind aller Länder. Roman. Deutscher Taschenbuch Verlag, München 1989, Seite 122; Erste Ausgabe 1938.

14. Erich Kästner: Der Zauberlehrling. Ein Fragment. In: Kästner für Erwachsene 3. Deutscher Bücherbund, Stuttgart/München ohne Jahr, Seite 203–297, Zitat Seite 225; Entstanden 1936. 

15. Wolfgang Koeppen. Tauben im Gras; Suhrkamp Verlag; S. 203

Ambiguitätstoleranz – Zweifeln und trotzdem handlungsfähig bleiben

Geronimo ID’d…Geronomio EKIA.

Das sind die erlösenden Worte, auf die am Nachmittag des 1. Mai 2011 eine Gruppe von 14 Männern und zwei Frauen im Situation Room des Weißen Hauses gewartet hatten: Enemy killed in action. Hinter dem Codenamen Geronimo verbirgt sich Osama bin Laden, der Drahtzieher der Anschläge des 11. September.

Ein ikonisches Bild geht damals um die Welt: Präsident Barack Obama und seine Sicherheitsberater drängen sich in einem winzigen Konferenzraum zusammen und starren gebannt auf einen Bildschirm. Sie verfolgen live, wie Männer der Spezialeinheit Navy SEALs ein Anwesen in Pakistan stürmen. Was mag ihnen in diesem Moment durch den Kopf gegangen sein? Welche Überlegungen, Diskussionen und Entscheidungen gingen dem Ereignis voraus – welche Zweifel und inneren Konflikte?

Die CIA hatte dem Präsidenten einige Zeit zuvor von einer möglichen Spur zu bin Laden berichtet, konnte ihn aber nicht zweifelsfrei identifizieren. Nur mit einer Wahrscheinlichkeit von 60 bis 80 Prozent handele es sich um den Gesuchten. 40 bis 60 Prozent urteilten andere Analysten. Keine leichte Ausgangslage. Aber Obama entschied.

„I know we’re trying to quantify these factors as best as we can. But ultimately, this is a fifty-fifty call. Let’s move on.“

Warum diese Geschichte? Sie soll eine Schlüsselkompetenz illustrieren, die in Zukunft für uns alle noch viel wichtiger werden dürfte: Ambiguitätstoleranz.

Zeit für ein mentales Update

Die Psychologie spricht von Ambiguität im Zusammenhang mit einem Zustand der Unsicherheit, der Ungewissheit und des Zweifels, den wir als unangenehm empfinden. Wir halten Schwebezustände, Widersprüchlichkeiten und Mehrdeutigkeit einfach nicht gut aus. Deshalb neigen wir dazu, uns vorschnell in Überzeugungen und vermeintliche Gewissheiten zu flüchten. In einer zunehmend unbeständigen, unsicheren, komplexen und mehrdeutigen Welt gleicht dieses Verhalten jedoch immer mehr dem Versuch eines Kindes sich zu verstecken, indem es sich die Augen zuhält.

Zur Beschreibung der modernen Welt wird häufig das Akronym VUCA bemüht. Es steht für VolatilityUncertaintyComplexity und Ambiguity. Um in dieser Welt bestehen zu können, brauchen wir ein Update unseres mentalen Betriebssystems. Es basiert auf der Einsicht, dass Beständigkeit kein Naturgesetz ist. Dass wir nicht alles wissen und nicht alles vorausberechnen können. Dass wir keine einfachen Antworten auf schwierige Fragen geben können. Dass es sich lohnt, Überzeugungen zu hinterfragen und Zweifel zuzulassen.

Besonders treffend auf den Punkt gebracht hat es der Schriftsteller F. Scott Fitzgerald. Seiner Ansicht nach sei es ein Ausweis erstklassiger Intelligenz, wenn man zwei entgegengesetzte Meinungen („ideas“) gleichzeitig im Sinn haben könne – und trotzdem noch funktioniere.

2030 – Wie wollen wir leben? 

Ambiguitätstoleranz heißt, der VUCA-Welt mit offenem Visier zu begegnen. Als Grundhaltung ermöglicht sie uns, den Durchblick zu behalten, gelassen zu bleiben, mit Zweifeln produktiv umzugehen, widerstrebende Werturteile zu akzeptieren und konstruktiv abzuwägen – und auf diese Weise auch eine lebenswerte Zukunft zu schaffen.

Eine der Großfragen etwa wird bis 2030 lauten, wie wir unsere Gesellschaft und unseren Alltag in einer immer stärker technologisierten Welt gestalten wollen, in der der Mensch dank Künstlicher Intelligenz (KI), moderner Gentechnik und Gehirn-Computer-Schnittstellen in die Lage versetzt wird, förmlich über sich hinauszuwachsen – also vom Homo sapiens zum Homo deus (Yuval Noah Harari) zu werden.

Wie machen wir uns diese Potentiale zunutze und schützen gleichzeitig unsere individuellen Freiheits-, Schutz- und Selbstbestimmungsrechte? Wie bringen wir den Fortschritt mit den Ansprüchen an eine gerechte, offene und demokratische Gesellschaft in Einklang?

Und wie gehen wir damit um, dass in anderen Ländern andere Werturteile, Gesellschaftsbilder und politische Systeme vorherrschen – Ländern, mit denen wir im Wettbewerb um ökonomische, technologische, geopolitische, militärische und „moralische“ Überlegenheit stehen. Mit denen wir gleichzeitig aber auch kooperieren müssen, um uns das Wissen der Welt für wissenschaftlichen und technologischen Fortschritt bestmöglich zunutze zu machen und globale Herausforderungen wie Klimawandel, Armutsbekämpfung und Friedenssicherung gemeinsam anzugehen.

Let’s face it

Zurück zu Obama. Er hat es sich nicht leicht gemacht damals. Sein inneres Ringen, seine Zweifel, können wir nur erahnen. Dennoch blieb er handlungsfähig. Die wenigsten Menschen geraten glücklicherweise in solch extreme Situationen wie eine Terroristenjagd. Und doch enthält dieses drastische Beispiel einige interessante Lehren.

Denn wir alle – in unserem privaten und beruflichen Leben, aber auch insgesamt als Gesellschaft – müssen immer wieder Entscheidungen unter Unsicherheit treffen, können nicht sicher sein, welche Folgen unsere Entscheidungen haben, und sehen uns widerstreitenden Werturteilen ausgesetzt. Diese Urteile unterscheiden sich zwischen Personen, Kulturen, Regionen und Generationen – und unterliegen nicht selten einem zeitlichen Wandel.

Obama war nicht nur der Unsicherheit ausgesetzt, dass es sich bei der Zielperson gar nicht um bin Laden handelt. Darüber hinaus stellten sich ihm viele weitere Fragen. Ist die Tötung eines Terroristen moralisch vertretbar? Könnte es unschuldige Opfer geben – und darf man das in Kauf nehmen? Welche Gefahr geht von dem Einsatz für die eigenen Leute aus? Sind Vergeltungsaktionen und eine endlose Gewaltspirale zu befürchten? Welche politischen Folgen wird die Aktion haben?

Einen Höhepunkt erreicht das Drama im Weißen Haus, als im Beraterkreis die letzte Aussprache über den Einsatz in Pakistan ansteht. CIA-Chef Leon Panetta und zwei weitere Sicherheitsberater sprechen sich dafür aus; Außenministerin Hillary Clinton ist hin- und hergerissen, befürwortet ihn letztlich aber ebenfalls („51:49“); Vizepräsident Joe Biden und Verteidigungsminister Robert Gates dagegen raten von der Aktion ab.

Das Bemerkenswerte an dieser Entscheidungssituation ist nicht nur das Dilemma, in das Obama angesichts der gegensätzlichen Empfehlungen seiner engsten Berater:innen gerät. Mindestens genauso interessant ist, dass er eine Atmosphäre des offenen Austauschs um sich herum geschaffen hat, in der abweichende Meinungen nicht nur zähneknirschend akzeptiert oder in der Folge sogar sanktioniert werden. Im Gegenteil: Der Widerspruch hat Methode. Gerade Vizepräsident Biden, so Obama, habe bei jeder wichtigen Entscheidung seiner Amtszeit immer wieder vorherrschende Meinungen infrage gestellt – „often in the interest of giving me the space I needed for my own internal deliberations“. 

Den Durchblick behalten

Sich ein gutes Umfeld zu schaffen ist heute für Entscheider auch aus anderen Gründen wichtig. So neigen wir insbesondere in Stresssituationen dazu, vorschnell unseren Intuitionen zu folgen – und dabei kognitiven Fehlschlüssen zu unterliegen. Auf diese Gefahr weist der Nobelpreisträger Daniel Kahneman in seinem Bestseller „Thinking, Fast and Slow“ hin. Sein Rat: sich mit Beobachter:innen umgeben. Dass man in ein Minenfeld gerät, würden Außenstehende oft viel leichter erkennen als man selbst. Beobachter:innen stünden zudem weniger unter Stress als Entscheidungsträger:innen und seien offener für neue Informationen.

Und auch Stimmungen, die bekanntlich stark schwanken können, wirken sich auf die Qualität von Entscheidungen aus. Wir seien eben nicht durchgehend dieselbe Person, konstatieren Kahneman, Olivier Sibony und Cass Sunstein an anderer Stelle. Um Zufallseinflüsse (noise) bei Entscheidungen zu reduzieren, empfehlen sie, sich unabhängige Urteile von mehreren Beurteiler:innen einzuholen. Unabhängigkeit ließe sich vor allem dadurch erreichen, die Urteile schon vor der Diskussion aufzunehmen, um die gegenseitige Beeinflussung von Meinungen zu verhindern.

Weil der US-Präsident das Ergebnis angesichts der vielen Unwägbarkeiten schlecht vom Ende her optimieren kann, konzentriert er sich auf den Entscheidungsprozess. Am Anfang stehen ein klar formuliertes Ziel und eine Handlungsanweisung, die für Verbindlichkeit sorgt („I want to see a formal plan for how we’re going to find him. I want a report on my desk every thirty days describing our progress“). 

Sobald ausreichend Informationen vorliegen, werden Optionen entwickelt, die aus verschiedenen Blickwinkeln diskutiert werden, um den Entscheidungskorridor schrittweise einzuengen („every meeting […] had helped confirm my instincts“). Ab einem gewissen Punkt lässt Obama los und vertraut darauf, dass im Zuge der Umsetzung der Entscheidung auch andere Leute einen guten Job machen werden („I trusted that the SEALs would find a safe way out […], even if some of our calculations and assumptions proved to be incorrect“). 

Die Entscheidung, die er am Ende zu treffen hat, ist schwerwiegend. Und eine einsame. Aber er ist bereit, sie zu treffen. Er hat Chancen und Risiken sorgsam abgewogen und sich Rat geholt. Fehlentscheidungen und schwierige Situationen in der Vergangenheit seien das beste Training für diesen kritischen Moment gewesen – so beschrieb er es im Rückblick.

Vielleicht dachte er dabei an Robert F. Kennedy, in dessen Tagebuch sich der passende Denkspruch dazu findet. Demnach sei eine gute Entscheidung üblicherweise das Ergebnis von Erfahrung; und Erfahrung häufig das Ergebnis schlechter Entscheidungen.

And while I couldn’t guarantee the outcome of my decision, I was fully prepared and fully confident making it.“ 

Die Ruhe bewahren

Zweifeln erfordert mentale Anstrengung, volle Aufmerksamkeit und vor allem: Zeit. Kahneman spricht daher vom „langsamen Denken“. Der Philosoph Nassim Nicholas Taleb rehabilitiert in diesem Zusammenhang sogar die Prokrastination, also das Vor-sich-herschieben einer Entscheidung oder Tätigkeit. Menschen seien einfach schlecht darin, kurzfristig Informationen zu filtern.

Der Unwillen, den wir angesichts unangenehmer Entscheidungen oder Aufgaben verspüren, sei ein ganz natürlicher Instinkt und Abwehrmechanismus. Wir sollten ihn wirken lassen, ihn uns bewusst zunutze machen.

Aufschub schütze uns vor der Versuchung, hektisch auf alle möglichen kurzfristigen Informationen zu reagieren. Prokrastination erlaube, gewissen Entwicklungen auch einmal ihren Lauf zu lassen. Gerade die „Aktivist:innen“ unter uns erhalten so die Chance, ihre Meinung auch einmal zu ändern, bevor sie unwiderrufliche Entscheidungen treffen.

Und was zeichnet „Top-Beurteiler:innen“ sonst noch aus? Sie sind aktiv selbsthinterfragend. Das ist vielleicht eine der wichtigsten Erkenntnisse von Kahneman und Kollegen.

Der moderne Mensch zweifelt – und das ist gut so

Blicken wir weiter in die Zukunft. Eine immer drängendere Frage betrifft den Umgang mit autonomen Waffensystemen. Der KI-Experte und Bestsellerautor Kai-Fu Lee befürchtet: „Der Einsatz autonomer Waffen wird durch ein unvermeidliches Wettrüsten beschleunigt werden, das nicht durch die natürliche Abschreckungswirkung von Kernwaffen in Schach gehalten wird. Autonome Waffen sind die KI-Anwendung, die unseren ethischen Wertmaßstäben am deutlichsten und tiefgreifendsten zuwiderläuft und die den Fortbestand der Menschheit bedroht.“

Experten und Entscheidungsträger stünden in der Pflicht, hier sehr sorgfältig alle möglichen Lösungsansätze abzuwägen und diese Gefahr frühzeitig zu bannen. Kai-Fu Lee spekuliert auch über ein Abkommen, das womöglich bis 2041 geschlossen werden könnte (KI 2041 lautet der Titel eines seiner jüngsten Bücher): Wie wäre es, wenn die internationale Gemeinschaft sich verpflichtete, künftige Kriege ausschließlich mit Robotern zu führen – also Menschenopfer von vornherein auszuschließen? „Diese [Idee lässt] sich heute noch nicht praktisch umsetzen, aber vielleicht [inspiriert] sie schon bald Konzepte, die bessere Chancen haben, realisiert zu werden.“

2030 wäre kein schlechter Zeitpunkt dafür.

Alles eine Frage des Trainings

Ambiguitätstoleranz gehört zu den Schlüsselkompetenzen des modernen Menschen. Nicht nur, um bessere Entscheidungen zu treffen. Sondern auch, um vor den Gefahren der Ambiguitäts-in-toleranz gefeit zu sein. Der Schweizer Psychoanalytiker Mario Gmür etwa warnt, dass übersteigerte Überzeugungen krank machen können: Depression, Schizophrenie, Wahn, Sektenabhängigkeit – die Liste der Überzeugungskrankeiten ist lang. Die „Unfähigkeit zu zweifeln“ sei aber auch ein gesellschaftliches Übel, weil sie Extremismus und Terrorismus Vorschub leiste.

In ein ähnliches Horn bläst der Islamwissenschaftler Thomas Bauer, der den Drang zur „Vereindeutigung der Welt“ für eine Ursache der vielfach beklagten „Spaltung der Gesellschaft“ hält. Die Diskrepanz zwischen den eigenen Wünschen, Idealen und Überzeugungen und denen unserer Mitmenschen zu akzeptieren – also Ambiguitätstoleranz im besten Sinne – sei der einzige Weg, diese Spaltung zu überwinden.

Die gute Nachricht ist: Ambiguitätstoleranz lässt sich trainieren. So rät Gmür zu mehr kindlichem Staunen: „Zweifeln […] hat seinen Ursprung im Staunen, einer entspannten, nicht urteilenden Neugier, deren Aufgabe es ist, alles möglichst unbefangen wahrzunehmen.“ Es irritiere unsere selbstverständlichen Sicht- und Lebensweisen und schütze uns so vor der Gefahr, aus lauter Sehnsucht nach Sicherheit auf reine Scheinlösungen hereinzufallen.

Bauer empfiehlt die ernsthafte und respektvolle Beschäftigung mit Kunst, Religion, Wissenschaft, Politik und Natur. Schließlich zeichneten sich alle diese Felder durch ein hohes Maß an Mehrdeutigkeit aus. „Nur dann, wenn [sie] ernsthaft bestellt werden, kann eine Welt der Bedeutungsvielfalt gedeihen, eine Welt, in der Ambiguität als Bereicherung und nicht als Makel empfunden wird.“

Und auch die Philosophie kann uns als praktische Lebenshilfe dienen. Bertrand Russell, der bedeutendste britische Philosoph des 20. Jahrhunderts, sah genau darin ihren größten Wert:

To teach how to live without certainty, and yet without being paralysed by hesitation, is perhaps the chief thing that philosophy, in our age, can still do for those who study it.“ 

Lernen wir also zu zweifeln – und trotzdem handlungsfähig zu bleiben. Und schätzen wir Ambiguitätstoleranz als das, was sie ist: eine Schlüsselkompetenz des modernen Menschen. 


Dieser Beitrag ist im Februar 2023 zuerst im neuen Deutschlandbuch NEXT.2030 erschienen und anschließend auf dem Blog von Thomas Lange

#Toleranz – die neue Coolness

Von Thomas Lange 

Warum wir uns Voltaire als coolen Typen vorstellen müssen und was wir von ihm über Souveränität in gesellschaftlichen Debatten lernen können. 

Hoch geht es her in den sozialen Medien. An den Zustand der Dauerregung hat man sich ja fast gewöhnt. Auch daran, dass jeder Satz mit einem Ausrufezeichen zu enden scheint. Und doch überraschen der Eifer und die Waffen, mit denen hier gefochten wird: eher Keule denn Florett. Und das ausgerechnet – oder gerade? – in Kreisen der gefühlten Geisteseliten. Auslöser kann mitunter schon einmal die Frage sein, ob die Autorin eines Sachbuchs die Mitwirkung eines Ghostwriters hätte kenntlich machen müssen. 

Worum geht es bei all dem Eifer? Blenden wir für einen Moment die Logiken der Aufregungsbewirtschaftung und der Aufmerksamkeitsökonomie einmal aus. Dann geht es vielen Streitern in der öffentlichen Debatte durchaus um gesellschaftliche Veränderung. Denn dafür kämpfen Politikerinnen und Experten, Aktivistinnen und Intellektuelle ja gleichermaßen: für eine bessere Welt. Wie diese Welt aussehen soll und wie wir dort hinkommen – darüber lässt sich trefflich streiten. 

Die Frage ist nur: muss es dabei so verbissen zugehen, so kategorisch und persönlich? Oder anders formuliert: Wo bleibt die Toleranz? 

So wenig sich die Menschen für schlechte Autofahrer oder Liebhaber halten, würden sich die wenigsten von uns als intolerant bezeichnen. Und doch: Ein bisschen nachsichtiger, ein bisschen demütiger, ein bisschen höflicher – das wäre vermutlich schon drin. 

Nachsicht 

Wer tolerant ist, beweist nicht nur zähneknirschend Nehmerqualitäten (wir halten die Meinung anderer aus), sondern tut dies auch aus einer bestimmten Haltung heraus. 

In den Worten Voltaires: „Was ist Toleranz? Sie ist die Menschlichkeit überhaupt. Wir sind alle gemacht aus Schwächen und Fehlern; darum sei das erste Naturgesetz, dass wir uns wechselseitig unsere Dummheiten verzeihen.“ 

Eine gewisse Großzügigkeit – um nicht zu sagen Weitherzigkeit – steht uns also durchaus gut zu Gesicht. 

Demut 

Gerade Experten neigen womöglich dazu, sich selbst zu überschätzen – und zwar hinsichtlich ihrer Rolle und Bedeutung im politischen Prozess. Niemand würde wohl bestreiten, dass wir Expertenwissen brauchen, um die großen Herausforderungen unserer Zeit zu meistern. Egal ob es um Corona, das Klima oder die Armutsbekämpfung geht – ohne Expertenwissen stochern wir orientierungslos im Nebel herum. Aber in Demokratien kommt es nicht allein auf dieses Wissen an. 

„[…] Wenn in Demokratien Dinge zu entscheiden sind, die alle betreffen, so ist Distanz zu Experten wichtig. Jeder Experte kennt nur seine eigenen Spezialprobleme, aber alle Probleme bedürfen einer Entscheidung und die Entscheidung eines speziellen Problems verhindert und verzögert die Lösung anderer Probleme. Demokratischer Dilettantismus entsteht aus notwendiger Distanz zu einer Fachidiotie, die immer nur bestimmte Interessen und Aspekte einzubeziehen vermag.“ 

So bringt der Verfassungsrechtler Christoph Möllers das Verhältnis von Expertentum und Demokratie auf den Punkt. „Natürlich können durch diese Distanz falsche Entscheidungen getroffen werden.“ Aber das sei in Expertokratien auch nicht anders. Schließlich könnten auch Experten irren oder seien verführbar. Vor allem aber – und dieser Punkt scheint für einige Experten nur schwer erträglich zu sein: „In der Demokratie sind nicht alle gleich klug, gebildet oder erfahren. Aber die Demokratie unterstellt allen das gleiche Vermögen, eigene und öffentliche Angelegenheiten zu beurteilen. […] Politisches Urteilsvermögen [ist] keine Fähigkeit, die mit Ausbildung und Intellektualität zunehmen würde.“

Höflichkeit 

So wie der Mensch nicht vom Brot allein lebt, lebt die offene und demokratische Gesellschaft nicht allein von Regeln und Gesetzen. Sie erfordert auch einen halbwegs zivilisierten und respektvollen Umgang, den wir im Alltag miteinander pflegen. Der Ton macht die Musik. 

Und wer – umgekehrt – dennoch bepöbelt wird? Der mache sich mit Schopenhauer klar, dass es üblicherweise die in der Sache längst Geschlagenen sind, die persönlich ausfällig werden: „Beim Persönlichwerden […] verlässt man den Gegenstand ganz, und richtet seinen Angriff auf die Person des Gegners: man wird also kränkend, hämisch, beleidigend, grob. Es ist eine Appellation von den Kräften des Geistes an die des Leibes, oder an die Tierheit. Diese Regel ist sehr beliebt, weil jeder zur Ausführung tauglich ist, und wird daher häufig angewandt.“ Schopenhauers Rat: gelassen bleiben. Und sich gut überlegen, in welche Debatten man tatsächlich einsteigen will. Und vor allem mit wem.

Zum Schluss noch einmal Voltaire, weil es so schön ist: 

„Die Natur hat zu allen Menschen gesprochen: Ich ließ euch alle schwach und unwissend geboren werden […]. Da ihr schwach seid, helft euch; da ihr unwissend seid, klärt euch auf und habt Nachsicht untereinander. Seid ihr alle derselben Meinung, was sicher nicht geschehen wird, so solltet ihr, wenn es auch nur einen einzigen Menschen mit einer anderen Ansicht gibt, sie ihm zugute halten, denn ich bin es, der ihn so denken lässt, wie er denkt. Ich habe Euch Arme gegeben, um das Land zu bebauen, und einen kleinen Schimmer Vernunft, um euren Weg zu finden; in eure Herzen habe ich einen Keim von Mitleid gesetzt, damit ihr einander helft, das Leben zu ertragen. Erstickt diesen Keim nicht, verderbt ihn nicht, wisst dass er göttlich ist, und ersetzt nicht die Stimme der Natur durch den armseligen Eifer der Schule.“ 

Bleiben wir also cool – und seien wir tolerant!



Dr. Thomas Lange ist Volkswirt und war lange bei der Akademie für Technikwissenschaften (Acatech) in München beschäftigt. Er ist jetzt für ein Münchener Family Office tätig.

Lieber Leser, wenn Sie mit dem Autor in Kontakt treten wollen, um ein Feedback zu geben, senden Sie doch bitte eine kurze Mail an: mw@philab.de. Ich leite die Mail dann weiter

Dieser Beitrag ist am 15. August 2022 zuerst auf dem Blog Der Debatte halber erschienen.

Der Wolf im Schafspelz – die „Causa Maaßen“ und das „Canceln“ von Autoren

Von Christoph Gröpl und Christian F. Majer

„Wenn der Faschismus wiederkehrt, wird er nicht sagen: ‚Ich bin der Faschismus‘. Nein, er wird sagen: ‚Ich bin der Antifaschismus‘.“ Es ist nicht sicher, ob dieses Zitat dem italienischen Schriftsteller Ignazio Silone (1900–1978) zugeschrieben werden darf. Dieser Streit braucht hier nicht vertieft und schon gar nicht entschieden zu werden. Denn selbst wenn das Zitat einen anderen Urheber hat, ist es auf beklemmende Weise wahr. Faschismus und Nationalsozialismus zeichnen sich – unter anderem – durch brutale Intoleranz aus; sie dulden keinen Widerspruch, schon gar keinen intellektuellen. Für den selbsterklärten Antifaschismus gilt offenbar nichts anderes.

Derzeit beobachten wir Bewegungen, die angeblich für Toleranz und Akzeptanz gegenüber Gruppen und Lebensentwürfen kämpfen, die sie als schützenswert (neudeutsch „vulnerabel“, wohl übernommen aus dem einschlägigen US-amerikanischen Politjargon) und förderungswürdig erachten. Dabei geben sie „Anti-Intoleranz“ und das Bekenntnis zur Diversität vor, legen ihrerseits indes eine unsägliche Intoleranz an den Tag – und werden ihren Gegnern dadurch auf bedrückende Weise ähnlich, auch in der Armut ihrer Argumente.

Ihre Methode ist die öffentliche Empörung, die individuelle Bloßstellung, insbesondere in den und mithilfe der sozialen Medien. Mit Vorliebe konzentrieren sie sich auf Einzelpersonen, die ihnen politisch „verhasst“, d.h. tatsächlich oder vermeintlich „rechts“ sind. Diese stellen sie an den medialen Marterpfahl, was den Effekt hat, dass Dritte davor zurückschrecken, den medial Gemarterten beizustehen, aus Furcht, sie kämen als nächste an die Reihe. Am Ende steht die (Un)Kultur der Auslöschung anderer („rechter“) Meinungen („Cancel Culture“). Ob es sich dabei tatsächlich um eine „Kultur“ handelt, ist ebenso nebensächlich wie der Streit um den Terminus „Cancel Culture“, da jedenfalls das Phänomen existiert.

Diese Bewegung nennt sich selbst „woke“ und wird oft dem linken Spektrum zugeordnet. Mit den klassischen Linken haben sie allerdings – vielleicht außer einer kollektivistischen Betrachtungsweise – wenig gemein. Anders als diese interessieren sie sich nicht für prekäre Lebensverhältnisse der Arbeiter gleich welcher Hautfarbe und Herkunft, sondern haben zu Schützlingen ausschließlich angeblich „marginalisierte“ Minderheiten erkoren, die sich durch Hautfarbe, Herkunft, Religion oder sexuelle Identität auszeichnen. Diesen wollen sie in angeblichem Kampf gegen diese „Marginalisierung“ und Unterdrückung weitgehende Privilegien zuweisen, in Abkehr von den Prinzipien der Gleichbehandlung aller vor dem Gesetz und des Leistungsgedankens. Hintergrund ist wohl die Vorstellung, Positionen und Ressourcen in einem Staat würden grundsätzlich ausschließlich nach Gruppenzugehörigkeit verteilt, und die herrschende Gruppe beute den Staat unter Verdrängung der zu schützenden Gruppen aus. Vom Kampf gegen den Rassismus, den sie sich gerne auf die Fahnen schreiben, haben sie sich weit entfernt.

Neuerdings sind bei uns Verlage das Objekt der Empörung. Sie werden zum Teil erfolgreich dazu veranlasst, politisch nicht genehme Autoren oder Bücher aus der Öffentlichkeit zu verbannen („auszulöschen“). So jüngst geschehen mit den Winnetou-Büchern des Ravensburger-Verlags, nachdem „Indianer“ zum Tabuwort stilisiert wurde und dem Kinderbuch (!) die Verwendung kolonialer und rassistischer Stereotype vorgeworfen wurde. Dass Kinderbücher üblicherweise nicht historisch exakt sind und mit Stereotypen arbeiten, lässt man nicht als Einwand gelten, genauso wenig die Sympathie Karl Mays für die Indianer, deren Behandlung in den Vereinigten Staaten er als einer der ersten immer wieder kritisierte und deren positives Bild in Deutschland ihm durch die Erfindung des „Winnetou“ zu einem Großteil zu verdanken ist.

Nun soll der Verlag C.H.Beck dazu gebracht werden, Hans-Georg Maaßen als Autor aus seinen juristischen Werken zu verabschieden. Anlass dazu bilden verschiedene Äußerungen Maaßens zu den Themen Ukrainekrieg und Covid-19-Pandemie; nicht vergessen wurde auch seine Kritik an der Flüchtlingspolitik der Regierung Merkel. Die Empörung zielt auf die Kommentierungen Maaßens in dem Grundgesetz-Kommentar von Epping/Hillgruber zum „Asylgrundrechtsartikel“ 16a.

Selbstverständlich steht es jedem Autor frei, die Zusammenarbeit mit einem Verlag zu beenden, wenn er Bedenken gegen dessen (vermeintliche) politische Ausrichtung hat. Ebenso steht auch einem (privaten) Verlag frei, seine Autoren nach Belieben auszuwählen. Für die Meinungsvielfalt ist es aber problematisch, wenn von außen auf einen Verlag Druck ausgeübt wird, der sich weniger durch Sach- als vielmehr durch Totschlagsargumente auszeichnet. Durch das Zurückweichen des Verlags C.H.Beck in der „Causa Zuck“ und die Umbenennungen einiger juristischer Standardwerke bestärkt, sehen Anhänger der „Cancel Culture“ in diesem Verlag offenbar ein geeignetes Opfer, um dessen bislang breites rechtswissenschaftliches Meinungsspektrum mithilfe weiterer Kampagnen einzuschränken. Das Ziel soll offensichtlich das Gegenteil von „Diversität“ im Sinne von Meinungsvielfalt sein.

Um nicht missverstanden zu werden: Mit unserer Zurückweisung der „Cancel Culture“ verbinden wir keine Zustimmung zu bestimmten politischen Aussagen Maaßens – darauf kommt es insoweit gar nicht an. Es geht uns hier ausschließlich um die abstrakte Eignung und Berechtigung eines Autors, am rechtswissenschaftlichen Diskurs teilzunehmen. Und diese Frage ist losgelöst von der „Causa Maaßen“ zu beantworten: Wir sind der Überzeugung, dass ein Verlag die Zusammenarbeit mit einem Autor nicht deshalb beenden muss, weil dieser sich politisch fragwürdig geäußert hat. Wer insoweit anderer Ansicht ist, öffnet der Willkür Tür und Tor. Denn wer soll – jenseits von strafbaren und verfassungsfeindlichen Äußerungen – darüber entscheiden, welche Ansicht politisch nicht mehr akzeptabel ist und damit „gelöscht“ werden soll? In dieses Fadenkreuz politischer Missliebigkeit kann letztlich jeder geraten.

Demgegenüber wird häufig eingewandt, man dürfe „Rechten“ oder gar „Faschisten“ und „Rassisten“ keinen Raum für ihre Äußerungen gewähren. Indessen werden diese Begriffe jenseits ihres konsentierten Anwendungsbereichs seit einiger Zeit inflationär und unscharf verwendet. Ist jemand, der die Pandemie- oder Energiepolitik der Bundesregierung kritisiert, zwangsläufig „rechts“, nur weil Rechtsextreme das üblicherweise tun? Ist jemand Rassist, wenn er seine „Mohrenapotheke“ nicht umbenennen will, indem er darauf hinweist, dass ihr Name Bezug auf die „Mauren“ und deren im Mittelalter den Westeuropäern weit überlegene Medizin nimmt? Ist es schon rassistisch, wenn man dunkelhäutige Menschen nach ihrer Herkunft fragt? Ist jemand, der das Geschlecht nicht rein subjektiv definiert, ohne weiteres „transphob“, ja „gruppenbezogen menschenfeindlich“? Oder verfällt, wer die Muslimbruderschaft kritisiert, der „Islamophobie“? Hier wird die Notwendigkeit der Bekämpfung von (Rechts)Extremismus und Rassismus umfunktioniert zur Engführung öffentlicher Meinungsäußerungen, zur Ausschaltung politischer Diskussionen im demokratischen Rahmen.

Freilich gilt auch die Wissenschaftsfreiheit nicht unbegrenzt. Wissenschaftler haben die Strafgesetze zu beachten; volksverhetzende oder beleidigende Schriften aus ihrer Feder können verboten werden. Darüber entscheiden in einem Rechtsstaat allerdings die zuständigen Gerichte, nicht selbsternannte Tugendwächter in sozialen Medien. Die Bedenken gegen die Kommentierungen Maaßens ließen sich vielleicht noch nachvollziehen, wären diese Kommentierungen die einzige Erkenntnisquelle zum Asylgrundrecht des Art. 16a GG. Aber davon kann nicht einmal ansatzweise die Rede sein. An Kommentaren zum Grundgesetz besteht, auch und gerade im Beck-Verlag, kein Mangel; wer die Ausführungen Maaßens meiden will, möge andere, ihm genehmere wissenschaftliche Quellen heranziehen. Es geht der Kampagne jedoch offensichtlich nicht darum, dass man sich anderweitig informieren möchte und dies auch kann – es geht darum, Dritten den Zugang zu den Auffassungen Maaßens zu versperren. Seine Ansichten sollen aus dem juristischen Diskurs verbannt werden. Auffällig an diesem Versuch der „Auslöschung“ ist, dass die inhaltliche Qualität der Kommentierungen kaum thematisiert wird. Ist eine Kommentierung unzutreffend oder einseitig, verdient sie Widerspruch; darin besteht das „Kerngeschäft“ der Rechtswissenschaft. Niemand ist gezwungen, den Ansichten Maaßens zu folgen. Wissenschaftler müssen damit leben, dass ihre Ansichten verworfen werden. 

Jurastudenten lernen früh, dass es auf das Argument ankommt, nicht auf die Person, die es vorbringt. Dieser Konsens in der Rechtswissenschaft droht durch die „Cancel Culture“ aufgekündigt zu werden. Dem einzelnen Leser wird die Berechtigung abgesprochen, richtige von falschen Argumenten zu unterscheiden. Stattdessen soll es nur noch auf die – vermeintliche – „Haltung“, die „moralische Integrität“ oder gar auf Hautfarbe und Herkunft der Person ankommen. Dass damit jegliche Debattenkultur infrage gestellt wird, scheint manchen nicht bewusst zu werden. 

Rund 90 Jahre ist es her, dass nationalsozialistische Wüteriche massenhaft Bücher „weltanschaulich“ anders denkender Autoren aus deutschen Bibliotheken ins Feuer warfen (1933). Nicht einmal zehn Jahre danach kam es zum Holocaust – Heinrich Heines Sorge verwirklichte sich auf schlimmste Weise: „Dort wo man Bücher verbrennt, verbrennt man auch am Ende Menschen“ (1823). So weit sind wir – zum Glück – noch nicht. Im Zeitalter der Internets bedarf es allerdings keiner Flammen mehr, vielfach genügt die elektronische Vertilgung. Die Frage drängt sich daher auf, welche Art der Auslöschung missliebigen Autoren als Menschen widerführe, errängen die modernen Wüteriche der sozialmedialen Empörungs(un)kultur die politische Macht in Deutschland. Ihre Forderungen beschränken sich jedenfalls nicht auf die Verdrängung aus dem akademischen Diskurs, sie zielen vielmehr meist auf die Person ab, die ihre Stellung verlieren und nirgendwo mehr eine Position erhalten soll; die Beispiele aus dem angelsächsischen Raum sind zahlreich. Die hasserfüllten Tiraden ad hominem, die oft zu lesen sind, lassen Fatales befürchten.

Um zum Ausgangspunkt zurückzukommen: Wenn die Intoleranz wiederkehrt, wird sie nicht sagen: „Ich bin die Intoleranz“. Nein, sie wird sagen: „Ich bin die Anti-Intoleranz.“ 



Prof. Dr. Christoph Gröpl hat den Lehrstuhl für Staats- und Verwaltungsrecht sowie deutsches und europäisches Finanz- und Steuerrecht an der Universität des Saarlandes

Christian F. Majer ist Direktor des Instituts für internationales und ausländisches Privat- und Verfahrensrecht an der Hochschule für öffentliche Verwaltung und Finanzen in Ludwigsburg

Lieber Leser, wenn Sie mit den Autoren in Kontakt treten wollen, um ein Feedback zu geben, senden Sie doch bitte eine kurze Mail an: mw@philab.de. Ich leite die Mail dann weiter. MW

Dieser Text erschien ursprünglich auf der Website des “Netzwerks für Wissenschaftsfreiheit“

Viel Lärm um Nichts

Von Martin Bleif

Öffentliche Vorlesungen an Hochschulen rangieren in punkto Medieninteresse normalerweise auf dem Niveau von Veranstaltungsankündigungen des örtlichen Kleintierzüchtervereins. Nicht so ein im Juni 2022 angekündigter und dann aber „gecancelter“ Vortrag an der Berliner Humboldt Universität. Der sorgte deutschlandweit für ein heftiges Rauschen im Blätterwald. Tagelang. Die Referentin, Marie-Luise Vollbrecht, eine bis dato weitgehend unbekannte 32-jährige Doktorandin der Biologie, war – von ARD bis ZEIT – plötzlich in aller Munde. Was war passiert? Vollbrecht hatte im Rahmen einer „Langen Nacht der Wissenschaften“ für ein Laienpublikum einen Vortrag mit dem an sich  unspektakulären Titel: „Geschlecht ist nicht (Ge)schlecht – Sex, Gender und warum es in der Biologie zwei Geschlechter gibt“ angekündigt . Vor 30 Jahren hätte sie vermutlich ihr Referat gehalten und kein Hahn hätte gekräht.  Im Jahr 2022 ruft aber ein studentischer „Arbeitskreis kritischer Jurist*Innen“ zu Boykott und Protest auf, die Universität zieht den Kopf ein und sagt den Vortrag ab. 

Titel sollten wir ernst nehmen: Es geht in diesem Vortrag um den Geschlechterbegriff in der Biologie, nicht mehr, nicht weniger. Es geht nicht um Geschlechterrollen, nicht um Themen wie Geschlecht und Verhalten, die in der Tat das Potential zur Kontroverse hätten. Es geht – etwas verkürzt gesagt – schlicht um den Nachweis, dass Begriffe wie Kater und Katze im Kontext der Biologe ihren Sinn haben. Warum nur produziert die Feststellung, dass es in biologischer Perspektive „zwei Geschlechter“ gibt,  in unseren Tagen eine völlig überreizte Diskussion, bei der von vielen Seiten vor allem Gift und Galle hektoliterweise verspritzt werden?  

Ein wesentliches Problem scheint in der Weigerung oder der Unfähigkeit zu liegen, sich auf die Bühne zu begeben, auf der die Geschichte spielt.  Wenn Jurist*Innen einer Biologin, die über ihr Fachgebiet, die Biologie, referiert, ausgerechnet „Unwissenschaftlichkeit“ vorwerfen, dann müssen sie willens und in der Lage sei, sich auf die Perspektive der Biologe einzulassen. Wissenschaft arbeitet mit und vermittelt sich durch Sprache.  Begriffe sind ihre Werkzeuge, die zu bestimmten Zwecken konstruiert wurden. Die Wissenschaft verwendet sie in festgelegten Kontexten und muss versuchen,  sie in diesen Zusammenhängen so präzise wie möglich zu definieren. Um mitreden zu können, müssen wir versuchen, diese Definitionen zu verstehen. Ein Vorschlag zur Güte. Wie wäre es, kurz und tief durchzuatmen und zuzuhören.  Sehen wir hin und denken wir nach, wie und warum der Begriff ‚Geschlecht‘ (englisch: Sex) in die Biologie gekommen ist:

Alles fing in guter alter empirischer Tradition mit einer Beobachtung an, der Beobachtung nämlich, dass die Evolution vor vielen 100 Millionen Jahren etwas Neues und bei Licht besehen Erstaunliches erfunden hat: Gemeint ist die sexuelle Form der Fortpflanzung. Für uns scheint Sex etwas Selbstverständliches zu sein, weil er bei fast allen höheren Tier- und viele Pflanzenarten die eindeutig bevorzugte Methode der Vermehrung geworden ist. Dennoch: Beim näherem Nachdenken und beim Blick auf die Geschichte des Lebens fordert die „Selbstverständlichkeit“ eine Erklärung.  Denn schließlich sind die Lebewesen auf unserer Erde über 2 Milliarden Jahre auch ohne Sex gut klargekommen. Vermehrung fand in dieser Zeit (und bei Bakterien und Einzellern bis heute) höchst erfolgreich und weitaus simpler durch schlichte Zellteilung statt. 

Sex ist dagegen aufwändig, kompliziert und fehlerträchtig. Schon der irische Dichter George Bernhard Shaw, berüchtigt für seine spitze Zunge, hatte implizit noch ein weiteres Problem erkannt:  Auch wenn er kein Adonis war, als gefeierter und wohlhabender Dichterfürst wurde er wohl immer wieder zum Objekt weiblicher Begierde. Eines Tages machte ihm eine ebenso zudringliche wie attraktive Schauspielerin ein ziemlich eindeutiges Angebot: „Wir sollten ein Kind machen“,  wisperte sie. „Stellen Sie sich vor, meine Schönheit, gepaart mit ihrer Intelligenz“.  Der offensichtlich genervte Shaw konterte maliziös: „Aber was, meine Liebe, wenn es umgekehrt herauskommt und unser Nachwuchs mit meiner Schönheit und Ihrer Intelligenz ausgestattet wäre?“ 

Sex ist problematisch. Sex ist nicht nur verschwenderisch, weil hier zwei Eltern statt einem Elter gefordert sind, Sex gleicht – siehe Shaw –  einer Lotterie, die bewährte (genetische) Entwürfe durch Vermischung zweier Genome binnen einer Generation über den Haufen werfen kann. Und doch geht es beim Sex – aus der Sicht der Biologie – genau darum:  Im Kern ist entscheidend, dass zwei verschiedene genetische Entwürfe verschmelzen und dabei etwas (genetisch) Neues entsteht, ein Wesen,  was eben keine (Gen)-Kopie der Eltern ist,  sondern eine jedes Mal neue und  einzigartige Mischung aus Genen, die zu jeweils 50 %  von einem der Eltern stammen.  Diese Vermischung gleicht einer Lotterie und genau dieses Zufallsprinzip ist das (evolutionsbiologisch) Erfolgsgeheimnis der sexuellen Fortpflanzung, Sexuelle Fortpflanzung setzte sich durch, weil sie die genetische Vielfalt einer Art und damit langfristig ihre Chancen im „Struggle for Live“ massiv verbessert. Wer sich nicht denken kann, warum das so ist, der kann in einem Lehrbuch der Evolutionsbiologie nachschlagen. Denn das ist nicht unser Thema. 

Unser Thema ist die Definition des Geschlechterbegriffs in der Biologie. Sexuelle Fortpflanzung setzt in der Regel die Existenz zweier dafür spezialisierter Typen von Keimzellen voraus. Nur in Ausnahmefällen sind diese Keimzellen identisch aufgebaut (Isogamie). Fast immer sind sie asymmetrisch konstruiert (Anisogamie).  Eine davon wird als Eizelle definiert, weil sie mit Vorräten ausgestattet ist, die in der ersten Phase nach der Befruchtung  die Ernährung des neuen Wesens sichern.  Der asymmetrische Partner, die  Samenzelle, dringt in die Eizelle ein und bringt fast nichts mit außer ihrer Erbinformation. Bei fast allen Tierarten werden beide Kategorien von Keimzellen auch von zwei verschiedene Kategorien von Lebewesen bereitgestellt. Sexuelle Vermehrung ist also per definitionem ein Gemeinschaftsprojekt zweier asymmetrischer Kategorien von Lebewesen. Männer sind (auf dieser Ebene der Betrachtung) dadurch definiert, dass sie Samenzellen beitragen, Frauen dadurch, dass sie ihre Eizellen zur Verfügung stellen. Nicht mehr, nicht weniger. 

Vielleicht wird schon jetzt der eine oder andere  Protagonist der Theorie der multiplen Geschlechter ungeduldig mit den Füßen scharren und hereingrätschen wollen:  Ja, aber es gibt doch Ausnahmen!!!!  Die gibt es, in der Tat. Die Evolution ist unglaublich erfinderisch. Sex erfordert nicht zwangsläufig  die „Vereinigung zweier Leiber“. Es existieren Tierarten, bei denen es mit der Geschlechterdichotomie tatsächlich ein bisschen komplizierter ist.  Das gilt aber dann für alle Individuen der betreffenden Art.  Bestimmte Wurmspezies zum Beispiel sind sogenannte „echte Zwitter“ oder – etwas distinguierter formuliert – „echte Hermaphroditen“.  Echte Hermaphroditen sind in der Biologie dadurch definiert, dass sie sowohl männliche als auch weibliche primäre Geschlechtsorgane (Hoden und Eierstöcke) mit entsprechenden Keimzellen ausbilden können. Wenn Tiere gleichzeitig sowohl männliche als auch weibliche Geschlechtsorgane und Keimzellen ausbilden, redet man von Simultanzwittern. Regenwürmer sind solche Simultanzwitter. In Ausnahmefällen können sie sich sogar selbst befruchten.  Die  genetische Lotterie der sexuellen Fortpflanzung würde in diesem seltenen Fall also tatsächlich umgangen werden.  Selbst bei Hermaphroditen läuft es aber fast immer anders. Auch Plattwürmer sind echte Hermaphroditen. Sie vermeiden aber die Selbstbefruchtung. Meist lösen sie ihr Problem dadurch, dass sie im Lauf ihres Lebens ihr Geschlecht wechseln.  Wenn die männlichen Gonaden zuerst reifen, dann spricht die  Biologie von Proterandrie (Vormännlichkeit), im umgekehrten Fall von Proterogynie (Vorweiblichkeit).    Proterandrie kommt bei Tierarten wie Plattwürmern, Ringelwürmern, Schnecken, bei Nesseltieren wie z. B. der Kompassqualle, bei Gliederfüßern und Stachelhäutern wie Seesternen vor – alles Tiere, die wir nicht gerade zu unseren nächsten Verwandten zählen.  Auch einige Wirbeltierarten vollziehen eine entwicklungsbedingte Geschlechtsumwandlungen. Das gilt für manche Arten von Barschen und Meerbrassen, aber auch für Kiemenschlitzaale, Papageifische, Grundeln und Großkopfschnapper. Die Mechanismen dahinter sind vielfältig und für unser Problem nicht relevant.  Relevant ist, dass artspezifischer „echter“ Hermaphrodismus eine Ausnahme darstellt. Bei den meisten Wirbeltierarten, vor allem bei Säugetieren,  wird er nicht praktiziert.   

An dieser Stelle sind allerdings zwei Klarstellungen angebracht: 

  1. Begriffe wie „echter Zwitter“ oder „echter Hermaphrodit“ sind in der Biologie gut definiert. Es handelt sich um Individuen, die sowohl Hoden als auch Eierstöcke entwickeln.  Umgangssprachlich wird der Begriff „Hermaphrodit“  oder „Zwitter“ oft viel weniger spezifisch verwendet. Umgangssprachlich werden nicht selten Individuen,  die – aus welchen Gründen auch immer  (biologischen, psychologischen oder kulturellen) – nicht eindeutig als Frau oder Mann  identifiziert werden können, als Zwitter bezeichnet. Mit echtem Hermaphrodismus hat das aber meist nichts zu tun.  Wenn wir über die Begriffe der Biologie streiten, dann müssen wir uns an die Definitionen der Biologie halten. 
  1. Wir müssen drei Dinge auseinanderhalten, den artspezifischen echten Hermaphroditismus, den (sehr seltenen) individuellen (echten) Hermaphroditismus und ein uneindeutiges Geschlecht bei einzelnen Individuen einer Art, bei der die Mehrzahl der Individuen genetisch eindeutig als Frau (=Eizellspender) oder Mann (=Samenzellspender) definiert sind. Auch bei solchen Arten – wie zum Beispiel Katzen, Schimpansen oder Menschen – gibt es immer wieder einzelne Individuen,  die (phänotypisch) eben nicht eindeutig der Kategorie Mann oder Frau zuzuordnen sind.   Die Gründe für diese Uneindeutigkeit sind vielfältig und können auf unterschiedlichsten Ebene angesiedelt sein. Sie können in der Biologie liegen, müssen aber nicht.  

Bevor ich auf individuelle, nicht artspezifische Gründe für sexuelle Uneindeutigkeit eingehe, möchte ich noch eine Sache festhalten: Anders als bei Tierarten mit einem generellen artspezifischem Hermaphroditismus gilt bei allen anderen Tierarten – auch beim Menschen: Nur weil es einzelne Individuen gibt, die – auf welcher Ebene und wodurch auch immer – nicht auf den ersten Blick eindeutig einem Geschlecht zuzuordnen sind, nur weil es also Ausnahmen und Zwischenformen gibt,  muss die Biologie die großen dichotomen Kategorien Mann und Frau nicht über Bord werfen. Schließlich sind die Elektro- und die Verbrennungsmotoren ja auch nicht in dem Moment von unseren Straßen verschwunden, als vor einigen Jahren auch Hybridantriebe zugelassen wurden. 

In vielen (biologischen) Zusammenhängen machen diese Kategorien natürlich Sinn.  Im Fall der Säugetiere hat diese Zuschreibung zum Beispiel eine wichtige Konsequenz.  Hier vollzieht sich die Verschmelzung der Keimzellen im Körper der Frauen. Und sie sind es auch, die ihren Körper während der Schwangerschaft als geschützten Raum zur Verfügung stellen, in dem sich die Entwicklung von der befruchtete Eizelle bis zum lebensfähigen Individuum vollziehen kann. 

Werfen wir jetzt einen kurzen Blick auf den Mechanismus, der darüber entscheidet, welches Geschlecht eine befruchtete Eizelle entwickelt.  Denn auch hier war die Evolution sehr erfinderisch. Letztendlich entscheiden immer Informationen, die in den Genen angelegt sind. Was die Details der Realisierung angeht, da hat die Natur eine Reihe unterschiedlicher Wege angelegt, die aber schlussendlich alle zum  selben Ziel führen, einem (genetisch – oder in Ausnahmefällen  epigenetisch) eindeutig festgelegten Geschlecht. Die sogenannten ‚epigenetischen‘ Ausnahmen seien hier nur am Rande erwähnt.  Es gibt einige wenige Tierarten,  bei denen die Weichenstellung nicht über die Gene selbst, sondern über eine Art von (epigenetischem) Schalter erfolgt, der je nach externer Konstellation die genetische Informationen so aktiviert, dass entweder ein Männchen oder ein Weibchen entsteht.  Bei Krokodilen ist es die Temperatur, die über den Modus der epigenetischen Aktivierung entscheidet, beim Clownfisch gar die soziale Umgebung.  Wer das genau wissen möchte,  kann in einem Biologiebuch unter dem Stichwort ‚Epigenetik‘ nachlesen. Wie dem auch sei, auch Clownfische und Krokodile sind für unser Thema eher uninteressant. 

Der Stein des Anstoßes ist schließlich das Geschlecht des Menschen. Wie bei anderen Säugetieren entscheiden auch hier Gene, die auf speziellen ‚Sex-Chromosomen‘ lokalisiert sind, über das (genetische) Geschlecht. Jede der zig Milliarden Zellen unseres Körper trägt in ihrem Kern die komplette Erbinformation, codiert in über 20.000 Genen. Diese 20.000 Gene sind verpackt in 23 verschiedenen Paketen, die wir Chromosomen nennen.  In allen Körperzellen sind diese Chromosomen paarig angelegt (Diploidie). (Genotypische) Männer unterscheiden sich von den (genotypischen) Frauen nur hinsichtlich des letzten, des 23. Paars.  Während Frauen an dieser Stelle zwei identische sogenannten X-Chromosomen haben, finden wir im Zellkern von Männern ein X- und ein kleines Y-Chromosom. 

Unsere Keimzellen aber durchlaufen in ihrer Entwicklung zwei Reifeteilungen, bei denen sie die Hälfte der Chromosomen verlieren. Die Paare werden getrennt, so dass eine reife Keimzelle vor der Befruchtung nur 23 einzelne Chromosomen beherbergt (Haploidie). Blicken wir auf die Chromosomen 1 bis 22, so bedeutet die Trennung keinen Informationsverlust, weil diese Chromosomenpaare identisch sind.  Beim Chromosom 23 ist das anders. In reifen  Samenzellen von Männern finden wir nach der Trennung des 23. Paars entweder ein X- oder ein Y-Chromosom.   Das Y-Chromosom beherbergt nur eine Handvoll Gene, die allerdings das Zünglein an der Waage bilden. Der Zufall entscheidet, welche der beiden Samenzelltypen bei einer Befruchtung zum Zuge kommt.  Ist es eine Samenzelle mit Y-Chromosom , dann wächst ein männlicher Embryo heran, bei einem X-Chromosom ein weiblicher.  

Wenn wir dieser Entwicklung folgen, dann landen wir automatisch auf einer zweiten Ebene der Biologie, die oberhalb der Ebene der Gene und der Keimzellen angesiedelt ist. Wir landen beim Individuum und seinem Phänotyp. Auch auf dieser Ebene spielt der Begriff des Geschlechts eine Rolle, wird aber, je nach den Umständen, anders definiert.   Zwischen der unteren Ebene, dem Genotyp, und der Ebene des Phänotyps, der sehr grob vereinfacht  mit „Erscheinungsbild“ übersetzt werden könnte, bestehen natürlich Beziehungen.   Trotzdem ist der Phänotyp eine schwierige Sache, weil viele seiner Aspekte nicht nur von den Genen, sondern von zahllosen weiteren Faktoren beeinflusst werden, die auf sehr komplizierte Weise zusammenspielen.  Beim Menschen ist die Entwicklung des Phänotyps noch ein ganzen Stück komplexer als bei allen anderen Tierarten, weil  hier neben  biologischen Faktoren auch eine Vielzahl psychologischer, sozialer und kultureller Einflüsse ihre Finger im Spiel haben.  

Was allerdings genetisches Geschlecht (XX oder XY) und phänotypisches (biologisches) Geschlecht bei Geburt angeht, sind die beiden Ebene zu fast 100% deckungsgleich.  Soll heißen, die meisten –  nicht alle – genetisch weiblichen Embryonen werden auch zu phänotypisch weiblichen Neugeborenen und umgekehrt. Spätestens an dieser Stelle muss ich eine zweite Definition nachliefern. Das phänotypische Geschlecht eines neugeborenen Menschen wird –  in der Biologie und in der Medizin – durch das  Vorhandenen sogenannter „primärer Geschlechtsmerkmale“  bestimmt.    Primäre  Geschlechtsmerkmale sind die Geschlechtsorgane, die vornehmlich der Fortpflanzung dienen. Bei der Frau wären das vor allem Eierstöcke, Gebärmutter, Vagina und Vulva, beim Mann Hoden, Nebenhoden, Samenwege und Penis. Wir reden immer noch über Biologie und über die biologischen Faktoren, die den sexuellen Phänotyp eines Neugeborenen – seine primären und sekundären Geschlechtsmerkmale – beeinflussen.  

Der Weg von der befruchteten Eizelle zum Neugeborenen ist ein langer,  vielstufiger und komplizierter Prozess, der neun Monate dauert und vom einem genetischen Programm gesteuert, aber auch von vielen äußeren Faktoren beeinflusst wird. In dem meisten Fällen führt dabei einen gerader Weg von den Sex-Chromosomen zum biologischen Phänotyp der Neugeborenen. Aber komplexe Prozesse haben es an sich, dass sich „Fehler“ einschleichen können. Daher gibt es auch hier Ausnahmen. Schon am Start der Entwicklung von der befruchteten Eizelle zum Neugeborenen können genetische Veränderungen vorhanden sein, die dafür sorgen, dass das phänotypische Geschlecht bei Geburt nicht eindeutig sein wird. Ich habe oben erwähnt, dass Ei- und Samenzellen im Rahmen der Reifeteilungen aus dem doppelten Chromosomensatz einen einfachen Satz machen müssen. Dabei kann es passieren, dass bei der Teilung einzelner Zellen die Chromosomen ungleich verteilt werden. Es können dann bei der Befruchtung Zellen entstehen, die ein oder gar zwei überzählige X-Chromosomen enthalten (XXY oder XXX) oder ein  Y-Chromosom zu viel (XYY) oder zu wenig (XO). In der Folge entsteht ein Mensch mit einem chromosomal uneindeutigen  Geschlecht. Das wirkt sich natürlich auch auf seinen biologischen Phänotyp aus. Menschen mit XXY-Konstellation (einem sog. Klinefelter Syndrom) sind phänotypisch eher Männer, haben aber sehr kleine Hoden und leiden an Testosteron-Mangel.  Sie leiden an  Libidoverlust, Potenzstörungen, haben spärlichen Bartwuchs, eine verringerte Muskelmasse und entwickeln  oft eine Osteoporose. Menschen mit X0-Konstellation (dem sog. Turner-Syndrom) sind phänotypisch eher Frauen, aber ihre Ovarien sind verkümmert. Sie können keine Östrogene herstellen, so dass die Betroffenen unfruchtbar belieben. Ohne entsprechende Hormonbehandlung werden sie auch keine typische Pubertät entwickeln. 

Bei der Entstehung der primären Geschlechtsmerkmale während der Entwicklung von Embryo und Fötus haben auch Gene ihre Hände mit im Spiel, die nicht auf den Sex-Chromosomen lokalisiert sind.  Prinzipiell jedes Gen kann durch entsprechende Mutationen in einer Keimzelle ausfallen. Wenn dieser Ausfall nicht durch ein intaktes komplementäres Gene aus der Keimzelle des anderen Elters kompensiert wird oder wenn zufällige beide Eltern-Keimzellen an dieser Stelle einen Defekt haben, dann fällt dieses Gen auch beim Kind aus. Das kann harmlos sein oder fatale Folgen haben. Wenn Gene ausfallen, die für die Entwicklung des Geschlechtsmerkmale verantwortlich sind, dann können XY-Menschen bei Geburt weibliche Geschlechtsmerkmale haben und umgekehrt.  Beispiele sind XY-Menschen mit einer kompletten Androgen-Resistenz (Mediziner reden auch von auch testikulärer Feminisierung, CAIS oder Goldberg-Maxwell-Morris-Syndrom). Bei diesen Menschen ist das Gen für den Androgen-Rezeptor defekt.  Die Betroffenen entwickeln zwar Hoden, die auch männliche Geschlechtshormone produzieren. Diese Androgene, zum Beispiel Testosteron, können aber ihre Wirkung nicht entfalten, da sie auf ihren Zielzellen nicht an den Androgen-Rezeptor „andocken“ können. Die Hoden bleiben im Körperinnern und die äußeren Geschlechtsorgane entwickeln einen weiblichen Phänotyp. Bei Geburt deutet nichts darauf hin, dass es sich bei dem Neugeboren – genetisch betrachtet – um einen Jungen handelt.  Bei Adreno-Genitalen-Syndrom ist dagegen die Bildung sogenannter Corticoide gestört, was bei genetisch weiblichen Embryonen zur Vermännlichung der äußeren Geschlechtsorgane führt. Ich könnte noch viele weitere Beispiele nennen, aber ich denke das Prinzip sollte klar geworden sein: Ja, es gibt Ausnahmen von der Regel dass das genetische Geschlecht das phänotypische Geschlecht bestimmt!  

Aber auch hier gilt: Nur weil es diese Ausnahmen gibt, müssen wir die Kategorien ‚genetisches Geschlecht‘ und ‚sexueller Phänotyp‘ nicht über Bord werfen. Wenn wir sie nicht hätten, dann würden uns zum Beispiel die Vokabeln fehlen, die genannten Phänomene rund um die Fortpflanzung überhaupt vernünftig zu beschreiben.  Für die Biologie ist das genetische Geschlecht keine soziale Konstruktion, sondern eine aufgrund biologischer Kriterien  klar definierte dichotome Kategorie.Das gilt natürlich auch für die meisten ähnlich dichotomen primären Geschlechtsmerkmale. Die primären Geschlechtsmerkmale sind keine Dekoration. Sie haben erhebliche Konsequenzen. Sie  sorgen beim Menschen zum Beispiel für klar verteilte (biologische, nicht soziale !!!!) dichotome Rollen rund um die Fortpflanzung:  (Biologische) Frauen können schwanger werden und Kinder austragen, (biologische) Männer können das nicht.  Die Evolution hat sich so etwas Kompliziertes wie den Sex nicht ohne Grund „ausgedacht“. Egal ob Maus oder Mensch, es sind immer dieselben biologischen Kriterien, die den Status Mann oder Frau definieren. Auf dieser Ebene, der Ebene der Gene, der reproduktiven Funktionen oder der Anatomie, über Geschlecht als soziale Konstruktion zu sprechen, ist einigermaßen lächerlich.  

Nun dreht sich auch in der Biologie nicht alles um Sex. Auch unser Phänotyp besteht aus weit mehr als nur aus primären und sekundären Geschlechtsmerkmalen. Die Biologie fasst unter dem Begriff Phänotyp alle sichtbaren oder messbaren Eigenschaften eines Organismus zusammen.  Dazu gehören nicht nur unser Körper, sondern auch viele Aspekte unseres Verhaltens. Und natürlich wird auch das Verhalten nicht nur vom Geschlecht und den paar Dutzend geschlechtsbestimmenden Genen, sondern von unserem kompletten Genom und unserer Umwelt und unserer Geschichte beeinflusst. Auch die Biologie braucht also weitere, „nächsthöhere“ Ebenen der Beschreibung.  Die Entwicklung eines Menschen ist ja mit der Geburt noch lange nicht abgeschlossen.  Sein genetisches Geschlecht und sein sexueller Phänotyp bei Geburt haben ohne Zweifel großen Einfluss auf sein weiteres Leben. Aber sie sind keine Schienen, vor denen Abweichung unmöglich wäre.  Ob und wie sich genetisches Geschlecht und primäre Geschlechtsmerkmale  auf unser Verhalten und die Wahrnehmung der eigenen Geschlechteridentität und Geschlechterrolle niederschlagen, das steht deshalb auf einem ganz anderen Blatt.   

Die Existenz zweier biologischer Geschlechter bedeutet natürlich nicht, dass die Vorliebe für Captain Sharky oder Prinzessin Lillifee biologische Ursachen haben muss.  Denn jetzt befinden wir uns nicht mehr auf der Ebene von Genen, Molekülen, Zellen oder Organen, sondern beim menschlichen Verhalten und seinen Grundlagen. Hier ist der sozialwissenschaftliche Begriff Gender zu Hause.  Wenn wir über Anatomie oder Reproduktion reden, dann besteht zwischen Genotyp und Phänotyp eine ziemlich eindeutige Beziehung. Nahezu alle Menschen mit XY-Chromosomen entwickeln Hoden, mit XX-Chromosomen Eierstöcke. Wenn wir nach Korrelationen zwischen geschlechts-definierenden Genen und menschlichem Verhalten suchen, dann ist die Sache viel, viel komplizierter. 

Nehmen wir zur Illustration des Problems zunächst etwas viel Simpleres als das Verhalten. Nehmen wir unsere Muskelmasse. Wenn wir zufällig 1.000 Frauen und 1.000 Männer auswählen und deren Muskelmasse bestimmen, werden wir feststellen, dass sich die Mittelwerte der Gruppen nicht-zufällig unterscheiden: Im Durchschnitt haben Frauen etwa 20% weniger Muskelmasse als Männer. Dieser Unterschied ist letztendlich genetischer Natur und leicht zu erklären. Im männlichen Kreislauf zirkulieren deutlich höhere Konzentrationen des muskelaufbauenden Hormons Testosteron. 

Aber was hilft die Kenntnis des Geschlechts bei der Beurteilung eines Einzelfalls? Unter Umständen herzlich wenig. Das liegt daran, dass die Einzelwerte stark um den Mittelwert des jeweiligen Geschlechts schwanken. Es gibt sie, die männlichen Herkulesse und die zarten Damen, es gibt aber auch die umgekehrten Konstellationen.  Statistiker sprechen von der Streuung oder der Varianz einer Stichprobe. Wie groß der Einfluss des biologischen Geschlechts und wie hoch die Vorhersagekraft des systematischen (statistischen) Unterschieds zwischen den Gruppen auf die Zielgröße ‚Muskelmasse‘ im Einzelfall ist, hängt nicht nur davon ab, wie sehr sich die Mittelwerte der Gruppen unterscheiden, sondern auch davon, wie stark die Werte innerhalb einer Gruppe (Frau oder Mann) um den Mittelwert streuen.  Je enger die Mittelwerte beieinander legen und je flacher die Kurven verlaufen, desto belangloser wäre das Kriterium Geschlecht in diesem Zusammenhang. Dabei fällt Folgendes auf:

Erstens:  Die Muskelmasse von Männern liegt im Durchschnitt (Mittelwert!) etwa 20% über dem Durchschnittswert der Frauen (Abstand der Mittelwerte m1(xx) – m2(xy)).  Trotz dieser Differenz gibt es, zweitens, viele Frauen, die eine größere Muskelmasse haben als der „Durchschnittsmann“.  Umgekehrt gibt es eine ganze Reihe von Männern, deren Muskelmasse unter dem Durchschnitt der Frauen liegen. Betrachten wir die ziemlich große Gruppe von Menschen (Männern und Frauen), die im den zeltförmigen Überlappungsbereich beider Gruppen liegen, dann gibt es in dieser Untergruppe gar keine statistischen Unterschiede zwischen Mann und Frau. 

Warum dieses Beispiel? Die Muskelmasse ist ein realer, vergleichsweise ausgeprägter, genetisch begründeter phänotypischer Unterschied zwischen erwachsenen Männern und Frauen. Dieser Unterschied ist ausgeprägter, als fast alle anderen angeblichen oder realen geschlechtsspezifischen Unterschiede, die Affekte, Kognition oder ganz allgemein biologisch mitgeprägtes Verhalten betreffen.  Das Wissen um die Mittelwerte hilft für eine Entscheidung im Einzelfall trotzdem oft nicht weiter.  Wenn ich eine Waschmaschine in den Keller zu tragen hätte, würde ich eher bei Serena Williams klingeln als bei meinem leptosomen, männlichen Untermieter, der seit der Schule keine Turnhalle von innen gesehen hat. 

Ich habe die Muskelmasse als Beispiel gewählt, weil es sich hier um einen relativ einfach zu ermittelnden phänotypischen Parameter handelt, auf den das genetische Geschlecht einen eindeutigen Einfluss hat. Aber selbst hier sehen wir, dass dem Einfluss der Gene Grenzen gesetzt sind.  Wir sind selbst ziemlich frei, unsere eigene Positionen auf der Skala der X-Achse hin und her zu verschieben, nach rechts durch Ernährung, Training oder Doping, nach links  durch Hungern und durch Inaktivität. Was für die Muskelmasse gilt, gilt in noch viele stärkerem Maße für die affektiven und kognitiven Eigenschaften und Fähigkeiten eines Menschen.

Anders als Dreiecke oder Quadrate sollten wir Individuen, auch wenn wir sie ‚Frauen‘ oder ‚Männer‘ nennen, nie als eine homogene, invariante und eindeutig festgelegte Klasse von Lebewesen betrachten. Das zeigt uns schon die Evolutionsbiologie. Menschen bilden Populationen, die aus unterschiedlichen Individuen bestehen. Das ist mehr als eine Spitzfindigkeit.  Wenn wir über Unterschiede zwischen Menschen und zwischen Gruppen von Menschen nachdenken, muss klar sein, dass wir – sieht man von kategorialen, dichotomen Unterschieden wie  XX oder XY-Chromosomen, Hoden oder Eierstock ab – meistens über statistische Unterschiede auf der phänotypischen Ebene reden. Diese Unterscheidung von statistischen und kategorialen, dichotomen Unterschieden ist aber offensichtlich nicht jedermanns Stärke. Bis zu dieser Stelle haben wir von der Biologie im Allgemeinen und der Biologie des Menschen geredet, vom genetischen Geschlecht, von primären und sekundären Geschlechtsmerkmalen und ihrer  Beziehung zu unserem übrigen „Phänotyp“. 

Wovon weder in diesem Text (noch übrigens in Marie-Luise Vollbrechts Vortrag) die Rede war, ist das weite Feld unserer subjektiv empfundenen und gelebten Sexualität.  Es ging und geht hier wie dort nicht um subjektives Geschlechtsempfinden, Geschlechterpräferenzen oder um tatsächliche oder vermeintliche Geschlechterrollen in unserer Gesellschaft.  Vieles von dem, was wir auf diesem bunten Feld vorfinden, hat nichts mit Biologie zu tun. Natürlich steht es Menschen oder Kulturen frei, aufgrund welcher Kriterien und zu welchen Zwecken auch immer, jenseits der zwei Kategorien Mann und Frau weitere Geschlechter oder Intermediär-Formen zu definieren. Jeder von uns darf sich, soweit er das kann und möchte, von seinem biologischen Geschlecht emanzipieren. Wenn Menschen sich selbst nicht auf eine der dichotomen Kategorien ‚Mann oder Frau‘ festlegen wollen – bitte schön! Wenn Männer Männer und Frauen Frauen lieben – auch recht. Sie sind deshalb weder die schlechteren noch die besseren Menschen. Wenn Menschen ihr subjektives Empfinden und ihre objektiven Geschlechtsmerkmale nicht zur Deckung bringen, dann sollten sie – wenn sie mündig genug sind –  ihren Körper ihren Empfindungen anpassen dürfen.  Das alles steht außer Frage.  Fast alles Wesentliche dazu steht übrigens in Artikel 3 unseres Grundgesetzes:   Niemand darf wegen seines Geschlechtes, seiner Abstammung, seiner Rasse, seiner Sprache, seiner Heimat und Herkunft, seines Glaubens, seiner religiösen oder politischen Anschauungen benachteiligt oder bevorzugt werden. Niemand darf wegen seiner Behinderung benachteiligt werden.“  Wer es noch präziser mag, kann gerne an dieser Stelle noch durch die Zusätze „wegen seines Geschlechts“ oder „wegen seiner sexuellen Identität oder sexuellen Orientierung“ ergänzen. Meine Stimme hat er. Ich vermute, dass auch Frau Vollbrecht dagegen nichts einzuwenden hätte.  Das alles ist aber nicht mein Thema. Und das war auch nicht das Thema des skandalisierten Vortrags.  

Und jetzt? Was ist eigentlich passiert?  Ein Biologin wollte an einer deutschen Universität einem Laienpublikum den Geschlechterbegriff der Biologe erklären. So what – könnte man meinen. 

Was dann aber geschah, ist mehr als ärgerlich! Zunächst viel Lärm um Nichts, der uns erspart geblieben wäre, wenn nicht die Lust am Missverstehen-Wollen zu groß gewesen wäre. Offensichtlich konnte man sich die Skandalisierung einer Banalität nicht entgehen lassen, weil der inszenierte „Pseudo-Skandal“ wieder einmal eine wunderbare Gelegenheit bot, sich selbst, der eigenen Klientel und der Öffentlichkeit zu vergewissern, dass man ohne wenn und aber – quasi a priori – „auf der richtigen Seite“ steht. Ein Sturm im Wasserglas – und trotzdem mehr als ärgerlich:

Ärgerlich, dass ausgerechnet Mitglieder einer Hochschule in ihrem heiligen, aktivistischen Eifer einen einfachen, aber fundamentalen Kategorienfehler begingen: Offensichtlich wollte oder konnte man den Unterschied zwischen wissenschaftlicher These und ideologischer Haltung nicht verstehen.  Wenn ein solide gemachter Test zweifelsfrei belegen würde, dass Schwaben im Schnitt 20% dümmer sind als der Rest der Welt, dann wäre weder dieser Test noch das Ergebnis rassistisch. Wissenschaft soll beschreiben was ist. Und nicht, was – in den Augen von wem auch immer – sein sollte.  Rassistisch wäre es, den Schwaben aufgrund dieses Befundes ihre Grundrechte abzusprechen.  

Noch ärgerlicher, dass die kritischen Jurist*Innen der Referentin „Unwissenschaftlichkeit“ vorwarfen, ohne selbst auf dem Spielfeld der Wissenschaft anzutreten. Wissenschaftler sind keine Götter. Wissenschaft kann irren. Es liegt sogar in ihrer Natur, ihre Thesen zur Diskussion und zur Disposition zu stellen. Man muss es nur machen. Hätten wir hier schlechte Wissenschaft, dann könnte sie nur durch bessere Wissenschaft entkräftet werden, nicht durch Gebrüll.  

Am ärgerlichsten ist aber, dass hier schon mal vorauseilend zum Boykott aufgerufen wurde, ohne überhaupt zu wissen, wovon eigentlich die Rede sein würde.  

Mehr als ärgerlich – fast schon gefährlich –  war jedoch die enttäuschende erste Reaktion der Universität, die bei schon bei geringstem Gegenwind den Schwanz eingekniffen hat und die Veranstaltung zunächst einmal einfach absagte.  Dabei ist doch die Lust am der Debatte, die Freiheit von Rede und Wissenschaft, nicht nur das Lebenselixier jeder Hochschule.  Die Freiheit von Rede und Wissenschaft ist die Luft, die Demokratien zum Atmen brauchen. Wie heißt es schön in Artikel 5 Absatz 3 Grundgesetz: Kunst und Wissenschaft, Forschung und Lehre sind frei.“ 



Prof. Dr. Martin Bleif ist Radioonkologe. Er war stellvertetender Klinikdirektor der Radioonkologie in Tübingen. Martin Bleif ist Autor mehrer Bücher, die beim Klett-Cotta-Verlag erschienen sind.


Lieber Leser, wenn Sie mit dem Autor in Kontakt treten wollen, um ein Feedback zu geben, senden Sie doch bitte eine kurze Mail an: mw@philab.de. Ich leite die Mail dann weiter. MW

Altes Denken

                                 

Russland ist das größte Land des Planeten. Und dieses Land ist nicht wüst und leer. Überzogen von unendlichen Wäldern birgt es gigantische Rohstoffreserven. Es ist  maßgeblicher Exporteur von Erdgas und Erdöl, besitzt große Vorkommen von Uran, Nickel und Aluminium. Was ergäben sich für verlockende Perspektiven, wäre Wladimir Putin ein weitblickender und besonnener Präsident? Die aus dem Verkauf von Erdöl, Gas und anderen Bodenschätzen generierten Erlöse ließen sich in die Infrastruktur seines Landes stecken. Es wäre möglich, großzügig in Bildung zu investieren, die Forschung zu fördern und vor allen Dingen den freien Wettbewerb der Ideen zu unterstützen. Die Russen, bekanntlich ein Volk mit einer großen Zahl von Intellektuellen und Künstlern, würden es ihm danken. Wer zweifelt daran, dass sie zumindest mittelfristig das Potential hätten, zu den technisch fortschrittlichsten Nationen aufschließen zu können, um dann endlich auch vom Verkauf fossiler Brennstoffe unabhängig zu werden. Deren schrittweiser Niedergang wird wohl nicht mehr lange auf sich warten lassen. Doch ein solches Szenario, das ist ein Traum.

Ganz offensichtlich leidet Russland an einem weit verbreiteten Fluch. Für die intellektuelle Entwicklung eines Landes ist es selten von Vorteil, großzügig mit Bodenschätzen gesegnet zu sein.  Man betrachte Länder wie Venezuela, Nigeria, Angola oder eben auch Russland. Das aus dem Verkauf von Öl und Gas vergleichsweise mühelos erwirtschaftete Geld führt nicht zu allgemeinem Wohlstand. Im Gegenteil. Es gibt gewaltige Allokationen von Kapital in den Händen von Einzelnen, während der größte Teil der Bevölkerung vergleichsweise arm bleibt. 

Das russische Miliardärs-Oligopol ist in dieser Beziehung ikonisch: Eine Jettsetter-Gilde, die Fußballklubs aus der Portokasse bezahlt, in Luxusjachten, Privatjets und Hubschraubern um die Welt reist. In Sternerestaurants ist die “russische Wahl“ berüchtigt: Die linke Seite der Speisekarte wird mit der Hand abgedeckt. Gewählt wird einfach das Teuerste. Dass Putin mit seinem Himmelspalast am Schwarzen Meer selbst Teil dieses kleptokratischen Systems ist, ist traurig genug. Völlig irritierend aber ist, dass er, der bis dato als kühl planender Stratege galt, mit seinem Denken offenkundig im letzten Jahrhunderts hängen geblieben ist. Das wird für ihn selbst, vor allen Dingen aber das russische Volk einschneidende Konsequenzen haben. 

In früheren Zeiten der Industrialisierung mit ihrem enormen Bedarf an Eisenerz und fossilen Brennstoffen, hätte es von großem strategischen Wert sein können, sich ein rohstoffreiches Land wie die Ukraine einzuverleiben, das zudem noch die Kornkammer Europas ist. Aber die Zeiten haben sich geändert, selbst wenn Uran, Titan oder Mangan auch heute noch eine Rolle spielen. 

Bekanntlich gab es aber inzwischen eine Transformation von der Industrie- zur Wissensgesellschaft. Und in diesem Kontext macht testosterongetriebenes Territoritorialverhalten nur noch bedingt Sinn. 

Wenn sich Clanchef Arafat Abou-Chaker und “Kriegskünstler“ Bushido im Garten ihres gemeinsamen Anwesens in Kleinmachnow zu stattlicher Größe aufblasen und sich wegen des Verlaufs eines Zauns in die Haare bekommen und für immer überwerfen, kann man das augenzwinkernd als antiquiertes Männlichkeitsritual zur Kenntnis nehmen. An einen Staatenlenker des 21. Jahrhunderts legt man aber einen anderen Maßstab an. Und die führenden Industrienationen sind schließlich nicht mehr deshalb erfolgreich, weil sie besonders viel Eisenerz in einen Hochofen schippen. Entscheidend ist heute ein hoch entwickeltes Prozesswissen, das von herausragenden Spezialisten in komplexen Kommunikationsnetzen entwickelt wird.  Apple und Samsung bauen die besten Mobiltelefone, Google die effizienteste Suchmaschine und Taiwan Semiconductor ist weltweit führend bei der Herstellung hochpotenter Chips. Dieses Wissen steckt in den Köpfen der Menschen, die diese Hochtechnologie entwickeln und zur Marktreife bringen. Es lässt sich nicht mit den klassischen Mitteln der Krieges erobern. Würde Putin mit seiner Nationalgarde, die Kalaschnikows in den Händen, die Zentrale von Apple in Cupertino stürmen, dann würde er ein UFO-artiges, ringförmiges Gebäude erobern, aber nicht Apple. Und wenn China auf die Idee käme, in Taiwan einzumarschieren, dann können Sie eine buckelige Landmasse in Besitz nehmen, nicht aber das Know-How der Menschen, die dort arbeiten, wenn diese sich den Aggressoren verschließen. 

Vor diesem Hintergrund ist man beschämt, dass Putin in die Ukraine einmarschiert, obwohl er noch nicht einmal in der Lage ist, Russland mit seinem inhärenten Potential zur Blüte zu entwickeln. Der Gedanke ein “altes Reich“ wiederherstellen zu wollen, ist in unserer Zeit anachronistisch.

Warum erkennt Putin nicht die Zeichen der Zeit? Warum schafft er mit den vorhandenen finanziellen Mitteln nicht die Möglichkeit, ein konkurrenzfähiges technisches Know-How zu entwickeln? Die Köpfe sind ja da, nur kultivieren viele eher eine Genialität des Bösen. Seit Jahren terrorisieren russische Cyberterroristen den Planeten und versuchen alles und jedes zu manipulieren, inszenieren ein undurchsichtigen Ränkespiel, dessen Regeln, sollte es welche geben, wohl nur noch Putin und sein engster Beraterkreis verstehen.

Es ist anzunehmen, dass Putin ein anderer Plan im Kopf herumspukt, der nach seinem Dafürhalten geeignet wäre, die von ihm geschätzte Rolle des absolutistischen Herrschers mit den Erfordernissen einer modernen High-Tech-Nation zu verbinden. Dem Präsidenten muss klar sein, dass Russland gemessen an seinem Potential, sieht man von Waffen und Raketentechnik ab, in den meisten High-Tech-Gebieten gewöhnliche Mittelklasse ist. Gleichzeitig ist er sicher nicht so naiv, zu glauben, dass nach dem Einfall in die Ukraine die Handelsbeziehungen mit Russland und der Welt weiterlaufen werden wie bisher. Putin hat es schließlich in beindruckender Geschwindigkeit geschafft, sein Land zum Paria zu machen. 

Man darf mutmaßen, dass er dieses Risiko bewusst eingeht, weil er überzeugt ist,  ein As im Ärmel zu haben. Dieses As heißt China. Auch wenn es bis dato abgestritten wird: die Wahrscheinlichkeit, dass China wusste, dass Russland in der Ukraine einmarschiert, ist nicht gering. Die strategische Partnerschaft wird ja seit längerem betont. Und tatsächlich scheint diese strategische Partnerschaft von China und Russland so etwas wie eine Hochzeit im Himmel zu sein. Russland liefert dem dynamischen China die begehrten Rohstoffe, damit wird das Land der Mitte unabhängiger von widerborstigen Ländern wie Australien. China stellt im Gegenzug die gewünschte Hochtechnologie zur Verfügung. Das klingt im ersten Moment verführerisch und scheint einer zwingenden Logik zu folgen. Doch es gibt ein paar versteckte Probleme: Für Russland könnte es sich als verheerend herausstellen, seine Rohstoffe nicht mehr auf einem globalen Markt verkaufen zu können. Denn ohne funktionierenden Markt gibt es auch keine marktüblichen Preisbildungsmechanismen. Damit liefert sich Russland China aus. Denn China kann seine Macht als Käufer missbrauchen, um die Preise zu diktieren und Russland zu erpressen. Es ist in einer komfortablen Situation, da Russland von China abhängiger ist als andersherum. Ein Mittel sich gegen eine solche Form der Erpressung zu wehren, hätte Russland nicht, wenn andere potente Käufer keine fossilen Energieträger des Usurpators kaufen würden.

Man darf in diesem geschlossnen Machtspiel nicht vergessen, dass Russland als potentieller Kunde chinesischer Technologie ein Leichtgewicht ist. Russlands gesammeltes Bruttoinlandsprodukt ist kleiner als das von Italien! Das lenkt nun die Aufmerksamkeit auf Chinas Strategie! Natürlich wären dem Reich der Mitte die Rohstoffe hochwillkommen, vor allen Dingen, wenn sie billig zu bekommen wären. Als Importeur chinesischer  Technologie wäre Russland aber nur zweite Liga. In dieser Beziehung ist China weiterhin auf den Zugang zum Weltmarkt angewiesen. Deshalb muss das Reich der Mitte peinlich darauf achten, nicht mit Russland in einen Topf geworfen zu werden und sich damit der Gefahr auszusetzen, in vergleichbarer Weise gebannt zu werden. Die Taktik wäre deshalb, sich opak zu machen und wie hinter einer Milchglasscheibe zu agieren. Doch das ist ein gefährliches Spiel. Geht die Taktik auf, bekommt China billige Rohstoffe, verkauft seine Technologie an Russland und den Rest der Welt. Das wäre das optimale Ergebnis. Es kann aber auch ganz anders laufen. Die potentiellen Verstrickungen werden sichtbar und ein sehr großer Wirtschaftsraum würde sich von China und Russland entkoppeln. Das hätte für beide Nationen gravierende Konsequenzen, da die Wirtschaft in China sowieso stottert und die russische wegen der harten Sanktionen mit Sicherheit in Kürze in die Knie gehen wird. 

Daraus ergibt sich als Handlungsempfehlung das Agieren von China ins helle Licht zu rücken, das Milchglas sozusagen transparent zu machen und in diesem Zusammenhang auch keine Angst vor wirtschaftlichen Konsequenzen zu haben. China wäre dann zu einer fundamentalen Abwägungsentscheidung gezwungen: Die Bande mit dem Aggressor Russland zu lockern oder gar zu lösen und damit seine potenten Absatzmärkte zu behalten oder Gefahr zu laufen diese zumindest in Teilen zu verlieren. Sollte China eine Entscheidung für seine Absatzmärkte treffen, hätte sich Putin in seinen strategischen Überlegungen verkalkuliert. In alter Manier Territorium zu okkupieren anstatt das vorhandene Potential der Menschen in seinem Land zu fördern, könnte sich als Bumerang erweisen. Russland wäre als Opfer dieser Strategie nicht nur technologisch isoliert, zumindest mittelfristig würde es auch deutlich weniger Devisen durch den Verkauf seiner Rohstoffe erwirtschaften. Für das russische Volk ist das eine düstere Perspektive. Bleibt abzuwarten, was die dann entstehenden innenpolitischen Spannungen für Putin bedeuten werden.

Den auf dem Photo zu sehenden Schädel hat der Figurenspieler Frank Söhnle gebaut

Debattenkultur

Die Kunst, in einer auch mit harten Bandagen geführten Diskussion nach konsensfähigen Lösungen zu suchen, scheint verloren zu gehen. Das Argument liegt auf dem Sterbebett. Dafür steht die gefühlige Meinungsäußerung hoch im Kurs. Das ist eine gefährliche Form von Komplexitätsverweigerung, die die Demokratie bedroht.                   


Der Hörsaal 21 im Kupferbau der Tübinger Eberhard-Karls-Universität glich einem Matratzenlager. Da, wo die Professoren normaler Weise ihre Runden drehen und ihren Studenten komplizierte Sachverhalte erklären, hatten Besetzerinnen und Besetzer im Dezember 2018 ihre Schlafsäcke ausgerollt. Es sah gemütlich aus. In Bierflaschen steckten Rosen. Es duftete nach frischem Kaffee. Das Ganze hatte etwas von einer Skifreizeit. Aber die Studenten waren nicht zum Spaß da. Man kämpfte gegen das Cyber Valley – einen Forschungsverbund zur Förderung der Künstlichen Intelligenz. Dieser besteht aus verschiedenen Universitätsinstituten der Städte Tübingen und Stuttgart. Im Boot sind auch potente Industriepartner wie Bosch, Porsche, BMW, Daimler, ZF-Friedrichshafen und Amazon.

Worum ging es den Besetzern? Das war gar nicht so einfach herauszubekommen. Sie gaben sich ziemlich konspirativ, legten sich Tarnnamen zu und verschwiegen, wer sie waren. Als eine Reporterin des Schwäbischen Tagblatts einen Bericht über die Besetzung machen wollte, saß ein Student demonstrativ mit einem Sturzhelm auf dem Kopf im Hörsaal, um anonym zu bleiben. Die Angebote der KI-Forscher miteinander ins Gespräch zu kommen, wurden lange abgelehnt. Man fühlte sich fachlich noch nicht gewappnet. Obwohl sich die Universitätsleitung tolerant zeigte und duldete, dass der Vorlesungsbetrieb gestört wurde, kam man mit den Studenten nicht richtig ins Gespräch. Doch manchmal wurden nach zäher basisdemokratischer Entscheidungsfindung Mitteilungsblätter veröffentlicht, auch auf einer Website gab es ab und an etwas zu lesen. So schälten sich langsam verschiedene Themenfelder aus dem Nebel: Man befürchtete, dass KI aus dem Cyber Valley für Waffensysteme oder Überwachung missbraucht werden könnte. Es wurde abgelehnt, dass Automobilfirmen wie Daimler, BMW und Porsche die Entwicklung von KI forcieren, da diese für den Klimawandel mitverantwortlich sind. Man war gegen Konkurrenz- und Leistungsdenken sowie die sich auftuende Schere von Arm und Reich. Der Firma Amazon mit ihren antidemokratischen Strukturen und prekären Arbeitsbedingungen, dürfte in Tübingen unter keinen Umständen ein Grundstück verkauft werden. Außerdem befürchtete man, dass in Tübingen der angespannte Wohnungsmarkt durch den Zuzug gut bezahlter High-Potentials außer Kontrolle geraten könnte. Deshalb pochte man auf die Förderung des sozialen Wohnungsbaus und forderte eine Stadt für Alle. Außerdem setzte man sich für die Demokratisierung der Universitäten ein. Besagte Reporterin des Schwäbischen Tagblatts, die sich redlich bemühte, die Stoßrichtung des Protests zu ermitteln, stellte etwas konsterniert fest: “Es sind viele Proteststimmen, die sich hier im Kupferbau vermischen.“

Endlich, ziemlich genau 3 Wochen nachdem der Hörsaal besetzt worden war, kam es dann zur lange erwarteten Diskussionsveranstaltung. Die Studenten, die sich argumentative Verstärkung von außerhalb besorgt hatten, trafen auf die Computerspezialisten. Am wenigsten wurde über Künstliche Intelligenz gesprochen, dafür aber um so mehr über spekulative gesellschaftliche Konsequenzen der KI-Forschung, den klandestin-verschachtelten Rüstungskomplex sowie die Verquickung von Grundlagenforschung mit herrschenden kapitalistischen Strukturen. Einen Lacher gab es, als sich herausstellte, dass die Demonstranten ausgerechnet die Datenkrake Facebook benutzten, um ihren Protest zu organisieren. Es bleibt zu hoffen, dass künftige Diskussionen über Chancen und Risiken Künstlicher Intelligenz näher am Thema bleiben und weniger als Vehikel verwendet werden, um weltanschauliche Voreingenommenheiten zu transportieren. 

Aber immerhin, das muss betont werden, wurde über ein wichtiges Thema wenigstens gesprochen. Das ist im Vergleich zu den Usancen, die sich an einigen anderen deutschen Universitäten zu etablieren drohen, keine Selbstverständlichkeit. Es gibt nämlich mittlerweile eine Menge Beispiele, die belegen, dass die im Grundgesetz festgeschriebene Meinungsfreiheit und die Freiheit von Wissenschaft und Kunst, in Gefahr sind. Es häufen sich die Ereignisse, in denen Redner und Dozierende an den Universitäten nicht nur niedergeschrien und mit Gegenständen beworfen werden. Sie werden auch bedroht, im Internet denunziert und verleumdet. Außerdem bemühen sich bestimmte Kreise systematisch Diskussionsveranstaltungen zu verhindern. Der Diskursraum selbst wird also zur Disposition gestellt. In all diesen Fällen sollen Andersdenkende mundtot gemacht werden, weil ihre Standpunkte Randalierern und diskursiven Heckenschützen nicht in den Kram passen.

Die Ethnologin Susanne Schröter doziert an der Frankfurter Johann Wolfgang Goethe-Universität und ist die Direktorin des dortigen Forschungszentrums Globaler Islam. Frau Schröter beschäftigt sich seit Jahrzehnten mit dem Islam und ist von Religion und Kultur fasziniert. Das hindert sie nicht daran, zu differenzieren und pointiert Stellung zu beziehen. So warnt sie schon länger vor einem politischen Islam. Ihr ist es zum Beispiel ein Dorn im Auge, dass der türkische Präsident Tayyip Erdogan mittels der Organisation Ditib versucht, in Deutschland religiösen Einfluss zu nehmen. 

Ins Fadenkreuz geriet Susanne Schröter, als sie es wagte, die sexuellen Übergriffe in der Silversternacht 2015 auf der Kölner Domplatte nicht als Ausdruck einer überall in gleichem Maße verbreiteten toxischen Maskulinität zur Kenntnis zu nehmen sondern einen Zusammenhang herstellte mit patriarchalischen Deutungsmustern junger arabischer Flüchtlinge, die das sexuelle Selbstbestimmungsrecht von Frauen missachten. Tatsächlich waren Übergriffe wie in Köln, bei denen Gruppen von jungen Männern Frauen sexuell gemeinsam belästigten, in dieser Form vor 2015 in Deutschland so gut wie unbekannt. Danach kamen sie immer wieder vor. Diese Einschätzung brachte Susanne Schröter jedoch in Konflikt mit einer besonderen Spielart des Feminismus. Deren Protagonistinnen vertreten die Auffassung, dass Gewalt gegen Frauen ein generelles Phänomen ist. Einigen jungen Arabern in Deutschland ein besonderes Verhaltensmuster zu unterstellen, halten sie für rassistisch.

Während Frau Schröter sich mit ihren offenen Worten bei vielen Respekt verschafft hatte, war sie anderen verdächtig geworden. Als sie dann 2019 in Frankfurt eine Konferenz zum Thema “Das islamische Kopftuch, Symbol der Würde oder der Unterdrückung?“ veranstalten wollte, kam es zum Eklat. Anonyme Hetzer versuchten die Veranstaltung im Vorfeld zu unterbinden und setzten Susanne Schröter in den sozialen Medien massiv unter Druck. Außerdem gab es einen Hashtag “#schroeter_raus“. Mit diesem wurde das Ziel verfolgt, die Professorin aus der Universität zu schmeißen. Die Begründung? Erneut wurde Frau Schröter antimuslimischer Rassismus unterstellt. Das klingt sonderlich: Für das Podium waren sowohl Befürworterinnen als auch Gegnerinnen des Kopftuchs geladen. Die Randalierer hätten das Plenum aber lieber nach ihren eigenen Vorstellungen besetzt. Da stellt sich die Frage, warum sie nicht ihre eigene Veranstaltung organisieren? 

Susanne Schröter gab zu, dass es sie persönlich belastete, so “mit Dreck beschmissen zu werden“. Sie hatte allerdings Glück, dass ihr eine resolute Universitätsleitung den Rücken stärkte. Die Präsidentin der Johann Wolfgang Goethe-Universität Brigitta Wolf brachte den Skandal auf den Punkt: “Das Präsidium … sieht seine Aufgabe darin, für die Wissenschaftsfreiheit einzutreten und ist keine “Diskurspolizei“. Sie fuhr fort: “Wenn anonyme Gruppen einzelne Forschende diskreditieren oder gar bedrohen sollten (…) agieren sie aus der Anonymität heraus und sind damit gerade nicht bereit, in den universitären Diskurs einzutreten; sie bedienen sich einer wissenschaftsfernen, herabwürdigenden Rhetorik mit verunglimpfenden Zuschreibungen, die das Gegenüber als Wissenschaftler und Person herabsetzen.“

Angriffe auf die Wissenschaftsfreiheit kommen aber auch von anderer Seite. In Tübingen sorgte 2018 ein Vortrag am Politikwissenschaftlichen Institut für Aufregung. Organisiert wurde die Veranstaltung vom Lehrstuhl “Vorderer Orient und vergleichende Politikwissenschaft“. Als Redner war der israelische Historiker Ilan Pappé eingeladen. Pappé ist Direktor des Europäischen Zentrums für Palästina-Forschung an der Universität Exeter. Er studierte an der Hebrew University in Jerusalem und promovierte in Oxford. Sein Vortrag lautete “70 Jahre Nakba“. Das Wort “Nakba“ bedeutet im arabischen Sprachgebrauch Unglück oder Katastrophe. Es bezieht sich auf die Flucht und Vertreibung von 700 000 arabischen Palästinensern aus dem früheren britischen Mandatsgebiet Palästina, das dann in Teilen am 14. Mai 1948 zum Staat Israel ernannt wurde. Ilan Pappé ist der Überzeugung, dass es bei diesem Exodus zu ethnischen Säuberungen gekommen ist, ein Standpunkt, der nicht die Zustimmung des Staates Israel findet. In der Gemeinschaft der Forscher gibt es zu der Vertreibung der Palästinenser allerdings unterschiedliche Ansichten. Das Spektrum changiert von Völkermord bis zum freiwilligen Auszug der Menschen. Mit einem Wort: die Auslegung des historischen Ereignisses ist kontrovers. Um so erstaunlicher ist deshalb die Tatsache, dass die Leitung der Universität Tübingen einen Brief von der Generalkonsulin Israels für Süddeutschland, Sandra Simovich, bekam. In dem Brief forderte die Konsulin, den Vortrag abzusagen. In einem Gespräch mit der Presse bezeichnete Frau Simovich Ilan Pappé als Post-Zionisten, der einseitig argumentiere, sodass die Gefahr bestünde, dass die Komplexität des Themas nicht genügend gewürdigt würde. Der Rektor der Tübinger Universität Bernd Engler vertrat die Meinung, dass die anwesenden Akademiker in der Lage wären, sich selbst ein Bild zu machen und der Institutsleiter Oliver Schlumberger konstatierte, dass Debatten davon leben, dass debattiert wird. Die Veranstaltung fand statt und verlief ohne Zwischenfälle.

Eine entschlossene Universitätsleitung kann also Angriffe auf die Wissenschaftsfreiheit parieren. Was es für Konsequenzen hat, wenn sie die Wissenschaftsfreiheit nicht energisch verteidigt, war im letzen Jahr an der Universität Hamburg zu beobachten. Dort wurde die Öffentlichkeit Zeuge, wie Bernd Lucke, der ehemalige Gründer der AFD, Europaparlamentarier und Professor für Makroökonomie in Hamburg, Opfer randalierender Studenten wurde, als er seine Vorlesungen an der Universität wieder aufnehmen wollte. Lucke wurde von mehr als 300 Leuten niedergebrüllt, mit Gegenständen beworfen und angerempelt. Jeder Interessierte kann sich im Internet ein Bild von den Vorgängen machen. Die Störer schrieen im Chor “Verpiss Dich, hau ab“ und “Nazi-Schweine raus aus der Uni“. Luckes Vorlesungen gingen im provozierten Chaos unter. Die ersten Stellungnahmen des Präsidenten Dieter Lenzen und der damaligen Wissenschaftssenatorin Katharina Fegeband unterschieden sich in Inhalt und Duktus deutlich von den Worten Brigitta Wolfs. In einer Notiz vom 16. Oktober 2019 vertraten sie die Ansicht, dass diese Form des Tumults ein statthaftes Element des wissenschaftlichen Diskurses sei und deshalb von Bernd Lucke akzeptiert und ausgehalten werden müsse. Erst nach geharnischtem öffentlichen Protest ruderten sie zurück. Die dritte Vorlesung von Lucke fand dann unter Polizeischutz statt. 

Es hilft, den Fall Lucke etwas differenzierter zu betrachten und ihn nicht nur als den Gründer einer Partei zu sehen, die heute in Teilen an den äußeren rechten Rand driftet. Bernd Lucke initiierte mehrere Aufrufe von Wirtschaftswissenschaftlern, etwa den Hamburger Appell von 2005, der von über 200 Ökonomen unterzeichnet wurde, um die damalige deutsche Wachstumsschwäche in den Griff zu bekommen.  Außerdem wurde er bekannt, weil er zusammen mit vielen Ökonomen wie etwa Roland Vaubel oder Hans-Werner Sinn der Europäischen Zentralbank rechtswidrige monetäre Staatsfinanzierung vorwarf. Das brachte ihm den Ruf ein, ein “Europafeind“ zu sein. Das jüngste Urteil des Bundesverfassungsgerichts lässt seinen Standpunkt allerdings in einem anderen Licht erscheinen. Bleibt hinzuzufügen, dass Lucke die AFD verlassen hat, weil sie ihm zu rassistisch wurde. Das hat er mehrfach betont. 

Man kann Bernd Lucke also als liberal-konservativen Politiker bezeichnen. Mit dem Begriff “Nazischwein“ sollte man dagegen vorsichtig umgehen. Auch wenn man seine politischen und ökonomischen Überzeugungen nicht teilt, verboten sind sie definitiv nicht. Interessant klingen in diesem Zusammenhang die Worte des Hamburger ASTA-Vorsitzenden Karim Kuropka, der die Kundgebungen mit dem Motto “Lucke lahm legen“ organisiert hat.  Er kritisierte in einem Interview: “Bernd Lucke vertritt als Wirtschaftswissenschaftler ein Modell, welches einen schlanken Staat, des weiteren den Abbau der Sozialsysteme und noch freiere Märkte fordert“. An anderer Stelle bemängelte er Luckes Eintreten für einen Staat, der sich nicht verschuldet. Die sogenannte schwarze Null lehnt Kuropka ab.

Sind das Gründe, die es rechtfertigen, einem Gelehrten öffentlich den Mund zu verbieten? Wie würde sich Kuropka wohl zu dem folgenden Zitat stellen:“ Ich bin erschrocken, wie übermächtig der Ruf nach kollektiver Sicherheit im sozialen Bereich erschallte. Falls diese Sucht weiter um sich greift, schlittern wir in eine gesellschaftliche Ordnung, in der jeder die Hand in der Tasche des anderen hat.“ Das sind Worte aus einer Rundfunkansprache von Ludwig Erhard aus dem Jahre 1958. Der Vater des deutschen Wirtschaftswunders war Freund eines schlanken Staats, nicht überbordender Sozialsysteme und freier Märkte unter der Ordnung des Staates. Hätte Ludwig Erhard heute an der Universität Hamburg noch die Möglichkeit, frei zu sprechen?

Man könnte nun an dieser Stelle noch ausführlich über das traurige Beispiel der Humboldt-Universität Berlin sprechen. Die Skandale um den Historiker Jörg Baberowski, den Politologen Winfried Münkler, den Soziologen Ruud Koopmans oder den Erziehungswissenschaftler Malte Brinkmann füllen Bände, wurden öffentlich ausgiebig diskutiert und belegen, dass es Politik und Hochschulleitung in Berlin schon länger nicht mehr gelingt, anonymes Denunziantentum und Beleidigungen an der Hochschule zu unterbinden und damit zu einer akademischen Streitkultur zurückzufinden, die einer Universität würdig ist. Was ist da los? Wie kann es solchen Diskursverweigerungen kommen?

Eine Ursache ist offensichtlich ein wenig reflektierter Hochmut. Es wird ja unausgesprochen unterstellt, dass der eigene Standpunkt moralisch überlegen ist. Und daraus wird die Berechtigung abgeleitet, dem anderen seine Meinung zu verbieten. Diese bedenkliche Entwicklung ist für eine demokratische Gesellschaft gefährlich und muss unterbunden werden! Eine an den Idealen der Aufklärung orientierte Diskurskultur wird in einem solchen Umfeld zunehmend schwierig, teilweise sogar unmöglich. 

Es sei auch darauf hingewiesen, dass die moralische Überheblichkeit an einem Begründungsparadoxon krankt. Derjenige, der den Meinungsaustausch unterminiert, der beleidigt und denunziert, implementiert eine Hierarchie. Oben steht man selbst, der Gute, der moralisch Unverdächtige, unten der andere, der Verwerfliche, dem man mit gutem Gewissen das Wort verbieten darf. So wird die Diskussion unmöglich gemacht. Aber genau eine solche wäre notwendig, um das eigene Verhalten zu rechtfertigen. Die Tatsache, dass man sich zum Richter aufschwingt bedarf der Begründung, die aber nur auf der Grundlage einer Diskussion zustande kommen könnte, die man verweigert. 

Als Leitlinie für das hohe Gut der freien Meinungsäußerung besonders an den Universitäten, mag eine Aussage des Komparatisten Hans Ulrich Gumbrecht stehen, der bis vor wenigen Jahren an der Stanford University gelehrt hat. Gumbrecht sagte sinngemäß, dass die Universität ein Kloster für gefährliche Gedanken sei. Das bedeutet, dass Universitäten Schutzräume auch für kontroverse Gedanken schaffen müssen. In diesem Zusammenhang ist jeder begründete Standpunkt wert, diskutiert zu werden, solange er nicht mit der Verfassung in Konflikt gerät. In solchen Diskursen, die gerne auch mit harten Bandagen geführt werden dürfen, sollte es allerdings um Argumente gehen und nicht darum, welche Einstellung man dem Diskutanten unterstellt und ob sie einem persönlich genehm ist. Es muss im intellektuellen Freiraum egal sein, ob Diskutanten Linke oder Rechte sind oder der bürgerlichen Mitte angehören. Die Religionszugehörigkeit darf genauso wenig eine Rolle spielen wie die Ethnie, von der Hautfarbe gar nicht zu sprechen. Aber genau diese Freiheit ist in Gefahr. Die Universität ist heute immer seltener ein Kloster für gefährliche Gedanken, eher ist es gefährlich, seine Gedanken frei in ihren Mauern zu äußern. Damit liegt eine der wichtigsten Errungenschaft der Neuzeit auf dem Richtklotz: die Trennung des Arguments von der Person des Sprechers. Das Argument steht im Mittelpunkt einer an den Werten der Aufklärung gemessenen Diskurskultur. Wenn aber das moralische Urteil das Argument verdrängt, hat das gravierende Folgen: Der Prozess der Wahrheitsfindung selbst wird unmöglich gemacht. 

Ist es zum Beispiel richtig, dass ein Argument zwangsläufig falsch ist, weil es von einer missliebigen Vertreterin der AFD geäußert wird? Oder muss alles, was ein in der Wolle gefärbter Linker sagt, von einem orthodoxen Wirtschaftswissenschaftler automatisch für Nonsense gehalten werden? Man mache sich klar, welche Folgen diese Art zu denken und zu urteilen hat! Es kann in dieser verqueren Logik angezeigt sein, ein richtiges und damit zielführendes Argument kategorisch abzulehnen, weil man sich nicht mit der moralischen Einstellung gemein machen möchte, die dem Diskutanten unterstellt wird. Der Bückling vor der Moral ist allerdings selbst amoralisch. Man versündigt sich am Ideal der Wahrheitsfindung und unterstützt im schlimmsten Fall die Lüge. Das kann sich eine demokratische Gesellschaft, die in Gegenwart und Zukunft extrem schwierige Probleme lösen muss, nicht leisten.

Es stellt sich deshalb die Frage, wie es selbst an den Universitäten salonfähig werden konnte, argumentative Strategien durch simple moralische Urteile zu ersetzen? Tatsächlich ist es wesentlich einfacher, einen opportunen moralischen Standpunkt einzunehmen, als sich in einer komplexen Thematik eine begründete Meinung zu erarbeiten und diese dezidiert und sachlich zu vertreten. Die scheinbar angemessene Moral entwickelt in diesem Zusammenhang eine narkotisierende Kraft, wird zu einer betäubenden Erklärungsillusion, die blind macht für sachliche Erkenntnisdefizite. Es ist angenehm, in sich den Glauben zu nähren, das richtige Weltbild zu kultivieren, dieses in medialen Echokammern mit Gleichgesinnten zu teilen und zu verstärken, auch wenn es mit den zu lösenden Problemen wenig bis gar nichts zu tun hat.

Damit gehen Randalierer, Chaoten, Denunzianten und deren Sympathisanten einfach den Weg des geringsten “intellektuellen Widerstands“.  Aber gerade bei den Themen, die heute auf der Agenda stehen, wäre das Gegenteil von Nöten. In seinem Kern ist die beobachtete Diskursverweigerung nämlich nichts anderes als eine Komplexitätsverweigerung. Leider haben in Deutschland bestimmte Denk- und Diskursverbote bedingt durch  traumatische Weltkriegserfahrungen eine gewisse Tradition. Lange waren kritische Stimmen zum Judentum sakrosant, genauso wie jeder seine akademische Karriere riskierte, der es wagte, das Grauen des Holocaust etwa mit dem Holodomor Stalins oder Maos großen Sprung in einen Zusammenhang zu denken. 

Doch trotz dieses schweren Erbes dürfen wir uns eine moralisierende Diskursverweigerung bei den drängenden Problemen unserer Zeit nicht leisten! Diese Probleme lösen sich nicht dadurch, dass man den Diskurs beendet, bevor er begonnen hat, wobei die immergleichen, kurzsichtigen Strategien verwendet werden. Andersdenkenden wird ein Siegel aufdrückt, anstatt sich mit ihren Standpunkten auseinanderzusetzen, um sie dann schnell in einer Schublade verschwinden zu lassen: 

Menschen, die die Europapolitik der Regierung kritisieren, werden als Europafeinde abgekanzelt. Wissenschaftler, die die Verlässlichkeit von Klimaprognosen thematisieren, bezeichnet man als Klimaleugner. Widersprechen Bürger der Auffassung, dass staatlich geförderte Windräder und Solarpanele die geeigneten Mittel sind, das Klima zu retten, schimpft man sie Klimagegner. Wer es wagt, die lange ungesteuerte Migration zu thematisieren und wie Ruud Koopmans darauf hinweist, dass sich verschiedene Volksgruppen unterschiedlich gut in Deutschland integrieren, wird zum Rechtskonservativen oder gleich zum Rassisten gemacht. Wissenschaftler, die in der Grundlagenforschung mit Tieren arbeiten, darf man ungestraft als Tiermörder bezeichnen. Leute, die nicht glauben wollen, dass Geschlechter eine gesellschaftliche Konstruktion sind und deshalb Gender heißen müssen, sind im harmlosen Fall Biologisten sonst Sexisten. Und manchmal reicht es, ein ganz normaler älterer Mann zu sein, der das Pech hat, eine weiße Hautfarbe zu haben, um zum Gegenstand von Verachtung und Zorn zu werden. 

Europafeind, Klimaleugner, Klimagegner, Rassist, Tiermörder, Sexist. Wie kommt man aus diesem Schubladendenken heraus? Indem man Europapolitik, Klimawandel, Migration, Grundlagenforschung, Entwicklung persönlicher Identität, als das begreift, was sie sind: als grenzwertig komplexe Themenfelder, die selbst Spezialisten an ihre Grenzen bringen und keine Simplifizierung im Stile eines Karim Kuropkas vertragen. 

So ist die Ökologie, um ein nur Beispiel zu nennen, weniger eine gefällige Gesinnung als eine harte Naturwissenschaft. Sie hat verwickelte Stoffkreisläufe zum Gegenstand, klimatische Entwicklungen, sie bedingt ökonomische Entwicklungen und wird selbst von ökonomischen Entwicklungen beeinflusst. Wenn man dem Gegenstand gerecht werden will, muss man viel von Physik und Biologie verstehen, auch von Soziologie und Politik und natürlich von der Ökonomie. Denn die Gretchenfrage, von deren Beantwortung unsere Zukunft abhängt, lautet: Wie ist es möglich, mit zwangsläufig beschränkten finanziellen Mitteln, global den größtmöglichen ökologischen Nutzen zu generieren? Das ist eine sehr schwierige Frage. 

Hört man aber den Volksvertretern zu, die auch bei ökologischen Fragestellungen die Weichen stellen, dann ist deren Expertise in diesem Zusammenhang bisweilen ernüchternd. Deutschlands größter Volkspartei gelingt es nicht, die frechen Angriffe eines Youtubers mit blauen Haaren zu parieren, der ihr ökologischen Dilettantismus vorwirft und sie mit diesem Unvermögen zum Gegenstand des Spotts macht. Und die Führungsfiguren der Partei, die sich den Umweltschutz auf die Fahnen geschrieben hat, beherrschen noch nicht einmal das ökologische ABC. Da wird Kobalt mit Kobold verwechselt und das 2-Gradziel der Temperaturerwärmung wird zum 2%-Ziel. Bei Politikern, die so wenig sattelfest sind, hat man sich daran gewöhnt, dass die wenigsten die in der Ökologie wichtigen physikalischen Termini Energie und Leistung auseinanderhalten können. Wenn dann aber von einem grünen Spitzenpolitiker Gigawatt – ein Maß für die physikalische Leistung  –  mit Gigabytes – einem Informationsmaß – verwechselt werden, ist das das nicht mehr lustig. 

Aber wahrscheinlich ist es zuviel verlangt, diese Expertise von jedem Politiker einzufordern. Und damit sind wir wieder bei den Universitäten. Diskursverweigerung ist ein gesamtgesellschaftliches Phänomen, dass sich auf die Universitäten auszudehnen droht. Damit laufen wir jedoch Gefahr, dass die letzten Bastionen des Freidenkertums geschliffen werden. Doch diese müssen unter allen Umständen als Schutzräume für kreative, an der Sache orientierte Denkprozesse erhalten bleiben! Diese brauchen wir, um komplizierte Probleme ohne ideologische Scheuklappen lösen zu können.

In Tübingen kam es immerhin zu einem Gespräch, über dessen Notwendigkeit kein Zweifel besteht. Das war ein Anfang. Wenn dann noch qualifiziert über das eigentliche Thema – in diesem Fall künstliche Intelligenz –  ohne weltanschauliche Vorurteile debattiert werden könnte, wäre ein weiterer wichtiger Schritt getan. Die Zukunft gehört damit unvoreingenommenen Diskursen mit offenem Visier. Helme auf dem Kopf bringen uns nicht weiter.