Risiko ist nicht objektivierbar

Sichtweisen auf das Risiko

Im Artikel Faktenjongleure und Statistikzauberer habe ich die von Hans Rosling propagierte optimistische Weltsicht aufs Korn genommen, insbesondere sein plattes Risikokalkül. Rosling unterscheidet das wahrgenommene vom realen Risiko und empfiehlt ausschließlich letzteres zum Maßstab von Entscheidungen zu machen. Es ist das sogenannte objektive Risiko, und das ist definiert als Schadenserwartungswert im rein mathematischen Sinn. Im einfachsten Fall ist dieses objektive Risiko gegeben durch die Formel Risiko = Schadenshöhe × Eintrittswahrscheinlichkeit.

Unter Maßgabe des objektiven Risikos ließe sich alles, was uns irgendwie ängstigt, richtig einordnen und wir brauchten uns nicht mehr allzu sehr vor Terrorismus, Pflanzengiften, Radioaktivität usw. zu fürchten (Rosling, 2018, S. 101-123). Die „faktenbasierte Weltsicht“ ist demnach alles, was wir benötigen, um die Welt, so wie sie ist, gut zu finden.

Diese Sicht der Dinge hat den Vorteil, dass sie das Individuum mit seinen subjektiven Gefahreneinschätzungen und seinen Launen aus den Überlegungen heraushält. Der Begriff des objektiven Risikos ist ein ideales Vehikel einer für jedermann verbindlichen Weltsicht. Der Neue Skeptiker – im Artikel Hochstapelei im Namen der Wissenschaft war von ihm die Rede – präferiert das objektive Risiko, denn so lassen sich nach seiner Auffassung Handlungsanweisung rein wissenschaftlich gewinnen. Es entsteht eine Wissenschaft der Moral (Shermer, 2015).

Florian Aigner schreibt am 28.4.2019 in seiner Futurezone-Kolumne zum Thema „Wissenschaftlich korrekte Panik“ ganz im Sinne des Neuen Skeptizismus: „Es wird immer schwierig sein, die Grenze zwischen gerade noch harmlosen und gerade schon gefährlichen Dingen zu ziehen. Aber wir sollten die Gefahren um uns wenigstens in die richtige Reihenfolge bringen und unsere Energie den größeren Gefahren widmen, anstatt uns vor Kleinigkeiten zu fürchten.“

Wenn von „richtiger Reihenfolge“ die Rede ist, dann lese ich das so: Es gibt eine richtige und von allen rational entscheidenden Menschen zu akzeptierende Reihenfolge der Gefahren.

Diese Prämisse ist unhaltbar, ebenso die Lehre vom objektiven Risiko als verbindliche Maßgabe der Gefahrenbewertung. Gerade der Skeptiker sollte wissen, dass menschliches Verhalten durch einfache mathematische Beschreibungen nicht zu erfassen ist. Das System Mensch und seine gesellschaftliche Einbindung sind dafür viel zu komplex.

Für Entscheidungen bei Risiko, denen sich der Einzelne gegenüber sieht, ist das reale oder objektive Risiko ein nur unzureichender Maßstab. Diese Unzulänglichkeit herauszustellen, dafür genügt mir im Folgenden ein ziemlich einfaches mathematisches Modell.

Die Neuen Skeptiker schießen über das Ziel hinaus. Aber in einem Punkt liegen sie wohl richtig: Unsere Ängste sind oft weit übertrieben und manch wirklich Bedrohliches nehmen wir nonchalant hin. Da ist ein Blick auf die Statistik ratsam, auf die Fakten. Dieser Blick verhilft uns dann zwar nicht zu einer allgemeinverbindlichen und von jedermann zu akzeptierenden Weltsicht, aber er hilft uns, unseren persönlichen „Angstmaßstab“ zu justieren.

Aber was sind die Fakten? Auch wer den „klassischen Gatekeepern“ (Pörksen) misstraut und den Internetforen allemal, kann sich einen Eindruck verschaffen. Er geht zu den Datenquellen und wendet ein wenig Dreisatzrechnung an.

Beispiel: Impfgegner kontra Impfpflicht

Im Falle des Hin und Her zur Masernschutzimpfung kann jedermann die Daten des Robert Koch Instituts (RKI) heranziehen. (Sollte er auch dieser Quelle misstrauen, ist er ziemlich verloren und es bleibt ihm letztlich nur Kaffeesatzleserei.)

Die Impfquote bei Schuleingangsuntersuchen liegt seit Jahrzehnten bei 90% (Epidemiologisches Bulletin, 4. Januar 2018 / Nr. 1). Von den 80 Mio. Einwohnern Deutschlands sind demnach etwa 72 Mio. gegen Masern geimpft. Die Impfung findet nur einmal in einem im Mittel 80 Jahre langen Leben statt. So kommt man – grob gerechnet – auf etwa 900 Tausend Masernschutzimpfungen je Jahr; es können aber auch gerade einmal 700 Tausend sein.

Die Zahl der anerkannten Impfschäden sinkt kontinuierlich (Meyer u. a., 2002). Im Jahr 1999 waren es 21. Über einen größeren Beobachtungszeitraum (1972-1999) gemittelt, gehen 1,1% der anerkannten Impfschäden auf die Impfungen gegen Masern und die Kombinationsimpfungen gegen Mumps, Masern und Röteln  zurück.  Sogar derartig grobe Abschätzungen lassen darauf schließen, dass einer Million Masernimpfungen schlimmstenfalls ein anerkannter Impfschaden zuzurechnen ist.

Andererseits weiß man um die Gefahren, die dem nicht Geimpften drohen: „Nach Angaben der WHO liegt in entwickelten Ländern die Letalität der Masern zwischen 0,05% und 0,1%.“ (https://www.rki.de/DE/Content/InfAZ/M/Masern/Masern.html)

Soweit sind das Daten. Inwieweit sie Fakten abbilden, kann dem einen oder anderen zweifelhaft erscheinen. Wer sie  anerkennt, muss diese Fakten noch irgendwie in seine Weltsicht einpassen. Und da fangen die eigentlichen Schwierigkeiten an. Unter anderen gibt es

  • grundsätzlich Misstrauische, die überall Verschwörungen vermuten,
  • Anhänger der Naturmedizin, die Impfung als unnatürlich verurteilen und ablehnen,
  • gewisse Gottgläubige, die es ablehnen, mit Massenimpfungen Gott ins Handwerk zu pfuschen,
  • diejenigen, die sich auf anekdotische Evidenz verlassen (,„Meine Tochter ist nicht geimpft worden und jedes Mal, wenn wir alle krank werden, ist sie die einzige, die nichts hat“),
  • Leute, die den einfachen Regeln des Volkswissens vertrauen („Das Immunsystem funktioniert nur durch Kennenlernen“).

Die Zitate sind aus den Kommentaren zum ZEIT-Artikel von Schade u. a. (2015).

Der Skeptiker tritt gegen diese irrationalen Weltsichten an. Das ist aber nur ein Teil seiner faktenbasierten Mission. Selbst wenn er alle irrationalen Elemente eliminieren könnte, wäre er noch lange nicht beim objektiven Risiko als Grundlage aller rationalen Entscheidungen angekommen. Bereits unser Beispiel von der Impfgegnerschaft zeigt ein paar Hindernisse, die dem entgegenstehen.

Aufgrund der Impfrate von 90% sind die Masern in Deutschland sehr selten. Die Nichtgeimpften sind durch die Geimpften weitgehend geschützt. Das verringert die Wahrscheinlichkeit für Erkrankung der Ungeimpften. Impfverweigerung kann also durchaus eine rationale persönliche Entscheidung sein.

Die Erhöhung der Impfrate lässt sich über das erwartbare zukünftige Gemeinwohl rechtfertigen: Ausrottung der Masern. Mit dem Vorwurf der Trittbrettfahrerei wäre ich dennoch vorsichtig. Jedenfalls betreten wir hier das Feld der Moral und der Wertvorstellungen, und da reicht die objektive Risikobewertung nicht hin.

Subjektive Wertmaßstäbe sind rational

Ohne sichere Datenbasis sind Risikoerwägungen ziemlich sinnlos. Aber sie allein reicht nicht für ein Urteil. Die Situation des Entscheiders, sein Denkrahmen spielt eine große Rolle. Risiko ist unabweisbar subjektiv. Das lässt sich mit einer einfachen Modellvorstellung leicht einsehen.

Die meisten Menschen haben irgendwelche Wünsche. Manches steht ganz oben auf der Wunschliste, anderes eher unten. Es hängt von den persönlichen Lebensumständen und vom Wertesystem jedes Einzelnen ab, welches Hochgefühl die Erfüllung eines Wunsches bewirkt. Ich entwickle die Gedanken dazu an der fiktiven Gestalt „Horst“.

Horst hat eine Rangordnung seiner Wünsche erstellt. Ganz oben steht der Erwerb einer Eigentumswohnung. Bei einem „warmen Regen“ von 100 000 € wäre dieser Wunsch erfüllbar. Horst misst den hunderttausend Euro einen subjektiven Nutzen von 100 % zu: hundertprozentiges Hochgefühl bei einem Lottogewinn von hunderttausend Euro.

Aber auch die Hälfte davon wäre nicht übel. Nach Rücksprache mit der Familie stellt er fest: Die Eigentumswohnung wäre auch bei einem Gewinn von 50 000 € noch erschwinglich. Durch den Schuldendienst müssten andere, weniger dringliche Wünsche zurückgestellt werden. Er kommt zur Überzeugung, dass das Hochgefühl nicht etwa mit nur 50 %, sondern mit etwa 80 % zu veranschlagen wäre. Mit einem Gewinn von 25000 € läge –  verglichen mit dem vollen Gewinn von 100000 € – sein Hochgefühl immer noch deutlich über 50 %.

Horst ist Mathematiker; nach einigem Hin- und Her findet er eine Funktion, die sein Hochgefühl in Abhängigkeit vom Betrag wiedergibt, seine subjektive Nutzenfunktion.

Horst sagt sich: Mein Hochgefühl hängt womöglich logarithmisch vom gewonnenen Betrag x ab. Bereits im 18. Jahrhundert hat Daniel Bernoulli einen solchen Ansatz gemacht. Die Nutzenfunktion u(x) stellt den subjektiven Nutzen in Abhängigkeit vom Betrags x dar. Zumindest für größere fünfstellige Beträge passt der Logarithmus. Bei kleinen Beträgen bin ich mir nicht so sicher: Zwei Euro sind mir doch tatsächlich doppelt so viel wert wie ein Euro. Also korrigiere ich die Formel, so dass für höhere Beträge näherungsweise das logarithmische und für kleinere näherungsweise das lineare Nutzengesetz gilt. Mit dem Ansatz u(x) = cln(1+x/x0) kann ich meine Empfindungen recht genau wiedergeben. Es handelt sich um eine Funktion mit von links nach rechts abnehmender Steigung. Der Ankerwert xmuss in der Übergangszone zwischen den Gültigkeitsbereichen des linearen und des logarithmischen Nutzengesetzes liegen. Ein plausibler Wert angesichts meiner Präferenzen ist 5000 €.“

Die sich so ergebende Kurve für Horst ist in der Grafik wiedergegeben. Die Nutzenfunktion ist linear, solange sich die Beträge im Rahmen des normalen Budgets halten.

Nehmen wir an, Horst bekommt die Gelegenheit, an der Börse oder sonst wo, auf einen Gewinn von 100 000 € zu wetten, bei einer Gewinnchance von 40%. Wieviel wäre ihm eine solche Wette wert?

Seine Nutzenkurve zeigt 40%-prozentigen Nutzen bei 12 000 €. Das ist das Sicherheitsäquivalent der Wette. Höchstens diesen Betrag wird Horst für die Teilnahme an der Wette bereitwillig einsetzen. Horsts Nachbar Bernd ist wohlhabender; sein Ankerwert liegt bei 30 000 €. Dementsprechend höher ist sein Sicherheitsäquivalent: 24 000 €. Je größer der Ankerwert, desto mehr nähert sich die Nutzenfunktion der linearen Nutzenfunktion an. Zur Rangfolge der Alternativen: Horst würde 20 000 € der Wette vorziehen. Für Bernd gilt die umgekehrte Rangfolge; er wettet lieber und setzt dafür die 20 000 € aufs Spiel.

Die Kurven oberhalb der linearen stehen für Risikoaversion: Der Spatz in der Hand ist mir lieber als die Taube auf dem Dach.

Für die subjektive Schadensfunktion übernehmen wir die Form der Nutzenfunktion. Ein deterministische Schaden, beispielsweise der Zeitverlust durch Verzicht aufs Überholen, wird gegenüber dem zufälligen Schaden eines möglichen Unfalls überbewertet. In der Schadensbetrachtung sind wir also risikofreudig.

Sowohl bei der Beurteilung von möglichen Schäden als auch beim Nutzenkalkül gibt es bei den hier gewählten Nutzen- und Schadensfunktionen eine Tendenz zur Überbewertung der Gewissheit. Diese Tendenz hat den Rang eines allgemeinen psychologischen Prinzips: Ein fester Nutzen wird gegenüber dem zufälligen präferiert, und ein zufälliger Schaden erscheint uns gegenüber festen Kosten eher erträglich – immer bei gleichem objektivem Risiko.

Es gibt Ausnahmen: Sogar die bei Gewinnaussichten eher risikoscheuen Leute spielen zuweilen Lotto. Und der risikofreudige Autofahrer hat eine Reihe von Versicherungen abgeschlossen, die objektiv gesehen jedenfalls ein Verlustgeschäft sind.

Der subjektive Nutzen und Schaden lässt sich also noch nicht einmal für eine Person in eine einfache Formel fassen. Es kommt auf den Denkrahmen an, innerhalb dessen eine Entscheidung fallen muss. Dieses Framing verstärkt den Zweifel an einer machbaren objektiven Risikobewertung weiter. Wer mehr darüber wissen will, sollte sich den Werken von Daniel Kahneman und Richard Thaler zuwenden.

Quellen

Kahneman, Daniel: Thinking Fast and Slow. 2011

Kahneman, Daniel; Tversky, Amos: Prospect Theory: An Analysis of Decision under Risk. Econometrica, Vol. 47, 2/1979, 263–291

Meyer/Rasch/Keller-Stanislawski/Schnitzler (RKI): Anerkannte Impfschäden in der Bundesrepublik Deutschland 1990–1999. Bundesgesundheitsbl – Gesundheitsforsch – Gesundheitsschutz, 2002 45:364–370

Pörksen, Bernhard: Die große Gereiztheit. 2018

Rosling, Hans: Factfulness. Ten reasons we’re wrong about the world – and why things are better than you think. 2018

Shermer, Michael: The Moral Arc. How science makes us better people. 2015

Thaler, Richard H.; Sunstein, Cass, R.: Nudge. 2008

Links

http://www2.hs-fulda.de/~grams/DecisionsUnderRisk/Risk.html

Von Blickle, Paul; Schadwinkel, Alina (24.2.2015): Masern sind viel gefährlicher als die Impfung.
https://www.zeit.de/wissen/gesundheit/2015-02/masern-impfung-risiko-nebenwirkung

Veröffentlicht unter Grafische Darstellung, Moral und Ethik, Skeptizismus, Wahrscheinlichkeitsrechnung, Wirtschaft | Verschlagwortet mit , , , , | 2 Kommentare

Sinn gesucht, Unsinn gefunden

Im Zufallsmuster der Badezimmerkacheln erkennen wir Gesichter. Das Wolkenbild formt sich zu einem Hund. Zwölf von 150 Frauen wählten beim Autokauf einen Ford; unter gleich vielen Männern trafen nur sechs diese Entscheidung. So kommen wir vorschnell zur Auffassung, dass Frauen die Automarke Ford bevorzugen.

Das sind Beispiele dafür, wie Phantasie und Spekulation fast gewohnheitsmäßig über unsere Erfahrung und unser Wissen hinausgreifen. Das ist die unvermeidliche Sinnsuche unseres Wahrnehmungs- und Denkapparats.

Manch ein übersensibler Mensch braucht nur ein paar schwer erklärliche Umstände, sonderbare Riten oder befremdliche Symbole und schon vermeint er die Anzeichen einer Verschwörung zu erkennen. Besonders zwingend wird ein solcher Verdacht, wenn sich in den Beobachtungen mathematische Strukturen ausmachen lassen.

Für den Hochsensiblen kann das kein Zufall sein. Einfache und möglichst geheimnisvolle Erklärungen müssen her. Dann kann er sich seinen esoterischen und verschwörungstheoretischen Gedanken  hingeben und sich genüsslich so manchen Schauer über den Rücken laufen lassen.

Dabei steckt oft nicht mehr als Zufall dahinter, oder Spielerei, oder Wichtigtuerei, oder ein ähnlich harmloser Anlass. Sinn gesucht – Unsinn gefunden!

Ich greife ein Thema der Zahlenmystiker auf. Die folgende Miniatur ist meiner Problemsammlung „Querbeet“ entnommen. Zweck der Problemsammlung ist zwar die freudvolle Beschäftigung mit Mathematik. Andererseits zeigt diese Miniatur Fallstricke der überbordenden Sinnsuche auf und findet so ihren Platz im Hoppla!-Blog.

Zahlenmystik um die Fünf

Für mich begann es mit dem Film „V wie Vendetta“ (2006). Der Held nennt sich V, nach der Nummer der Zelle, in der er eingekerkert war: Fünf. Es ist ein beliebtes Spiel unter Kinogängern, herauszufinden, wo überall in dem Film ein V oder die Zahl Fünf erscheint: bei der Zeigerstellung der Uhr, den Schnitten des Degens, dem Feuerwerk, einem Bild an der Wand, auf den Tasten der Jukebox.

Die Fünf ist von alters her ein Symbol der belebten Natur. Die Fünfzähligkeit zeichnet die Rosengewächse aus. Schneiden Sie einmal einen Apfel quer durch und schauen Sie sich das Kerngehäuse an. Weitere Beispiele sind die fünf Finger unserer Hand und der fünfarmige Seestern.

Dem regelmäßigen Sternfünfeck, dem Pentagramm, wurden bereits in der Antike magische Kräfte zugeschrieben. Heute sieht man es oft auf zwei seiner Spitzen gestellt. Beim Drudenfuß, er soll bis in unsere Tage hinein der Abwehr böser Geister dienen, weist eine Spitze zur Erde. Hier entdecken wir das V schon wieder.

Die Spitzen des Pentagramms bilden ein regelmäßiges Fünfeck, ein Pentagon. Das Zentrum des Pentagramms ist ebenfalls von einem Pentagon umgeben. Ein Pentagon entsteht beispielsweise beim Knüpfen eines einfachen Knotens (Überhandknoten) mit einem Streifen Papier.

Im Pentagramm ist alles goldener Schnitt. Genauer: Zu jeder Strecke (oder Teilstrecke) lässt sich im Pentagramm eine weitere Strecke finden, die zu ihr im Verhältnis des goldenen Schnittes steht. Zur Erinnerung: Eine Strecke ist im goldenen Schnitt geteilt, wenn sich die Gesamtstrecke zur größeren Teilstrecke verhält wie die größere Teilstrecke zu kleineren.

Im obigen Pentagramm habe ich mit a und b die Längen von Streckenabschnitten bezeichnet. Eine Strecke von Spitze zu Spitze hat die Länge 2a + b. Tatsächlich gelten die Gleichungen des goldenen Schnittes, nämlich (2a+b)/(a+b) = (a+b)/a = a/b.

Das Streckenverhältnis des goldenen Schnittes wird zuweilen mit dem griechischen Buchstaben ɸ (Phi) bezeichnet: ɸ = a/b. ɸ ist Lösung der Gleichung ɸ2 – ɸ -1 = 0 und hat den Wert 1,61803398874989…

Der Wikipedia entnehme ich diese Deutung des Pentagramms (15.04.2019):  „Pythagoras kannte es als Symbol für Gesundheit. Ihn interessierte daran besonders der mathematische Aspekt des Goldenen Schnitts. Da man es in einem Zug zeichnen kann und am Schluss wieder zum Anfang gelangt, galt es auch als Zeichen für den Kreislauf des Lebens. Abraxas, Gott der Gnostiker, wurde ebenfalls durch ein Pentagramm symbolisiert, weil er fünf Urkräfte in sich vereint.“

Wem das zu wenig Grusel ist, der möge sich an die auf die Spitze gestellte Version mit dem eingezeichneten gehörnten Ziegenkopf halten (Baphomet). Dann sieht er das Pentagramm als Symbol von Geheimgesellschaften und Satanismus. Davor kann er sich dann so richtig fürchten. (Er könnte das folgenlos aber auch sein lassen.)

Der goldene Schnitt wird vom Menschen als besonders harmonisches Streckenverhältnis empfunden. „Die göttliche Proportion … ist der goldene Schnitt… So lässt sich vielleicht die Vorliebe für fünfeckige Strukturen in der gotischen Kunst vor allem in den Verstrebungen der Rosetten der Kathedralen erklären“ (Eco, Umberto: Die Geschichte der Schönheit. Hanser, München, Wien 2004, S. 66 ff.).

Damit sind wir unversehens vom Kino über Mathematik und Magie zur Architektur und zu den schönen Dingen gekommen.

Von da aus mache ich nun einen kühnen Sprung hinein in die Populationsbiologie. Wie viele Kaninchenpaare kann ein Kaninchenpaar im Laufe der Zeit erzeugen? Diese Kaninchenaufgabe hat Leonardo von Pisa, genannt Fibonacci, im Jahre 1202 gestellt.

Aus dem Lehrbuch des Fibonacci: „Das Weibchen eines jeden Kaninchenpaares gebiert von Vollendung des zweiten Lebensmonats an allmonatlich ein neues Kaninchenpaar.“ Es ist die Zahl der Kaninchenpaare im Laufe der Monate zu berechnen unter der Voraussetzung, dass anfangs nur ein Kaninchenpaar vorhanden ist und dass die Kaninchen nicht sterben.

Die Zahlenfolge für die Anzahl der Kaninchenpaare ist 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, … Das sind die Fibonacci-Zahlen. Und so lautet das Bildungsgesetz dieser Zahlen: Ab der Zahl 2 ist jede Zahl die Summe ihrer beiden Vorgänger.

Wir bilden nun die Quotienten je zweier aufeinander folgender Fibonacci-Zahlen, und zwar teilen wir die größere der beiden durch die kleinere. Diese Werte streben gegen einen Grenzwert, nämlich gegen die Zahl ɸ des goldenen Schnittes. Und damit sind wir wieder beim Pentagramm, der Zahl Fünf und bei „V wie Vendetta“.

Und was ist der tiefere Sinn des Ganzen? Es gibt ihn nicht. Da ist nichts Mystisches, keine unerklärliche Magie – nur Spiel.

V ist ein sehr einfaches Symbol. Es ist kein Wunder, dass es uns hin und wieder begegnet. Denselben Effekt ruft das „Gesetz der kleinen Zahlen“ hervor (Underwood Dudley: Die Macht der Zahl. 1999): Eine kleine Zahl wie die Fünf erscheint immer wieder einmal. Auch die einfachen Relationen des Pentagramms und dass wir diese in der Fibonacci-Folge wiederfinden, ist nichts Besonderes. Einfaches passiert oft.

Dazu kommt, dass die „Sinnsuche unseres Wahrnehmungsapparats“ vor kleineren Manipulationen nicht zurückschreckt, wie oben bei der leichten Drehung des Pentagramms hin zum Drudenfuß. Auch wird manch „wundersamer“ Fund in der Bedeutung gern überbewertet. Dem Standardwerk zur europäischen Baukunst entnehme ich beispielsweise die Bemerkung : „Der Goldene Schnitt … wird in der Kunst weit seltener angewendet als allg. angenommen wird“ (Koch, Wilfried: Baustilkunde. Bertelsmann Lexikon Verlag, Gütersloh 2000).

Aber was sagen Sie dazu: Das Symbol V hat den Morsecode „…-“, „didididaaa“. Da kommt Ihnen etwas in den Sinn? Musik? Eine Symphonie? Von Beethoven? – Richtig: Es ist die Fünfte.

Spekulation in der Wissenschaft

Ohne Spekulation gibt es keinen Wissenszuwachs. Von esoterischen Umtrieben und von der Pseudowissenschaft unterscheidet sich die Wissenschaft dadurch, dass neue Ideen und Theorien unerbittlich auf innere Konsistenz und auf  Übereinstimmung mit den Fakten geprüft werden.

Beispielsweise war das Weltsystem des Kopernikus zunächst nur eine schöne Spekulation. Das Weltsystem wurde später durch Gelileo durch Beobachtungen und Erfahrung angereichert und so zu Wissenschaft.

Was aber, wenn neue Beobachtungen und Fakten ausbleiben? Die Frage nach dem Sinn des Ganzen verlässt uns ja nicht. Er lässt die Wissenschaftler nach immer schöneren Theorien suchen, nach Theorien, die zwar keine neue Erkenntnis liefern, die aber die  alte Erkenntnis in immer eleganteren Formulierungen zusammenfasst.

Dann droht der Wissenschaft dieselbe Gefahr wie der Zahlenmystik: Sie könnte sich in reiner Spekulation und in bloß illusionärem Denken ergehen. Beispielsweise sieht Sabine Hossenfelder keinen großen Unterschied zwischen dem Glauben, die Natur sei schön und dem Glauben, Gott sei gütig (Spektrum der Wissenschaft 11/2018, S. 21).

Sie sagt: „Ohne empirische Daten könnten mathematische Konsistenz und Ästhetik zu den einzigen Lotsen auf der Suche nach neuen Naturgesetzen werden. Und manchen Physikern würden diese Kriterien möglicherweise bereits genügen, um eine hinreichend ausgearbeitete Theorie für wahr zu erklären.“

Abgrenzung

(Ergänzung vom 18.04.2019)

Wie lässt sich Sinn vom Unsinn scheiden? Woran erkennen wir die nützlichen Vorstellungen und das hilfreiche Wissen? Was zeichnet die fruchtbaren Theorien aus und hebt sie von reiner Spekulation ab?

Nach Karl Raimund Popper müssen Hypothesen, die unser Wissen erweitern, an der Erfahrung scheitern können. Sie müssen prinzipiell falsifizierbar sein. Dieses Kriterium dient ihm zur Abgrenzung wissenschaftlicher Theorien von der Metaphysik.

Es sind also die Fakten und die Überprüfung unserer Vorstellungen und Theorien anhand dieser Fakten, die den Wissensfortschritt ausmachen.

Obwohl Sabine Hossenfelder genau dieses Fehlen von Erfahrung und Fakten den neuen physikalischen Theorien als Manko anlastet, schreibt sie auf Seite 9 ihres Buches „Das hässliche Universum“: „Was ich jedoch lerne, ist, dass Karl Poppers Idee, wissenschaftliche Theorien müssten so gebaut sein, dass sie falsifizierbar sind, längst überholt ist. Ich freue mich, das zu  hören, denn es ist eine Philosophie, die in der Wissenschaft sowieso niemand gebrauchen konnte[…] Eine Idee zu falsifizieren ist nämlich so gut wie nie möglich“.

Diese Geringschätzung des Abgrenzungskriteriums geht meines Erachtens auf eine übertrieben strenge Auffassung von Falsifizierbarkeit und Falsifikation zurück. Karl Raimund Popper zeigt im 9. Abschnitt seiner Logik der Forschung, dass Vorsicht geboten ist: „Wer in den empirischen Wissenschaften strenge Beweise verlangt oder strenge Widerlegungen, wird nie durch Erfahrung eines Besseren belehrt werden können.“

Die Falsifizierbarkeit einer Theorie besagt nicht, dass die tatsächliche Falsifizierung eine einfache Sache ist. Von zentraler Bedeutung ist das Abwägen von Theorien in einem sozialen Prozess. Popper: „Widersprechen anerkannte Basissätze einer Theorie, so sind sie nur dann Grundlage für deren Falsifikation, wenn sie gleichzeitig eine falsifizierende Hypothese bewähren.“ (Logik der Forschung, Abschnitt 22)

Die Widerlegung der Theorie der verborgenen Variablen in der Quantenmechanik ist ein lehrreiches Beispiel. Eine Konsequenz dieser Theorie ist die bellsche Ungleichung. Die Verletzung der bellschen Ungleichung lässt sich nur anhand statistischer Daten erkennen. Einen strengen Beweis geben diese natürlich nicht her. Aber die Datenlage ermöglicht es, dass sich die Wissenschaftler auf ein Urteil einigen: Die Theorie der verborgenen Variablen gilt heute als widerlegt.

Veröffentlicht unter Bildungswesen, Glaube und Agnostizismus, Naturwissenschaften, Skeptizismus, Spiritualität, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , | Hinterlasse einen Kommentar

Faktenjongleure und Statistikzauberer

Der Prolog von Michael Shermers Buch „The moral arc: how science and reason lead humanity toward truth, justice and freedom“ trägt in Anspielung auf ein Wort Martin Luther Kings den Titel „Bending the moral arc“. Wie bereits im Hoppla!-Artikel Achtung, statistische Klassen und andere Stolpersteine deutlich geworden sein sollte, wäre der Titel „Bending the Facts“ angemessener. Auch andere Fortschrittsapologeten glänzen als Faktenjongleure und Statistikzauberer. Herausragend ist das neue Buch „Factfulness“ von Hans Rosling.

Ausgehend von ihren Glaubenssätzen, nämlich dass uns die Wisssenschaft zu besseren Menschen mache und dass die Welt auf dem Weg in eine rosige Zukunft sei, wählen diese Autoren die zu ihren Ansichten passenden Fakten; mittels Interpretationstricks tauchen sie diese dann in ein rosiges Licht; Gegenläufiges wird kleingeredet.

Wir werfen einen Blick in die Trickkiste dieser Meinungsmacher.

Zweckdienliche Klassifizierung

Im Artikel über statistische Klassen und andere Stolpersteine sprach ich an, was man mit der Wahl unterschiedlicher Klassenbreiten anrichten kann. Roslings Leitbeispiel jedoch lässt Shermers Anstrengungen dagegen verblassen.

Rosling setzt alles daran, die Leute davon zu überzeugen, dass sie eine völlig verkehrte Sicht auf die Welt haben; dann rückt er diese gnädigerweise zurecht. Der Untertitel seines Buches lautet dementsprechend: Ten reasons we’re wrong about the world – and why things are better than you think.

Um den Leuten vor Augen zu führen, dass sie dümmer als Schimpansen sind, fragt er beispielsweise danach, wo die Mehrheit der Weltbevölkerung wohl lebe und er gibt nach Multiple-Choice-Manier drei mögliche Antworten zur Auswahl vor: in Ländern mit geringem, mit mittleren oder mit hohem Einkommen.

Der hier zitierte Schimpanse würde mangels Wissen eine zufällige Trefferwahrscheinlichkeit von 1/3 erzielen. Das gebildete Publikum – es tippt überwiegend auf die erste Antwort (geringes Einkommen) – erreicht nur eine wesentlich geringere Trefferwahrscheinlichkeit. Zu den dümmsten Leuten gehören offenbar die Deutschen und die Ungarn mit einen Trefferquote von jeweils nur 17%. So groß ist der Anteil derjenigen, die auf die richtige, auf die mittlere Antwort tippen: Die Mehrheit der Weltbevölkerung lebt in Ländern mit mittlerem Einkommen, so Rosling.

Sie hätten das auch nicht gewusst? Nun ja: Ich hätte mich vermutlich geweigert, überhaupt eine Antwort zu geben, einfach weil aus der Frage gar nicht hervorgeht, wo die Einkommensgrenzen liegen, die einen zu einem armen, begüterten oder gar reichen Menschen machen. Die Frage ist so gesehen schlichter Quatsch.

Später verrät Rosling die von ihm gewählten Einkommensklassen: Länder von Leuten mit einem mittleren Einkommen unter $2  gelten ihm als arm. Die unteren mittleren Einkommen gehen für ihn bis $8. Danach kommt die Ländergruppe mit gehobenen mittleren Einkommen und ab $32 erscheinen die reicheren Länder. Die Statistik zeigt dann, dass eine Milliarde Menschen arm, fünf Milliarden mittelmäßig begütert und eine weitere Milliarde gut begütert sind.

Ob die Antwort richtig ist oder falsch, hängt von den ziemlich willkürlich gewählten Einkommensgrenzen ab. Gegen die Klassifizierung ist an sich nichts zu sagen. Die Weltbank verfährt ähnlich. Der Weltbank geht es jedoch nicht um besserwisserische Abfragerei des Weltzustands; ihr geht es um die Bestimmung des Trends der Entwicklung.

Für die Bestimmung des Weltzustands eignet sich das grobe Raster nicht. Außerdem sorgt der logarithmische Maßstab dafür, dass die Anzahl der Menschen in den niedrigen Einkommensklassen systematisch unterschätzt wird. Der unermessliche Reichtum derjenigen ganz oben fällt demgegenüber überhaupt nicht ins Gewicht. Hätten man – immer dem Faktor vier folgend – eine Einkommensgrenze von 50 Cent für die ganz armen Leute eingeführt, würde die Armut noch weniger ins Auge fallen, denn dann lägen ja noch weniger Leute am ganz unteren Ende.

Sogar für die Trendaussagen ist das Klassifizierungsschema viel zu grob. Es sagt zu wenig über die Ungleichverteilung der Verdienstchancen aus und es lässt von den Trends zu wenig erkennen. Feinere Klassifizierungen machen diese Verhältnisse durchsichtiger. Davon war im Hoppla!-Artikel Achtung, statistische Klassen und andere Stolpersteine bereits die Rede.

In der Volkswirtschaftlehre sind weit weniger manipulationsanfällige Darstellungsweisen der Einkommensverteilung bekannt: Die Lorenzkurve und daraus abgeleitete Kennzahlen wie der Gini-Index.

In der folgenden Grafik ist die Lorenzkurve der weltweiten Einkommensverteilung zu sehen. Hinsichtlich des Volkseinkommens pro Kopf greife ich auf die Statistik der Weltbank, des IWF und der OECD aus dem Jahre 2017 zurück. Erfasst sind 78 Länder. Sie machen 85% der Weltbevölkerung aus.

Als Einkommen einer jeden Person habe ich das Durchschnittseinkommen des Landes gewählt. Länder mit großer Bevölkerung erscheinen in der Lorenzkurve folglich als Geradenstücke. Die für Indien, China und USA habe ich in der Grafik benannt. Um auszudrücken, dass in der Grafik nicht die Einkommen der einzelnen Personen verrechnet werden sondern dass je Person das Durchschnittseinkommen des jeweiligen Landes angesetzt wird, nenne ich die Lorenzkurve „geklumpt“: Jedes Land erscheint als ein Klumpen – zwar mehr oder weniger groß, aber nach innen undifferenziert.

Der geklumpten Lorenzkurve lässt sich entnehmen, dass 50% der erfassten Menschen in Ländern leben, die sich mit nur 10% des Einkommenskuchens bescheiden müssen und dass die fünf Prozent in den reichsten Ländern immerhin 27% des Kuchens bekommen. In dieser Spitzengruppe liegen die USA, die Schweiz, Norwegen und einige Steueroasen.

Aber auch diese genauere Darstellung zeigt noch nicht das wahre Ausmaß der Ungleichverteilung der Einkommen. Um das zu sehen, müssen wir die Sachlage noch etwas weiter aufdröseln.

Aggregieren: Mittelwerte machen Unterschiede unsichtbar

Die obige Grafik beruht auf Gleichmacherei: Für alle Personen eines Landes wird dasselbe Einkommen angesetzt, nämlich das Durchschnittseinkommen des Landes.  Diese landesweite Einebnung mildert das Bild der Einkommensungleichheit. Wenn wir das Bild schärfer stellen wollen, müssen wir uns mit den Einkommensverteilungen der einzelnen Länder beschäftigen.

Zur besseren Verständigung nutze ich jetzt den Gini-Index. Er misst die Bauchigkeit der Lorenzkurve; er ist gleich der Fläche zwischen Lorenzkurve und Diagonale bezogen auf die gesamte Dreiecksfläche unterhalb der Diagonale. Der Gini-Index ist gleich null bei vollkommener Einkommensgleichheit und gleich eins, wenn eine Person alles bekommt und alle anderen nichts.

Der Gini-Index weltweit ist gemäß obiger Grafik gleich 60%. Ohne die nationenweise Einebnung fällt der Wert noch deutlich größer aus.

In Deutschland hatten wir im Jahr 1998 einen Gini-Index von 28,3%. Er stieg im Zuge der Agenda 2010 bis auf den Wert 32,3% im Jahre 2005 an. Stichwort: „Leistung muss sich wieder lohnen.“ Seither ist er wieder etwas abgesunken. Verbunden mit der erhöhten Ungleichheit ging ein verstärktes Wirtschaftswachstum einher. Davon profitierten auch die Ärmsten.

Die Wirtschaftspolitik wird die Auswirkungen von Gleichheit und Ungleichheit nicht aus dem Auge lassen: Ein zu geringer Gini-Index verringert die Wirtschaftsdynamik durch fehlende Leistungsanreize und ein zu großer hat lähmende soziale Spannungen zur Folge. Andernorts sieht es so aus:

In den USA stieg der Gini-Index in den Jahren von 1979 bis 2016 von 34,6% bis auf 41,5% an.

Einen noch stärkeren Anstieg hatte China zu verzeichnen: 1980 war der Index geringer als 30%. Die Öffnungspolitik führt zu mehr Ungleichheit der Einkommen und diese machte sich durch einen Anstieg des Indexwerts auf 43,7% im Jahr 2010 bemerkbar.

Diese Vergrößerung der Ungleichheit im Lande ging einher mit einer Erhöhung des Volkseinkommens. In der geklumpten weltweiten Lorenzkurve kommt die  landesinterne Ungleichheit nicht zum Ausdruck. Die Disparitäten auf nationaler Ebene bleiben unsichtbar.

Im FAZ-Artikel Gini-Koeffizient : Die globale Ungleichheit ist stark gesunken berichtet Philip Plickert am 14.01.2019, dass nach den Berechnungen eines schwedischen Forscherteams innerhalb vieler Länder die Ungleichheit zwar gestiegen sei, auch in China: „Aber zwischen den Ländern nimmt die Ungleichheit ab.“ Auch diese Forscher arbeiten mit ausgewählten Daten und mit Durchschnittswerten.

Wir haben jetzt zwar genauer hingeschaut, aber durch die Aggregierung von Einkommensdaten bleiben die wahren Verhältnisse im Weltmaßstab weiterhin unklar. Skepsis ist angebracht, wenn jemand behauptet, den totalen Durchblick bezüglich der weltweiten Einkommensverteilung zu besitzen.

Scheinobjektivierung

Ein wesentliches Stilmittel der Fortschrittsapologeten ist die durchgängige Anbetung von Fakten: Durch Entwicklung einer faktenbasierten Weltsicht könne der Schimpanse in uns geschlagen werden.

Oben habe ich gezeigt, wie Meinungen zuweilen als Fakten verkleidet werden. Das Prinzip funktioniert so: Schnüre das Faktum und deine Meinung zu einem Bündel; dann verkaufe dieses Bündel als Faktum. So bekommt deine Meinung den Anschein objektiver Gültigkeit.

Das nenne ich Draufsatteln. Aber manchmal geht es genau anders herum. Beispielsweise richtet sich unsere Risikowahrnehmung keineswegs allein nach der mathematischen Schadenserwartung (Risiko = Schadenshöhe × Eintrittswahrscheinlichkeit). Dieses objektive Risiko wir durch subjektive Komponenten angereichert. Insbesondere geht in unsere Risikowahrnehmung die Kontrollierbarkeit des Risikos ein; diese ist unter Anderem bestimmt durch die Bekanntheit der Gefahr, die Freiwilligkeit im Eingehen des Risikos und die Beeinflussbarkeit des Risikos.

Wenn Rosling empfiehlt, sich allein auf das zu konzentrieren, was er reelle Risiken nennt, redet er uns ein, man könne problemlos auf die subjektiven Anteile der Risikobewertung verzichten und sich allein auf das objektive Risiko verlassen – man könne also absatteln und damit der Wahrheit näher kommen.

Aber das geht nicht! Die Risikoanalyse muss die subjektiven und nicht so leicht mathematisierbaren Bestandteile der Risikowahrnehmung in Rechnung stellen. Zwei Beispiele dazu:

Versicherungen sind objektiv gesehen ein Verlustgeschäft für den Versicherten. Die Prämien übersteigen die Schadenserwartung meist bei Weitem! Aber man ist dadurch abgesichert gegen existenzgefährdende Verluste. Also zahlt man gerne und das zu Recht.

Oder nehmen wir den Terror: Durch einen Anschlag zu Tode zu kommen, ist nicht sehr wahrscheinlich. Dennoch ist auch große Angst durchaus angebracht. Die Bedrohung ist unfassbar; das Staatsgefüge ist in Gefahr; und wer will schon einen Polizeistaat? Hier könnte uns unser subjektives Empfinden tatsächlich die verlässlicheren Signale geben und nicht etwa das rational kalkulierende Gehirn.

Veröffentlicht unter Grafische Darstellung, Humanismus, Prognosen, Skeptizismus, Soziologie, Statistik, Wirtschaft | Verschlagwortet mit , , , , | 3 Kommentare

Astroturfing 2

Aus Sicht des Skeptikers spricht nichts dagegen, dass sich die Kernkraftbefürworter organisieren, beispielsweise in der Nuklearia. Wünschenswert ist Transparenz auf beiden Seiten: Kernkraftgegner einerseits und Kernkraftbefürworter andererseits. Deshalb bemühe ich mich, hinter die Kulissen zu schauen und die treibenden Kräfte zu identifizieren. Bei den Befürwortern fällt einem das wesentlich schwerer als bei den Gegnern, besonders da bei Ersteren offenbar Astroturfing im Spiel ist. Dieser Artikel schließt an den vorherigen Hoppla!-Artikel zum Thema Astroturfing an.

Wenn die Hinterleute von Astroturfing-Kampagnen leicht auszumachen wären, wären es kein Astroturfing-Kampagnen. Das ist die grundsätzliche Schwierigkeit, die sich dem Hobby-Entzauberer entgegenstellt.

Deshalb widmet er sich zuerst leichter zugänglichen Indizien: Künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven, Übernahme von teils altbekannten Propagandaaussagen der eigentlichen Interessengruppe, die Emotionalisierung („grün“, „nachhaltig“, „schonend“, „sanft“), der gewollt amateurhafte Auftritt (beispielhaft ist das Plakat zum Nuclear Pride Fest) und das Moralisieren.

Davon war im letzten Hoppla!-Artikel die Rede. Nun versuche ich etwas tiefer zu graben.

Wie kommt man den Drahtziehern auf die Spur?

Als Einstieg in die Suche nach den möglichen Drahtziehern der Nuclear Pride Coalition betrachte ich zunächst die beteiligten Organisationen und deren Hauptakteure hinsichtlich Profession und Werdegang. Dann befrage ich die von der Nuklear-Pride-Bewegung als „Feinde“ betrachteten Organisationen nach den Resultaten ihrer Recherchen.

Die Bundestags- und Europaabgeordneten mit einschlägigem Tätigkeitsfeld und die Parteistiftungen haben möglicherweise auch etwas zu bieten. Und dann gibt es noch den Verein LobbyControl, der es sich zur Aufgabe gemacht hat, Lobbyarbeit wie das Astroturfing ans Licht zu ziehen.

Nuclear Pride – Gründungsmitglieder

Auch wenn man die eigentlichen Drahtzieher kaum wird zweifelsfrei benennen können, lassen sich doch Hinweise finden, die ihr „Reich“ ziemlich gut eingrenzen. Im Folgenden will ich beispielhaft aufzeigen, dass auch ein Hobby-Entzauberer dabei ziemlich weit kommen kann. Ausgangspunkt der Recherche zur Nuclear Pride Coalition ist die Liste ihrer Gründungsmitglieder:

Citizen Movement 100 TWh (Belgien), Energy for Humanity (Vereinigtes Königreich, Schweiz), Environmental Progress (USA), Environmentalists For Nuclear, Generation Atomic (USA), Mothers for Nuclear (Schweiz), Nuklearia (Deutschland), Oekomoderne (Deutschland), Partei der Humanisten (Deutschland), Ren Energi Oplysning (REO, Dänemark), Saving Our Planet  (Frankreich, Vereinigtes Königreich, Norwegen, Türkei), Stichting Ecomodernisme (Ökomoderne Gesellschaft, Niederlande), Stichting Thorium MSR (Thorium-MSR-Gesellschaft, Niederlande), Suomen Ekomodernistit (Ökomoderne Gesellschaft Finnlands), Voix du Nucléaire (Stimmen der Kernkraft, Frankreich).

Verbindungen zur Atomindustrie

Genauer angesehen habe ich mir einige der Gründungsmitglieder. Angesichts der Fülle des Materials beschränke ich mich auf die mir aus meiner Berufstätigkeit bei einem Kraftwerksproduzenten bekannte Atomindustrie in Deutschland, Schweiz und Frankreich.

Energy for Humanity (Vereinigtes Königreich, Schweiz)

Zum Team gehört Daniel Aegerter. Er ist Chairman und geschäftsführendes Vorstandsmitglied der TRADEX, einer Exklusivagentur der weltweit größten Messeveranstalter für Unternehmen aus Deutschland, Österreich und der Schweiz.

Mothers for Nuclear (Schweiz)

Gegründet wurde der Zusammenschluss von Kristin Zaitz und Heather Matteson. Zaitz ist seit 15 Jahren Angestellte des Diablo Canyon Kernkraftwerks in Kalifornien. Heather Matteson ist Kernkraftwerksbedienerin. Für die europäischen Aktivitäten ist die Biologin Iida Ruishalme zuständig. Von ihr ist ein Gastbeitrag im GWUP-Blog: „Leben und Natur retten: Wider die Stigmatisierung von pro-Kernenergie.“

Nuklearia (Deutschland)

Dafür, dass es sich bei den Aktionen der Nuklearia um Astroturfing handelt, habe ich im vorigen Artikel Indizien zusammengetragen. Verräterisch ist der betont laienhafte Auftritt der Nuclear-Pride-Aktionen, auch erkennbar am scheinbar handgemalten und naiv wirkenden Plakat zum Nuclear Pride Fest.

Konkret ist der Hinweis auf den Einfluss der Nuklearindustrie durch deren Verbindung zum Verein Bürger für Technik (BfT): Die Nuklearia-Mitgliederversammlung 2018 war eingebettet in die Jahrestagung technikfreundlicher Vereine, die vom Verein Bürger für Technik und von der Fachgruppe Nutzen der Kernenergie der Kerntechnischen Gesellschaft (KTG) ausgerichtet und organisiert wurde.

Die KTG wird vom Deutschen Atomforum, der offiziellen Interessenvertretung der Kernkraftwerkbetreiber, finanziell unterstützt, wie DIE ZEIT schreibt (www.zeit.de/2008/17/Atomlobby).

Die personellen Überschneidungen zwischen der KTG und dem Verein BfT, der die Interessen der Energiewirtschaft als Bürgerinitiative vertritt, legen nahe, dass es sich hier um Astroturfing handelt.

Der Wikipedia-Artikel über die Kerntechnische Gesellschaft enthält weitere Hinweise auf die Verzahnung von Bürgerinitiativen und Atomlobby (02.03.19).

Ein Kommentator des ZEIT-Artikels schreibt mir aus der Seele: „Werben oder kämpfen – mit offenem Visier! Lobbyisten sollten den Bürgern immer „reinen Wein einschenken“! Sie müssen der Öffentlichkeit gegenüber bekannt geben, welche Interessen sie denn tatsächlich vertreten! Tarnen und täuschen – das ist im Krieg erlaubt. Hat aber im Ringen um den besseren Standpunkt oder um das überzeugendere Argument – auf demokratischer Basis – nichts verloren!“

Voix du Nucléaire

Die Voix du Nucléaire ist eine von Myrto Tripathi gegründete Kampagne. Myrto Tripathi ist Account Managerin der für die Industrie tätigen Werbeagentur BETC. Sie begann ihre Karriere bei dem damals für den nuklearen Brennstoffkreislauf zuständigen Unternehmen Cogema.

Bürger für Technik – Hintergrund

Die größte Protestaktion der Anti-Atomkraftbewegung war die Besetzung des Baugeländes im südbadischen Wyhl, das für einen Reaktorblock vorgesehen war. Die Demonstration begann im Februar 1975 und dauerte monatelang an.

Ende der 1970er Jahre schwand das Vertrauen der Bevölkerung in die Kernkraft zusehends. Die Atomindustrie machte dagegen mobil. Der Spiegel (51/1978) berichtete, dass damals innerhalb kurzer Zeit wenigstens acht Vereine der Kernenergiebefürworter gegründet wurden. Mitte der 1980er Jahre verschwanden diese Vereine wieder von der Bildfläche.

Eine Wiederauferstehung erlebte die Pro-Kernkraft-Bewegung mit der Gründung des Vereins Bürger für Technik (BfT) im Jahre 2001. Der Gründer Ludwig Lindner war bis 2004 Sprecher der KTG-Fachgruppe Nutzen der Kerntechnik. Das KTG-Beiratsmitglied und derzeitiger Sprecher der Fachgruppe, Eckehard Göring, gehört zum Team der Bürger für Technik.

Veröffentlicht unter Astroturfing, Moral und Ethik, Skeptizismus, Wirtschaft | Verschlagwortet mit | Hinterlasse einen Kommentar

Astroturfing

Was ist Astroturfing?

„1987 vereinigte der damalige Eigentümer Monsanto alle Zweige seiner AstroTurf-Abteilung nach Dalton im US-Bundesstaat Georgia unter dem Namen AstroTurf Industries Inc. Bis in  die späten 90er-Jahre war AstroTurf  Kunstrasen-Marktführer, muss heute jedoch mit ernsthafter Konkurrenz leben.“ (Wikipedia, 09.02.19)

Astroturfing steht zu spontanen Bürgerbewegungen, wie Kunstrasen zu echtem Rasen. Der Begriff meint PR-Projekte mit folgenden Merkmalen:

  1. Vortäuschen einer Graswurzelbewegung.
  2. Finanzierung durch eine Interessengruppe.
  3. Verbergen der wahren Drahtzieher.
  4. Hochgejazzte Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven.
  5. Übernahme von teils altbekannten Propagandaaussagen der ursprünglichen Interessengruppe.
  6. Schüren von Emotionen. Aufbau eines freundlichen Images: „Grün“, „nachhaltig“, „schonend“, „sanft“ usw. Moralisieren.

Unter Propaganda verstehe ich das, was auch die Bundeszentrale für politische Bildung (bpb) darunter versteht, nämlich „die zielgerichteten Versuche, politische Meinungen und öffentliche Sichtweisen zu formen, Erkenntnisse zu manipulieren und das Verhalten in eine vom Propagandisten oder Herrscher erwünschte Richtung zu steuern. Dies steht im Gegensatz zu pluralistischen und kritischen Sichtweisen, welche durch unterschiedliche Erfahrungen, Beobachtungen und Bewertungen sowie einen rationalen Diskurs geformt werden.“

Und wie lässt es sich entzaubern?

Wie in früheren Hoppla!-Artikeln geht es nicht darum, irgendwelche Akteure an den Pranger zu stellen. Ich enthalte mich ebenso wie bei den täuschenden Argumenten jeglicher moralischer Wertung: Astroturfing mag nicht jedem gefallen, aber solange keine Gesetze gebrochen werden, wird man es hinnehmen, wenn auch nicht notwendigerweise klaglos.

Die Verächtlichmachung der Akteure ist nicht angebracht. Mancher gerät ungewollt in eine solche Aktion und selbst derjenige, der diese Form der Werbung und Lobbyarbeit bewusst betreibt, kann sehr wohl in lauterer Absicht handeln.

Ich will mit diesem Artikel nicht den Moralpredigern Munition liefern, sondern den Adressaten solcher PR die Möglichkeit eröffnen, die wahren Absichten und Hintergünde vom täuschenden Beiwerk zu befreien.

Wir alle wollen uns nicht hinters Licht führen lassen, aber wir haben weder die Mittel noch die Zeit des investigativen Journalismus. Welche Möglichkeiten bleiben uns dann noch, Astroturfing aufzudecken?

Astroturfing kann von mächtigen Interessenverbänden betrieben und finanziert werden, aber es gibt auch bescheidenere Anlässe. Astroturfing ist für mich eine Bezeichnung für PR-Aktionen, auf die die Mehrzahl der oben genannten Merkmale zutrifft.

Der allgemein gehaltene und umfassende erste Punkt wird durch die anderen Punkte konkretisiert; er bedarf keiner eigenen Nachforschung. Beim zweiten Punkt wird es schwierig. Üblicherweise werden ein oder mehrere Vereine ein Projekt vertreten. Es ist für den Hobby-Entzauberer fast aussichtslos, verlässliche Auskünfte zu den Finanzströmen zu erhalten, es sei denn, die Träger des Projekts sind besonders gutwillig. Damit fiele dann die ganze Entzauberungsaktion schon in sich zusammen.

Das dritte Merkmal (Verbergen der Drahtzieher) ist nur per Zufall oder durch Leichtsinn der PR-Leute zu entdecken. Also richten wir unsere Anstrengungen nicht zuallererst darauf. Vielleicht ergibt sich im Laufe der Recherchen zu den übrigen Merkmalen ein Zufallsfund.

Wer den Verdacht hat, einem Astroturfing auf der Spur zu sein, sollte mit den Punkten vier bis sechs anfangen. Daraus ergeben sich dann möglicherweise Indizien für den ersten, für den Hauptpunkt.

Beispiel: Nuclear Pride

Die Ankündigung

Nuklearia, das Bündnis für moderne und sichere Kernenergie, lud am 5. September 2018 zum  Nuclear Pride Fest nach München ein. Zuvor hatte man auf einer Tagung europäischer Kernkraftfreunde in Amsterdam im kleinen Kreis von fünfzig Leuten mit der Nuclear Pride Coalition ein neues, europaweites Bündnis gegründet.

So wurde das Fest angekündigt: Es sollte ein Fest für die ganze Familie werden, mit Musik, Essen, Informationen, Blumen, Luftballons und weiteren Aktionen. Auf dem Münchner Marienplatz würden Hunderte von Kernkraft-Enthusiasten mit ihren Familien singen, tanzen, spielen und ihre persönlichen Geschichten erzählen. In zahlreichen Aktivitäten würden sie als Einzelne und als Gruppe ihrer Freude an der Kernenergie Ausdruck verleihen und die Vorteile der Kernkraft feiern.

Ziel der Veranstaltung war, die positiven Eigenschaften der Kernenergie ins Bewusstsein der Leute zu rücken: emissionsarm, CO2-arm wie Windkraft, und besser als Photovoltaik.

Zum Thema Radioaktivität ignorierten Atomkraftgegner gern die Fakten, so die Nuklearia, sie schürten unbegründete Ängste und agierten immer emotional, offensiv und laut. Kernkraftfreunde hingegen seien eher leise, wissenschaftlich orientiert, agierten eher kopfgesteuert als aus dem Bauch heraus und seien leider nur schlecht sichtbar.

Atomkraftgegner setzten auf Energiesparen. Darin sehen die Kernkraftfreunde keine Lösung. Aus ihrer Sicht ist eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand unverzichtbar.

So lief das Nuclear Pride Fest ab

Das Fest fand am 21. Oktober 2018 auf dem Münchner Marienplatz statt.

Die Nuclear Pride Coalition, ein im vergangenen September gegründetes Bündnis von rund 50 Organisation und Einzelpersonen aus Europa und den USA, hatte beim Nuclear Pride Fest bewusst auf eine Willkommensatmosphäre gesetzt. An verschiedenen Ständen und auf der »Bühne der Begeisterung« konnten Besucher und Besucherinnen mit den Kernkraftfreunden ins Gespräch kommen, an Aktionen teilnehmen und sich über Kernenergie, Klimawandel, Versorgungssicherheit oder Strahlung informieren. Nicht jeder wüsste, dass man durch den Verzehr einer Banane mehr Radioaktivität in den Körper aufnimmt, als wenn man ein Jahr lang in der Nähe eines Kernkraftwerks lebt.

Auf den Szenenfotos vor dem Rathaus waren unter den vielen Passanten etwa fünfzig Personen auszumachen, die an dem Fest teilnahmen. Nicht nur das organisierte Anti-Atom-Establishment glänzte durch Abwesenheit, wie der Veranstalter bedauert, auch die fünfzig Unterstützerorganisationen hatten sich offensichtlich rar gemacht.

Seltsam muten angesichts des schwachen Auftritts der Eigenkommentar der Veranstalter und die große Internetpräsenz an (SZ.de und Welt.de): „Beeindruckend, wie viele Kernkraftfreunde sich motivieren ließen, nach München zu kommen! Kernenergie hat offensichtlich noch immer viel mehr Sympathisanten in Deutschland, als man glaubt.“ Das Nuclear Pride Fest sei ein Kondensationspunkt für Kernkraftbegeisterte. Es habe funktioniert. In diesem Jahr soll es ein solches Fest in Paris geben.

Kernkraft einst

In den Siebziger- und den frühen Achtzigerjahren war ich bei einem Kernkraftwerkshersteller beschäftigt. Gleich bei meinem Einstieg wurde ich mit der Aussage konfrontiert, dass dem angestrebten und erwarteten Wirtschaftswachtum von jährlich 7% ein Wachstum des Energiebedarfs von ebenfalls 7% entspreche und man sich darauf einstellen müsse.

Wenn die Kernkraftfreunde heute wieder „eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand [für] unverzichtbar“ halten, greifen sie genau das damalige Mantra auf. Auch die Kurven für den Kohlendioxidanstieg kenne ich aus dieser Zeit. Das war einer der Gründe, die Kernenergie positiv zu sehen. Heute ist dieses Argument für die Kernenergie noch stärker.

Nicht an die große Glocke gehängt, aber unter uns Risikoleuten heftig diskutiert, wurde damals die Kehrseite: Einige sahen das Risiko einer Kernschmelze mit ihren Folgen als das größte Problem an. Für mich und einige andere war das Entsorgungsproblem vorrangig. Beide Fraktionen haben inzwischen ihre Bestätigung gefunden.

Der Club of Rome mit seinen „Grenzen des Wachstums“ und die Ölpreiskrise zeigten bereits damals, dass Wirtschafts- und Energiewachstum doch nicht so eng miteinander verkoppelt sind wie behauptet.

Damals lud der Vorstand meiner Firma den Publizisten Alfred Grosser ein, um sich von  ihm erklären zu lassen, warum es in Frankreich mit der Atomkraft besser läuft als in Deutschland. Ich erinnere mich so: Anders als erwartet, erklärte der Gast damals, dass wir in Deutschland mit unseren Gesetzen und dem Prinzip der Trennung von Hersteller, Betreiber und Genehmigungsbehörde gut bedient seien. Alle Leistungen aus einer Hand, wie bei der Electricité de France, sei nicht erstrebenswert.

Ich hatte den Eindruck, dass die Begeisterung für die Kernkraft bei den Ranghöheren der Firma stärker schwand als an der Belegschaftsbasis.

In der Öffentlichkeit aber blieb man dabei: Mehr Energie muss her, möglichst ohne Kohlendioxid, am besten mittels Kernkraft.

Heute, fast ein halbes Jahrhundert später, werden die Argumente wieder aufgegriffen, in einer Verpackung, die man abstoßend finden kann: „Achieving the future will first require that we abandon our ridiculous fears and start seeing nuclear waste as the environmental blessing that it is.“ (Michael Shellenberger bei Forbes.com am 19. Juni 2018)

An  den Argumenten ist, netto gesehen, nichts auszusetzen. Aber sie zeigen nur die eine Seite einer sehr komplexen Angelegenheit. Ein Skeptiker sollte sich jedenfalls auch die andere Seite ansehen und die Argumente abwägen, so wie uns das bereits Moses Maimonides lehrt.

Welche Schlüsse können wir daraus ziehen?

Die Argumente waren einst wie heute; im Zentrum standen auch damals schon der Kohlendioxidanstieg in der Atmosphäre und die Prämisse des notwendigen Wirtschaftswachstums und in dessen Gefolge des Wachstums des Energiemarkts. Nur dass heute noch mehr Datenmaterial vorliegt. Ich stelle fest, dass das fünfte Merkmal des Astroturfings gegeben ist: Übernahme von altbekannten Propagandaaussagen.

Wir haben es bei der Nuclear-Pride-Bewegung wohl tatsächlich mit dem Vortäuschen einer Graswurzelbewegung zu tun, weil die Bewegung auch die folgenden Charakteristika aufweist: Übertriebene Angaben zu den Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven sowie das Schüren von Emotionen mittels positiv belegter Vokabeln.

Das schließt nicht aus, dass die Bewegung Recht behält. Die Option Kerntechnik wird wohl auch hierzulande nicht aus der Diskussion verschwinden. Es ist Sache der demokratischen Institutionen, die mit allen Meinungsgruppen klar kommen müssen – auch mit Astroturfing.

In diesem Artikel geht es nicht um die transportierten Meinungen – allein die Kommunikationskultur und wie sich der Einzelne darin zurechtfinden kann, stehen zur Debatte. Es geht um Transparenz.

Bei dieser Gelegenheit: Unser parlamentarisches System würde von einem verpflichtenden Lobbyregister profitieren. Bedauerlich ist, dass dieses Thema nach einem kurzen Aufflackern in den vergangenen Koalitionsverhandlungen in Berlin wieder in der Versenkung verschwunden ist.

Veröffentlicht unter Astroturfing, Moral und Ethik, Skeptizismus, Wirtschaft | Verschlagwortet mit | Hinterlasse einen Kommentar

Irreführende Bayes-Schätzungen

Wenn es weltweit auch nur einen einzigen 50%-Psi-Begabten im Sinne des vorigen Hoppla!-Artikels Was zeigen uns die Ergebnisse statistischer Tests? gäbe, wäre das eine Riesensensation. Aber er wäre kaum aufzufinden. Und dann würde er beim Würzburger Psi-Test auch noch mit 50prozentiger Wahrscheinlichkeit unentdeckt durchrutschen. In diesem Licht scheint die Behauptung, dass die Keine-Übernatur-Hypothese prüfbar sei, doch etwas kühn zu sein.

Auch wenn der Würzburger Psi-Test wohl nie zu positiven Ergebnissen führt, kann man sich die Frage stellen, wie sich die weltweite Verteilung der Trefferwahrscheinlichkeit der Psi-Begabung anhand der erzielten Trefferquoten ermitteln lässt.

Wie wir im vorhergehenden Artikel gesehen haben, kann die Bayes-Schätzung Derartiges wohl nicht leisten. Schade. Woran liegt es, dass die Bayes-Schätzung versagt? Lässt sich über die speziellen Fälle hinaus etwas über die generellen Gültigkeitsgrenzen der Bayes-Schätzung sagen? (Die unten zitierten Quellen finden Sie ebenfalls am Schluss des vorigen Hoppla!-Artikels.)

Oft funktioniert die Bayes-Schätzung wie erwartet

Im Fall der Harvard-Medical-School-Studie wird mit einer einfachen Häufigkeitsbetrachtung die Wirksamkeit eines diagnostischen Tests abgeschätzt. Durch den Übergang von Häufigkeiten auf Wahrscheinlichkeiten wird daraus die Bayes-Schätzung.

Im Kern besagt die Formel von Bayes, dass die Wahrscheinlichkeit einer Hypothese H („Person ist krank“) durch die gemachte Beobachtung E („Test ist positiv“) in demselben Verhältnis steigt, wie die Beobachtung durch die Hypothese wahrscheinlicher wird. Mit den Formelzeichen für (bedingte) Wahrscheinlichkeiten sieht dieser Zusammenhang so aus:

P(H|E)/P(H) = P(E|H)/P(E).

Im Fall der Harvard-Medical-School-Studie setzen wir folgende Daten als bekannt voraus: P(H)=0,1%, P(E|H)=95% (Power, auch Sensitivität des Tests) und P(EH) = 5% (Falsch-positiv-Wahrscheinlichkeit). Damit ist P(E) = P(E|H)∙P(H)+ P(EH)∙PH) ≈ 5,1%. Die Formel liefert dann das Ergebnis für P(H|E): Eine positiv getestete Person ist mit der Wahrscheinlichkeit von weniger als 2% tatsächlich krank.

Diese Anwendung der Bayes-Formel auf diagnostische Tests ist methodisch einwandfrei. Die Wahrscheinlichkeiten P(H) und P(H|E) sind die A-priori- bzw. A-posteriori-Wahrscheinlichkeit der Hypothese.

Die A-posteriori-Wahrscheinlichkeit ist eine verbesserte Schätzung unter der Bedingung der gemachten Beobachtung. Es geht nicht darum, mithilfe der Bayes-Formel mehr über die Hypothesenwahrscheinlichkeit P(H) zu erfahren. Die Basisrate der Krankheit bleibt selbstverständlich unverändert!

Bei der Parameterschätzung ist die Anwendung der Bayes-Formel fragwürdig

Versuch der Abschätzung einer Parameterverteilung

Was auf diagnostische Tests so erfolgreich angewendet wird, das sollte auf Parameterschätzungen übertragbar sein, oder?

Eine bis vor etwa zehn Jahren im Rahmen des GUM (Guide to the Expression of Uncertainty in Measurement) empfohlene Methode zur Bestimmung der Messunsicherheit basiert auf der Formel von Bayes und funktioniert im Kern folgendermaßen:

Zu bestimmen ist ein Parameter α, der einer Messung direkt nicht zugänglich ist. Messbar ist die Zufallsvariable X, deren Verteilungsdichte f vom Parameter α abhängt: fα(x).

Der Parameter α wird als Realisierung einer Zufallsvariablen Α aufgefasst. Das anfängliche Wissen oder auch Unwissen hinsichtlich dieser Variablen wird durch die A-priori-Verteilungsdichte g(α) modelliert. Die A-priori-Wahrscheinlichkeitsdichte kann das Ergebnis vergangener Beobachtungen sein oder sie kann nach dem Prinzip maximaler Unwissenheit angesetzt werden (Rüger, 1999, S. 211 ff.). Im letzten Kapitel haben wir zur Bestimmung der A-priori-Verteilung das Indifferenzprinzip angewendet.

Wird nun ein bestimmter Wert x gemessen, dann ergibt sich mit der Formel von Bayes eine neue Schätzung der Verteilungsdichte des Parameters, die A-posteriori-Schätzung h(α):

h(α) ~ fα(x)∙g(α).

Hierin ist der Proportionalitätsfaktor durch die Eigenschaft der Dichte bestimmt: Das Integral über h muss den Wert 1 ergeben.

Die A-posteriori-Schätzung sollte laut Messunsicherheits-Leitfaden als Verbesserung der Parameterschätzung gegenüber der A-priori-Schätzung angesehen werden. Das war jedenfalls die Interpretation des Ergebnisses vor der Revision des Messunsicherheits-Leitfadens im Jahre 2008. In der kleinen Studie Bayes-Schätzung – Eine kritische Einführung habe ich mich seinerzeit mit den Hintergründen der Bayes-Schätzung befasst.

Kritik

Anders als bei den klassischen Test- und Schätzverfahren gibt es für die Bayes-Schätzung von Messunsicherheiten keine gesicherten Genauigkeitsangaben. Zuweilen ergeben mehr Daten sogar schlechtere Folgerungen. Dass es zu solchen paradoxen Resultaten kommen kann, liegt daran, dass die Bayes-Schätzung von Parametern nicht auf einer logisch zwingenden Deduktion beruht.

Wenn man die A-posteriori-Verteilung des Parameters als eine gegenüber der A-priori-Verteilung bessere Schätzung der tatsächlichen Verteilung des Parameters ansieht, dann ist das lediglich ein plausibler Schluss. Die A-posteriori-Verteilung ist nur eine verbesserte Schätzung unter der Bedingung des Messergebnisses; sie besagt, mit welchen Wahrscheinlichkeiten die verschiedenen Parameterwerte zu dem beobachteten Messergebnis beigetragen haben können. Der Umkehrschluss von der Beobachtung auf die tatsächliche Verteilung des Parameters kann demnach auch falsch sein. Im Grunde werden aus einer Beobachtung zu starke Schlussfolgerungen gezogen.

Im Wikipedia-Artikel „Satz von Bayes“ habe ich seinerzeit meine Kritik zu dieser Art der Parameterschätzung abgeliefert. Am 29. September 2008 war die Kritik noch auffindbar.

Seinerzeit wurde der Messunsicherheits-Leitfaden neu gefasst, da die von vielen Seiten geäußerte Kritik wohl unüberhörbar war. Die Methode von Bayes spielt darin jetzt keine große Rolle mehr, wie die aktuelle Version des Wikipedia-Artikels zum Thema GUM (Norm) zeigt.

Inzwischen ist der kritische Abschnitt durch ein Rechenbeispiel über die „Ermittlung von Messunsicherheiten“ ersetzt.  Darin wird nach wie vor die umstrittene Bayes-Formel auf die Parameterschätzung angewendet, jedoch ohne zu sagen, welchen Sinn diese Rechnung haben soll.

Zum Schluss

In der medizinischen Diagnostik nimmt man, anders als bei der Parameterschätzung, die A-posteriori-Wahrscheinlichkeit nicht als eine verbesserte Schätzung gegenüber dem Apriori: Die Basisrate der Krankheit bleibt unverändert. Die errechnete A-posteriori-Krankheitswahrscheinlichkeit gilt nur für die Personen mit positivem Testergebnis und nicht etwa für „die ganze Welt“. Das ist eine gut abgesicherte Anwendung des Satzes von Bayes.

Einen solchen sicheren Interpretationsrahmen gibt es bei der Anwendung der Formel von Bayes auf die Parameterschätzung nicht.

Wer einer Analyse mittels der Bayes-Formel nähertreten will, kann sich über die Anwendbarkeit vergewissern, indem er sich ein Urnenmodell vor Augen hält, wie das beispielsweise auch Regina Nuzzo (2014) tut.

Wie sich die Bayes-Formel auswirkt, habe ich mit dem Ein-Euro- Spiel versucht zu veranschaulichen.

Veröffentlicht unter Bildungswesen, Statistik, Tests, Wahrscheinlichkeitsrechnung | Verschlagwortet mit , , , , | 1 Kommentar

Was zeigen uns die Ergebnisse statistischer Tests?

Hoppla!

In einem Lehrbuch zum Thema Software-Verifikation finde ich den fett hervorgehobenen Satz: „Der Test von Hypothesen geht über die Falsifizierung ihres Komplements“.  Dann wird gezeigt, dass bei einem Sachverhalt, der im Widerspruch zur Hypothese steht, der Test schlimmstenfalls mit einer geringen Wahrscheinlichkeit (von sagen wir 5%) bestanden wird. Aus dem Bestehen des Tests wird dann gefolgert, dass der angenommene Sachverhalt, die Alternativhypothese, unwahrscheinlich ist (5%) und die Hypothese entsprechend wahrscheinlich (95%).

Bei der Berechnung der Wahrscheinlichkeiten wurde die Alternativhypothese, die übrigens gar nicht  das Komplement der Hypothese sein muss, als fest gegeben vorausgesetzt. Es geht also gar nicht um die Wahrscheinlichkeit der Alternativhypothese und schon gar nicht um die Wahrscheinlichkeiten von Hypothese und deren Komplement.

Irrtümer dieser Art sind selbst in der Fachwelt nicht selten. Wahrscheinlichkeiten treten unter verschiedenen Rahmenbedingungen in Erscheinung und sie sind dementsprechend auch verschieden definiert. Wer das nicht beherzigt, fällt herein.

Hier will ich Wahrscheinlichkeiten in die ihnen zukommenden Zusammenhänge stellen. Das soll helfen, Denkfallen der Statistik und Wahrscheinlichkeitsrechnung rechtzeitig zu entdecken und irrige Interpretationen zu entlarven.

Den letzten Anstoß zu diesem Hoppla!-Artikel gab das Buch „The Skeptics’ Guide to the Universe“ von Steven Novella (2018), in dem er sich u. a. auf die Arbeiten von Regina Nuzzo beruft. Novella beklagt, dass der p-Wert einer Studie oft als Wahrscheinlichkeit für das Nichtvorliegen des untersuchten Sachverhalts (z. B.: „das Medikament ist wirksam“) genommen wird, dass also die Hypothese über das Vorliegen des vermuteten und zu prüfenden Sachverhalts eine Wahrscheinlichkeit von 1-p haben muss. In klinischen Studien wird im Sinne eines schwachen Signifikanzniveaus oft ein Wert von p = 5% zugrunde gelegt, was für den zu prüfenden Sachverhalt eine Wahrscheinlichkeit von 95% nahelegen würde.

Solche Studien liefern nur Folgendes: Bei vorausgesetzter Nullhypothese besitzt das tatsächlich ermittelte Testergebnis zugunsten des zu prüfenden Sachverhalts eine nur geringe Wahrscheinlichkeit von p. Wir können die Nullhypothese also getrost verwerfen. Die Nullhypothese ist so gebildet, dass sie den zu testenden Sachverhalt, die zu prüfende Hypothese, ausschließt (Sachs, 1992, S. 185f.). Damit ist der zu prüfende Sachverhalt weiter im Rennen. Was wir aus dem Testergebnis nicht erfahren, ist die Wahrscheinlichkeit dafür, dass der zu testende Sachverhalt im Rahmen des Tests anwesend ist.

Beispiel: Psi-Test Würzburg 1-aus-10

Für die Konkretisierung der eben gemachten Aussagen wähle ich einen gut dokumentierten Test, nämlich den 1-aus-10-Test, den die Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP) bisher 37mal in Würzburg durchgeführt hat. Ich habe die Daten von Soehnle (2014) um die seither durchgeführten Tests ergänzt.

Geltungsanspruch und Testbedingungen

Zu diesen Tests mit Aussicht auf ein Preisgeld können sich Personen melden, die sich für Psi-begabt halten: Wünschelrutengänger, Wahrsager usw.

Ein Beispiel: Im Jahr 2016 war unter den Kandidaten eine Homöopathin, die angab, Verunreinigung in Pflanzenerde erkennen zu können. Für den Test füllen die Versuchsleiter zehn Petrischalen mit Blumenerde. In einer davon ist – für die Kandidatin unsichtbar – kontaminierte Erde. Die Kandidatin muss nun ihre Fähigkeit nachweisen, indem sie die Schale mit kontaminierter Erde herausfindet. Das ist der Findevorgang. Dies wird dreizehn Mal gemacht. Der Stichprobenumfang je Test ist also gleich 13. Der Test ist bestanden, wenn der Kandidat wenigstens sieben Treffer vorzuweisen hat. Das ist das Testkriterium.

In allen anderen der insgesamt 37 von der GWUP durchgeführten 1-aus-10-Tests ging es vergleichbar zu.

Nullhypothese

Die Nullhypothese wird als Alternative zum Geltungsanspruch definiert und aus den allgemein akzeptierten Gesetzmäßigkeiten hergeleitet. Maßgabe ist also der Stand der Wissenschaft und nicht etwa eine übergeordnete Ontologie.

Die Nullhypothese im Falle des 1-aus-10-Tests besteht darin, dass  bei sorgfältiger Versuchsdurchführung das Indifferenzprinzip gilt: Das Versteck wird bei jedem der dreizehn  Findevorgänge rein zufällig mit einer Trefferwahrscheinlichkeit von 10% gefunden.

Interpretation des Tests

Das Bestehen und Nichtbestehen des Tests ist eine Sache des Zufalls. Es kann durchaus sein, dass ein paranormal Begabter fälschlich übersehen wird, weil er das Testkriterium zufälligerweise nicht erfüllt. Diesen Fall nennt man einen Fehler zweiter Art, anschaulich: „Übersehfehler“. Auf der anderen Seite steht die Möglichkeit, dass einem paranormal Unbegabten paranormale Fähigkeiten attestiert werden, weil er aus purem Zufall das Testkriterium erfüllt. Das ist ein Fehler erster Art, anschaulich: „Vortäuschungsfehler“.

Das Testkriterium muss sowohl die Interessen des Kandidaten an einer möglichst geringen Wahrscheinlichkeit für einen Fehler zweiter Art berücksichtigen, aber auch die Interessen der GWUP an einer möglichst geringen Wahrscheinlichkeit für einen Fehler erster Art.

Die Wahrscheinlichkeit für den Fehler erster Art („Vortäuschungsfehler“) wird in der mathematischen Statistik mit α bezeichnet, und die Wahrscheinlichkeit für einen Fehler zweiter Art („Übersehfehler“) mit β.

Wichtig ist also die Festlegung der Bedingungen für das Bestehen des Tests derart, dass sowohl der Fehler erster Art („Vortäuschungsfehler“) als auch der Fehler zweiter Art („Übersehfehler“) möglichst unwahrscheinlich werden. Wir suchen also nach Testkriterien mit möglichst kleinen oder zumindest ausbalancierten Werten für α und β. Die Wahrscheinlichkeit α ist das Signifikanzniveau des Tests und 1- β ist die Power des Tests.

Wir nehmen zunächst einmal an, dass der Bewerber paranormal unbegabt ist (Nullhypothese H0). Die Trefferzahlen je Test mit jeweils 13 Findevorgängen folgen der (13, 10%)-Binomialverteilung.

Eine auf lange Sicht erzielte Trefferwahrscheinlichkeit von 50% spricht für paranormale Fähigkeiten (H1). Die Trefferzahlen eines derartig paranormal Begabten folgen der (13, 50%)-Binomialverteilung.

Die folgende Grafik stellt diese beiden Verteilungen dar. Die Zufallsvariable X ist gleich der Trefferzahl eines Tests und P(X=| H0) bezeichnet die Wahrscheinlichkeit für i Treffer unter der Bedingung der Nullhypothese.

Bei sieben verlangten Treffern ist die Wahrscheinlichkeit eines Übersehfehlers mit 50% genau so groß wie die Power des Tests (hinsichtlich der willkürlich gewählten Hypothese H1). Die Wahrscheinlichkeit eines Vortäuschungsfehlers, das Signifikanzniveau des Tests, ist gleich 0.01 Prozent. Ein paranormal Begabter könnte sich benachteiligt fühlen.

Testergebnisse

Bisher wurde der 1-aus-10-Test der GWUP 37mal durchgeführt. Es gab je zehnmal einen Treffer oder zwei Treffer. Viermal waren drei Treffer und einmal vier Treffer zu verzeichnen. Die restlichen zwölf Tests blieben trefferlos. Diese Häufigkeiten sind mit der Nullhypothese sehr gut vereinbar. Das Testkriterium wurde in keinem Fall erfüllt.

Bei dreizehn Findevorgänge je Test ist der Gesamtumfang der Stichprobe N gleich 481. Die Gesamtzahl der Treffer ist gleich 46. Die mittlere Trefferzahl je Findevorgang liegt demnach bei knapp 10%, was mit der Nullhypothese gut verträglich ist. Bei dreizehn Versuchen je Test kommt man auf eine „normale“ mittlere Trefferzahl von knapp 1.3. Wenn unter den Kandidaten Psi-Begabte waren, dann muss deren Erfolg durch total Unbegabte mehr als ausgeglichen worden sein.

Bayes-Interpretation des Psi-Tests

Wie sieht es mit den Wahrscheinlichkeiten von Hypothesen aus?

Spaßhalber führen wir den p-Begabten – einen Sonderfall des Psi-Begabten – ein. Der p-Begabte hat im 1-aus-10-Test die mittlere Trefferquote von p. Der 10%-Begabte ist ziemlich normal. Seine Trefferquote entspricht der von Hinz und Kunz, nichts Außergewöhnliches also; er ist die wandelnde Nullhypothese.

Tolerant, wie wir nun einmal sind, stellen wir uns vor, dass es p-Begabte aller Schattierungen geben möge. Sie sind die Elementarereignisse unseres Ereignisraums. Mangels Voreingenommenheit sind für uns alle Begabungen gleichermaßen möglich. Wir gehen vom Indifferenzprinzip aus und nehmen a priori die Zufallsvariable p als gleich verteilt auf dem Intervall von 0 bis 1 an.

Bei einem p größer als 10% sprechen wir von echter Psi-Begabung. Für Werte unterhalb von 10% hat man negativ Psi-Begabte vor sich: Auch bei höchster Anstrengung erzielen sie noch nicht einmal die Zufallstreffer. So einen holt man sich ins Haus, wenn man sicher gehen will, dass der Schatz nicht gefunden wird.

Die Gleichverteilungsannahme ist kaum haltbar. Die bisherigen Testergebnisse ermöglichen uns, etwas mehr über die tatsächliche Verteilung der Psi-Begabung zu erfahren.

Wir gehen davon aus, dass die Begabungsverteilung durch die Beta-Verteilung mit den Parametern a und b beschrieben werden kann. Zumindest für die A-priori-Schätzung, die Gleichverteilung, ist das möglich. Diese ist nämlich durch die Betaverteilung mit den Werten a = b = 1 gegeben.

Die Bayes-Formel liefert als Lerneffekt aus den Tests eine Betaverteilung zu den Werten a = 1+k = 47 und b = 1+Nk = 436. Wie die Grafik zeigt, konzentriert sich die Psi-Begabung p auf Werte um 10%. Genau das ist nach dem Stand der Wissenschaft auch zu erwarten.

Caveat Emptor: Schlechtere Schätzung durch mehr Daten

Das Paradoxe an der Bayes-Schätzung ist, dass sie gerade für die Fälle nicht funktioniert, für die sie gedacht ist. Die Bayes-Schätzung kann unter Umständen mit jeder weiteren Beobachtung sogar schlechter werden anstatt besser.

Wir betrachten einen Produktionsprozess, der Lose mit unterschiedlichen Fehlerwahrscheinlichkeiten liefert. Diese Fehlerwahrscheinlichkeit p sei also für jedes Los die Realisierung einer Zufallsvariablen aus dem Intervall von 0 bis 1. Die Tests werden für verschiedene Lose durchgeführt.

Die Fehlerwahrscheinlichkeit p sei gleichverteilt, was der Beobachter aber nicht weiß. Er soll mittels Bayesschätzung genau diese Verteilung herausfinden.

Der Beobachter beginnt mit der Gleichverteilung, wie beim obigen Psi-Test. Dass seine Anfangsschätzung bereits die gesuchte Verteilung ist, weiß der Beobachter natürlich nicht.

Überraschung! Eine einfache Simulation zeigt, dass die Schätzung sich mit jedem weiteren Los von der Gleichverteilung wegbewegt. Auch in diesem Fall wird die Verteilungsdichte mit jedem weiteren Test und mit jeder weiteren Beobachtung immer schmaler. Die Verteilung von p wird sich schließlich auf eine kleine Umgebung des Wertes 50% konzentrieren. Jedenfalls hat die Schätzung immer weniger mit der eigentlich zu findenden Gleichverteilung zu tun. Ähnlich gelagerte Fälle zeigen: Mehr Daten führen zu schlechteren Folgerungen (Székely, 1990, S. 126).

Man könnte einwenden, dass man die Bayes-Schätzung nur anwenden darf, wenn der Parameter p eigentlich als konstant anzusehen ist, und dass die Annahme einer Verteilung für p nur unserem Unwissen zuzuschreiben ist, das wir mit jeder Schätzung weiter reduzieren wollen.

Ein derartiger Gewährleistungsausschluss ist jedoch eine Einschränkung, die sich nur von den erzielten Resultaten her und nicht etwa aus dem Verfahren begründen lässt. Dazu Bernhard Rüger  (1999, S. 188): „Mit der Angabe einer Verteilung des Parameters ist hier keine Behauptung oder Annahme über die ‚Natur‘ des Parameters verbunden, etwa darüber, ob der Parameter vom Zufall abhängt (eine Zufallsgröße ist) oder eine deterministische Größe darstellt, ja nicht einmal darüber, ob der Parameter überhaupt verschiedene Werte annehmen, also ‚schwanken’ kann, oder einen eindeutig feststehenden, unbekannten Wert besitzt, ein Standpunkt, der innerhalb der Bayes-Inferenz vorherrscht.“

Genau genommen können wir über die Verteilung der p-Begabten bei Psi-Tests nichts erfahren, sollte es solche mit p ungleich 10% überhaupt geben.

Fazit

Testergebnisse lassen keine Rückschlüsse auf die Wahrscheinlichkeitsverteilung des Untersuchungsgegenstands zu. Auch die Bayes-Schätzung hilft nicht wesentlich weiter.

Ratsam ist, sich die einzelnen Psi-Tests anzusehen. Bei den Würzburger Psi-Tests konnte man jeweils mit gutem Grund die behauptete Psi-Fähigkeit verwerfen. Und das sind ziemlich viele Fälle. Das deutet daraufhin, dass wir bezüglich der parapsychologischen Begabung (Psi) die Nullhypothese nicht aufgeben müssen: Vermutlich sind wir ausnahmslos Psi-Unbegabte.

So eindeutig liegt die Sache bei den üblichen statistischen Studien leider nicht. Anders als bei den Psi-Ansprüchen ist die Beleglage pro oder kontra eines Geltungsanspruchs oft ziemlich dünn. Es bleibt die Empfehlung, statistische Studienergebnisse äußerst zurückhaltend zu interpretieren und den Zufall nicht voreilig auszuschließen.

Quellen

Fisz, Marek: Wahrscheinlichkeitsrechnung und mathematische Statistik. Berlin 1976

Novella,  Steven: The Skeptics’ Guide to the Universe. 2018

Nuzzo, Regina: Der Fluch des p-Werts. Spektrum der Wissenschaft 9/2014, S. 52-56

Rüger, Bernhard: Test- und Schätztheorie. Band I: Grundlagen. München 1999

Sachs, Lothar: Angewandte Statistik. Anwendung statistischer Methoden. Berlin, Heidelberg 1992

Soehnle, Stefan: Der Psi-Test der GWUP 2004-2014. skeptiker 4/2014 S. 183-188

Székely, Gábor J.: Paradoxa. Klassische und neue Überraschungen aus Wahrscheinlichkeitsrechnung und mathematischer Statistik. Frankfurt am Main 1990

Veröffentlicht unter Bildungswesen, Naturwissenschaften, Statistik, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Täuschende Argumente

Motiv

Im Sinn liegt mir nicht, eine allseits bekannte Liste von Argumentationsfiguren abzuarbeiten und systematisch anzuordnen. So etwas findet man problemlos im Internet; auch „Die Kunst, Recht zu behalten“ von Arthur Schopenhauer ist eine gern genommene Sammlung. Vorbild ist mir eher die problemorientiert fokussierte Behandlung des Themas im Büchlein „Wie man mit Fundamentalisten diskutiert, ohne den Verstand zu verlieren“ von Hubert Schleichert (1997).

Mein Ansatz ist noch etwas enger: Ich nehme mir nur solche Argumentationsfiguren vor, die mir im Laufe der letzten vier Jahren in meiner Auseinandersetzung innerhalb der Skeptikerbewegung begegnet sind. Sie werden meine Verblüffung verstehen darüber, dass mir in diesem Zirkel genau die Argumentationsweisen begegnet sind, die diese Leute ihren Lieblingsfeinden vorwerfen.

Das muss einen nun tatsächlich nicht um den Verstand bringen. Ich trete ein paar Schritte zurück und freue mich über die wirklich herrliche Sammlung an selbst erlebten Beispielen fehlleitender Argumentation. Und an dieser Freude sollen Sie, mein Leser, teilhaben.

Die Sammlung ist wirklich praxisnah und enthält nichts, was man sich nur ausdenkt oder bloß angelesen hat. Insofern bin ich meinen Kontrahenten dankbar. Immerhin haben sie ja einigen Zeitaufwand in die Auseinandersetzung gesteckt.

Eine ganze Reihe von Beispielen fehlleitender Argumentation habe ich bereits im Artikel Argumentationsfehler des ontologischen Naturalismus nach ihrer Herkunft benannt und aufgespießt. Wiederholungen erspare ich Ihnen. Interessant sind die Grundmuster der sich daran anschließenden Verteidigung durch Vertreter der Skeptikerbewegung. Weiteres Quellenmaterial ergab sich in der Diskussion in demselben Kreis zum Hoppla!-Artikel  Hochstapelei im Namen der Wissenschaft und zum Artikel Das Elend des Instrumentalismus von Martin Mahner.

Argumentationsmuster

Petitio principii: Begging the Question, logischer Kurzschluss

Dieser Argumentationsfehler ragt besonders heraus, weil sich die Skeptikerbewegung solchermaßen begründet: In der Skeptikerbewegung wird die Beschränkung auf Pseudowissenschaften wie Homöopathie und Wahrsagerei als Hauptziel ihrer Angriffe als unbefriedigend empfunden. Um irgendwie auch eine Handhabe gegen die Religionen zu bekommen, legt man sich eine mit der Religion unverträgliche Philosophie zu: den Naturalismus.

Im aktuellen Buch zum Thema klingt das dann so: „Unsere These lautet daher, dass jeder, der Beobachtungen, Messungen und Experimente als realwissenschaftliche Methoden akzeptiert, auch diese vorgeordneten ontologischen Prinzipien akzeptieren muss, weil diese Methoden sonst unanwendbar, wenn nicht gar sinnlos, wären.“ Zu den vorgeordneten Prinzipien gehört der Realismus, nach dem es eine strukturierte und erkennbare Welt außerhalb unseres Denkens gibt.

Demnach habe man im Rahmen dieser Philosophie so zu denken: Nur wenn es die strukturierte Realität (A) gibt, können wir Beobachtungen machen (B). Da wir Beobachtungen machen, muss es die Realität geben. Kurz: Aus B impliziert A zusammen mit B folgt A. Da die Implikation zu beweisen war, greift der Beweis auf den zu beweisenden Satz zurück. So führt man Leute an der Nase im Kreis herum.

Wer den logischen Kurzschluss nicht als solchen erkennt, sollte sich von der Wissenschaft fern halten.

Argumentum ad lapidem

So klingt der Naturalist: Ihren Texten entnehme ich, dass sich die weltbezogene Wissenschaft ausschließlich mit „Erscheinungen“ und „Beobachtungsbündeln“, d.h. allgemeiner mit menschlichen Sinnesdaten oder vielleicht besser Sinneserlebnissen beschäftigt. Wenn ich gegen eine Straßenlaterne laufe, kollidiere ich dann mit meinem eigenen Beobachtungsbündel?

Das Argument ähnelt dem, das dem Bischof George Berkeley (1685-1753) entgegengehalten wurde, der ja die Existenz einer abstrakten Idee wie die einer denkunabhängigen Außenwelt verneinte. Sein Kontrahent stieß einen Stein (lat. lapis) weg und meinte: „Damit ist es widerlegt.“

Ad-lapidem-Aussagen sind insofern fehlerhaft, als sie das Strittige gar nicht ansprechen, sozusagen am Punkt vorbeizielen und so den Adressaten vom Thema ablenken. Das ist ganz ähnlich dem nächsten Argumentationsmuster.

Ablenkung hin zum Nebensächlichen: Red Herring, Definitionsfragen

Im Artikel über Argumentationsfehler schreibe ich unter dem 6. Punkt von einem klassischen Dilemma-Argument: Es wird so getan, als gäbe es nur Erkenntnis der Realität und Wahrheit einerseits und alternativ dazu einen bedeutungsarmen Diskurs und Pseudowissenschaft. Das ist auch eine Art Strohmann-Argument. Die Alternative kommt so abschreckend daher, dass man sie ablehnen muss. Selbstverständlich gibt es weitere Alternativen, und darunter sind weit plausiblere als die hier präsentierte. Meine Lieblingsalternative ist der kritische Rationalismus des Karl Raimund Popper.

Die Entgegnung darauf stellt heraus, dass der kritische Rationalismus gar keine Alternative zum erkenntnistheoretischen Realismus sein könne, da eine Alternative das ursprüngliche Konzept ersetzen können müsse. Das sei hier aber nicht der Fall, da Realismus und kritischer Rationalismus miteinander vereinbar sind. Was vereinbar ist, kann nicht zugleich eine Alternative sein.

Um dieses Argument überhaupt wirksam zu machen, muss erst einmal die ursprüngliche Aussage, nämlich die von der „Lieblingsalternative“, aus dem von mir stets betonten Zusammenhang gerissen werden: Der kritische Rationalismus bedarf keiner philosophischen Überhöhung. Insofern ist er tatsächlich eine Alternative zu den philosophisch aufgemotzten Begründungssystemen.

Was aber schwerer wiegt, ist die Tatsache, dass mit diesem Geplänkel vom ursprünglichen Argument abgelenkt wird, nämlich dem, dass es weitere Alternativen gebe. Dem Argument wird nichts entgegengehalten. Es wird nur so getan, als ob.

Wer behauptet, dass der Gegensatz zur Erkennbarkeit der Realität doch nur eine im Großen und Ganzen bestehende Nicht-Erkennbarkeit sein kann, der übergeht die Haltung des Agnostikers, der weder die Erkennbarkeit noch die Nicht-Erkennbarkeit postulieren mag.

Eine beliebte Methode der Gegenwehr durch Ablenkung ist auch das Ausweichen auf Definitionsfragen, selbst dann, wenn allen klar sein sollte, worum es geht.

Ein Diskussionsteilnehmer schrieb einmal über Risiko in Sachen grüner Gentechnik: „Bitte erst nachschlagen was Risiko ist, dann darüber reden. Solange bleibt ihr Text einfach nur unnütz.“ Dann kommt er mit einer total verunglückten Formel zum Risiko und zeigt, dass er vom modernen Risikobegriff keine Ahnung hat. Im Gefolge kommt es zu ausgiebigen Belehrungen hin und her. Dabei wird das ursprüngliche Argument völlig aus den Augen verloren, nämlich, dass bei der Risikobewertung zuweilen völlig außen vor gelassen werde, „dass auch ein geringes Risiko anders bewertet werden muss, wenn die Folgen eines Eintritts massiv sind“. So funktioniert Ablenkung durch Ausweichen auf Definitionsfragen.

Holzhammermethode: nicht sachdienliche Wiederholung des Immergleichen

Eine in dem von mir besuchten Kreis sehr beliebte Methode ist, den Kontrahenten dadurch weich zu kochen, in dem man dessen Argumente konsequent überhört und die eigenen immer wieder auftischt. Am besten funktioniert das mit unwiderlegbaren selbstbezüglichen Behauptungen, logischen Kurzschlüssen und Ad-lapidem-Argumenten. Beispielsweise tritt die Realitätsannahme auch in diesem Gewand auf: „Unsere Sinne informieren uns tatsächlich – wenn auch fehlbar – über die Außenwelt.“

So etwas nennt man Mentizid oder Holzhammermethode. Aus psychologischen Gründen funktioniert sie gut; wer ihr widerstehen will, braucht einiges an Kraft und Stehvermögen. Es ist die gemeinste Methode, die außerdem an den, der sie anwendet, die geringsten kognitiven Ansprüche stellt.

Sich-dumm-stellen

Diese Methode tritt in Erscheinung, wenn einer der Naturalisten schreibt: Till scheint für den Begriff des „Erkenntnisfortschritts“ zu plädieren. Hier stellt sich aber gleich die Frage: Erkenntnis von was? Dies führt er nicht weiter aus. Sollte sich der Erkenntnisfortschritt auf Sinnesdaten beziehen? Ist die empirische Kosmologie eine Wissenschaft, die von Sinnesdaten handelt, wie jede andere Wissenschaft auch? Kosmologie als Sinnesdatenwissenschaft ergibt aber kaum Sinn und Kosmologie als reine Mathematik greift wegen des empirischen Anteils zu kurz. Wenn man von Beschreiben spricht, sollte auch erläutert werde, was da eigentlich beschrieben werden soll. Till bleibt es unbenommen, an seinen Haltungen festzuhalten, die mir persönlich jedoch nicht klar sind.

Allen Beteiligten an der Diskussion muss klar gewesen sein, dass Till den Erkenntnisfortschritt im Sinne Karl Raimund Poppers gemeint hat. In Poppers Logik der Forschung geht es von vorn bis hinten um den Fortschritt der Wissenschaft, um Erkenntnisfortschritt also. Und Popper lässt das nicht undefiniert. Die obigen Fragen haben als einzigen erkennbaren Zweck: Sie sollen Till verunsichern und ihn dazu bewegen zu erklären, was eigentlich längst klar ist. Damit wäre er dann hinreichend beschäftigt und nicht weiter störend tätig; außerdem würde auf diesem Weg klar, dass sich Till wohl doch nicht richtig ausdrücken kann und nachbessern muss.

Der Hinweis auf die Kosmologie ist ein Ablenkungsmanöver von der weiter oben beschriebenen Art: Um Welterklärung geht es beim Erkenntnisfortschritt zunächst einmal nicht. Wer sich mit Kosmologie beschäftigt, wird sich auch mit Erkenntnisfortschritt auseinandersetzen müssen. Ein Zwang in entgegen gesetzter Richtung existiert nicht, auch wenn die Naturalisten nicht müde werden, genau das zu behaupten. Es handelt sich um den oben beschriebenen logischen Kurzschluss.

Moralisieren

Wer moralisiert, will verletzen. Die Täuschungsabsicht ist im Allgemeinen daran zu erkennen, dass derjenige, der die Einhaltung von Anstandsregeln anmahnt, bei deren Verletzung ganz vorne mit dabei ist.

Beispiele: Das beharrliche Vertreten eines Standpunkts wird als Renitenz angekreidet. Wer kritisiert, wird als Stänkerer gebrandmarkt. Wer Toleranz einfordert, dem wird der Wille zur Zensur unterstellt. Eine abweichende Meinung ist ein Zeichen dafür, dass es an der „skeptischen Redlichkeit“ mangelt. In all diesen Fällen wird auf unanständige Weise mehr Anstand eingefordert. Aber das sind noch die harmloseren Verstöße gegen die Anstandsregeln.

Eine Frau F. meint, einen Kritiker als „hochmütig, penetrant und überheblich“ charaktierisieren und dabei darauf verzichten zu dürfen, der sachlichen Kritik so etwas wie einen sachlichen Einwand entgegenzusetzen.

Eine Krönung diesbezüglich liefert Herr S. Es geht ihm um den gerade eben beschriebenen Vorwurf des Sich-dumm-stellens, das man durchaus als Gesprächsstrategie auffassen kann, ohne damit eine moralische Wertung verbinden zu müssen. Herr S. kontert den Vorwurf so: „Für solchen Umgangston gibt es die anderen ca. 99.999999% des Internets, wo ein aggressiver, abwertender Umgangston üblich ist. Ich bitte hier um Beachtung der Netiquette.“ Dabei scheut sich Herr S. bei einer späteren Gelegenheit nicht, eine Sachdiskussion auf die persönliche Ebene zu hieven mit dem Satz: „Ich schlage Herrn G. als Kandidaten für die Wahl des Listentrolls vor.“

Die Lehren

Ich halte es übrigens nicht für eine gute Idee, die täuschenden Argumentationen mit einer moralischen Bewertung zu beladen. Meinen Standpunkt dazu habe ich einst in einem vhs-Kurs kundgetan:

Tarnen und Täuschen gehören so sehr zum Leben auf dieser Erde (man denke nur an die Geweihe der Hirsche, die Mimikri der Schmetterlinge, die Scheinmuskeln der Männer, das Imponiergehabe in den Chefetagen und die Werbung), dass man sich generelle moralische Urteile über dieses Verhalten besser verkneift. Täuschung und Manipulation abzuschaffen, ist schon aus Gründen des Wettbewerbs aussichtslos: Wer will schon auf große Vorteile verzichten, die zu moderaten Kosten zu haben sind?

Ein Ziel des Kurses ist das Herstellen von Waffengleichheit. Jedermann sollte grundsätzlich die Möglichkeit erhalten, manipulationstechnisch nachzurüsten, so dass er in der durch Manipulation, Manipulationsabwehr und Gegenmanipulation bestimmten Kommunikation seine Chancen wahren kann.

Allgemeine Nachrüstung auf diesem Gebiet hat paradoxe Auswirkungen: Können es alle, wird Täuschen unrentabel und kommt entsprechend seltener vor.

Veröffentlicht unter Bildungswesen, Logik, Moral und Ethik, Skeptizismus | Verschlagwortet mit , , , , | 3 Kommentare

Achtung, statistische Klassen und andere Stolpersteine

Für Michael Shermer und Steven Pinker ist die Menschheit auf einem unaufhaltsamen Marsch in eine immer bessere Zukunft. Sie konstatieren den andauernden Fortschritt der Menschheit in Richtung Humanismus. Triebkräfte seien vor allem Wissenschaft und Technik; Religionen stünden dem entgegen.

Sie wenden sich gegen intellektuelle Gesellschaftskritiker von der linken Seite und gegen die religiöse Rechte. Dass Skepsis und Vorsicht eine Rolle bei der Vermeidung der gröbsten Irrwege eine Rolle gespielt haben könnten, davon ist bei diesen Fortschrittsapologeten nur wenig zu lesen.

Sie häufen eine große Zahl von Belegen auf, mit denen sie ihren Fortschrittsoptimismus begründen. Dass es bei der Auswahl dieser Beispiel nicht immer ganz unvoreingenommen zugegangen sein könnte, davon war im letzten  Hoppla!-Artikel die Rede. Eigentlich macht Micheal Shermer genau das, was auch Steven Pinker kritisch sieht (Pinker, 2018, S. 100 f.). Michael Shermer verstößt gegen Grundregeln der gesunden Skepsis: Bereits die von ihm konstatierten Korrelationen basieren auf einer gezielten Auswahl (Rosinenpickerei). Von diesem Haufen von Korrelationen aus vollführt er tollkühne Sprünge zu Kausalitäten mit eindeutigen Ursachenzuschreibungen.

Shermers Beispiele zur Einkommensverteilung in den USA sind aus der Zeit vor der letzten großen Rezession. Zur Erinnerung: Die USA-Präsidenten hatten durch ihre Steuersenkungspolitik (Ronald Reagan, 1981-1989) und die Deregulierung des Bankenwesens (Bill Clinton, 1993-2001) eine  Phase verstärkten wirtschaftlichen Wachstums eingeleitet. Dieses fand mit der Finanz- und Bankenkrise von 2008 ihr Ende.

Zu Reagen fällt mir das Stichwort „Laffer-Kurve“ ein, die Martin Gardner seinerzeit in seinen Mathematischen Spielereien im Spektrum der Wissenschaft (2/1982, S. 12-17) seziert hat und zu Clinton das Stichwort „Glass-Steagall Act“. Letzterer war 1933 nach dem Zusammenbruch der New Yorker Börse im Jahr 1929 („Schwarzer  Freitag“) und im Gefolge der anschießenden Großen Depression erlassen worden und sorgte zum Schutz der Bankkunden für die strikte Trennung des Kreditgeschäfts vom Investmentbanking. Unter Clinton wurde diese strikte Trennung wieder aufgehoben.

Die Folgen der damaligen Deregulierung spüren wir aktuell am Wertverfall des Ersparten. Steven Pinker weist wenigstens darauf hin, dass der Anteil der Armen in den USA aufgrund dieser Rezession wieder zugenommen hat. Bei Michael Shermer lese ich davon nichts, obwohl er in seinem Buch Quellen zitiert, die bis ins Jahr 2014 reichen.

Nun gibt es Negativbeispiele, die auch Michael Shermer nicht übersehen kann. Interessant ist, wie er sich diese zurechtbiegt, so dass sie sein Bild vom Fortschritt nicht weiter stören.

Einkommensverteilung

Michael Shermer greift ein Wort von Barack Obama auf, für den die Einkommensungleichheit „die entscheidende Herausforderung unserer Zeit“ ist, der diesen Trend als „schlecht für unsere Wirtschaft, schlecht für die Familien und für den sozialen Zusammenhalt“ ansieht und der den amerikanischen Traum grundsätzlich bedroht sieht (Shermer, 2015, S. 416 f.). Solcherart Schwarzmalerei ist Shermer ein Gräuel.

Shermer sagt uns, dass die Reichsten in den USA in den Jahren von 1979 bis 2010 zwar sehr viel reicher geworden seien, aber die Ärmsten zumindest nicht ärmer; er belegt das mit der folgenden (von mir nachgezeichneten) Grafik.

Zur Klärung des in der Grafik benutzten Begriffs der Einkommensklasse, stellen wir uns die gesamte einkommenspflichtige Bevölkerung nach wachsendem Einkommen aufgestellt vor. Dann teilen wir diese Anordnung in Klassen (Quantile) auf. Die Klasse (40% bis 60%] beispielsweise bilden wir so: Wir gehen die Personen ausgehend vom geringsten Einkommen der Reihe nach durch, bis wir bei 40% aller Personen angekommen sind. Danach folgen die Personen, die der Klasse zuzurechnen sind. Mit der Zurechnung hören wir auf, wenn wir bei 60% der Gesamtheit angekommen sind. Die Klasse umfasst also 20% aller Personen. Da fünf Klassen des Umfangs von 20% genügen, um die Gesamtheit abzudecken, sprechen wir von Fünfteln. Wenn eine Klasse nur 1% aller Personen umfasst, nennen wir sie Hundertstel.

Die  Personen des untersten Fünftels hatten im betrachteten Zeitraum einen realen (inflationsbereinigten) Einkommenszuwachs von 49%, die des obersten Hundertstels einen von 202%.

Ökonomische Mobilität

Kuddelmuddel im Dienste der Mission

Die wachsende ökonomische Ungleichheit stellt für Michael Shermer kein großes Problem dar, denn es gibt ja – außer der Tatsache, dass auch die Leute mit niedrigstem Einkommen vom Wachstum profitieren – noch die ökonomische Mobilität: Die Armen müssen nicht arm bleiben, sie können aufsteigen. Und den Reichen und Superreichen droht – sozusagen in ausgleichender Gerechtigkeit – der finanzielle Abstieg. Die Stärke dieses Mischungseffekts erläutert Shermer anhand der US-amerikanischen Einkommenssteuererklärungen aus den Jahren 1987 bis 2005.

Er zitiert eine Untersuchung, nach der in diesem Zeitraum über die Hälfte der Steuerzahler in ein anderes Fünftel gewechselt und dass grob die Hälfte der Steuerzahler aus dem untersten Fünftel in eine höhere Einkommensgruppe gewechselt sei. Für Leute mit dem höchsten Einkommen sei es noch wahrscheinlicher, in einer niedrigeren Einkommensgruppe zu landen. Als Beleg gibt er an, dass 60 % der Meistverdienenden aus dem obersten Hundertstel nach zehn Jahren abgestiegen sind.

Also grob die Hälfte der Ärmsten steigt in von zehn Jahren in eine höhere Einkommensklasse auf und weit mehr als die Hälfte steigt aus der obersten Einkommensgruppe ab. Das stimmt versöhnlich.

Aber Hoppla! Warum werden hier verschiedene Zeiträume und verschieden große Klassen angegeben? Ich frage mich, ob das oberste Hundertstel wirklich so hart betroffen ist, wie hier dargestellt. Immerhin ist die oberste der betrachteten Klassen um den Faktor 20 kleiner als die unterste. Ich frage mich, ob die Klassengröße einen Einfluss hat und auch, ob in den Vergleichsjahren wirklich dieselben Haushalte betrachtet werden.

Originaldaten USA 1996-2005

Um Licht ins Dunkel zu bringen, wähle ich eine leicht zugängliche Statistik des  US-amerikanischen Finanzministeriums, nämlich die Daten der Einkommenssteuererklärungen aus den Jahren 1996 und 2005 (Income Mobility in the U.S. from 1996 to 2005, Report of the Department of the Treasury, 13.11.2007).

Zwei Tabellen dieses Berichts zeigen die relative Einkommensmobilität. Die Erfassungsregeln unterscheiden sich:

  1. Die Zuordnung zu den Klassen orientiert sich an den Einkommensgrenzen. Erfasst werden Veränderungen der realen Familieneinkommen, wobei die Einkommensgrenzen (inflationsbereinigt) aus dem Jahr 1996 in das Jahr 2005 übernommen werden. Dadurch ändern sich die Klassengrößen mit der  Zeit.
  2. Die Klassengrößen bleiben unverändert. Nur die Anordnung der Haushalte ändert sich. Maßstab für die Grenzziehung ist jeweils die Anzahl der erfassten Haushalte. Das gilt für das Jahr 1996 als auch für das Jahr 2005.

Die zweite Zählweise liegt der Tabelle 2 aus dem Report des USA­-Finanzministeriums zugrunde. Die folgende Grafik ist eine komprimierte Darstellung dieser Daten.

In der Grafik berücksichtigt sind die Steuererklärungen von Haushalten, die sowohl im Jahre 1996 als auch im Jahre 2005 erfasst worden sind und bei denen der Hauptsteuerpflichtige zu Beginn des Erfassungszeitraums wenigstens 25 Jahre alt war. Gezeigt wird, wie sich für jedes der Fünftel des Jahres 1996 die Rangfolge der Steuerzahler im Jahre 2005 relativ verändert hat. Außerdem sind die Veränderungen für die wohlhabendsten 10%, 5% und 1% erfasst.

Auf dieser definierten Datenbasis formuliere ich die Aussagen von Michael Shermer neu: Im betrachteten Zehnjahreszeitraum sind 56%  der Steuerzahler in ein anderes Fünftel gewechselt; 45% der Steuerzahler sind aus dem untersten Fünftel in eine höhere Einkommensklasse aufgestiegen. Für Leute im obersten Fünftel ist die Wahrscheinlichkeit des Abstiegs mit  39% etwas geringer. Aus dem obersten Hundertstel der Meistverdienenden sind nach zehn Jahren 60% abgestiegen, was ja auch Michael Shermer so berichtet.

Dass es sich bei den betrachteten Haushalten um eine Kohorte handelt (wer 1996 dabei war ist auch 2005 dabei) und dass die Klassifizierung nach den oben unter dem 2. Punkt  angegebenen Regeln geschieht, zieht nach sich, dass den Aufstiegen entsprechende Abstiege gegenüber stehen. Dabei werden teilweise auch Klassen übersprungen.

Der Abstieg aus dem höchsten Einkommensfünftel ist keineswegs wahrscheinlicher als der Aufstieg aus der niedrigsten Einkommensgruppe: 39% gegenüber 45%.

Das Gegenteil hat Shermer auch nicht behauptet. Sein Blick auf die Reichen beschränkte sich auf das oberste Hundertstel, und da ist die Abstiegswahrscheinlichkeit 60%. Ich frage mich, ob die Verringerung der Breite der Einkommensschicht von 20% auf 1% eine Rolle spielt: Micheal Shermer hat den Daten einen Effekt angelastet, der möglicherweise nur von den unterschiedlichen Klassifizierungen herrührt. Er hätte dann nicht das zu Beobachtende charakterisiert, sondern das Verhalten seines „Messgeräts“. Wenn dem so wäre, hätte er sich dank seiner Unachtsamkeit selbst getäuscht, er hätte sich verstolpert.

Schauen wir uns das etwas genauer an.

Analyse

Nehmen wir einmal an, der Mischungsprozess dauert sehr lange an, so dass schließlich eine reine Zufallsmischung wie beim ordentlichen Kartenmischen entsteht. In einer Klasse der Breite p (beim Fünftel ist p = 20%, beim Hundertstel ist p = 1%) ist der Anteil der Bleibenden (oder wieder der Klasse zugeordneten) gleich p. Bezogen auf die Klasse ist daher der Anteil der Wechsler gleich 1-p. So gesehen müsste der Anteil der Absteiger aus der höchsten Klasse 99% und die der Aufsteiger aus der untersten Klasse gleich 80% betragen.

Das ist aber noch eine zu optimistische Darstellung dessen, was bei „gerechter“ Durchmischung dem oberen Hundertstel im Vergleich zum untersten Fünftel droht.

In einem begrenzten Zeitraum ist eine gleichmäßige und vollständige Durchmischung nicht zu erwarten. Bei äußerst schwacher und über den gesamten Bereich gleich intensiver Durchmischung und wenn sich die Rangwechsel in der Anordnung immer nur auf eng benachbarte Plätze beziehen, dann ist in jeder Klasse nur ein kleiner Anteil an den Rändern betroffen. Und dieser grenznahe Anteil bezogen auf die Gesamtheit ist für alle Klassen in etwa gleich. Folglich müsste bei schwacher und gleichmäßiger Durchmischung der Gesamtheit der klassenbezogene Anteil der Absteiger aus der obersten 1%-Klasse etwa zwanzigmal größer sein als der Anteil der Aufsteiger aus der untersten 20%-Klasse.

In einer kleinen Simulation habe ich 20 Milliarden elementare Positionswechsel auf eine Population des Umfangs 10000 angewendet. Ein elementarer Positionswechsel betrifft rein zufällig ausgewählte Nachbarn; diese tauschen die Plätze. Dieser Mischungsprozess lieferte ein Ergebnis, das in etwa dem der obigen Mobilitätstabelle entspricht, zumindest bezüglich der 20%-Klassen.

Tatsächlich ergeben sich große Abweichungen, wenn man sich die schmaleren Top-Klassen ansieht. Die Abstiegswahrscheinlichkeit der 1%-Topverdiender beträgt jetzt nicht mehr 60% sondern 94%. Jedenfalls wird man aufgrund der Verringerung der Klassenbreite von 20% auf 1% eine deutlich erhöhte Abstiegswahrscheinlichkeit erwarten können.

Dass diese Erwartung durch die realen Daten nicht wiedergegeben wird, lässt die Vermutung zu, dass die 1%-Klasse der Superreichen in Wirklichkeit erstaunlich stabil ist; das steht im Gegensatz zu Shermers Behauptung, dass Superreiche überproportional vom Abstieg bedroht seien.

Auch wenn Sie meine Zahlenspielerei nicht überzeugt: Es sollte deutlich geworden sein, dass ein direkter Vergleich der Abstiegs- bzw. Aufstiegszahlen zwischen Klassen verschiedener Breite nicht zulässig ist. Shermer bewegt sich auf trügerischem Terrain.

Zum Schluss

Michael Shermer und Steven Pinker vertreten ziemlich extreme liberale und religionsfeindliche Ansichten. Aber auch wer anderer Meinung ist, kann dem einen oder anderen Aspekt – vor allem in Pinkers Buch – etwas abgewinnen und daraus lernen. Um die Sicht beider Autoren auf die Aufklärung ein wenig zurechtzurücken, kann ein Blick in das Buch „The Swerve: How the World Became Modern“ von Stephen Greenblatt von Vorteil sein; außerdem ist es die spannendere Lektüre.

Michael Shermers Buch empfinde ich streckenweise als Überredungs- und Missionierungsversuch: was nicht passt, wird passend gemacht. Pinkers Buch wird seinem Anspruch eher gerecht: ein Plädoyer für die Aufklärung, für Vernunft, Wissenschaft, Humanismus und Fortschritt.

Vorsicht ist jedenfalls geboten. Notfalls sollte der Leser die in den Werken reichlich zitierten Quellen konsultieren. Das kann auch der Laie. Das ist die von mir empfohlene Methode, die ich auch in diesem Artikel angewandt habe: Nicht glauben, wenn man nachschauen kann. Das hilft, Stolpersteine rechtzeitig zu entdecken.

Nachteil dieser Methode ist, dass die Lektüre sehr, sehr lange dauern kann. Wer sich einlullen lassen will und sich in seiner Meinung (pro oder kontra) nur bestätigt sehen will, kommt schneller voran. Inzwischen gibt es deutschsprachige Ausgaben dieser Bücher.

Die Bücher

Greenblatt, Stephen: The Swerve: How the World Became Modern. 2011

Pinker, Steven: Enlightenment Now. The case for reason, science, humanism, and progress. 2018

Shermer, Michael: The Moral Arc. How science makes us better people. 2015

Veröffentlicht unter Humanismus, Korrelation und Kausalität, Moral und Ethik, Skeptizismus, Soziologie, Statistik, Wirtschaft, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , | Hinterlasse einen Kommentar

Treibt Wissenschaft den moralischen Fortschritt an?

„Der moralische Fortschritt: Wie die Wissenschaft uns zu besseren Menschen macht“. Der Buchtitel verspricht Großes. Hier wird eine zentrale Bastion abendländischen Denkens geschleift.

Es geht um das Buch „The Moral Arc“ von Michael Shermer. Die deutsche Ausgabe ist in Vorbereitung und trägt den eingangs zitierten Titel.

Shermer unternimmt nichts Geringeres als einen Angriff  auf das Gesetz von David Hume, demgemäß nicht vom Sein auf das Sollen geschlossen werden kann, dass also aus den Tatsachen noch keine Entscheidungen folgen. Auch Immanuel Kant kommt unter die Räder, der den Bereich der Wissenschaft (Was kann ich wissen?) sauber vom Bereich der Werte, Normen und Moralvorstellungen (Was soll ich tun?) trennt.

Diese in unserer Kultur durchaus gefestigte Ansicht von den „getrennten Reichen“ zu widerlegen, das ist Shermers Anliegen. Es sei die Wissenschaft, die den moralischen Fortschritt vorantreibt. Zwischen Sein und Sollen bestehe ein ursächlicher Zusammenhang.

Beginnen wir mit einer Begriffsklärung. Gemäß Duden steht Moral für

  1. Gesamtheit von ethisch-sittlichen Normen, Grundsätzen, Werten, die das zwischenmenschliche Verhalten einer Gesellschaft regulieren, die von ihr als verbindlich akzeptiert werden
  2. sittliches Empfinden, Verhalten eines Einzelnen, einer Gruppe; Sittlichkeit

Nach welchem Maßstabe wird die Moral besser?

Der Prolog von Shermers Buch enthält den entscheidenden Satz: Verbesserungen im Bereich der Moral offenbaren sich in vielen Lebensbereichen. So meint er. Es folgt eine Liste von Beispielen: Der Aufstieg liberaler Demokratien, Eigentumsrechte und freier Handel, Freiheitsrechte, Wohlstand, Gesundheitswesen, weniger Kriege, Abschaffung der Sklaverei, Rückgang der Raten von Mord, Vergewaltigung und sexueller Belästigung, Abschaffung von Folter und Todesstrafe, Gleichheit vor dem Gesetz.

Aber Hoppla! Wie lassen sich Verbesserungen im Bereich der Moral feststellen, wenn nicht nach Maßgabe einer Moral? Das sieht nach einem Zirkelschluss aus. Oder aber im Buch wird eine moralische Festlegung vorab getroffen, und zwar nicht getrieben durch die Wissenschaft.

Immanuel Kant nennt einen solchen Bezugsrahmen für die praktischen und konkreten Normen und Gesetze die  „oberste Bedingung aller Maximen“: „Der Gedanke a priori von einer möglichen allgemeinen Gesetzgebung […] wird, ohne von Erfahrung oder irgend einem äußeren Willen etwas zu entlehnen, als Gesetz unbedingt geboten.“ (Kant, Kritik der praktischen Vernunft, § 7 Grundgesetz der praktischen Vernunft)

Michael Shermer denkt wohl, seine wissenschaftsgetriebene Moral sei ein solcher Rahmen. Er erkennt an, dass es Alternativen dazu gibt; sie sind der Philosophie entlehnt: die Nikomachische Ethik des Aristoteles, der kategorische Imperativ des Immanuel Kant, der Utilitarismus des John Stuart Mill und die Theorie der Gerechtigkeit von John Rawls.

Beim näheren Hinsehen aber bietet die wissenschaftsgetriebene Moral gar keinen Maßstab in diesem Sinne. Dazu ist sie viel zu vage und zirkelhaft („Was die Vernunft uns gebietet ist vernünftig“). So gesehen bleibt die Bewertung dessen, was ein Fortschritt ist, eine Geschmacksfrage. Und in diesem Fall ist es der Geschmack des Michael Shermer. Michael Shermer hat – wie viele andere auch – ein Mitgefühl für Tiere; er mag die Jägerei, die Fischerei und das Schlachten von Tieren nicht. Die wachsende Population der  Vegetarier ist für ihn folglich ein positiver moralischer Trend.

Dass man die Veredelung in der Landwirtschaft — Verfütterung von Feldfrüchten mit dem Zweck des Fleischkonsums — auch aus Gründen des ökonomischen Umgangs mit den Ressourcen ablehnen kann, spielt für Shermer nur eine untergeordnete Rolle. Dabei hätte er hier noch am ehesten seine wissenschaftlich-wirtschaftlichen  Argumente anbringen können.

Vergessen wir den Anspruch, die moralischen Normen wissenschaftlich zu begründen und nehmen wir sie als das, was sie sind: Unbedingte Setzungen, mehr oder weniger nützlich und jedenfalls diskussionswürdig. Wirksamkeit erlangen solche moralische Prinzipien in einem demokratischen Entscheidungsprozess; sie verwirklichen sich letztendlich in unseren Gesetzen.

Shermers Buch hat dazu einiges von Belang zu bieten. Es fasst moralische Prinzipien in Art der Zehn Gebote zusammen. Die folgende Kurzfassung soll Lust darauf machen, sie im Original zu studieren. Ich ziehe den Hut vor dem, der sie zur Richtschnur seines moralischen Verhaltens macht.

  1. Alles nun, was ihr wollt, dass euch die Leute tun sollen, das tut ihnen auch!
  2. Frage erst nach, ob deine Aktion vom anderen als gut oder schlecht empfunden wird.
  3. Strebe nach Glückseligkeit und denke dabei auch an die anderen.
  4. Suche die Freiheit und denke dabei auch an die Freiheit der anderen.
  5. Handle fair.
  6. Handle möglichst rational.
  7. Übernehme die Verantwortung für dein Handeln.
  8. Verteidige auch andere gegenüber moralischen Aggressoren.
  9. Dehne deine moralischen Kategorien auch auf Leute anderer Nationen und anderer Religionen, auf Leute anderer Hautfarbe oder anderer sexueller Orientierung aus.
  10. Leiste deinen Beitrag zum Weiterbestehen der gesamten Biosphäre.

Für das Reziprozitätsprinzip (1.) habe ich die Formulierung aus Mt 7, 12 gewählt; diese Anleihe bei der Bibel passt nicht so recht zu Shermers Behauptung „religion cannot be the driver of moral progress“. Die Erweiterung des Reziprozitätsprinzip (2.) berücksichtigt die Tatsache, dass Risikobewertungen subjektiv sind. Das 3. Prinzip kommt aus der Antike zu uns (Epikur). Zum Freiheitsprinzip (4.) hat John Stuart Mill einen berühmten Aufsatz geschrieben und er bezieht sich darin auch auf antike Wurzeln. Das Fairnessprinzip (5.) wurde von John Rawls klar gefasst.

Das Vernunftprinzip (6.) stößt mir auf, denn wer gibt schon zu, irrational zu handeln. Außerdem steht nach Shermer alles moralische Handeln unter dem Regime der Vernunft. So gesehen steht hier: es ist vernünftig, vernünftig zu sein. Das 7. Gebot, dem ich gerne zustimme, entstammt der Verantwortungsethik und steht im Gegensatz zu Kants Gesinnungsethik. Aus dem letzten Prinzip (10.) kann man mit etwas Mühe die heute international akzeptierte Forderung nach nachhaltiger Ressourcennutzung herauslesen.

Das alles ist nicht alternativlos. Jedenfalls ist dieser Dekalog nicht zwangsläufige Folge irgendwelcher wissenschaftlicher Theorien. Diese Prinzipien  lassen sich nicht aus Fakten ableiten.

Besonders sticht mir das 2. moralische Prinzip dieses Dekalogs ins Auge. Hier spielt tatsächlich die Wissenschaft eine Rolle. Es geht um die Erkenntnisse der Risikoforschung. Dennoch bleibt es eine Setzung – bedingungslos. Warum das so ist, weiß ich aus eigenem Erleben.

Vor über zwei Jahrzehnten bin ich, ohne das zu wissen, dem 2. Prinzip gefolgt und habe in Ingenieurkreisen ziemlich vehement vertreten, dass die Risikobewertung vom Standpunkt der Betroffenen auszugehen habe, dass sie unvermeidlich subjektiv sei. Darin bin ich der Linie der Prospect Theory von Daniel Kahneman und Amos Tversky gefolgt.

Ich hatte damals einen schweren Stand gegenüber einigen Vertretern der Industrie (Kerntechnik, Bahnwesen), die damals noch das objektive Risiko als das geeignetere Maß ansahen. Sie hätten anstatt des zweiten Prinzips wohl lieber einen Satz von Albert Kuhlmann vom TÜV Rheinland gesehen: „Die Sicherheitskultur muss sich darum bemühen, dass es zu einer Vergleichmäßigung der technischen Risiken kommt.“ Damit ist die „Verteilung der technischen Risiken auf die Gesellschaft und den einzelnen Bürger“ nach objektiven Maßstäben unter Zugrundelegung des technisch-naturwissenschaftlichen Risikobegriffs gemeint.

Korrelation

Die Moral sei mit der Zeit immer besser geworden, so Shermer.  Er begibt sich ins Archiv der Weltgeschichte, ist dort außerordentlich fleißig und trägt einen Berg von Belegen zusammen zur Stützung dieser These.

Shermer schreibt die von ihm konstatierte Verbesserung der Moral dem gleichlaufenden Fortschritt von Wissenschaft und Vernunft zu, wobei die Rolle der Vernunft darin bestehe, rationale Argumente und empirische  Belege zu liefern – was nun wiederum auf Wissenschaft hinausläuft.

Seine Auswahl an Beispielen für diesen Zusammenhang ist tendenziös. Ich greife eins heraus: Die USA sind Spitze bei der Zahl der Nobelpreisträger, in punkto Religiosität und hinsichtlich der Mordrate. Sie können leicht erraten, welche der drei möglichen  Paarungen Eingang ins Buch gefunden hat: Religiosity and Homicides (Bild 4-2 auf Seite 170).

Bereits  der These vom Fortschritt der Moral muss man mit Skepsis begegnen. Dass mit dieser Prämisse möglicherweise etwas nicht stimmt, zeigen die aktuellen politischen Tendenzen in den USA sowie in Ost- und Südeuropa: Fremdenfeindlichkeit und die damit einhergehende Demontage des Toleranzgebots.

Letzteres ist nicht etwa das Werk von Wissenschaftsskeptikern. Technik- und Wissenschaftsgläubige sind am Werk. Ayn Rand verleiht diesen Leuten eine mächtige Stimme; von ihr kommt der flammendste Angriff auf einen der wichtigsten Grundwerte unserer westlichen Gesellschaften, auf die Toleranz.

Zu denken gibt auch der Satz, den der Internetkritiker Jaron Lanier im Spiegel-Interview  am 3.11.2018 zum Besten gegeben hat: „All die Eltern, die bei Google und Facebook arbeiten, erlauben ihren Kindern nicht, die Produkte zu benutzen, die sie selbst entwerfen.“ Auch die Verrohung der Sitten in den sozialen Netzwerken dient schwerlich der Stützung von Shermers These von der andauernden Verbesserung der Moral.

Nähern wir uns dem Problem von einer anderen Seite. Die Steinzeitfrau war an Herd und Kind gebunden. Die Arbeitsteilung zwischen Mann und Frau war durch biologische und wirtschaftliche Gegebenheiten ziemlich starr vorgegeben. Gleichstellungsbestrebungen lagen nicht in der Luft. Deshalb waren die damaligen Menschen nicht weniger moralisch als die heutigen.

Die Technik befreit weitgehend von der Hausarbeitsfron. Frauen in der Wirtschaft sind ein lohnendes Geschäft für die gesamte Gesellschaft. So kam es dann auch zu unseren Gleichstellungsgesetzen.

Das Beispiel zeigt: Die Wissenschaft bringt die Technik voran. Diese führt zum gesellschaftlichen Wandel und dieser wiederum zu einer Entwicklung der Normen, die den sich ändernden Lebensverhältnissen gerecht werden. Wie bereits Karl Marx feststellte: Erst ist die Basis da, dann kommt der kulturelle Überbau mit seinen Standards.

Kausalität

So gesehen hat die Wissenschaft keinen direkten Einfluss auf die Moral. Von besser oder schlechter kann nicht die Rede sein. Zu fragen ist nur, inwieweit ein System von Normen  zu den Gesellschaftsverhältnissen passt. Und natürlich gibt es Rückwirkungen des Überbaus auf die Produktionsverhältnisse, auf die Basis. Eine einfache Ursache-Wirkungsbeziehung von der Wissenschaft hin zu den gesellschaftlichen Normen ist nicht auszumachen.

Aber genau um einen solchen Nachweis geht es Michael Shermer. Fast zwanghaft trägt er einen riesigen Berg an Beispielen zusammen, in denen es immer darum geht, den Einfluss der Wissenschaft auf das moralische Wachstum zu belegen. Aber es bleibt bei der ständig wiederholten Behauptung. Ursache-Wirkungsbeziehungen bleiben unsichtbar. Bestenfalls werden Korrelationen belegt.

Shermers Argumentationsmuster hat durchgängig die Form A → B, wobei A für die Wissenschaft, B für immer neue Beispiele moralischen Wachstums und der Pfeil für die Wirkungsrichtung steht. Dabei gerät in Vergessenheit, dass die Korrelation zwischen A und B durchaus auch von Kausalbeziehungen C → A und C → B erzeugt sein kann. Manchmal verrät Shermer auch, wie die gemeinsame Ursache C aussehen könnte.

Er ist sich offenbar der Tatsache bewusst, dass seine Beteuerungen auf schwachen Füßen stehen. Er schreibt nämlich, dass die wachsende Fähigkeit des abstrakten Denkens C sowohl die Wissenschaft A als auch die  Moral B vorangebracht haben könnte.

Allzuviele Beispiele ermüden. Ich greife nur noch eines heraus.

Shermer stellt sicherlich zu Recht fest, dass der aufstrebende Handel C die Regeln der Fairness B nach sich gezogen hat. Der Mathematiker wird ergänzen: Und dieser freie Handel hat auch die mathematischen Wissenschaften A beflügelt; er hat die Wahrscheinlichkeitsrechnung aus der Spielerecke gezerrt und für die Statistik und das Versicherungswesen nutzbar gemacht (Bernstein, 1996). Die moralischen Gebote der Fairness sind eine Folge des freien Handels und wohl kaum eine Konsequenz der mathematischen Wissenschaft.

Das zum Thema Korrelation und Kausalität.

Kommt die Wissenschaft vor der Moral?

Es stellt sich die Frage, ob die Wissenschaft wenigstens den Formulierungen der Moralvorstellungen vorausgeht. Das wäre nämlich das Mindeste, was man im Sinne der postulierten Kausalitäten verlangen müsste.

Aber auch da sieht es nicht gut aus. Ein Meilenstein der Renaissance war die Wiederentdeckung des Lehrgedichts „Über die Natur der Dinge“ von Lukrez im Jahre 1417 – vermutlich im Benediktinerkloster Fulda.

Anstelle von empirischen Belegen findet man in dem Text nur Spekulationen über den Aufbau der Welt. Spekulation und Metaphysik gehören zum kreativen Vorfeld der Wissenschaft. Wissenschaftlich im modernen Sinne ist das alles nicht. Dazu fehlen die empirischen Nachweise und Prüfungen.

Erst zweihundert Jahre nach dem Wiederauffinden und über siebzehn Jahrhunderte nach Entstehung des Lehrgedichts entstand die moderne Erfahrungswissenschaft durch Loslösung der scientia von der sapientia. Auf diese scientia beruft sich Shermer, wenn er von science spricht.

Dennoch handelt es sich bei dem Lehrgedicht und dessen Auferstehung um einen Schatz von außerordentlichem Wert – und das nicht etwa wegen der Auswirkung auf die Wissenschaft, sondern wegen seiner umwälzenden Wirkung in Sachen Moral, Normen und Wertvorstellungen. Um das zu verdeutlichen, folgen ein paar kurze Auszüge aus dem Lehrgedicht (übertragen von Klaus Binder).

  • … ich eile, die Seele aus den bindenden Fesseln des Aberglaubens zu lösen. (1.932)
  • Dass ihr nicht seht, was die Natur verlangt, nicht mehr nämlich, als dass Schmerzen weit ferngehalten werden vom Leib und der Geist sich, von Sorge erlöst und Furcht, heiter fühle und gelassen! (2.19)
  • Weil weder Reichtum noch Rang noch Pomp der Macht irgend heilsam wirken auf den menschlichen Leib, darum, so können wir annehmen, sind sie unnütz für Geist und Seele. (2.39)
  • Gäbe es keinerlei Abweichung der Urelemente, die durch neu gerichtete Bewegung das Gesetz des vorbestimmten Schicksals sprengt, dann wäre seit unendlicher Zeit in endloser Kette Ursache auf Ursache gefolgt. Woher aber, frage ich, hätten dann lebende Wesen überhaupt auf Erde den freien Willen? (2.255)
  • Gering sind die Spuren unserer natürlichen Anlagen, die vernünftigem Denken widerstehen und bleiben. Nichts also hindert uns, ein Leben zu führen, das Göttern würdig ist. (3.320)
  • Es ist die Natur der Dinge nicht durch göttliches Wirken geschaffen und auch nicht für uns. (5.195)

Soweit Lukrez, aber das ist längst nicht alles, was die Antike uns an Wertvorstellungen zu bieten hat. Demokratie, Freiheit, Individualismus, all dies heute wirksame normsetzende Gedankengut der Antike wurde uns von jüdischen, islamischen und christlichen Gelehrten und Schreibern übermittelt und wurde teils für Jahrhunderte in Klosterbibliotheken aufbewahrt. Das alles geschah in vorwissenschaftlicher Zeit, in eine Zeit also, in der das Nachdenken über die Natur die Metaphysik hervorbrachte und in der diese Spekulationen Teil der Philosophie waren.

Aus vorwissenschaftlicher Zeit sind auch die Grundregeln der Skepsis, die der jüdische Philosoph Moses Maimonides formuliert hat. Es sind die Aufforderung zur Toleranz gegenüber Gesprächspartnern und der abgewogene Zweifel.  Diese Grundregeln der Gesprächskunst haben normative Geltung  (Basics für Skeptiker).

Kurz gefasst

Michael Shermer, Begründer der Skeptics Society und Herausgeber des Skeptic-Magazins, ist es gelungen, eine ganze Reihe von Regeln gesunder Skepsis zu brechen. Das nenne ich „gelebte Ironie“.

Dennoch: Das Buch enthält viel Bedenkenswertes und sogar Beherzigenswertes. Es lohnt die Lektüre, auch wenn es sein Hauptziel nicht erreicht, nämlich den Nachweis, dass die Wissenschaft die Moral verbessert. Das Gesetz von Hume wird nicht ausgehebelt.

Quellen

Bernstein, Peter L.: Against the Gods, 1996

Grams, Timm: Risikooptimierung kontra Risikobegrenzung. Analyse eines alten und andauernden Richtungsstreits. Automatisierungstechische Praxis atp 8/2003

Greenblatt, Stephen: The Swerve.  How the World Became Modern. 2011

Höffe, Otfried: Aristoteles: Die Hauptwerke. Ein Lesebuch. Tübingen 2009

Lukrez: Über die Natur der Dinge. (In deutsche Prosa übertragen und kommentiert von Klaus Binder. Mit einer Einführung von Stephen Greenblatt. 2014)

Maimonides, Moses: Wegweiser für die Verwirrten. Eine Textauswahl zur Schöpfungsfrage. 2009

Mill, John Stuart: On Liberty and Utilarianism. Oxford University Press 1969

Shermer, Michael: The Moral Arc. How Science Makes Us Better People. 2015

Veröffentlicht unter Korrelation und Kausalität, Moral und Ethik, Naturwissenschaften, Skeptizismus, Wahrscheinlichkeitsrechnung | Verschlagwortet mit , , , , | 4 Kommentare