Astroturfing

Was ist Astroturfing?

„1987 vereinigte der damalige Eigentümer Monsanto alle Zweige seiner AstroTurf-Abteilung nach Dalton im US-Bundesstaat Georgia unter dem Namen AstroTurf Industries Inc. Bis in  die späten 90er-Jahre war AstroTurf  Kunstrasen-Marktführer, muss heute jedoch mit ernsthafter Konkurrenz leben.“ (Wikipedia, 09.02.19)

Astroturfing steht zu spontanen Bürgerbewegungen, wie Kunstrasen zu echtem Rasen. Der Begriff meint PR-Projekte mit folgenden Merkmalen:

  1. Vortäuschen einer Graswurzelbewegung.
  2. Finanzierung durch eine Interessengruppe.
  3. Verbergen der wahren Drahtzieher.
  4. Hochgejazzte Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von wirklich Aktiven.
  5. Übernahme von teils altbekannten Propagandaaussagen der ursprünglichen Interessengruppe.
  6. Schüren von Emotionen. Aufbau eines freundlichen Images: „Grün“, „nachhaltig“, „schonend“, „sanft“ usw. Moralisieren.

Unter Propaganda verstehe ich das, was auch die Bundeszentrale für politische Bildung (bpb) darunter versteht, nämlich „die zielgerichteten Versuche, politische Meinungen und öffentliche Sichtweisen zu formen, Erkenntnisse zu manipulieren und das Verhalten in eine vom Propagandisten oder Herrscher erwünschte Richtung zu steuern. Dies steht im Gegensatz zu pluralistischen und kritischen Sichtweisen, welche durch unterschiedliche Erfahrungen, Beobachtungen und Bewertungen sowie einen rationalen Diskurs geformt werden.“

Und wie lässt es sich entzaubern?

Wie in früheren Hoppla!-Artikeln geht es nicht darum, irgendwelche Akteure an den Pranger zu stellen. Ich enthalte mich ebenso wie bei den täuschenden Argumenten jeglicher moralischer Wertung: Astroturfing mag nicht jedem gefallen, aber solange keine Gesetze gebrochen werden, wird man es hinnehmen, wenn auch nicht notwendigerweise klaglos.

Die Verächtlichmachung der Akteure ist nicht angebracht. Mancher gerät ungewollt in eine solche Aktion und selbst derjenige, der diese Form der Werbung und Lobbyarbeit bewusst betreibt, kann sehr wohl in lauterer Absicht handeln.

Ich will mit diesem Artikel nicht den Moralpredigern Munition liefern, sondern den Adressaten solcher PR die Möglichkeit eröffnen, die wahren Absichten und Hintergünde vom täuschenden Beiwerk zu befreien.

Wir alle wollen uns nicht hinters Licht führen lassen, aber wir haben weder die Mittel noch die Zeit des investigativen Journalismus. Welche Möglichkeiten bleiben uns dann noch, Astroturfing aufzudecken?

Astroturfing kann von mächtigen Interessenverbänden betrieben und finanziert werden, aber es gibt auch bescheidenere Anlässe. Astroturfing ist für mich eine Bezeichnung für PR-Aktionen, auf die die Mehrzahl der oben genannten Merkmale zutrifft.

Der allgemein gehaltene und umfassende erste Punkt wird durch die anderen Punkte konkretisiert; er bedarf keiner eigenen Nachforschung. Beim zweiten Punkt wird es schwierig. Üblicherweise werden ein oder mehrere Vereine ein Projekt vertreten. Es ist für den Hobby-Entzauberer fast aussichtslos, verlässliche Auskünfte zu den Finanzströmen zu erhalten, es sei denn, die Träger des Projekts sind besonders gutwillig. Damit fiele dann die ganze Entzauberungsaktion schon in sich zusammen.

Das dritte Merkmal (Verbergen der Drahtzieher) ist nur per Zufall oder durch Leichtsinn der PR-Leute zu entdecken. Also richten wir unsere Anstrengungen nicht zuallererst darauf. Vielleicht ergibt sich im Laufe der Recherchen zu den übrigen Merkmalen ein Zufallsfund.

Wer den Verdacht hat, einem Astroturfing auf der Spur zu sein, sollte mit den Punkten vier bis sechs anfangen. Daraus ergeben sich dann möglicherweise Indizien für den ersten, für den Hauptpunkt.

Beispiel: Nuclear Pride

Die Ankündigung

Nuklearia, das Bündnis für moderne und sichere Kernenergie, lud am 5. September 2018 zum  Nuclear Pride Fest nach München ein. Zuvor hatte man auf einer Tagung europäischer Kernkraftfreunde in Amsterdam im kleinen Kreis von fünfzig Leuten mit der Nuclear Pride Coalition ein neues, europaweites Bündnis gegründet.

So wurde das Fest angekündigt: Es sollte ein Fest für die ganze Familie werden, mit Musik, Essen, Informationen, Blumen, Luftballons und weiteren Aktionen. Auf dem Münchner Marienplatz würden Hunderte von Kernkraft-Enthusiasten mit ihren Familien singen, tanzen, spielen und ihre persönlichen Geschichten erzählen. In zahlreichen Aktivitäten würden sie als Einzelne und als Gruppe ihrer Freude an der Kernenergie Ausdruck verleihen und die Vorteile der Kernkraft feiern.

Ziel der Veranstaltung war, die positiven Eigenschaften der Kernenergie ins Bewusstsein der Leute zu rücken: emissionsarm, CO2-arm wie Windkraft, und besser als Photovoltaik.

Zum Thema Radioaktivität ignorierten Atomkraftgegner gern die Fakten, so die Nuklearia, sie schürten unbegründete Ängste und agierten immer emotional, offensiv und laut. Kernkraftfreunde hingegen seien eher leise, wissenschaftlich orientiert, agierten eher kopfgesteuert als aus dem Bauch heraus und seien leider nur schlecht sichtbar.

Atomkraftgegner setzten auf Energiesparen. Darin sehen die Kernkraftfreunde keine Lösung. Aus ihrer Sicht ist eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand unverzichtbar.

So lief das Nuclear Pride Fest ab

Das Fest fand am 21. Oktober 2018 auf dem Münchner Marienplatz statt.

Die Nuclear Pride Coalition, ein im vergangenen September gegründetes Bündnis von rund 50 Organisation und Einzelpersonen aus Europa und den USA, hatte beim Nuclear Pride Fest bewusst auf eine Willkommensatmosphäre gesetzt. An verschiedenen Ständen und auf der »Bühne der Begeisterung« konnten Besucher und Besucherinnen mit den Kernkraftfreunden ins Gespräch kommen, an Aktionen teilnehmen und sich über Kernenergie, Klimawandel, Versorgungssicherheit oder Strahlung informieren. Nicht jeder wüsste, dass man durch den Verzehr einer Banane mehr Radioaktivität in den Körper aufnimmt, als wenn man ein Jahr lang in der Nähe eines Kernkraftwerks lebt.

Auf den Szenenfotos vor dem Rathaus waren unter den vielen Passanten etwa fünfzig Personen auszumachen, die an dem Fest teilnahmen. Nicht nur das organisierte Anti-Atom-Establishment glänzte durch Abwesenheit, wie der Veranstalter bedauert, auch die fünfzig Unterstützerorganisationen hatten sich offensichtlich rar gemacht.

Seltsam muten angesichts des schwachen Auftritts der Eigenkommentar der Veranstalter und die große Internetpräsenz an (SZ.de und Welt.de): „Beeindruckend, wie viele Kernkraftfreunde sich motivieren ließen, nach München zu kommen! Kernenergie hat offensichtlich noch immer viel mehr Sympathisanten in Deutschland, als man glaubt.“ Das Nuclear Pride Fest sei ein Kondensationspunkt für Kernkraftbegeisterte. Es habe funktioniert. In diesem Jahr soll es ein solches Fest in Paris geben.

Kernkraft einst

In den Siebziger- und den frühen Achtzigerjahren war ich bei einem Kernkraftwerkshersteller beschäftigt. Gleich bei meinem Einstieg wurde ich mit der Aussage konfrontiert, dass dem angestrebten und erwarteten Wirtschaftswachtum von jährlich 7% ein Wachstum des Energiebedarfs von ebenfalls 7% entspreche und man sich darauf einstellen müsse.

Wenn die Kernkraftfreunde heute wieder „eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand [für] unverzichtbar“ halten, greifen sie genau das damalige Mantra auf. Auch die Kurven für den Kohlendioxidanstieg kenne ich aus dieser Zeit. Das war einer der Gründe, die Kernenergie positiv zu sehen. Heute ist dieses Argument für die Kernenergie noch stärker.

Nicht an die große Glocke gehängt, aber unter uns Risikoleuten heftig diskutiert, wurde damals die Kehrseite: Einige sahen das Risiko einer Kernschmelze mit ihren Folgen als das größte Problem an. Für mich und einige andere war das Entsorgungsproblem vorrangig. Beide Fraktionen haben inzwischen ihre Bestätigung gefunden.

Der Club of Rome mit seinen „Grenzen des Wachstums“ und die Ölpreiskrise zeigten bereits damals, dass Wirtschafts- und Energiewachstum doch nicht so eng miteinander verkoppelt sind wie behauptet.

Damals lud der Vorstand meiner Firma den Publizisten Alfred Grosser ein, um sich von  ihm erklären zu lassen, warum es in Frankreich mit der Atomkraft besser läuft als in Deutschland. Ich erinnere mich so: Anders als erwartet, erklärte der Gast damals, dass wir in Deutschland mit unseren Gesetzen und dem Prinzip der Trennung von Hersteller, Betreiber und Genehmigungsbehörde gut bedient seien. Alle Leistungen aus einer Hand, wie bei der Electricité de France, sei nicht erstrebenswert.

Ich hatte den Eindruck, dass die Begeisterung für die Kernkraft bei den Ranghöheren der Firma stärker schwand als an der Belegschaftsbasis.

In der Öffentlichkeit aber blieb man dabei: Mehr Energie muss her, möglichst ohne Kohlendioxid, am besten mittels Kernkraft.

Heute, fast ein halbes Jahrhundert später, werden die Argumente wieder aufgegriffen, in einer Verpackung, die man abstoßend finden kann: „Achieving the future will first require that we abandon our ridiculous fears and start seeing nuclear waste as the environmental blessing that it is.“ (Michael Shellenberger bei Forbes.com am 19. Juni 2018)

An  den Argumenten ist, netto gesehen, nichts auszusetzen. Aber sie zeigen nur die eine Seite einer sehr komplexen Angelegenheit. Ein Skeptiker sollte sich jedenfalls auch die andere Seite ansehen und die Argumente abwägen, so wie uns das bereits Moses Maimonides lehrt.

Welche Schlüsse können wir daraus ziehen?

Die Argumente waren einst wie heute; im Zentrum standen auch damals schon der Kohlendioxidanstieg in der Atmosphäre und die Prämisse des notwendigen Wirtschaftswachstums und in dessen Gefolge des Wachstums des Energiemarkts. Nur dass heute noch mehr Datenmaterial vorliegt. Ich stelle fest, dass das fünfte Merkmal des Astroturfings gegeben ist: Übernahme von altbekannten Propagandaaussagen.

Wir haben es bei der Nuclear-Pride-Bewegung wohl tatsächlich mit dem Vortäuschen einer Graswurzelbewegung zu tun, weil die Bewegung auch die folgenden Charakteristika aufweist: Übertriebene Angaben zu den Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von wirklich Aktiven sowie das Schüren von Emotionen mittels positiv belegter Vokabeln.

Das schließt nicht aus, dass die Bewegung Recht behält. Die Option Kerntechnik wird wohl auch hierzulande nicht aus der Diskussion verschwinden. Es ist Sache der demokratischen Institutionen, die mit allen Meinungsgruppen klar kommen müssen – auch mit Astroturfing.

In diesem Artikel geht es nicht um die transportierten Meinungen – allein die Kommunikationskultur und wie sich der Einzelne darin zurechtfinden kann, stehen zur Debatte. Es geht um Transparenz.

Bei dieser Gelegenheit: Unser parlamentarisches System würde von einem verpflichtenden Lobbyregister profitieren. Bedauerlich ist, dass dieses Thema nach einem kurzen Aufflackern in den vergangenen Koalitionsverhandlungen in Berlin wieder in der Versenkung verschwunden ist.

Veröffentlicht unter Astroturfing, Moral und Ethik, Skeptizismus, Wirtschaft | Verschlagwortet mit | Hinterlasse einen Kommentar

Irreführende Bayes-Schätzungen

Wenn es weltweit auch nur einen einzigen 50%-Psi-Begabten im Sinne des vorigen Hoppla!-Artikels Was zeigen uns die Ergebnisse statistischer Tests? gäbe, wäre das eine Riesensensation. Aber er wäre kaum aufzufinden. Und dann würde er beim Würzburger Psi-Test auch noch mit 50prozentiger Wahrscheinlichkeit unentdeckt durchrutschen. In diesem Licht scheint die Behauptung, dass die Keine-Übernatur-Hypothese prüfbar sei, doch etwas kühn zu sein.

Auch wenn der Würzburger Psi-Test wohl nie zu positiven Ergebnissen führt, kann man sich die Frage stellen, wie sich die weltweite Verteilung der Trefferwahrscheinlichkeit der Psi-Begabung anhand der erzielten Trefferquoten ermitteln lässt.

Wie wir im vorhergehenden Artikel gesehen haben, kann die Bayes-Schätzung Derartiges wohl nicht leisten. Schade. Woran liegt es, dass die Bayes-Schätzung versagt? Lässt sich über die speziellen Fälle hinaus etwas über die generellen Gültigkeitsgrenzen der Bayes-Schätzung sagen? (Die unten zitierten Quellen finden Sie ebenfalls am Schluss des vorigen Hoppla!-Artikels.)

Oft funktioniert die Bayes-Schätzung wie erwartet

Im Fall der Harvard-Medical-School-Studie wird mit einer einfachen Häufigkeitsbetrachtung die Wirksamkeit eines diagnostischen Tests abgeschätzt. Durch den Übergang von Häufigkeiten auf Wahrscheinlichkeiten wird daraus die Bayes-Schätzung.

Im Kern besagt die Formel von Bayes, dass die Wahrscheinlichkeit einer Hypothese H („Person ist krank“) durch die gemachte Beobachtung E („Test ist positiv“) in demselben Verhältnis steigt, wie die Beobachtung durch die Hypothese wahrscheinlicher wird. Mit den Formelzeichen für (bedingte) Wahrscheinlichkeiten sieht dieser Zusammenhang so aus:

P(H|E)/P(H) = P(E|H)/P(E).

Im Fall der Harvard-Medical-School-Studie setzen wir folgende Daten als bekannt voraus: P(H)=0,1%, P(E|H)=95% (Power, auch Sensitivität des Tests) und P(EH) = 5% (Falsch-positiv-Wahrscheinlichkeit). Damit ist P(E) = P(E|H)∙P(H)+ P(EH)∙PH) ≈ 5,1%. Die Formel liefert dann das Ergebnis für P(H|E): Eine positiv getestete Person ist mit der Wahrscheinlichkeit von weniger als 2% tatsächlich krank.

Diese Anwendung der Bayes-Formel auf diagnostische Tests ist methodisch einwandfrei. Die Wahrscheinlichkeiten P(H) und P(H|E) sind die A-priori- bzw. A-posteriori-Wahrscheinlichkeit der Hypothese.

Die A-posteriori-Wahrscheinlichkeit ist eine verbesserte Schätzung unter der Bedingung der gemachten Beobachtung. Es geht nicht darum, mithilfe der Bayes-Formel mehr über die Hypothesenwahrscheinlichkeit P(H) zu erfahren. Die Basisrate der Krankheit bleibt selbstverständlich unverändert!

Bei der Parameterschätzung ist die Anwendung der Bayes-Formel fragwürdig

Versuch der Abschätzung einer Parameterverteilung

Was auf diagnostische Tests so erfolgreich angewendet wird, das sollte auf Parameterschätzungen übertragbar sein, oder?

Eine bis vor etwa zehn Jahren im Rahmen des GUM (Guide to the Expression of Uncertainty in Measurement) empfohlene Methode zur Bestimmung der Messunsicherheit basiert auf der Formel von Bayes und funktioniert im Kern folgendermaßen:

Zu bestimmen ist ein Parameter α, der einer Messung direkt nicht zugänglich ist. Messbar ist die Zufallsvariable X, deren Verteilungsdichte f vom Parameter α abhängt: fα(x).

Der Parameter α wird als Realisierung einer Zufallsvariablen Α aufgefasst. Das anfängliche Wissen oder auch Unwissen hinsichtlich dieser Variablen wird durch die A-priori-Verteilungsdichte g(α) modelliert. Die A-priori-Wahrscheinlichkeitsdichte kann das Ergebnis vergangener Beobachtungen sein oder sie kann nach dem Prinzip maximaler Unwissenheit angesetzt werden (Rüger, 1999, S. 211 ff.). Im letzten Kapitel haben wir zur Bestimmung der A-priori-Verteilung das Indifferenzprinzip angewendet.

Wird nun ein bestimmter Wert x gemessen, dann ergibt sich mit der Formel von Bayes eine neue Schätzung der Verteilungsdichte des Parameters, die A-posteriori-Schätzung h(α):

h(α) ~ fα(x)∙g(α).

Hierin ist der Proportionalitätsfaktor durch die Eigenschaft der Dichte bestimmt: Das Integral über h muss den Wert 1 ergeben.

Die A-posteriori-Schätzung sollte laut Messunsicherheits-Leitfaden als Verbesserung der Parameterschätzung gegenüber der A-priori-Schätzung angesehen werden. Das war jedenfalls die Interpretation des Ergebnisses vor der Revision des Messunsicherheits-Leitfadens im Jahre 2008. In der kleinen Studie Bayes-Schätzung – Eine kritische Einführung habe ich mich seinerzeit mit den Hintergründen der Bayes-Schätzung befasst.

Kritik

Anders als bei den klassischen Test- und Schätzverfahren gibt es für die Bayes-Schätzung von Messunsicherheiten keine gesicherten Genauigkeitsangaben. Zuweilen ergeben mehr Daten sogar schlechtere Folgerungen. Dass es zu solchen paradoxen Resultaten kommen kann, liegt daran, dass die Bayes-Schätzung von Parametern nicht auf einer logisch zwingenden Deduktion beruht.

Wenn man die A-posteriori-Verteilung des Parameters als eine gegenüber der A-priori-Verteilung bessere Schätzung der tatsächlichen Verteilung des Parameters ansieht, dann ist das lediglich ein plausibler Schluss. Die A-posteriori-Verteilung ist nur eine verbesserte Schätzung unter der Bedingung des Messergebnisses; sie besagt, mit welchen Wahrscheinlichkeiten die verschiedenen Parameterwerte zu dem beobachteten Messergebnis beigetragen haben können. Der Umkehrschluss von der Beobachtung auf die tatsächliche Verteilung des Parameters kann demnach auch falsch sein. Im Grunde werden aus einer Beobachtung zu starke Schlussfolgerungen gezogen.

Im Wikipedia-Artikel „Satz von Bayes“ habe ich seinerzeit meine Kritik zu dieser Art der Parameterschätzung abgeliefert. Am 29. September 2008 war die Kritik noch auffindbar.

Seinerzeit wurde der Messunsicherheits-Leitfaden neu gefasst, da die von vielen Seiten geäußerte Kritik wohl unüberhörbar war. Die Methode von Bayes spielt darin jetzt keine große Rolle mehr, wie die aktuelle Version des Wikipedia-Artikels zum Thema GUM (Norm) zeigt.

Inzwischen ist der kritische Abschnitt durch ein Rechenbeispiel über die „Ermittlung von Messunsicherheiten“ ersetzt.  Darin wird nach wie vor die umstrittene Bayes-Formel auf die Parameterschätzung angewendet, jedoch ohne zu sagen, welchen Sinn diese Rechnung haben soll.

Zum Schluss

In der medizinischen Diagnostik nimmt man, anders als bei der Parameterschätzung, die A-posteriori-Wahrscheinlichkeit nicht als eine verbesserte Schätzung gegenüber dem Apriori: Die Basisrate der Krankheit bleibt unverändert. Die errechnete A-posteriori-Krankheitswahrscheinlichkeit gilt nur für die Personen mit positivem Testergebnis und nicht etwa für „die ganze Welt“. Das ist eine gut abgesicherte Anwendung des Satzes von Bayes.

Einen solchen sicheren Interpretationsrahmen gibt es bei der Anwendung der Formel von Bayes auf die Parameterschätzung nicht.

Wer einer Analyse mittels der Bayes-Formel nähertreten will, kann sich über die Anwendbarkeit vergewissern, indem er sich ein Urnenmodell vor Augen hält, wie das beispielsweise auch Regina Nuzzo (2014) tut.

Wie sich die Bayes-Formel auswirkt, habe ich mit dem Ein-Euro- Spiel versucht zu veranschaulichen.

Veröffentlicht unter Bildungswesen, Statistik, Tests, Wahrscheinlichkeitsrechnung | Verschlagwortet mit , , , , | 1 Kommentar

Was zeigen uns die Ergebnisse statistischer Tests?

Hoppla!

In einem Lehrbuch zum Thema Software-Verifikation finde ich den fett hervorgehobenen Satz: „Der Test von Hypothesen geht über die Falsifizierung ihres Komplements“.  Dann wird gezeigt, dass bei einem Sachverhalt, der im Widerspruch zur Hypothese steht, der Test schlimmstenfalls mit einer geringen Wahrscheinlichkeit (von sagen wir 5%) bestanden wird. Aus dem Bestehen des Tests wird dann gefolgert, dass der angenommene Sachverhalt, die Alternativhypothese, unwahrscheinlich ist (5%) und die Hypothese entsprechend wahrscheinlich (95%).

Bei der Berechnung der Wahrscheinlichkeiten wurde die Alternativhypothese, die übrigens gar nicht  das Komplement der Hypothese sein muss, als fest gegeben vorausgesetzt. Es geht also gar nicht um die Wahrscheinlichkeit der Alternativhypothese und schon gar nicht um die Wahrscheinlichkeiten von Hypothese und deren Komplement.

Irrtümer dieser Art sind selbst in der Fachwelt nicht selten. Wahrscheinlichkeiten treten unter verschiedenen Rahmenbedingungen in Erscheinung und sie sind dementsprechend auch verschieden definiert. Wer das nicht beherzigt, fällt herein.

Hier will ich Wahrscheinlichkeiten in die ihnen zukommenden Zusammenhänge stellen. Das soll helfen, Denkfallen der Statistik und Wahrscheinlichkeitsrechnung rechtzeitig zu entdecken und irrige Interpretationen zu entlarven.

Den letzten Anstoß zu diesem Hoppla!-Artikel gab das Buch „The Skeptics’ Guide to the Universe“ von Steven Novella (2018), in dem er sich u. a. auf die Arbeiten von Regina Nuzzo beruft. Novella beklagt, dass der p-Wert einer Studie oft als Wahrscheinlichkeit für das Nichtvorliegen des untersuchten Sachverhalts (z. B.: „das Medikament ist wirksam“) genommen wird, dass also die Hypothese über das Vorliegen des vermuteten und zu prüfenden Sachverhalts eine Wahrscheinlichkeit von 1-p haben muss. In klinischen Studien wird im Sinne eines schwachen Signifikanzniveaus oft ein Wert von p = 5% zugrunde gelegt, was für den zu prüfenden Sachverhalt eine Wahrscheinlichkeit von 95% nahelegen würde.

Solche Studien liefern nur Folgendes: Bei vorausgesetzter Nullhypothese besitzt das tatsächlich ermittelte Testergebnis zugunsten des zu prüfenden Sachverhalts eine nur geringe Wahrscheinlichkeit von p. Wir können die Nullhypothese also getrost verwerfen. Die Nullhypothese ist so gebildet, dass sie den zu testenden Sachverhalt, die zu prüfende Hypothese, ausschließt (Sachs, 1992, S. 185f.). Damit ist der zu prüfende Sachverhalt weiter im Rennen. Was wir aus dem Testergebnis nicht erfahren, ist die Wahrscheinlichkeit dafür, dass der zu testende Sachverhalt im Rahmen des Tests anwesend ist.

Beispiel: Psi-Test Würzburg 1-aus-10

Für die Konkretisierung der eben gemachten Aussagen wähle ich einen gut dokumentierten Test, nämlich den 1-aus-10-Test, den die Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP) bisher 37mal in Würzburg durchgeführt hat. Ich habe die Daten von Soehnle (2014) um die seither durchgeführten Tests ergänzt.

Geltungsanspruch und Testbedingungen

Zu diesen Tests mit Aussicht auf ein Preisgeld können sich Personen melden, die sich für Psi-begabt halten: Wünschelrutengänger, Wahrsager usw.

Ein Beispiel: Im Jahr 2016 war unter den Kandidaten eine Homöopathin, die angab, Verunreinigung in Pflanzenerde erkennen zu können. Für den Test füllen die Versuchsleiter zehn Petrischalen mit Blumenerde. In einer davon ist – für die Kandidatin unsichtbar – kontaminierte Erde. Die Kandidatin muss nun ihre Fähigkeit nachweisen, indem sie die Schale mit kontaminierter Erde herausfindet. Das ist der Findevorgang. Dies wird dreizehn Mal gemacht. Der Stichprobenumfang je Test ist also gleich 13. Der Test ist bestanden, wenn der Kandidat wenigstens sieben Treffer vorzuweisen hat. Das ist das Testkriterium.

In allen anderen der insgesamt 37 von der GWUP durchgeführten 1-aus-10-Tests ging es vergleichbar zu.

Nullhypothese

Die Nullhypothese wird als Alternative zum Geltungsanspruch definiert und aus den allgemein akzeptierten Gesetzmäßigkeiten hergeleitet. Maßgabe ist also der Stand der Wissenschaft und nicht etwa eine übergeordnete Ontologie.

Die Nullhypothese im Falle des 1-aus-10-Tests besteht darin, dass  bei sorgfältiger Versuchsdurchführung das Indifferenzprinzip gilt: Das Versteck wird bei jedem der dreizehn  Findevorgänge rein zufällig mit einer Trefferwahrscheinlichkeit von 10% gefunden.

Interpretation des Tests

Das Bestehen und Nichtbestehen des Tests ist eine Sache des Zufalls. Es kann durchaus sein, dass ein paranormal Begabter fälschlich übersehen wird, weil er das Testkriterium zufälligerweise nicht erfüllt. Diesen Fall nennt man einen Fehler zweiter Art, anschaulich: „Übersehfehler“. Auf der anderen Seite steht die Möglichkeit, dass einem paranormal Unbegabten paranormale Fähigkeiten attestiert werden, weil er aus purem Zufall das Testkriterium erfüllt. Das ist ein Fehler erster Art, anschaulich: „Vortäuschungsfehler“.

Das Testkriterium muss sowohl die Interessen des Kandidaten an einer möglichst geringen Wahrscheinlichkeit für einen Fehler zweiter Art berücksichtigen, aber auch die Interessen der GWUP an einer möglichst geringen Wahrscheinlichkeit für einen Fehler erster Art.

Die Wahrscheinlichkeit für den Fehler erster Art („Vortäuschungsfehler“) wird in der mathematischen Statistik mit α bezeichnet, und die Wahrscheinlichkeit für einen Fehler zweiter Art („Übersehfehler“) mit β.

Wichtig ist also die Festlegung der Bedingungen für das Bestehen des Tests derart, dass sowohl der Fehler erster Art („Vortäuschungsfehler“) als auch der Fehler zweiter Art („Übersehfehler“) möglichst unwahrscheinlich werden. Wir suchen also nach Testkriterien mit möglichst kleinen oder zumindest ausbalancierten Werten für α und β. Die Wahrscheinlichkeit α ist das Signifikanzniveau des Tests und 1- β ist die Power des Tests.

Wir nehmen zunächst einmal an, dass der Bewerber paranormal unbegabt ist (Nullhypothese H0). Die Trefferzahlen je Test mit jeweils 13 Findevorgängen folgen der (13, 10%)-Binomialverteilung.

Eine auf lange Sicht erzielte Trefferwahrscheinlichkeit von 50% spricht für paranormale Fähigkeiten (H1). Die Trefferzahlen eines derartig paranormal Begabten folgen der (13, 50%)-Binomialverteilung.

Die folgende Grafik stellt diese beiden Verteilungen dar. Die Zufallsvariable X ist gleich der Trefferzahl eines Tests und P(X=| H0) bezeichnet die Wahrscheinlichkeit für i Treffer unter der Bedingung der Nullhypothese.

Bei sieben verlangten Treffern ist die Wahrscheinlichkeit eines Übersehfehlers mit 50% genau so groß wie die Power des Tests (hinsichtlich der willkürlich gewählten Hypothese H1). Die Wahrscheinlichkeit eines Vortäuschungsfehlers, das Signifikanzniveau des Tests, ist gleich 0.01 Prozent. Ein paranormal Begabter könnte sich benachteiligt fühlen.

Testergebnisse

Bisher wurde der 1-aus-10-Test der GWUP 37mal durchgeführt. Es gab je zehnmal einen Treffer oder zwei Treffer. Viermal waren drei Treffer und einmal vier Treffer zu verzeichnen. Die restlichen zwölf Tests blieben trefferlos. Diese Häufigkeiten sind mit der Nullhypothese sehr gut vereinbar. Das Testkriterium wurde in keinem Fall erfüllt.

Bei dreizehn Findevorgänge je Test ist der Gesamtumfang der Stichprobe N gleich 481. Die Gesamtzahl der Treffer ist gleich 46. Die mittlere Trefferzahl je Findevorgang liegt demnach bei knapp 10%, was mit der Nullhypothese gut verträglich ist. Bei dreizehn Versuchen je Test kommt man auf eine „normale“ mittlere Trefferzahl von knapp 1.3. Wenn unter den Kandidaten Psi-Begabte waren, dann muss deren Erfolg durch total Unbegabte mehr als ausgeglichen worden sein.

Bayes-Interpretation des Psi-Tests

Wie sieht es mit den Wahrscheinlichkeiten von Hypothesen aus?

Spaßhalber führen wir den p-Begabten – einen Sonderfall des Psi-Begabten – ein. Der p-Begabte hat im 1-aus-10-Test die mittlere Trefferquote von p. Der 10%-Begabte ist ziemlich normal. Seine Trefferquote entspricht der von Hinz und Kunz, nichts Außergewöhnliches also; er ist die wandelnde Nullhypothese.

Tolerant, wie wir nun einmal sind, stellen wir uns vor, dass es p-Begabte aller Schattierungen geben möge. Sie sind die Elementarereignisse unseres Ereignisraums. Mangels Voreingenommenheit sind für uns alle Begabungen gleichermaßen möglich. Wir gehen vom Indifferenzprinzip aus und nehmen a priori die Zufallsvariable p als gleich verteilt auf dem Intervall von 0 bis 1 an.

Bei einem p größer als 10% sprechen wir von echter Psi-Begabung. Für Werte unterhalb von 10% hat man negativ Psi-Begabte vor sich: Auch bei höchster Anstrengung erzielen sie noch nicht einmal die Zufallstreffer. So einen holt man sich ins Haus, wenn man sicher gehen will, dass der Schatz nicht gefunden wird.

Die Gleichverteilungsannahme ist kaum haltbar. Die bisherigen Testergebnisse ermöglichen uns, etwas mehr über die tatsächliche Verteilung der Psi-Begabung zu erfahren.

Wir gehen davon aus, dass die Begabungsverteilung durch die Beta-Verteilung mit den Parametern a und b beschrieben werden kann. Zumindest für die A-priori-Schätzung, die Gleichverteilung, ist das möglich. Diese ist nämlich durch die Betaverteilung mit den Werten a = b = 1 gegeben.

Die Bayes-Formel liefert als Lerneffekt aus den Tests eine Betaverteilung zu den Werten a = 1+k = 47 und b = 1+Nk = 436. Wie die Grafik zeigt, konzentriert sich die Psi-Begabung p auf Werte um 10%. Genau das ist nach dem Stand der Wissenschaft auch zu erwarten.

Caveat Emptor: Schlechtere Schätzung durch mehr Daten

Das Paradoxe an der Bayes-Schätzung ist, dass sie gerade für die Fälle nicht funktioniert, für die sie gedacht ist. Die Bayes-Schätzung kann unter Umständen mit jeder weiteren Beobachtung sogar schlechter werden anstatt besser.

Wir betrachten einen Produktionsprozess, der Lose mit unterschiedlichen Fehlerwahrscheinlichkeiten liefert. Diese Fehlerwahrscheinlichkeit p sei also für jedes Los die Realisierung einer Zufallsvariablen aus dem Intervall von 0 bis 1. Die Tests werden für verschiedene Lose durchgeführt.

Die Fehlerwahrscheinlichkeit p sei gleichverteilt, was der Beobachter aber nicht weiß. Er soll mittels Bayesschätzung genau diese Verteilung herausfinden.

Der Beobachter beginnt mit der Gleichverteilung, wie beim obigen Psi-Test. Dass seine Anfangsschätzung bereits die gesuchte Verteilung ist, weiß der Beobachter natürlich nicht.

Überraschung! Eine einfache Simulation zeigt, dass die Schätzung sich mit jedem weiteren Los von der Gleichverteilung wegbewegt. Auch in diesem Fall wird die Verteilungsdichte mit jedem weiteren Test und mit jeder weiteren Beobachtung immer schmaler. Die Verteilung von p wird sich schließlich auf eine kleine Umgebung des Wertes 50% konzentrieren. Jedenfalls hat die Schätzung immer weniger mit der eigentlich zu findenden Gleichverteilung zu tun. Ähnlich gelagerte Fälle zeigen: Mehr Daten führen zu schlechteren Folgerungen (Székely, 1990, S. 126).

Man könnte einwenden, dass man die Bayes-Schätzung nur anwenden darf, wenn der Parameter p eigentlich als konstant anzusehen ist, und dass die Annahme einer Verteilung für p nur unserem Unwissen zuzuschreiben ist, das wir mit jeder Schätzung weiter reduzieren wollen.

Ein derartiger Gewährleistungsausschluss ist jedoch eine Einschränkung, die sich nur von den erzielten Resultaten her und nicht etwa aus dem Verfahren begründen lässt. Dazu Bernhard Rüger  (1999, S. 188): „Mit der Angabe einer Verteilung des Parameters ist hier keine Behauptung oder Annahme über die ‚Natur‘ des Parameters verbunden, etwa darüber, ob der Parameter vom Zufall abhängt (eine Zufallsgröße ist) oder eine deterministische Größe darstellt, ja nicht einmal darüber, ob der Parameter überhaupt verschiedene Werte annehmen, also ‚schwanken’ kann, oder einen eindeutig feststehenden, unbekannten Wert besitzt, ein Standpunkt, der innerhalb der Bayes-Inferenz vorherrscht.“

Genau genommen können wir über die Verteilung der p-Begabten bei Psi-Tests nichts erfahren, sollte es solche mit p ungleich 10% überhaupt geben.

Fazit

Testergebnisse lassen keine Rückschlüsse auf die Wahrscheinlichkeitsverteilung des Untersuchungsgegenstands zu. Auch die Bayes-Schätzung hilft nicht wesentlich weiter.

Ratsam ist, sich die einzelnen Psi-Tests anzusehen. Bei den Würzburger Psi-Tests konnte man jeweils mit gutem Grund die behauptete Psi-Fähigkeit verwerfen. Und das sind ziemlich viele Fälle. Das deutet daraufhin, dass wir bezüglich der parapsychologischen Begabung (Psi) die Nullhypothese nicht aufgeben müssen: Vermutlich sind wir ausnahmslos Psi-Unbegabte.

So eindeutig liegt die Sache bei den üblichen statistischen Studien leider nicht. Anders als bei den Psi-Ansprüchen ist die Beleglage pro oder kontra eines Geltungsanspruchs oft ziemlich dünn. Es bleibt die Empfehlung, statistische Studienergebnisse äußerst zurückhaltend zu interpretieren und den Zufall nicht voreilig auszuschließen.

Quellen

Fisz, Marek: Wahrscheinlichkeitsrechnung und mathematische Statistik. Berlin 1976

Novella,  Steven: The Skeptics’ Guide to the Universe. 2018

Nuzzo, Regina: Der Fluch des p-Werts. Spektrum der Wissenschaft 9/2014, S. 52-56

Rüger, Bernhard: Test- und Schätztheorie. Band I: Grundlagen. München 1999

Sachs, Lothar: Angewandte Statistik. Anwendung statistischer Methoden. Berlin, Heidelberg 1992

Soehnle, Stefan: Der Psi-Test der GWUP 2004-2014. skeptiker 4/2014 S. 183-188

Székely, Gábor J.: Paradoxa. Klassische und neue Überraschungen aus Wahrscheinlichkeitsrechnung und mathematischer Statistik. Frankfurt am Main 1990

Veröffentlicht unter Bildungswesen, Naturwissenschaften, Statistik, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Täuschende Argumente

Motiv

Im Sinn liegt mir nicht, eine allseits bekannte Liste von Argumentationsfiguren abzuarbeiten und systematisch anzuordnen. So etwas findet man problemlos im Internet; auch „Die Kunst, Recht zu behalten“ von Arthur Schopenhauer ist eine gern genommene Sammlung. Vorbild ist mir eher die problemorientiert fokussierte Behandlung des Themas im Büchlein „Wie man mit Fundamentalisten diskutiert, ohne den Verstand zu verlieren“ von Hubert Schleichert (1997).

Mein Ansatz ist noch etwas enger: Ich nehme mir nur solche Argumentationsfiguren vor, die mir im Laufe der letzten vier Jahren in meiner Auseinandersetzung innerhalb der Skeptikerbewegung begegnet sind. Sie werden meine Verblüffung verstehen darüber, dass mir in diesem Zirkel genau die Argumentationsweisen begegnet sind, die diese Leute ihren Lieblingsfeinden vorwerfen.

Das muss einen nun tatsächlich nicht um den Verstand bringen. Ich trete ein paar Schritte zurück und freue mich über die wirklich herrliche Sammlung an selbst erlebten Beispielen fehlleitender Argumentation. Und an dieser Freude sollen Sie, mein Leser, teilhaben.

Die Sammlung ist wirklich praxisnah und enthält nichts, was man sich nur ausdenkt oder bloß angelesen hat. Insofern bin ich meinen Kontrahenten dankbar. Immerhin haben sie ja einigen Zeitaufwand in die Auseinandersetzung gesteckt.

Eine ganze Reihe von Beispielen fehlleitender Argumentation habe ich bereits im Artikel Argumentationsfehler des ontologischen Naturalismus nach ihrer Herkunft benannt und aufgespießt. Wiederholungen erspare ich Ihnen. Interessant sind die Grundmuster der sich daran anschließenden Verteidigung durch Vertreter der Skeptikerbewegung. Weiteres Quellenmaterial ergab sich in der Diskussion in demselben Kreis zum Hoppla!-Artikel  Hochstapelei im Namen der Wissenschaft und zum Artikel Das Elend des Instrumentalismus von Martin Mahner.

Argumentationsmuster

Petitio principii: Begging the Question, logischer Kurzschluss

Dieser Argumentationsfehler ragt besonders heraus, weil sich die Skeptikerbewegung solchermaßen begründet: In der Skeptikerbewegung wird die Beschränkung auf Pseudowissenschaften wie Homöopathie und Wahrsagerei als Hauptziel ihrer Angriffe als unbefriedigend empfunden. Um irgendwie auch eine Handhabe gegen die Religionen zu bekommen, legt man sich eine mit der Religion unverträgliche Philosophie zu: den Naturalismus.

Im aktuellen Buch zum Thema klingt das dann so: „Unsere These lautet daher, dass jeder, der Beobachtungen, Messungen und Experimente als realwissenschaftliche Methoden akzeptiert, auch diese vorgeordneten ontologischen Prinzipien akzeptieren muss, weil diese Methoden sonst unanwendbar, wenn nicht gar sinnlos, wären.“ Zu den vorgeordneten Prinzipien gehört der Realismus, nach dem es eine strukturierte und erkennbare Welt außerhalb unseres Denkens gibt.

Demnach habe man im Rahmen dieser Philosophie so zu denken: Nur wenn es die strukturierte Realität (A) gibt, können wir Beobachtungen machen (B). Da wir Beobachtungen machen, muss es die Realität geben. Kurz: Aus B impliziert A zusammen mit B folgt A. Da die Implikation zu beweisen war, greift der Beweis auf den zu beweisenden Satz zurück. So führt man Leute an der Nase im Kreis herum.

Wer den logischen Kurzschluss nicht als solchen erkennt, sollte sich von der Wissenschaft fern halten.

Argumentum ad lapidem

So klingt der Naturalist: Ihren Texten entnehme ich, dass sich die weltbezogene Wissenschaft ausschließlich mit „Erscheinungen“ und „Beobachtungsbündeln“, d.h. allgemeiner mit menschlichen Sinnesdaten oder vielleicht besser Sinneserlebnissen beschäftigt. Wenn ich gegen eine Straßenlaterne laufe, kollidiere ich dann mit meinem eigenen Beobachtungsbündel?

Das Argument ähnelt dem, das dem Bischof George Berkeley (1685-1753) entgegengehalten wurde, der ja die Existenz einer abstrakten Idee wie die einer denkunabhängigen Außenwelt verneinte. Sein Kontrahent stieß einen Stein (lat. lapis) weg und meinte: „Damit ist es widerlegt.“

Ad-lapidem-Aussagen sind insofern fehlerhaft, als sie das Strittige gar nicht ansprechen, sozusagen am Punkt vorbeizielen und so den Adressaten vom Thema ablenken. Das ist ganz ähnlich dem nächsten Argumentationsmuster.

Ablenkung hin zum Nebensächlichen: Red Herring, Definitionsfragen

Im Artikel über Argumentationsfehler schreibe ich unter dem 6. Punkt von einem klassischen Dilemma-Argument: Es wird so getan, als gäbe es nur Erkenntnis der Realität und Wahrheit einerseits und alternativ dazu einen bedeutungsarmen Diskurs und Pseudowissenschaft. Das ist auch eine Art Strohmann-Argument. Die Alternative kommt so abschreckend daher, dass man sie ablehnen muss. Selbstverständlich gibt es weitere Alternativen, und darunter sind weit plausiblere als die hier präsentierte. Meine Lieblingsalternative ist der kritische Rationalismus des Karl Raimund Popper.

Die Entgegnung darauf stellt heraus, dass der kritische Rationalismus gar keine Alternative zum erkenntnistheoretischen Realismus sein könne, da eine Alternative das ursprüngliche Konzept ersetzen können müsse. Das sei hier aber nicht der Fall, da Realismus und kritischer Rationalismus miteinander vereinbar sind. Was vereinbar ist, kann nicht zugleich eine Alternative sein.

Um dieses Argument überhaupt wirksam zu machen, muss erst einmal die ursprüngliche Aussage, nämlich die von der „Lieblingsalternative“, aus dem von mir stets betonten Zusammenhang gerissen werden: Der kritische Rationalismus bedarf keiner philosophischen Überhöhung. Insofern ist er tatsächlich eine Alternative zu den philosophisch aufgemotzten Begründungssystemen.

Was aber schwerer wiegt, ist die Tatsache, dass mit diesem Geplänkel vom ursprünglichen Argument abgelenkt wird, nämlich dem, dass es weitere Alternativen gebe. Dem Argument wird nichts entgegengehalten. Es wird nur so getan, als ob.

Wer behauptet, dass der Gegensatz zur Erkennbarkeit der Realität doch nur eine im Großen und Ganzen bestehende Nicht-Erkennbarkeit sein kann, der übergeht die Haltung des Agnostikers, der weder die Erkennbarkeit noch die Nicht-Erkennbarkeit postulieren mag.

Eine beliebte Methode der Gegenwehr durch Ablenkung ist auch das Ausweichen auf Definitionsfragen, selbst dann, wenn allen klar sein sollte, worum es geht.

Ein Diskussionsteilnehmer schrieb einmal über Risiko in Sachen grüner Gentechnik: „Bitte erst nachschlagen was Risiko ist, dann darüber reden. Solange bleibt ihr Text einfach nur unnütz.“ Dann kommt er mit einer total verunglückten Formel zum Risiko und zeigt, dass er vom modernen Risikobegriff keine Ahnung hat. Im Gefolge kommt es zu ausgiebigen Belehrungen hin und her. Dabei wird das ursprüngliche Argument völlig aus den Augen verloren, nämlich, dass bei der Risikobewertung zuweilen völlig außen vor gelassen werde, „dass auch ein geringes Risiko anders bewertet werden muss, wenn die Folgen eines Eintritts massiv sind“. So funktioniert Ablenkung durch Ausweichen auf Definitionsfragen.

Holzhammermethode: nicht sachdienliche Wiederholung des Immergleichen

Eine in dem von mir besuchten Kreis sehr beliebte Methode ist, den Kontrahenten dadurch weich zu kochen, in dem man dessen Argumente konsequent überhört und die eigenen immer wieder auftischt. Am besten funktioniert das mit unwiderlegbaren selbstbezüglichen Behauptungen, logischen Kurzschlüssen und Ad-lapidem-Argumenten. Beispielsweise tritt die Realitätsannahme auch in diesem Gewand auf: „Unsere Sinne informieren uns tatsächlich – wenn auch fehlbar – über die Außenwelt.“

So etwas nennt man Mentizid oder Holzhammermethode. Aus psychologischen Gründen funktioniert sie gut; wer ihr widerstehen will, braucht einiges an Kraft und Stehvermögen. Es ist die gemeinste Methode, die außerdem an den, der sie anwendet, die geringsten kognitiven Ansprüche stellt.

Sich-dumm-stellen

Diese Methode tritt in Erscheinung, wenn einer der Naturalisten schreibt: Till scheint für den Begriff des „Erkenntnisfortschritts“ zu plädieren. Hier stellt sich aber gleich die Frage: Erkenntnis von was? Dies führt er nicht weiter aus. Sollte sich der Erkenntnisfortschritt auf Sinnesdaten beziehen? Ist die empirische Kosmologie eine Wissenschaft, die von Sinnesdaten handelt, wie jede andere Wissenschaft auch? Kosmologie als Sinnesdatenwissenschaft ergibt aber kaum Sinn und Kosmologie als reine Mathematik greift wegen des empirischen Anteils zu kurz. Wenn man von Beschreiben spricht, sollte auch erläutert werde, was da eigentlich beschrieben werden soll. Till bleibt es unbenommen, an seinen Haltungen festzuhalten, die mir persönlich jedoch nicht klar sind.

Allen Beteiligten an der Diskussion muss klar gewesen sein, dass Till den Erkenntnisfortschritt im Sinne Karl Raimund Poppers gemeint hat. In Poppers Logik der Forschung geht es von vorn bis hinten um den Fortschritt der Wissenschaft, um Erkenntnisfortschritt also. Und Popper lässt das nicht undefiniert. Die obigen Fragen haben als einzigen erkennbaren Zweck: Sie sollen Till verunsichern und ihn dazu bewegen zu erklären, was eigentlich längst klar ist. Damit wäre er dann hinreichend beschäftigt und nicht weiter störend tätig; außerdem würde auf diesem Weg klar, dass sich Till wohl doch nicht richtig ausdrücken kann und nachbessern muss.

Der Hinweis auf die Kosmologie ist ein Ablenkungsmanöver von der weiter oben beschriebenen Art: Um Welterklärung geht es beim Erkenntnisfortschritt zunächst einmal nicht. Nur wer sich mit Kosmologie beschäftigt, wird sich auch mit Erkenntnisfortschritt auseinandersetzen müssen. Ein Zwang in entgegen gesetzter Richtung existiert nicht, auch wenn die Naturalisten nicht müde werden, genau das zu behaupten. Es handelt sich um den oben beschriebenen logischen Kurzschluss.

Moralisieren

Wer moralisiert, will verletzen. Die Täuschungsabsicht ist im Allgemeinen daran zu erkennen, dass derjenige, der die Einhaltung von Anstandsregeln anmahnt, bei deren Verletzung ganz vorne mit dabei ist.

Beispiele: Das beharrliche Vertreten eines Standpunkts wird als Renitenz angekreidet. Wer kritisiert, wird als Stänkerer gebrandmarkt. Wer Toleranz einfordert, dem wird der Wille zur Zensur unterstellt. Eine abweichende Meinung ist ein Zeichen dafür, dass es an der „skeptischen Redlichkeit“ mangelt. In all diesen Fällen wird auf unanständige Weise mehr Anstand eingefordert. Aber das sind noch die harmloseren Verstöße gegen die Anstandsregeln.

Eine Frau F. meint, einen Kritiker als „hochmütig, penetrant und überheblich“ charaktierisieren und dabei darauf verzichten zu dürfen, der sachlichen Kritik so etwas wie einen sachlichen Einwand entgegenzusetzen.

Eine Krönung diesbezüglich liefert Herr S. Es geht ihm um den gerade eben beschriebenen Vorwurf des Sich-dumm-stellens, das man durchaus als Gesprächsstrategie auffassen kann, ohne damit eine moralische Wertung verbinden zu müssen. Herr S. kontert den Vorwurf so: „Für solchen Umgangston gibt es die anderen ca. 99.999999% des Internets, wo ein aggressiver, abwertender Umgangston üblich ist. Ich bitte hier um Beachtung der Netiquette.“ Dabei scheut sich Herr S. bei einer späteren Gelegenheit nicht, eine Sachdiskussion auf die persönliche Ebene zu hieven mit dem Satz: „Ich schlage Herrn G. als Kandidaten für die Wahl des Listentrolls vor.“

Die Lehren

Ich halte es übrigens nicht für eine gute Idee, die täuschenden Argumentationen mit einer moralischen Bewertung zu beladen. Meinen Standpunkt dazu habe ich einst in einem vhs-Kurs kundgetan:

Tarnen und Täuschen gehören so sehr zum Leben auf dieser Erde (man denke nur an die Geweihe der Hirsche, die Mimikri der Schmetterlinge, die Scheinmuskeln der Männer, das Imponiergehabe in den Chefetagen und die Werbung), dass man sich generelle moralische Urteile über dieses Verhalten besser verkneift. Täuschung und Manipulation abzuschaffen, ist schon aus Gründen des Wettbewerbs aussichtslos: Wer will schon auf große Vorteile verzichten, die zu moderaten Kosten zu haben sind?

Ein Ziel des Kurses ist das Herstellen von Waffengleichheit. Jedermann sollte grundsätzlich die Möglichkeit erhalten, manipulationstechnisch nachzurüsten, so dass er in der durch Manipulation, Manipulationsabwehr und Gegenmanipulation bestimmten Kommunikation seine Chancen wahren kann.

Allgemeine Nachrüstung auf diesem Gebiet hat paradoxe Auswirkungen: Können es alle, wird Täuschen unrentabel und kommt entsprechend seltener vor.

Veröffentlicht unter Bildungswesen, Logik, Moral und Ethik, Skeptizismus | Verschlagwortet mit , , , , | 3 Kommentare

Achtung, statistische Klassen und andere Stolpersteine

Für Michael Shermer und Steven Pinker ist die Menschheit auf einem unaufhaltsamen Marsch in eine immer bessere Zukunft. Sie konstatieren den andauernden Fortschritt der Menschheit in Richtung Humanismus. Triebkräfte seien vor allem Wissenschaft und Technik; Religionen stünden dem entgegen.

Sie wenden sich gegen intellektuelle Gesellschaftskritiker von der linken Seite und gegen die religiöse Rechte. Dass Skepsis und Vorsicht eine Rolle bei der Vermeidung der gröbsten Irrwege eine Rolle gespielt haben könnten, davon ist bei diesen Fortschrittsapologeten nur wenig zu lesen.

Sie häufen eine große Zahl von Belegen auf, mit denen sie ihren Fortschrittsoptimismus begründen. Dass es bei der Auswahl dieser Beispiel nicht immer ganz unvoreingenommen zugegangen sein könnte, davon war im letzten  Hoppla!-Artikel die Rede. Eigentlich macht Micheal Shermer genau das, was auch Steven Pinker kritisch sieht (Pinker, 2018, S. 100 f.). Michael Shermer verstößt gegen Grundregeln der gesunden Skepsis: Bereits die von ihm konstatierten Korrelationen basieren auf einer gezielten Auswahl (Rosinenpickerei). Von diesem Haufen von Korrelationen aus vollführt er tollkühne Sprünge zu Kausalitäten mit eindeutigen Ursachenzuschreibungen.

Shermers Beispiele zur Einkommensverteilung in den USA sind aus der Zeit vor der letzten großen Rezession. Zur Erinnerung: Die USA-Präsidenten hatten durch ihre Steuersenkungspolitik (Ronald Reagan, 1981-1989) und die Deregulierung des Bankenwesens (Bill Clinton, 1993-2001) eine  Phase verstärkten wirtschaftlichen Wachstums eingeleitet. Dieses fand mit der Finanz- und Bankenkrise von 2008 ihr Ende.

Zu Reagen fällt mir das Stichwort „Laffer-Kurve“ ein, die Martin Gardner seinerzeit in seinen Mathematischen Spielereien im Spektrum der Wissenschaft (2/1982, S. 12-17) seziert hat und zu Clinton das Stichwort „Glass-Steagall Act“. Letzterer war 1933 nach dem Zusammenbruch der New Yorker Börse im Jahr 1929 („Schwarzer  Freitag“) und im Gefolge der anschießenden Großen Depression erlassen worden und sorgte zum Schutz der Bankkunden für die strikte Trennung des Kreditgeschäfts vom Investmentbanking. Unter Clinton wurde diese strikte Trennung wieder aufgehoben.

Die Folgen der damaligen Deregulierung spüren wir aktuell am Wertverfall des Ersparten. Steven Pinker weist wenigstens darauf hin, dass der Anteil der Armen in den USA aufgrund dieser Rezession wieder zugenommen hat. Bei Michael Shermer lese ich davon nichts, obwohl er in seinem Buch Quellen zitiert, die bis ins Jahr 2014 reichen.

Nun gibt es Negativbeispiele, die auch Michael Shermer nicht übersehen kann. Interessant ist, wie er sich diese zurechtbiegt, so dass sie sein Bild vom Fortschritt nicht weiter stören.

Einkommensverteilung

Michael Shermer greift ein Wort von Barack Obama auf, für den die Einkommensungleichheit „die entscheidende Herausforderung unserer Zeit“ ist, der diesen Trend als „schlecht für unsere Wirtschaft, schlecht für die Familien und für den sozialen Zusammenhalt“ ansieht und der den amerikanischen Traum grundsätzlich bedroht sieht (Shermer, 2015, S. 416 f.). Solcherart Schwarzmalerei ist Shermer ein Gräuel.

Shermer sagt uns, dass die Reichsten in den USA in den Jahren von 1979 bis 2010 zwar sehr viel reicher geworden seien, aber die Ärmsten zumindest nicht ärmer; er belegt das mit der folgenden (von mir nachgezeichneten) Grafik.

Zur Klärung des in der Grafik benutzten Begriffs der Einkommensklasse, stellen wir uns die gesamte einkommenspflichtige Bevölkerung nach wachsendem Einkommen aufgestellt vor. Dann teilen wir diese Anordnung in Klassen (Quantile) auf. Die Klasse (40% bis 60%] beispielsweise bilden wir so: Wir gehen die Personen ausgehend vom geringsten Einkommen der Reihe nach durch, bis wir bei 40% aller Personen angekommen sind. Danach folgen die Personen, die der Klasse zuzurechnen sind. Mit der Zurechnung hören wir auf, wenn wir bei 60% der Gesamtheit angekommen sind. Die Klasse umfasst also 20% aller Personen. Da fünf Klassen des Umfangs von 20% genügen, um die Gesamtheit abzudecken, sprechen wir von Fünfteln. Wenn eine Klasse nur 1% aller Personen umfasst, nennen wir sie Hundertstel.

Die  Personen des untersten Fünftels hatten im betrachteten Zeitraum einen realen (inflationsbereinigten) Einkommenszuwachs von 49%, die des obersten Hundertstels einen von 202%.

Ökonomische Mobilität

Kuddelmuddel im Dienste der Mission

Die wachsende ökonomische Ungleichheit stellt für Michael Shermer kein großes Problem dar, denn es gibt ja – außer der Tatsache, dass auch die Leute mit niedrigstem Einkommen vom Wachstum profitieren – noch die ökonomische Mobilität: Die Armen müssen nicht arm bleiben, sie können aufsteigen. Und den Reichen und Superreichen droht – sozusagen in ausgleichender Gerechtigkeit – der finanzielle Abstieg. Die Stärke dieses Mischungseffekts erläutert Shermer anhand der US-amerikanischen Einkommenssteuererklärungen aus den Jahren 1987 bis 2005.

Er zitiert eine Untersuchung, nach der in diesem Zeitraum über die Hälfte der Steuerzahler in ein anderes Fünftel gewechselt und dass grob die Hälfte der Steuerzahler aus dem untersten Fünftel in eine höhere Einkommensgruppe gewechselt sei. Für Leute mit dem höchsten Einkommen sei es noch wahrscheinlicher, in einer niedrigeren Einkommensgruppe zu landen. Als Beleg gibt er an, dass 60 % der Meistverdienenden aus dem obersten Hundertstel nach zehn Jahren abgestiegen sind.

Also grob die Hälfte der Ärmsten steigt in von zehn Jahren in eine höhere Einkommensklasse auf und weit mehr als die Hälfte steigt aus der obersten Einkommensgruppe ab. Das stimmt versöhnlich.

Aber Hoppla! Warum werden hier verschiedene Zeiträume und verschieden große Klassen angegeben? Ich frage mich, ob das oberste Hundertstel wirklich so hart betroffen ist, wie hier dargestellt. Immerhin ist die oberste der betrachteten Klassen um den Faktor 20 kleiner als die unterste. Ich frage mich, ob die Klassengröße einen Einfluss hat und auch, ob in den Vergleichsjahren wirklich dieselben Haushalte betrachtet werden.

Originaldaten USA 1996-2005

Um Licht ins Dunkel zu bringen, wähle ich eine leicht zugängliche Statistik des  US-amerikanischen Finanzministeriums, nämlich die Daten der Einkommenssteuererklärungen aus den Jahren 1996 und 2005 (Income Mobility in the U.S. from 1996 to 2005, Report of the Department of the Treasury, 13.11.2007).

Zwei Tabellen dieses Berichts zeigen die relative Einkommensmobilität. Die Erfassungsregeln unterscheiden sich:

  1. Die Zuordnung zu den Klassen orientiert sich an den Einkommensgrenzen. Erfasst werden Veränderungen der realen Familieneinkommen, wobei die Einkommensgrenzen (inflationsbereinigt) aus dem Jahr 1996 in das Jahr 2005 übernommen werden. Dadurch ändern sich die Klassengrößen mit der  Zeit.
  2. Die Klassengrößen bleiben unverändert. Nur die Anordnung der Haushalte ändert sich. Maßstab für die Grenzziehung ist jeweils die Anzahl der erfassten Haushalte. Das gilt für das Jahr 1996 als auch für das Jahr 2005.

Die zweite Zählweise liegt der Tabelle 2 aus dem Report des USA­-Finanzministeriums zugrunde. Die folgende Grafik ist eine komprimierte Darstellung dieser Daten.

In der Grafik berücksichtigt sind die Steuererklärungen von Haushalten, die sowohl im Jahre 1996 als auch im Jahre 2005 erfasst worden sind und bei denen der Hauptsteuerpflichtige zu Beginn des Erfassungszeitraums wenigstens 25 Jahre alt war. Gezeigt wird, wie sich für jedes der Fünftel des Jahres 1996 die Rangfolge der Steuerzahler im Jahre 2005 relativ verändert hat. Außerdem sind die Veränderungen für die wohlhabendsten 10%, 5% und 1% erfasst.

Auf dieser definierten Datenbasis formuliere ich die Aussagen von Michael Shermer neu: Im betrachteten Zehnjahreszeitraum sind 56%  der Steuerzahler in ein anderes Fünftel gewechselt; 45% der Steuerzahler sind aus dem untersten Fünftel in eine höhere Einkommensklasse aufgestiegen. Für Leute im obersten Fünftel ist die Wahrscheinlichkeit des Abstiegs mit  39% etwas geringer. Aus dem obersten Hundertstel der Meistverdienenden sind nach zehn Jahren 60% abgestiegen, was ja auch Michael Shermer so berichtet.

Dass es sich bei den betrachteten Haushalten um eine Kohorte handelt (wer 1996 dabei war ist auch 2005 dabei) und dass die Klassifizierung nach den oben unter dem 2. Punkt  angegebenen Regeln geschieht, zieht nach sich, dass den Aufstiegen entsprechende Abstiege gegenüber stehen. Dabei werden teilweise auch Klassen übersprungen.

Der Abstieg aus dem höchsten Einkommensfünftel ist keineswegs wahrscheinlicher als der Aufstieg aus der niedrigsten Einkommensgruppe: 39% gegenüber 45%.

Das Gegenteil hat Shermer auch nicht behauptet. Sein Blick auf die Reichen beschränkte sich auf das oberste Hundertstel, und da ist die Abstiegswahrscheinlichkeit 60%. Ich frage mich, ob die Verringerung der Breite der Einkommensschicht von 20% auf 1% eine Rolle spielt: Micheal Shermer hat den Daten einen Effekt angelastet, der möglicherweise nur von den unterschiedlichen Klassifizierungen herrührt. Er hätte dann nicht das zu Beobachtende charakterisiert, sondern das Verhalten seines „Messgeräts“. Wenn dem so wäre, hätte er sich dank seiner Unachtsamkeit selbst getäuscht, er hätte sich verstolpert.

Schauen wir uns das etwas genauer an.

Analyse

Nehmen wir einmal an, der Mischungsprozess dauert sehr lange an, so dass schließlich eine reine Zufallsmischung wie beim ordentlichen Kartenmischen entsteht. In einer Klasse der Breite p (beim Fünftel ist p = 20%, beim Hundertstel ist p = 1%) ist der Anteil der Bleibenden (oder wieder der Klasse zugeordneten) gleich p. Bezogen auf die Klasse ist daher der Anteil der Wechsler gleich 1-p. So gesehen müsste der Anteil der Absteiger aus der höchsten Klasse 99% und die der Aufsteiger aus der untersten Klasse gleich 80% betragen.

Das ist aber noch eine zu optimistische Darstellung dessen, was bei „gerechter“ Durchmischung dem oberen Hundertstel im Vergleich zum untersten Fünftel droht.

In einem begrenzten Zeitraum ist eine gleichmäßige und vollständige Durchmischung nicht zu erwarten. Bei äußerst schwacher und über den gesamten Bereich gleich intensiver Durchmischung und wenn sich die Rangwechsel in der Anordnung immer nur auf eng benachbarte Plätze beziehen, dann ist in jeder Klasse nur ein kleiner Anteil an den Rändern betroffen. Und dieser grenznahe Anteil bezogen auf die Gesamtheit ist für alle Klassen in etwa gleich. Folglich müsste bei schwacher und gleichmäßiger Durchmischung der Gesamtheit der klassenbezogene Anteil der Absteiger aus der obersten 1%-Klasse etwa zwanzigmal größer sein als der Anteil der Aufsteiger aus der untersten 20%-Klasse.

In einer kleinen Simulation habe ich 20 Milliarden elementare Positionswechsel auf eine Population des Umfangs 10000 angewendet. Ein elementarer Positionswechsel betrifft rein zufällig ausgewählte Nachbarn; diese tauschen die Plätze. Dieser Mischungsprozess lieferte ein Ergebnis, das in etwa dem der obigen Mobilitätstabelle entspricht, zumindest bezüglich der 20%-Klassen.

Tatsächlich ergeben sich große Abweichungen, wenn man sich die schmaleren Top-Klassen ansieht. Die Abstiegswahrscheinlichkeit der 1%-Topverdiender beträgt jetzt nicht mehr 60% sondern 94%. Jedenfalls wird man aufgrund der Verringerung der Klassenbreite von 20% auf 1% eine deutlich erhöhte Abstiegswahrscheinlichkeit erwarten können.

Dass diese Erwartung durch die realen Daten nicht wiedergegeben wird, lässt die Vermutung zu, dass die 1%-Klasse der Superreichen in Wirklichkeit erstaunlich stabil ist; das steht im Gegensatz zu Shermers Behauptung, dass Superreiche überproportional vom Abstieg bedroht seien.

Auch wenn Sie meine Zahlenspielerei nicht überzeugt: Es sollte deutlich geworden sein, dass ein direkter Vergleich der Abstiegs- bzw. Aufstiegszahlen zwischen Klassen verschiedener Breite nicht zulässig ist. Shermer bewegt sich auf trügerischem Terrain.

Zum Schluss

Michael Shermer und Steven Pinker vertreten ziemlich extreme liberale und religionsfeindliche Ansichten. Aber auch wer anderer Meinung ist, kann dem einen oder anderen Aspekt – vor allem in Pinkers Buch – etwas abgewinnen und daraus lernen. Um die Sicht beider Autoren auf die Aufklärung ein wenig zurechtzurücken, kann ein Blick in das Buch „The Swerve: How the World Became Modern“ von Stephen Greenblatt von Vorteil sein; außerdem ist es die spannendere Lektüre.

Michael Shermers Buch empfinde ich streckenweise als Überredungs- und Missionierungsversuch: was nicht passt, wird passend gemacht. Pinkers Buch wird seinem Anspruch eher gerecht: ein Plädoyer für die Aufklärung, für Vernunft, Wissenschaft, Humanismus und Fortschritt.

Vorsicht ist jedenfalls geboten. Notfalls sollte der Leser die in den Werken reichlich zitierten Quellen konsultieren. Das kann auch der Laie. Das ist die von mir empfohlene Methode, die ich auch in diesem Artikel angewandt habe: Nicht glauben, wenn man nachschauen kann. Das hilft, Stolpersteine rechtzeitig zu entdecken.

Nachteil dieser Methode ist, dass die Lektüre sehr, sehr lange dauern kann. Wer sich einlullen lassen will und sich in seiner Meinung (pro oder kontra) nur bestätigt sehen will, kommt schneller voran. Inzwischen gibt es deutschsprachige Ausgaben dieser Bücher.

Die Bücher

Greenblatt, Stephen: The Swerve: How the World Became Modern. 2011

Pinker, Steven: Enlightenment Now. The case for reason, science, humanism, and progress. 2018

Shermer, Michael: The Moral Arc. How science makes us better people. 2015

Veröffentlicht unter Humanismus, Korrelation und Kausalität, Moral und Ethik, Skeptizismus, Soziologie, Statistik, Wirtschaft, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , | Hinterlasse einen Kommentar

Treibt Wissenschaft den moralischen Fortschritt an?

„Der moralische Fortschritt: Wie die Wissenschaft uns zu besseren Menschen macht“. Der Buchtitel verspricht Großes. Hier wird eine zentrale Bastion abendländischen Denkens geschleift.

Es geht um das Buch „The Moral Arc“ von Michael Shermer. Die deutsche Ausgabe ist in Vorbereitung und trägt den eingangs zitierten Titel.

Shermer unternimmt nichts Geringeres als einen Angriff  auf das Gesetz von David Hume, demgemäß nicht vom Sein auf das Sollen geschlossen werden kann, dass also aus den Tatsachen noch keine Entscheidungen folgen. Auch Immanuel Kant kommt unter die Räder, der den Bereich der Wissenschaft (Was kann ich wissen?) sauber vom Bereich der Werte, Normen und Moralvorstellungen (Was soll ich tun?) trennt.

Diese in unserer Kultur durchaus gefestigte Ansicht von den „getrennten Reichen“ zu widerlegen, das ist Shermers Anliegen. Es sei die Wissenschaft, die den moralischen Fortschritt vorantreibt. Zwischen Sein und Sollen bestehe ein ursächlicher Zusammenhang.

Beginnen wir mit einer Begriffsklärung. Gemäß Duden steht Moral für

  1. Gesamtheit von ethisch-sittlichen Normen, Grundsätzen, Werten, die das zwischenmenschliche Verhalten einer Gesellschaft regulieren, die von ihr als verbindlich akzeptiert werden
  2. sittliches Empfinden, Verhalten eines Einzelnen, einer Gruppe; Sittlichkeit

Nach welchem Maßstabe wird die Moral besser?

Der Prolog von Shermers Buch enthält den entscheidenden Satz: Verbesserungen im Bereich der Moral offenbaren sich in vielen Lebensbereichen. So meint er. Es folgt eine Liste von Beispielen: Der Aufstieg liberaler Demokratien, Eigentumsrechte und freier Handel, Freiheitsrechte, Wohlstand, Gesundheitswesen, weniger Kriege, Abschaffung der Sklaverei, Rückgang der Raten von Mord, Vergewaltigung und sexueller Belästigung, Abschaffung von Folter und Todesstrafe, Gleichheit vor dem Gesetz.

Aber Hoppla! Wie lassen sich Verbesserungen im Bereich der Moral feststellen, wenn nicht nach Maßgabe einer Moral? Das sieht nach einem Zirkelschluss aus. Oder aber im Buch wird eine moralische Festlegung vorab getroffen, und zwar nicht getrieben durch die Wissenschaft.

Immanuel Kant nennt einen solchen Bezugsrahmen für die praktischen und konkreten Normen und Gesetze die  „oberste Bedingung aller Maximen“: „Der Gedanke a priori von einer möglichen allgemeinen Gesetzgebung […] wird, ohne von Erfahrung oder irgend einem äußeren Willen etwas zu entlehnen, als Gesetz unbedingt geboten.“ (Kant, Kritik der praktischen Vernunft, § 7 Grundgesetz der praktischen Vernunft)

Michael Shermer denkt wohl, seine wissenschaftsgetriebene Moral sei ein solcher Rahmen. Er erkennt an, dass es Alternativen dazu gibt; sie sind der Philosophie entlehnt: die Nikomachische Ethik des Aristoteles, der kategorische Imperativ des Immanuel Kant, der Utilitarismus des John Stuart Mill und die Theorie der Gerechtigkeit von John Rawls.

Beim näheren Hinsehen aber bietet die wissenschaftsgetriebene Moral gar keinen Maßstab in diesem Sinne. Dazu ist sie viel zu vage und zirkelhaft („Was die Vernunft uns gebietet ist vernünftig“). So gesehen bleibt die Bewertung dessen, was ein Fortschritt ist, eine Geschmacksfrage. Und in diesem Fall ist es der Geschmack des Michael Shermer. Michael Shermer hat – wie viele andere auch – ein Mitgefühl für Tiere; er mag die Jägerei, die Fischerei und das Schlachten von Tieren nicht. Die wachsende Population der  Vegetarier ist für ihn folglich ein positiver moralischer Trend.

Dass man die Veredelung in der Landwirtschaft — Verfütterung von Feldfrüchten mit dem Zweck des Fleischkonsums — auch aus Gründen des ökonomischen Umgangs mit den Ressourcen ablehnen kann, spielt für Shermer nur eine untergeordnete Rolle. Dabei hätte er hier noch am ehesten seine wissenschaftlich-wirtschaftlichen  Argumente anbringen können.

Vergessen wir den Anspruch, die moralischen Normen wissenschaftlich zu begründen und nehmen wir sie als das, was sie sind: Unbedingte Setzungen, mehr oder weniger nützlich und jedenfalls diskussionswürdig. Wirksamkeit erlangen solche moralische Prinzipien in einem demokratischen Entscheidungsprozess; sie verwirklichen sich letztendlich in unseren Gesetzen.

Shermers Buch hat dazu einiges von Belang zu bieten. Es fasst moralische Prinzipien in Art der Zehn Gebote zusammen. Die folgende Kurzfassung soll Lust darauf machen, sie im Original zu studieren. Ich ziehe den Hut vor dem, der sie zur Richtschnur seines moralischen Verhaltens macht.

  1. Alles nun, was ihr wollt, dass euch die Leute tun sollen, das tut ihnen auch!
  2. Frage erst nach, ob deine Aktion vom anderen als gut oder schlecht empfunden wird.
  3. Strebe nach Glückseligkeit und denke dabei auch an die anderen.
  4. Suche die Freiheit und denke dabei auch an die Freiheit der anderen.
  5. Handle fair.
  6. Handle möglichst rational.
  7. Übernehme die Verantwortung für dein Handeln.
  8. Verteidige auch andere gegenüber moralischen Aggressoren.
  9. Dehne deine moralischen Kategorien auch auf Leute anderer Nationen und anderer Religionen, auf Leute anderer Hautfarbe oder anderer sexueller Orientierung aus.
  10. Leiste deinen Beitrag zum Weiterbestehen der gesamten Biosphäre.

Für das Reziprozitätsprinzip (1.) habe ich die Formulierung aus Mt 7, 12 gewählt; diese Anleihe bei der Bibel passt nicht so recht zu Shermers Behauptung „religion cannot be the driver of moral progress“. Die Erweiterung des Reziprozitätsprinzip (2.) berücksichtigt die Tatsache, dass Risikobewertungen subjektiv sind. Das 3. Prinzip kommt aus der Antike zu uns (Epikur). Zum Freiheitsprinzip (4.) hat John Stuart Mill einen berühmten Aufsatz geschrieben und er bezieht sich darin auch auf antike Wurzeln. Das Fairnessprinzip (5.) wurde von John Rawls klar gefasst.

Das Vernunftprinzip (6.) stößt mir auf, denn wer gibt schon zu, irrational zu handeln. Außerdem steht nach Shermer alles moralische Handeln unter dem Regime der Vernunft. So gesehen steht hier: es ist vernünftig, vernünftig zu sein. Das 7. Gebot, dem ich gerne zustimme, entstammt der Verantwortungsethik und steht im Gegensatz zu Kants Gesinnungsethik. Aus dem letzten Prinzip (10.) kann man mit etwas Mühe die heute international akzeptierte Forderung nach nachhaltiger Ressourcennutzung herauslesen.

Das alles ist nicht alternativlos. Jedenfalls ist dieser Dekalog nicht zwangsläufige Folge irgendwelcher wissenschaftlicher Theorien. Diese Prinzipien  lassen sich nicht aus Fakten ableiten.

Besonders sticht mir das 2. moralische Prinzip dieses Dekalogs ins Auge. Hier spielt tatsächlich die Wissenschaft eine Rolle. Es geht um die Erkenntnisse der Risikoforschung. Dennoch bleibt es eine Setzung – bedingungslos. Warum das so ist, weiß ich aus eigenem Erleben.

Vor über zwei Jahrzehnten bin ich, ohne das zu wissen, dem 2. Prinzip gefolgt und habe in Ingenieurkreisen ziemlich vehement vertreten, dass die Risikobewertung vom Standpunkt der Betroffenen auszugehen habe, dass sie unvermeidlich subjektiv sei. Darin bin ich der Linie der Prospect Theory von Daniel Kahneman und Amos Tversky gefolgt.

Ich hatte damals einen schweren Stand gegenüber einigen Vertretern der Industrie (Kerntechnik, Bahnwesen), die damals noch das objektive Risiko als das geeignetere Maß ansahen. Sie hätten anstatt des zweiten Prinzips wohl lieber einen Satz von Albert Kuhlmann vom TÜV Rheinland gesehen: „Die Sicherheitskultur muss sich darum bemühen, dass es zu einer Vergleichmäßigung der technischen Risiken kommt.“ Damit ist die „Verteilung der technischen Risiken auf die Gesellschaft und den einzelnen Bürger“ nach objektiven Maßstäben unter Zugrundelegung des technisch-naturwissenschaftlichen Risikobegriffs gemeint.

Korrelation

Die Moral sei mit der Zeit immer besser geworden, so Shermer.  Er begibt sich ins Archiv der Weltgeschichte, ist dort außerordentlich fleißig und trägt einen Berg von Belegen zusammen zur Stützung dieser These.

Shermer schreibt die von ihm konstatierte Verbesserung der Moral dem gleichlaufenden Fortschritt von Wissenschaft und Vernunft zu, wobei die Rolle der Vernunft darin bestehe, rationale Argumente und empirische  Belege zu liefern – was nun wiederum auf Wissenschaft hinausläuft.

Seine Auswahl an Beispielen für diesen Zusammenhang ist tendenziös. Ich greife eins heraus: Die USA sind Spitze bei der Zahl der Nobelpreisträger, in punkto Religiosität und hinsichtlich der Mordrate. Sie können leicht erraten, welche der drei möglichen  Paarungen Eingang ins Buch gefunden hat: Religiosity and Homicides (Bild 4-2 auf Seite 170).

Bereits  der These vom Fortschritt der Moral muss man mit Skepsis begegnen. Dass mit dieser Prämisse möglicherweise etwas nicht stimmt, zeigen die aktuellen politischen Tendenzen in den USA sowie in Ost- und Südeuropa: Fremdenfeindlichkeit und die damit einhergehende Demontage des Toleranzgebots.

Letzteres ist nicht etwa das Werk von Wissenschaftsskeptikern. Technik- und Wissenschaftsgläubige sind am Werk. Ayn Rand verleiht diesen Leuten eine mächtige Stimme; von ihr kommt der flammendste Angriff auf einen der wichtigsten Grundwerte unserer westlichen Gesellschaften, auf die Toleranz.

Zu denken gibt auch der Satz, den der Internetkritiker Jaron Lanier im Spiegel-Interview  am 3.11.2018 zum Besten gegeben hat: „All die Eltern, die bei Google und Facebook arbeiten, erlauben ihren Kindern nicht, die Produkte zu benutzen, die sie selbst entwerfen.“ Auch die Verrohung der Sitten in den sozialen Netzwerken dient schwerlich der Stützung von Shermers These von der andauernden Verbesserung der Moral.

Nähern wir uns dem Problem von einer anderen Seite. Die Steinzeitfrau war an Herd und Kind gebunden. Die Arbeitsteilung zwischen Mann und Frau war durch biologische und wirtschaftliche Gegebenheiten ziemlich starr vorgegeben. Gleichstellungsbestrebungen lagen nicht in der Luft. Deshalb waren die damaligen Menschen nicht weniger moralisch als die heutigen.

Die Technik befreit weitgehend von der Hausarbeitsfron. Frauen in der Wirtschaft sind ein lohnendes Geschäft für die gesamte Gesellschaft. So kam es dann auch zu unseren Gleichstellungsgesetzen.

Das Beispiel zeigt: Die Wissenschaft bringt die Technik voran. Diese führt zum gesellschaftlichen Wandel und dieser wiederum zu einer Entwicklung der Normen, die den sich ändernden Lebensverhältnissen gerecht werden. Wie bereits Karl Marx feststellte: Erst ist die Basis da, dann kommt der kulturelle Überbau mit seinen Standards.

Kausalität

So gesehen hat die Wissenschaft keinen direkten Einfluss auf die Moral. Von besser oder schlechter kann nicht die Rede sein. Zu fragen ist nur, inwieweit ein System von Normen  zu den Gesellschaftsverhältnissen passt. Und natürlich gibt es Rückwirkungen des Überbaus auf die Produktionsverhältnisse, auf die Basis. Eine einfache Ursache-Wirkungsbeziehung von der Wissenschaft hin zu den gesellschaftlichen Normen ist nicht auszumachen.

Aber genau um einen solchen Nachweis geht es Michael Shermer. Fast zwanghaft trägt er einen riesigen Berg an Beispielen zusammen, in denen es immer darum geht, den Einfluss der Wissenschaft auf das moralische Wachstum zu belegen. Aber es bleibt bei der ständig wiederholten Behauptung. Ursache-Wirkungsbeziehungen bleiben unsichtbar. Bestenfalls werden Korrelationen belegt.

Shermers Argumentationsmuster hat durchgängig die Form A → B, wobei A für die Wissenschaft, B für immer neue Beispiele moralischen Wachstums und der Pfeil für die Wirkungsrichtung steht. Dabei gerät in Vergessenheit, dass die Korrelation zwischen A und B durchaus auch von Kausalbeziehungen C → A und C → B erzeugt sein kann. Manchmal verrät Shermer auch, wie die gemeinsame Ursache C aussehen könnte.

Er ist sich offenbar der Tatsache bewusst, dass seine Beteuerungen auf schwachen Füßen stehen. Er schreibt nämlich, dass die wachsende Fähigkeit des abstrakten Denkens C sowohl die Wissenschaft A als auch die  Moral B vorangebracht haben könnte.

Allzuviele Beispiele ermüden. Ich greife nur noch eines heraus.

Shermer stellt sicherlich zu Recht fest, dass der aufstrebende Handel C die Regeln der Fairness B nach sich gezogen hat. Der Mathematiker wird ergänzen: Und dieser freie Handel hat auch die mathematischen Wissenschaften A beflügelt; er hat die Wahrscheinlichkeitsrechnung aus der Spielerecke gezerrt und für die Statistik und das Versicherungswesen nutzbar gemacht (Bernstein, 1996). Die moralischen Gebote der Fairness sind eine Folge des freien Handels und wohl kaum eine Konsequenz der mathematischen Wissenschaft.

Das zum Thema Korrelation und Kausalität.

Kommt die Wissenschaft vor der Moral?

Es stellt sich die Frage, ob die Wissenschaft wenigstens den Formulierungen der Moralvorstellungen vorausgeht. Das wäre nämlich das Mindeste, was man im Sinne der postulierten Kausalitäten verlangen müsste.

Aber auch da sieht es nicht gut aus. Ein Meilenstein der Renaissance war die Wiederentdeckung des Lehrgedichts „Über die Natur der Dinge“ von Lukrez im Jahre 1417 – vermutlich im Benediktinerkloster Fulda.

Anstelle von empirischen Belegen findet man in dem Text nur Spekulationen über den Aufbau der Welt. Spekulation und Metaphysik gehören zum kreativen Vorfeld der Wissenschaft. Wissenschaftlich im modernen Sinne ist das alles nicht. Dazu fehlen die empirischen Nachweise und Prüfungen.

Erst zweihundert Jahre nach dem Wiederauffinden und über siebzehn Jahrhunderte nach Entstehung des Lehrgedichts entstand die moderne Erfahrungswissenschaft durch Loslösung der scientia von der sapientia. Auf diese scientia beruft sich Shermer, wenn er von science spricht.

Dennoch handelt es sich bei dem Lehrgedicht und dessen Auferstehung um einen Schatz von außerordentlichem Wert – und das nicht etwa wegen der Auswirkung auf die Wissenschaft, sondern wegen seiner umwälzenden Wirkung in Sachen Moral, Normen und Wertvorstellungen. Um das zu verdeutlichen, folgen ein paar kurze Auszüge aus dem Lehrgedicht (übertragen von Klaus Binder).

  • … ich eile, die Seele aus den bindenden Fesseln des Aberglaubens zu lösen. (1.932)
  • Dass ihr nicht seht, was die Natur verlangt, nicht mehr nämlich, als dass Schmerzen weit ferngehalten werden vom Leib und der Geist sich, von Sorge erlöst und Furcht, heiter fühle und gelassen! (2.19)
  • Weil weder Reichtum noch Rang noch Pomp der Macht irgend heilsam wirken auf den menschlichen Leib, darum, so können wir annehmen, sind sie unnütz für Geist und Seele. (2.39)
  • Gäbe es keinerlei Abweichung der Urelemente, die durch neu gerichtete Bewegung das Gesetz des vorbestimmten Schicksals sprengt, dann wäre seit unendlicher Zeit in endloser Kette Ursache auf Ursache gefolgt. Woher aber, frage ich, hätten dann lebende Wesen überhaupt auf Erde den freien Willen? (2.255)
  • Gering sind die Spuren unserer natürlichen Anlagen, die vernünftigem Denken widerstehen und bleiben. Nichts also hindert uns, ein Leben zu führen, das Göttern würdig ist. (3.320)
  • Es ist die Natur der Dinge nicht durch göttliches Wirken geschaffen und auch nicht für uns. (5.195)

Soweit Lukrez, aber das ist längst nicht alles, was die Antike uns an Wertvorstellungen zu bieten hat. Demokratie, Freiheit, Individualismus, all dies heute wirksame normsetzende Gedankengut der Antike wurde uns von jüdischen, islamischen und christlichen Gelehrten und Schreibern übermittelt und wurde teils für Jahrhunderte in Klosterbibliotheken aufbewahrt. Das alles geschah in vorwissenschaftlicher Zeit, in eine Zeit also, in der das Nachdenken über die Natur die Metaphysik hervorbrachte und in der diese Spekulationen Teil der Philosophie waren.

Aus vorwissenschaftlicher Zeit sind auch die Grundregeln der Skepsis, die der jüdische Philosoph Moses Maimonides formuliert hat. Es sind die Aufforderung zur Toleranz gegenüber Gesprächspartnern und der abgewogene Zweifel.  Diese Grundregeln der Gesprächskunst haben normative Geltung  (Basics für Skeptiker).

Kurz gefasst

Michael Shermer, Begründer der Skeptics Society und Herausgeber des Skeptic-Magazins, ist es gelungen, eine ganze Reihe von Regeln gesunder Skepsis zu brechen. Das nenne ich „gelebte Ironie“.

Dennoch: Das Buch enthält viel Bedenkenswertes und sogar Beherzigenswertes. Es lohnt die Lektüre, auch wenn es sein Hauptziel nicht erreicht, nämlich den Nachweis, dass die Wissenschaft die Moral verbessert. Das Gesetz von Hume wird nicht ausgehebelt.

Quellen

Bernstein, Peter L.: Against the Gods, 1996

Grams, Timm: Risikooptimierung kontra Risikobegrenzung. Analyse eines alten und andauernden Richtungsstreits. Automatisierungstechische Praxis atp 8/2003

Greenblatt, Stephen: The Swerve.  How the World Became Modern. 2011

Höffe, Otfried: Aristoteles: Die Hauptwerke. Ein Lesebuch. Tübingen 2009

Lukrez: Über die Natur der Dinge. (In deutsche Prosa übertragen und kommentiert von Klaus Binder. Mit einer Einführung von Stephen Greenblatt. 2014)

Maimonides, Moses: Wegweiser für die Verwirrten. Eine Textauswahl zur Schöpfungsfrage. 2009

Mill, John Stuart: On Liberty and Utilarianism. Oxford University Press 1969

Shermer, Michael: The Moral Arc. How Science Makes Us Better People. 2015

Veröffentlicht unter Korrelation und Kausalität, Moral und Ethik, Naturwissenschaften, Skeptizismus, Wahrscheinlichkeitsrechnung | Verschlagwortet mit , , , , | 2 Kommentare

Toleranz

„die, welche nach Verkündigung des Friedens inskünftig eine
andere Religion bekennen oder annehmen werden als ihr Landesherr,
nachsichtig geduldet und nicht gehindert werden sollen,
sich mit freiem Gewissen zu Hause ihrer Andacht
ohne Nachforschung und Beunruhigung privat zu widmen,
in der Nachbarschaft aber wo und sooft sie es wollen
am öffentlichen Gottesdienst teilzunehmen“
Aus Artikel V § 34 des Osnabrücker Friedensvertrags (1648)

Toleranz ist die notwendige Folge unseres Menschseins.
Wir sind alle fehlbar und leicht dem Irrtum verfallen;
lasset uns daher Nachsicht üben gegenüber unseren Torheiten.
Voltaire

Jeder hat das Recht auf freie Entfaltung seiner Persönlichkeit,
soweit er nicht die Rechte anderer verletzt und nicht gegen
die verfassungsmäßige Ordnung oder das Sittengesetz verstößt.

Grundgesetz Art. 2 (1)

Nur wenn es weh tut, ist es Toleranz:
Volker Kitz, „Meinungsfreiheit“

Lies ab und zu Werke, die deine Meinung nicht bestätigen, sage ich mir. Auch solchen kannst du Einsichten abgewinnen darüber, was die Welt bewegt. In diesem Herbst habe ich mir ein größeres Werk vorgenommen. In den USA gilt es manchen als das wichtigste Buch nach der Bibel. Die Autorin hat ihre Anhängerschaft unter bekannten konservativen Politikern: Alan Greenspan zählte zu ihren Freunden. Donald Trump und viele seines Teams, darunter Rex Tillerson und Mike Pompeo verehren die Autorin.

Das Werk

Handelnde Personen

Helden: eine Eisenbahndirektorin, der Besitzer von Gießereien, Bergwerken und Kohlegruben, Erfinder einer wunderbaren Metalllegierung, ein Ölmagnat, als zentrale Figur der Erfinder eines Wundermotors, dazu ein Pirat, dessen Rolle erst allmählich klar wird. Alle sind schlank, schön, leistungsstark; sie haben scharf gezeichnete Gesichtszüge, einen klaren Blick und sind von ihren Missionen besessen. Reichtum gilt als Ausweis der Tugendhaftigkeit. Gier ist gut. Die Helden sind Hüter des Geistes und des Fortschritts.

Schnorrer und Plünderer: Dazu gehören Leute mit weichen Gesichtszügen und verschleiertem Blick. Sie haben den Wohlstand der Helden im Visier und sorgen durch Gesetzgebung und Verordnungen für Gleichmacherei und für die Umverteilung der Güter von den Leistungsstarken hin zu den Bedürftigen. Bedürftigkeit begründet für sie den Anspruch auf Zuwendung. Geist und Fortschritt sind von Übel.

Handlung in Kürze: Die Moral, die die Bedürftigkeit und nicht die Leistung zum Maßstab des Erfolgs macht, richtet die Welt zugrunde. Dem widersetzen sich die Helden, indem sie in den Streik treten. Sie ziehen sich nacheinander in ein abgeschottetes Tal der Rocky Mountains in Colorado zurück. Von diesem „Utopia der Gier“ aus schauen sie dabei zu, wie die USA durch die Schnorrer und Plünderer zugrunde gewirtschaftet wird. Und die Rolle des Piraten? Er sieht sich als Anti-Robin-Hood. Ihm geht es darum, den Helden ihr Vermögen, das ihnen der Sozialstaat zum Zwecke der Verteilung an die Bedürftigen entzogen hat, wieder zurückzuerstatten. Er überfällt nur Schiffe, die im Staatsauftrag zur Umverteilung von Gütern unterwegs sind.

Leitideen

Grundlage des Werkes bilden die Metaphysik der objektiven Realität, die Absolutsetzung der Vernunft, das Ethos des Eigennutzes und die alleinige Wertschätzung einer Politik des Kapitalismus. Einer der Helden, ein Philosoph, drückt das Motto des Streiks so aus: Wenn Philosophen jene als Denker-Kollegen akzeptieren, für die das Denken nicht existiert, dann sind sie es, die die Vernichtung des Denkens vorantreiben. Es ist eine absolut gültige Prämisse, die Kooperation mit der Antithese zu verbieten und die diesbezügliche Toleranz nicht zu tolerieren. (A basic premise is an absolute that permits no co-operation with its antithesis and tolerates no tolerance.)

Das schreibt die Autorin Ayn Rand (1905-1982) im Kapitel „Atlantis“ ihres in den USA wirkmächtigen Buches „Atlas Shrugged“. Das Buch ist aus dem Jahr 1957, die McCarthy-Ära geht gerade zu Ende. Es zeigt Grundstrukturen des Zusammenlebens holzschnittartig auf. Es ist Schwarz-Weiß-Malerei mit extremer Positionierung.

Trennung der Reiche

Schwarz-Weiß-Malerei kann den Eindruck erwecken, als könne man alles sauber mittels Vernunft klären („Keine Toleranz der Toleranz“) und als gäbe es so etwas wie die Wahrheit. Aber Menschen und deren Zusammenleben gehorchen nur in minimalen Bereichen der Logik und der Mathematik. Die objektive Realität der Ayn Rand ist ja auch nur eine der möglichen Sichtweisen auf die Gesellschaft. Sie ist eine Ideologie, ebenso wie der Kommunismus eine war, gegen den sich Ayn Rand ja richtet.

Dass alles Denken über Natur, Mensch und Gesellschaft sich innerhalb eines einzigen geschlossenen Gedankengebäudes erfassen lässt, ist vormodernes Gedankengut. Es kommt besonders schön in Lukrez´ Lehrgedicht „Über die Natur der Dinge“ zum Ausdruck. Mit dem Ende der Renaissance und nach den Religionskriegen des 17. Jahrhunderts sollte dieses Denken, nach dem Wissenschaft, Moral und Religion einem geschlossenen und stimmigen Reich angehören, ebenfalls ein Ende gefunden haben.

Rufen wir uns wesentliche Stufen dieses Erkenntnisprozesses in Erinnerung: Francis Bacon spricht von den zwei Reichen Wissenschaft und Weisheit (Scientia und Sapientia). Das Gesetz von David Hume besagt, dass nicht vom Sein auf das Sollen geschlossen werden kann und Immanuel Kant unterscheidet drei Reiche: Wissenschaft („Was kann ich wissen?“), Moral („Was soll ich tun?“) und Glückseligkeit („Was darf ich hoffen?“).

Auf den Punkt gebracht hat es Karl Raimund Popper mit seinem Abgrenzungskriterium: Alles Wissen ist prüfbar und grundsätzlich falsifizierbar. In seinen Worten: „Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können.“ Grundsätzlich nicht falsifizierbare Aussagen über die Natur sind Glaubenssache und gehören ins Reich der Metaphysik.

Diese Trennung ist für Popper keineswegs mit einer Geringschätzung der Metaphysik verbunden. Sie sagt uns aber, wie wir uns in den verschiedenen Reichen bewegen können, welche „Anstandsregeln“ jeweils gelten.

In der Wissenschaft sind Widersprüche aufzulösen; Gelehrtenstreit ist das Mittel der Wahl; mit Karl Raimund Popper kann man sagen, „die kritische oder vernünftige Methode bestehe darin, dass wir unsere Hypothesen anstelle von uns selbst sterben lassen“ (Über Wolken und Uhren, 1966).

Im Reich des Wissens ist Toleranz keine gute Idee. Da hat Ayn Rand sicherlich Recht. Aber Hoppla! Nicht Recht hat sie, wenn es um Glaubensfragen geht. Dann ist Toleranz angezeigt, Gelassenheit gegenüber der Meinung des anderen, selbst wenn es weh tut, wie Volker Kitz meint.

Der Schmerz lässt nach, wenn man sich vor Augen hält, dass der Pluralismus der Standpunkte und Weltanschauungen fruchtbar ist; er dient der Evolution der Ideen. Die Toleranzregeln des Grundgesetztes (Art. 2 bis 5) sind ein unter viel Leid erworbenes Gut von höchstem Wert.

In jüngerer Zeit vertritt Stephen Jay Gould die Auffassung, dass es beispielsweise zwischen dem katholischen Glauben und der Evolution keinerlei Konflikt gibt. Auch er spricht von den getrennten Reichen, von den Nonoverlapping Magisteria (NOMA). Dabei folgt er im Wesentlichen der Botschaft des Papstes Johannes Paul II, die jener 1996 an die Mitglieder der päpstlichen Akademie der Wissenschaften gerichtet hat.

Grenzüberschreitungen

Auch heute noch wollen viele zurück zu dem einen Reich, in dem alles klar und sauber entscheidbar ist und in dem es Wahrheiten gibt, an die man sich klammern kann. Zwei dieser Trends wurden von der amerikanischen Rechten aufgegriffen: der Atheismus und das Intelligent Design. Diese Trends sind interessanterweise einander entgegengesetzt gerichtet.

Atheismus

Von der atheistischen Strömung war bereits eingangs die Rede: Ayn Rands Atheismus ergibt sich aus ihrer Metaphysik der objektiven Realität. Mit besonderem Eifer vertritt Richard Dawkins einen Neuen Atheismus (The God Delusion, 2006). Ihm geht es vor allem darum, den Agnostiker zu diskreditieren, einen, der sich in Glaubensdingen in Entscheidungsenthaltung übt und der das NOMA-Prinzip bejaht. In seinem Verdammungseifer geht Dawkins von einem sonderbaren Begriff der Wahrscheinlichkeit aus und er wendet das Indifferenzprinzip falsch an.  Im Aufsatz 1654: Ein neues Denken beginnt erläutere ich das.

Eine ähnliche Verwirrung richtet Dawkins an, wenn er sich gegen das NOMA-Prinzip wendet und behauptet, dass auch Gott dem wissenschaftlichen Zugriff auszusetzen sei. Atheismus dieser Ausprägung ist kaum der Rede wert.

Bedrohlicher ist die Grenzüberschreitung in entgegengesetzter Richtung, nämlich das Intelligent Design.

Intelligent Design

Den Grundgedanken der Intelligent-Design-Bewegung drückt Barbara Drossel im Streitgespräch mit Volker Sommer so aus: „Allein dass die Welt rational verstehbar ist, in einer mathematischen Sprache beschrieben werden kann und es Naturgesetze gibt, deutet auf einen rationalen Gesetzgeber hin.“ (Die Daten sprechen eben nicht für sich, SdW 10/2018, S. 70-75)

Die Intelligent-Design-Bwegung vermeidet es, den Schöpfer Gott zu nennen. Anstelle von Schöpfung spricht man auch lieber von Intelligent Design. Dahinter steckt eine Strategie: In den USA sind Staat und Kirche strikt getrennt. Es gibt in den staatlichen Schulen keinen Religionsunterricht. Das ist den Gläubigen ein Dorn im Auge. Um die Schöpfungslehre doch noch an die Schulen zu bringen, muss sie wie Wissenschaft aussehen. Was dabei herauskommt, ist ein Musterbeispiel für Pseudowissenschaft. Das mache ich im Aufsatz Ist das Gute göttlich oder Ergebnis der Evolution deutlich.

In dem Streitgespräch bezweifelt Volker Sommer, dass Fragen für oder gegen die Existenz von übernatürlichen Wesen in einen wissenschaftlichen Diskurs gehören. Und doch beteiligt er sich gerade in diesem Moment selbst an einem wissenschaftlichen Diskurs über derartige Fragen.

Das veranlasste mich zu diesem Leserbrief an das Spektrum der Wissenschaft:

„Intelligent Design ist metaphysisches Gedankengut – nicht prüfbar, statisch. Ein Wissenschaftsmagazin hat seine Pflicht erfüllt, wenn es die wissenschaftliche Unfruchtbarkeit dieses Ansatzes einmal aufgezeigt hat. Das ist durch Daniel C. Dennett im Oktoberheft 2005 in angemessener Weise und im richtigen Kontext geschehen. Ausgangslage war damals der Vorstoß der Intelligent-Design-Bewegung, die Schöpfungslehre als gleichrangig mit der Evolutionslehre in den Unterrichtsplänen der USA-Schulen zu verankern. Dieses beharrlich verfolgte Ansinnen gilt als weitgehend gescheitert.

Nun soll die Intelligent-Design-Bewegung anscheinend revitalisiert werden. Im Oktoberheft von Spektrum der Wissenschaft trägt Barbara Drossel im Streitgespräch die Intelligent-Design-Position vor; im Literaturverzeichnis finden wir ein Buch des ID-Verfechters John Lennox.

Ein solches Streitgespräch ist genau das von der Intelligent-Design-Bewegung gewünschte Format: Es ist zu verstehen als Anerkennung der Gleichrangigkeit dieses Denkens mit dem der modernen Wissenschaft.

Anders als Volker Sommer hat sich der Chemie-Nobelpreisträger Manfred Eigen vor Jahren einer solchen Auseinandersetzung verweigert. Nach einem Gespräch mit ihm und nach Besuch der damaligen Veranstaltung (eine Ringvorlesung der Theologischen Fakultät Fulda zum Thema „Evolution und Schöpfung“, 1989) kann ich nachvollziehen, warum. Volker Sommer versteht sich als Agnostiker. Er hätte es wie Manfred Eigen halten sollen.“

Soweit mein Leserbrief. Von einem Mitglied der Skeptikerbewegung erhalte ich folgenden Einwand: „Ich kann Deine Argumentation gut nachvollziehen, finde es aber andererseits auch wünschenswert, unfruchtbare Ansätze wie die des Intelligent Design immer wieder öffentlich als Irrwege anzuprangern. In diesem Sinn meine ich, darf man Unfug auch als Unfug bezeichnen.“

Aus meiner Erwiderung: „Homöopathie, Wünschelrutengängerei usw. sind Gemeingut. Frage irgendwelche Passanten danach und die meisten werden Dir antworten, dass sie das kennen und viele werden eine Meinung dazu haben. Hier ist Aufklärungsarbeit im Sinne der Skeptikerbewegung wichtig und wirksam.

Anders ist es beim Intelligent Design. Dieses scheint mir in erster Linie „Professorensache“ zu sein: Ich habe einen Anhänger des ID unter meinen Kollegen. Dann weiß ich noch von einem Frankfurter Kollegen, der eine ähnliche Berufsbiographie hat wie ich. Zöller-Greer heißt er und er ist im Professorenforum (http://www.professorenforum.de/) aktiv, einem einschlägig tätigen Kreis. Die meisten Europäer aber werden mit dem Begriff Intelligent Design nichts anfangen können.

Im Falle des Intelligent Design sollten wir den Streisand-Effekt berücksichtigen. Ein balanciertes Streitgespräch von Wissenschaftlern mit diesen Pseudowissenschaftlern in einem seriösen Wissenschaftsmedium halte ich für kontraproduktiv.“

Veröffentlicht unter Glaube und Agnostizismus, Moral und Ethik, Naturwissenschaften, Skeptizismus, Soziologie, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , | 5 Kommentare

Naturgesetze: metaphysisch oder wissenschaftlich?

 

War es ein Gott, der diese Zeichen schrieb?
Goethe, Faust I, Nacht

In Kreisen der Skeptikerbewegung ist ψ (Psi) etwas, das gegen die Naturgesetze verstößt. Es soll hinter Wahrsagerei, Telepathie, Wünschelrutengängerei und weiteren prüfungsresistenten Phänomenen stecken. Diese Phänomene erhalten damit das Etikett unwissenschaftlich oder pseudowissenschaftlich. Sie werden von maßgebenden Mitgliedern der Skeptikerbewegung als nicht existent angesehen.

Ich bin in eine Denkfalle hineingeraten und habe den Begriff des Naturgesetzes, wie in der Skeptikerbewegung üblich, bislang ebenfalls ziemlich unvorsichtig verwendet. Ich hatte zwar eine Ahnung von seiner Doppelgesichtigkeit, konnte diese Ahnung aber nicht klar genug ausdrücken.

Das liegt daran, dass im Laufe meines naturwissenschaftlich orientierten Studiums ständig von Naturgesetzen die Rede war und dass darunter eigentlich immer nur die Formeln verstanden wurden, die in den Lehrbüchern stehen.

Erst viel später begann ich zu fragen: Sind Naturgesetze das, was wir von der Natur wissen oder sind sie das, wovon wir nur fehlbares Wissen haben? Im ersten Fall bilden sie die vollkommen diesseitige Erfahrungswissenschaft. Im zweiten sind es der Natur eigene Gesetze, deren Existenz wir vermuten und die wir zu erkennen suchen; als solche sind sie jenseitig und gehören ins Reich der Metaphysik.

Es scheint mir ein Wesensmerkmal der Philosophie des Naturalismus zu sein, dass er die  erdachten und konstruierten Gesetze nicht sorgfältig genug von den vermeintlich vorgefundenen unterscheidet.

Ich muss bekennen, dass ich im Hoppla!-Artikel Über Wunder die beiden Auffassungen von Naturgesetzlichkeit ebenfalls nicht sauber genug auseinander gehalten habe. Da hat die Begriffsverwirrung aus Studienzeiten Spätfolgen gezeigt. Im Laufe einer Diskussion über den Artikel Skeptizismus und Skeptikerbewegung hat sich der Schleier allmählich gelüftet.

Ich will nun den Kern dieser Diskussion als teilweise fiktiven Dialog wiedergeben und hoffe, dass der von mir durchlebte Lerneffekt sich auf den einen oder anderen Leser überträgt.

Ralph: Das Paranormale bzw. Anomale nennen wir kurz Ψ. Dieses Ψ ist etwas, das zu naturgesetzinkompatiblen Ereignissen führt. Die Standardhypothese der Normalwissenschaft lautet: „Es gibt kein Ψ.“

Till: Die normale Wissenschaft unterliegt dem Wandel; das lesen wir bei Thomas Kuhn. Das Anomale gibt es sehr wohl; es steht definitionsgemäß im Widerspruch zur Normalwissenschaft. Folglich unterliegt auch die Auffassung vom Anomalen dem Wandel. Genau die Anomalien sind es, die den Fortschritt der Wissenschaft bewirken. So jedenfalls sieht es Thomas Kuhn in seinem bedeutenden Werk „The Structure of Scientific Revolutions“ von 1962. Denke nur an die Entdeckung der Venusphasen durch Galileo Galilei; das war eine Anomalie im Rahmen des ptolemäischen Weltsystems. Diese und andere Anomalien haben zu einer wissenschaftlichen Revolution und zum Siegeszug des kopernikanischen Weltsystems geführt.

Ralph: Ich habe von der „normalen Wissenschaft“ gesprochen. Aber das hat nichts mit der Auffassung des Thomas Kuhn zu tun. Mir dient der Begriff lediglich als Abgrenzung zur Anomalistik. Bei der Anomalistik geht es primär um ungewöhnliche Ereignisse oder Fähigkeiten wie Spuk, Geister, Hellsehen, Psychokinese, Telepathie usw., also um Effekte, die bislang nicht belegt werden konnten.

Till: Für Dich ist ψ – das Anomale – etwas Naturgesetzinkompatibles. Aber was sollen wir unter „Naturgesetzen“ verstehen? Sind die Naturgesetze das, was in den Lehrbüchern steht, also unser Wissen von der Natur; oder sind es unwandelbare Gesetze, die der Natur eigen sind? Im ersten Fall sind sie wandelbar und im zweiten Fall sind sie „Gottes Zeichen“, die uns weitgehend verborgen bleiben, sofern es sie überhaupt gibt.

Im ersten Fall treiben Anomalien den wissenschaftlichen Fortschritt und damit den Wandel an. Im zweiten Fall, also im Zusammenhang mit den „unwandelbaren Naturgesetzen“, ist der Begriff der Anomalie sinnlos. Keinesfalls also taugen Naturgesetze und Anomalien zur Charakterisierung von Umtrieben wie Gedankenübertragung, Wahrsagerei, Wünschelrutengängerei, Homöopathie und Quantenmystik.

ψ  gehört bestenfalls ins Reich der Metaphysik; und das ist kein guter Aufenthaltsort für den Skeptiker.

Ralph: Es gibt einen Unterschied zwischen der Anomalistik, früher Parapsychologie genannt, und der Mainstream-Wissenschaft. Das Attribut „normal“ möchte ich nicht stehen lassen, da es zu einer Verwechslung mit der Kuhnschen Normalwissenschaft führen kann. Die Mainstream-Wissenschaften mit naturwissenschaftlichem Bezug suchen nach Naturgesetzen und naturgesetzlichen Erklärungen, die Anomalistik sucht jedoch nach außergewöhnlichen Ereignissen.

Wenn in den Naturwissenschaften nach Abweichungen vom naturgesetzlich Vorhergesagten gesucht wird, dann dient dies der Prüfung von Naturgesetzen. Standardvoraussetzung ist dort: ψ  ist etwas Naturgesetzinkompatibles, oder auch: Es gibt kein ψ . Diese Voraussetzung ist methodisch notwendig.

Till: Das was Du Standardvoraussetzung nennst, ist doch aus der Luft gegriffen. Ich bezweifle, dass der „Normalwissenschaftler“ sich darüber überhaupt Gedanken macht. Außerdem sind wir wieder bei undefinierten Begriffen gelandet: naturgesetzlich und naturgesetzinkompatibel. Wir beginnen, uns im Kreis zu drehen.

Ralph: Bei Kuhn geht es nicht um Hellsehen, Telepathie oder Ähnliches; es geht um den Prozess des Theorienwandels in der Wissenschaftsgeschichte – etwa von Galilei über Newton zu Einstein. Insoweit ist die Annahme „Kein  ψ“ tatsächlich nicht wesentlicher Teil des wissenschaftlichen Skeptizismus. Für diesen ist der Fallibilismus das zentrale Element.

Till: Damit habe ich jetzt nicht gerechnet. Du räumst die naturalistische Bastion und ziehst Dich auf Poppers kritischen Rationalismus zurück. Wir sind uns also einig.

Ralph:  Langsam! ψ -Effekte werden in der Naturwissenschaft lediglich hypothetisch ausgeschlossen.

Till: Das ist wieder so ein Satz, mit dem ich nicht viel anfangen kann. Für Dich haben Anomalien bzw. ψ -Effekte die hypothetische Eigenschaft, nicht existent zu sein. Das möge verstehen, wer dazu in der Lage ist.

Ralph: Da kann ich auch nichts machen. Besser Du sprichst mit einem Parapsychologen darüber.

Till: Für Kuhn sind Anomalien sehr wohl wahrnehmbar; sie treiben die Wissenschaft voran. Das verstehe sogar ich. ψ -Effekte wie Gedankenübertragung und Wünschelrutengängerei hingegen sind keine Anomalien. Diese Effekte verschwinden beim näheren Hinsehen. Und wo kein Effekt, da keine Anomalie. Für derartige effektfreie Bemühungen haben wir eine gut definierte Sammelbezeichnung: Pseudowissenschaft (oder Anwartschaft darauf).

Aus diesem Disput ziehe ich folgende Konsequenzen: Das Wort „Naturgesetz“ versehe ich mit den Attributen „unwandelbar“ und „naturgegeben“ und verstaue es im Kästchen mit der Aufschrift „Metaphysik“. Ebenso verfahre ich mit seinem Gegenstück „Psi“. Für den Erkenntnisprozess reicht es aus, sich über den Stand des Wissens im Rahmen der Normalwissenschaft zu verständigen und über Anomalien, die für den Wissensfortschritt sorgen.

Am 16.7.2018 zur Erinnerung eingefügt: Metaphysisches ist nicht prüfbar und definitionsgemäß nicht falsifizierbar (Karl Raimund Popper). Hypothesen sind fundierte und prinzipiell falsifizierbare Annahmen. Metaphysische Hypothesen kann es demnach nicht geben. Daraus folgt beispielsweise, dass der Begriff „hypothetischer Realismus“ (Gerhard Vollmer) in sich widersprüchlich ist. Zu dieser Ansicht habe ich mich erst vor etwas über vier Jahren durchgerungen.

Veröffentlicht unter Bildungswesen, Glaube und Agnostizismus, Naturwissenschaften, Schule und Hochschule, Skeptizismus, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Stabile Filterblasen

Und die Gileaditer besetzten die Furten des Jordan vor Ephraim.
Wenn nun einer von den Flüchtlingen Ephraims sprach: Lass mich hinübergehen!,
so sprachen die Männer von Gilead zu ihm: Bist du ein Ephraimiter?
Wenn er dann antwortete: Nein!, ließen sie ihn sprechen: Schibboleth.
Sprach er aber Sibboleth, weil er’s nicht richtig aussprechen konnte,
dann ergriffen sie ihn und erschlugen ihn an den Furten des Jordan,
so dass zu der Zeit von Ephraim fielen zweiundvierzigtausend.

Das Buch der Richter 12, 5-6

Außenseiter

Vor nun etwas über zwölf Jahren trat ich in die Skeptikerorganisation ein. Mir war damals noch nicht recht bewusst, dass organisierte Skepsis eigentlich ein Widerspruch in sich ist: Der Skeptiker ist kein Rudeltier. Jede starre Organisation muss seinen Widerspruch erregen.

Aber nun war es einmal geschehen. Die Geschichte nahm ihren Lauf. Der Widerspruch trat allmählich voll zutage und ich fand mich in einer extremen Außenseiterposition wieder. Aber genau eine solche Außenseiterposition macht die Sache für den Skeptiker dann wieder interessant.

Interessant ist die prekäre Situation an sich. Ein maßgebendes Mitglied der Organisation machte die Zwickmühle, in die die gesamte Organisation durch den beharrlichen Außenseiter geraten ist, in einem Appell an die Gleichgesinnten deutlich: „Verzichtet bitte auf Auslagerungs- oder Zensur-Appelle. Das macht am Ende nur diejenigen stark (und setzt sie auch noch ins Recht), die man eigentlich mit gutem Grund los werden möchte. Und das ist wirklich das Letzte, was ich den Abseitigen gönnen möchte.“ (15.03.2018)

Andererseits bietet sich einem in dieser Außenseiterposition die Sicht auf ein heute stark diskutiertes gesellschaftliches Phänomen: Entstehung und Stabilität von Filterblasen.

Diese privilegierte und zugleich prekäre Position ist ziemlich attraktiv, wenn man den sich daraus möglicherweise ergebenden Erkenntnisgewinn allein betrachtet. Die Kostenseite des Ganzen ist, dass man es aushalten muss, als Stänkerer und Geisterfahrer beschimpft zu werden.

Vor der Darstellung meiner Fallstudie und der Ergebnisanalyse will ich den Erklärungsrahmen aufzeigen. Er lässt sich durch die Metaphern Filterblase und Echokammer beschreiben.

Gemeinsam stark

Leute teilen Interessen und Meinungen. Sie schließen sich zu Gruppen zusammen, werden dadurch stärker und können im Konkurrenzkampf besser bestehen. Die Gruppenbildung, das Einstehen füreinander, der gruppeninterne Altruismus und die Aggression nach außen sind wesentliche Elemente der kulturellen Evolution: „To form Groups, drawing visceral comfort and pride from familiar fellowship, and to defend the group enthusiastically against rival groups – these are among the absolute universals of human nature and hence of culture“ schreibt Edward O. Wilson in seinem 2012 erschienen Werk „The Social Conquest of Earth“ (Seite 57).

Das Grundbedürfnis, sich einer Gruppe anzuschließen, ist in uns angelegt, sozusagen ererbt. Dabei ist es zunächst ziemlich egal, worum es in der Gruppe geht. Erstaunlicherweise werden auch ohne triftige Gründe die Gruppenmitglieder höher geachtet als andere. Es erregt unseren Zorn, wenn ein Nicht-Mitglied sich unfair benimmt, eine unverdiente Belohnung erhält oder sich in unsere Angelegenheiten einmischt. Die Bibel ist voller Erzählungen und Regeln, in denen es um die Bestrafung oder Vernichtung der anderen, der „Abseitigen“ geht.

Filterblasen und Echokammern

Heute können wir sehr gut und sozusagen im Zeitraffer dabei zusehen, wie solche Gruppenbildungen vor sich gehen.

Bernhard Pörksen liefert mit seinem Buch „Die große Gereiztheit. Wege aus der kollektiven Erregung“ (2018) eine scharfsinnige und beispielsatte Betrachtung über die Entfesselung des Bestätigungsdenkens durch die digitalen Medien.

Seiner Meinung nach begünstigt das Netz die „ideologische Selbstversiegelung“ (S. 58f.). Dokumente werden „flüssig und wandelbar; sie lassen sich sehr viel leichter kombinieren, verbreiten, aus etablierten, gerade noch abgeschlossen, behäbig wirkenden Formen und Formaten (z. B. einem Buch oder auch einer Zeitung) heraussprengen und damit eben auch als Bastel- und Baumaterial für Ideologien aller Art benutzen“.

Eine mögliche Folge sei die Selbstradikalisierung aufgrund von selektiv zusammengestellten feindseligen Blogeinträgen und Hasskommentaren. Dies werde noch verstärkt durch die Mitwirkung von Automaten, deren Obliegenheit die Personalisierung von Suchergebnissen ist.

Personalisierte Filterung – von Hand oder mit Automaten – birgt die Gefahr, sich in eine Filterblase einzuschließen. Soweit betrifft das die Einzelperson und ihren Umgang mit der frei flottierenden Information.

Unter den vernetzten Vielen muss man nicht allein bleiben mit seiner Meinung. „Wer will, kann die wilde Vielfalt der Stimmen nutzen, um in einem Akt der gezielten Auswahl nur jenen Gehör zu schenken, die ihn bestätigen, um sich fortan in einer selbstgeschaffenen Echokammer oder auch einem Echobunker zu verbarrikadieren.“ (S. 60 f.)

So entstehen Rudel mit Meinung. Diesen Rudeln schreibt man zuweilen so etwas wie „Schwarmintelligenz“ zu. Der Beitrag „Schwarmintelligenz im Internet“ des Deutschlandfunks vom 28.6.2012 bringt einen besonders absurden Beleg dafür:

„Intelligent reagierte der Schwarm zum Beispiel im Falle der Doktorarbeit von Karl Theodor von Guttenberg. Da wurden viele Kleine einem Großen zum Verhängnis. Kurz, nachdem der Verdacht geäußert worden war, Guttenberg habe seine Promotion großenteils abgeschrieben, konnte jeder, der Lust dazu hatte, auf der Internetplattform ‚Guttenplag-Wiki’ auf Plagiatsuche gehen. Und es funktionierte – ohne Anführer, ohne Leittier, ohne Hierarchie.“

Was dann passiert ist, kann man eigentlich nur als Mobbing bezeichnen; und das können menschliche Schwärme offenbar besonders gut.

Pörksen meint, dass das einst gesichtslose, zur Passivität verdammte Heer der Medienkonsumenten nun eine aktive Rolle übernommen habe. Er spricht von einem „Übergang von der Mediendemokratie zur Empörungsdemokratie“. Leute, die früher Publikum genannt wurden, „prägen mit unterschiedlichen Absichten und Anliegen, mal gelassen und mal wütend, mal konstruktiv und mal destruktiv, das große, öffentliche Gespräch, das die Gesellschaft mit sich selbst führt“ (S. 91).

Filter Clash

Bernhard Pörksen sieht zwar die Tendenz zur Selbstbestätigung; man erfahre, was die eigenen Vorurteile bestätigt. Aber letztlich – so meint er – müsse es zum Filter Clash kommen  (S. 121 ff.): „Man ist nun mit einem Mal, einen funktionierenden Netzzugang vorausgesetzt, mit den unterschiedlichsten Lebenswelten konfrontiert, erfährt die Kontingenz und Komplexität von Wirklichkeit schon nach ein paar Klicks.“ Das vermag die „Welt- und Wirklichkeitsblasen […] aufzusprengen – mit der Folge einer allgemeinen Beunruhigung und Verstörung, einer systembedingten Behaglichkeitskrise“. Gemeinsames Lernen wird so doch wieder möglich.

Aber Hoppla! Nicht immer. Die Skeptikerorganisation beispielsweise versteht es, eine verblüffend stabile Filterblase aufrechtzuerhalten, und sie ist ziemlich erfolgreich darin, verstörende und produktive Einflüsse von sich fernzuhalten. Zur Selbstorganisation gesellt sich die Selbstimmunisierung.

Wer die Wahrheit hat, braucht keine Kritik

Wer sich im Besitz der Wahrheit sieht, ist gegen jede Kritik immun, denn: Wahrheiten sind nicht kritisierbar. Auf die Argumente des Kritikers einzugehen ist dem Wahrheitsbesitzer nichts als Zeitverschwendung; Herabwürdigungen und Schmähungen des Andersdenkenden gelten als legitim.

Der Echokammereffekt und die Selbstimmunisierung treten deutlich zutage in der Diskussion des kritischen Hoppla!-Artikels Hochstapelei im Namen der Wissenschaft. In einem internen E-Mail-Forum der Skeptikerbewegung hat er für äußerste Erregung gesorgt.

Die Hälfte der vierunddreißig Kommentare bestand aus Unmutsäußerungen, Schmähungen und nicht sachdienlichen philosophischen Abschweifungen. Ein typischer Kommentar ist im Kommentarteil zum Artikel zu besichtigen – übrigens der Einzige, der die Echokammer verlassen hat: „Hochmut und Überheblichkeit gegenüber naturwissenschaftlichen Erkenntnissen orte ich eher bei Ihren Argumentationen, Herr Grams. Weiterlesen

Veröffentlicht unter Moral und Ethik, Skeptizismus | Verschlagwortet mit , , | 3 Kommentare

Hochstapelei im Namen der Wissenschaft

Skepticism gone astray

Programmatisches zu einem neuen Skeptizismus entnehme ich dem Papier Skepticism Reloaded  von Amardeo Sarma (sinnerhaltend von mir übersetzt und gekürzt):

In seinem Buch „New Skepticism“ definierte Paul Kurtz eine Variante des Skeptizismus, die wir heute als „wissenschaftlichen Skeptizismus“ bezeichnen würden. Diese unterscheidet sich von der antiken Variante des Skeptizismus. Der griechische Skeptizismus leugnet, dass wir Wissen erwerben können und er rät davon ab, Urteile abzugeben und einen Standpunkt zu beziehen. Anders die heutigen Skeptiker: Sie beziehen Standpunkte und sie sind dem wissenschaftlichen Realismus verpflichtet.

Dass der heutige Skeptiker als Individuum auch Stellung bezieht, das kann ihm keiner nehmen. Um solche Selbstverständlichkeiten geht es nicht. Der Kern der Botschaft ist, dass die organisierten Skeptiker in ihrer Gesamtheit und übereinstimmend Stellung beziehen sollen. Der neue – oder: wissenschaftliche – Skeptizismus hat mit dem klassischen Skeptizismus offenbar und eingestandenermaßen nichts zu tun.

Die maßgebenden neuen Skeptiker beziehen Positionen auf Themenfeldern, die in der Gesellschaft noch umstritten sind. Amardeo Sarma beispielsweise schreibt im Artikel Glyphosat: Substanzlose Kritik und ‚gekaufte‘ Befürworter:

Zu Glyphosat ist der wissenschaftliche Konsens klar[…] Die überwältigende Mehrheit der wissenschaftlichen Einzelstudien, Übersichtsarbeiten und Behörden bestätigt, dass die zugelassenen Anwendungen von Glyphosat keine Gesundheitsrisiken bergen. Es sind lediglich Interessengruppen, wie der Naturschutzbund Deutschland, Greenpeace oder Friends of the Earth, die den Außenseiterstandpunkt vertreten, dass wir mit Glyphosat erhebliche Gesundheits- und Umweltrisiken eingehen. Hier zeigt sich auch, dass manche Verbände eben nicht vertrauenswürdig sind – sie vertreten ihre Interessen unabhängig von Tatsachen und den tatsächlichen Auswirkungen auf die Gesundheit oder auf die Umwelt.

Aus der Rede anlässlich des March for Science:

Die grüne Gentechnik eröffnet uns die Möglichkeit, auch die Ernährungssituation in Entwicklungsländern entscheidend zu verbessern. Doch einflussreiche Lobbygruppen in Europa und den USA stellen sich quer.

Nach dem March for Science:

Im Sinne der Verantwortung für eine Welt ohne Hunger gilt es, eine heilige Kuh in Deutschland und Europa zu schlachten: die antiwissenschaftliche und pseudofaktische Propaganda der GMO-Gegner. […]

Dass der Miterfinder von Golden Rice aus Deutschland, Peter Beyer, nicht öffentlich von Wissenschaft und Politik gefeiert wird, ist ein Skandal.

Von der Politik verlangen wir [Amardeo Sarma? Die Skeptiker?] eine Kehrtwende in Sachen Gentechnik. Die derzeitige deutsche und europäische Politik ist mit verantwortlich für die Erblindung von Kindern und dafür, dass der Hunger auf der Welt nicht effektiver bekämpft wird.

[…]

Wir [Amardeo Sarma? Die Skeptiker?] fordern eine europaweite Gleichstellung der Zulassungskriterien von gentechnisch veränderten Produkten mit denen der konventionellen und der Bio-Landwirtschaft. Die Kennzeichnung von gentechnisch veränderten Lebensmitteln muss abgeschafft werden, um Lebensmittel aus Afrika, Asien und Lateinamerika nicht zu diskriminieren.

Hoppla! Hier verlässt der neue Skeptiker das Feld der Wissenschaft. Bewertungen machen sich breit. Aus der Wissenschaft lassen sich keine Wertmaßstäbe herleiten. Eine Skeptikerbewegung, die sich in ihrer momentanen Verfasstheit allein auf Wissenschaftlichkeit beruft, kann derartige Positionsbestimmungen in gesellschaftlich relevanten und anhaltend debattierten Fragen nicht leisten. Tut sie es doch, dann arbeitet sie mit verborgenen Annahmen und betreibt letztlich Hochstapelei im Namen der Wissenschaft. Ich komme darauf zurück.

Zunächst will ich aber einen eher nebensächlichen Stolperstein aus dem Wege räumen und frage:

Ist der wissenschaftliche Realismus unabdingbar?

Warum sollte sich ein Skeptiker dem wissenschaftlichen Realismus verpflichtet fühlen? Der Hinweis auf den wissenschaftlichen Realismus hat wohl nur den Zweck, dass sich gewisse Philosophen der Skeptikerbewegung in dem Text wiederfinden. Aber die Moden wechseln. Vielleicht ist in zehn Jahren ein neuer philosophischer Trend gegeben; oder Gott wird wieder Mode.

Ein entsprechendes Bekenntnis würde an der praktischen Arbeit des Skeptikers nichts ändern. Das Etikett würde wechseln – ohne praktische Folgen. Ob jemand an Gott glaubt oder an die komplette Erkennbarkeit der Realität, ob er die Übernatur leugnet oder was auch immer: Wissenschaft bleibt Wissenschaft, Pseudowissenschaft bleibt Pseudowissenschaft.

Die Philosophie erfüllt nur einen Zweck: Der neue Skeptiker kann sich als Wahrheitsbesitzer fühlen. Und diese Gewissheit rechtfertigt Missionierung und Bekehrung der Ungläubigen. Und genau das lässt sich nicht vereinbaren mit einer Forderung des Skepticism-Reloaded-Papiers: Sei nicht herablassend!

Für mich ist das ein Selbstwiderspruch.

Nun zurück zum zentralen Punkt meiner Kritik.

Wertvorstellungen

Wer meint, die Wissenschaft liefere haltbare Standpunkte in strittigen Fragen, der verfällt der Anmaßung, das Sollen aus dem Sein herleiten zu können. Dass das nicht funktioniert, sagt uns Immanuel Kant mit all seiner denkerischen Kraft. Den Fragen „Was kann ich wissen?“ und „Was soll ich tun?“ hat er zwei seiner Hauptwerke gewidmet, nämlich erstens die „Kritik der reinen Vernunft“ und zweitens die „Kritik der praktischen Vernunft“. In seiner Einleitung zum zweiten schreibt Kant:

Der theoretische Gebrauch der Vernunft beschäftigt sich mit Gegenständen des bloßen Erkenntnisvermögens und eine Kritik derselben in Absicht auf diesen Gebrauch betraf eigentlich nur das reine Erkenntnisvermögen, weil dieses Verdacht erregte, der sich auch hernach bestätigte, dass es sich leichtlich über seine Grenzen unter unerreichbare Gegenstände oder gar einander widerstreitende Begriffe verlöre. Mit dem praktischen Gebrauche der Vernunft verhält es sich schon anders. In diesem beschäftigt sich die Vernunft mit Bestimmungsgründen des Willens. […] Die Kritik der praktischen Vernunft überhaupt hat also die Obliegenheit, die empirisch bedingte Vernunft von der Anmaßung abzuhalten, ausschließungsweise den Bestimmungsgrund des Willens allein abgeben zu wollen.

Es ist in meinen Augen Hochstapelei im Namen der Wissenschaft, wenn führende „wissenschaftliche Skeptiker“ Standpunkte beziehen, diese als allein wissenschaftlich begründet ausgeben, und sie so für die Gemeinde der Skeptiker als verbindlich erklären.

Wie können sich die neuen Skeptiker diesen Vorwurf der Hochstapelei ersparen? Es könnte folgendermaßen gehen.

Standpunkte setzen  Wertungen voraus. Die Bewertung derselben wissenschaftlichen Fakten kann durchaus zu einander entgegengesetzten Standpunkten führen. Die Bewertung  von GMOs beispielsweise hängt davon ab, ob man eher dem Vorsorgeprinzip (wie in Europa) oder dem Nachsorgeprinzip (wie in den USA) zuneigt. Die persönliche Entscheidung hängt auch davon ab, ob man die Globalisierung als vorrangig ansieht, oder ob einem die Stärkung der Automonie der Regionen wichtiger ist. Manch einer ist eher fortschrittlich gestimmt, ein anderer konservativ.

Wertesysteme sind in den Satzungen der Skeptikerbewegung aus prinzipiellen Gründen nicht verankert. Es geht nur um Wissenschaft. Will die Skeptikerbewegung in ihren Reihen den Pluralismus der Weltanschauungen und Wertvorstellungen pflegen, bleibt eigentlich nur der demokratische Weg – das Abstimmungsverfahren, hin zu einem „skeptischen Standpunkt“.

Soweit ich sehen kann, gibt es keine Beschlüsse zu den in letzter Zeit veröffentlichten „skeptischen Standpunkten“. Die momentan gültige Satzung der GWUP beispielsweise ist viel zu dürftig, als dass es zu einer gruppeninternen Abstimmung kommen könnte. Der Skeptikerorganisation fehlt alles, was sie für die Bildung eines „skeptischen Standpunkts“ benötigt: demokratische Institutionen und praktikable Abstimmungsverfahren.

Wer die Skeptikerorganisation im Sinne das Skepticism-Reloaded-Papiers umstrukturieren will, der muss mit der Reform der Institutionen anfangen und die Satzungen entsprechend ändern.

Was will der neue Skeptizismus eigentlich?

Was ich zurzeit sehe, ist Propaganda mit viel moralischem Wumms: „Die derzeitige deutsche und europäische Politik ist mit verantwortlich für die Erblindung von Kindern und dafür, dass der Hunger auf der Welt nicht effektiver bekämpft wird.“

So wird die Skeptikerbewegung zur Propagandamaschine. Es kommt die Frage auf: in wessen Sinne eigentlich? Geht es hier um die Interessen des Bauernverbandes? Dann sollte aber auch Geld fließen.

Das ließe sich ausbauen: für die Energieversorgungsunternehmen, für die Autoindustrie,  für die pharmazeutische Industrie, und so weiter.

In dem Skepticism-Reloaded-Papier wird betont, dass zu den vorrangigen Zielen der Skeptikerorganisationen die Generierung von Einkommensströmen gehört, und zwar: möglichst große und möglichst dauerhafte. Der Weg dorthin zeichnet sich jetzt ab: Reorganisation der Skeptikerbewegung. Jedenfalls würde das der Klarheit dienen und ein jedes Skeptiker-Mitglied könnte sich überlegen, ob es den Weg mitgehen will.

Veröffentlicht unter Moral und Ethik, Naturwissenschaften, Skeptizismus, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , | 4 Kommentare