Psi-Forschung und Skepsis

Psi ist jene Kraft, die hinter der Wahrsagerei, der Telepathie und der Telekinese und noch manch anderen Wunderlichkeiten stecken soll. Das Psi-Thema ist ein Dauerbrenner in der Skeptikerbewegung und es kocht auch im privaten Bereich immer wieder einmal hoch.

In der zweiten Hälfte des vorigen Jahrhunderts war das Psi Gegenstand ernsthafter Forschung. Inzwischen hat das wissenschaftliche Interesse daran nachgelassen. Das mindert aber nicht die Popularität des Psi.

Wer die Tragweite wissenschaftlicher Methoden kennenlernen will, dem bietet sich mit diesem Gebiet eine ganz vortreffliche Spielwiese. Die Kontrahenten auf dem Feld sind einerseits die Psi-Forscher und andererseits die Aktivisten der Skeptikerbewegung.

Der Psi-Forscher geht davon aus, dass Psi existiert. Gegebenenfalls lässt er sich eines Besseren belehren. Der Psi-Skeptiker geht davon aus, dass es Psi nicht gibt. Gegebenenfalls lässt er sich eines Besseren belehren.

Die Ganzfeld-Daten

Ein Ergebnis der wissenschaftlichen Untersuchung von Psi ist der Ganzfeld-Datensatz (Ganzfeld Database). Er umfasst die Resultate von 128 Studien aus den Jahren von 1974 bis 2018, die dem sogenannten Ganzfeld-Protokoll folgen. Das Ziel dieses Protokolls ist, Täuschungen und auch Selbsttäuschungen möglichst auszuschließen (Broderick, Goertzel, 2015, Through Time and Space, S. 168 ff.).

In diesen Studien wird in jedem elementaren Test die Psi-Fähigkeit einer Versuchsperson (Empfänger) dadurch getestet, dass sie eins von vier möglichen Zielen identifiziert, das eine andere Person, der Sender, „sich vor Augen hält“. Ziel und Sender sind den Sinnen des Empfängers verborgen. Er kennt nur jeweils die vier Möglichkeiten. Zur Identifizierung des ausgewählten Ziels bleibt ihm allein das Psi.

Diese Versuchsanordnung und die damit einhergehende Statistik entsprechen denjenigen des Würzburger Psi-Tests.

Unter der Nullhypothese (kein Psi) ist die Trefferwahrscheinlichkeit im Ganzfeld-Test je Durchgang gleich 25%. In jeder der in der Database erfassten Studien wird dieser elementare Test mehrmals durchgeführt. Für jede der etwa hundert Studien kennen wir die Anzahl N dieser Elementartests und die Trefferrate (Hit Rate). Letztere ist gleich der in der Studie insgesamt erzielten Treffer geteilt durch (relative Trefferhäufigkeit).

Unter der Nullhypothese, also unter der Annahme, dass Psi nicht wirkt, genügt die Trefferzahl je Studie der (N, 25%)-Binomialverteilung. Unter dieser Bedingung lassen sich die Grenzwerte für Signifikanzniveaus bestimmen.

In der folgenden Trichtergrafik werden die Trichter durch die Grenzwerte für das 5%- und das 1%-Signifikanzniveau bestimmt. Innerhalb der Trichter werden also 95% bzw. 99% der Trefferraten erwartet unter der Bedingung, dass die Nullhypothese gilt. Werte außerhalb eines Trichters sind signifikant auf dem entsprechenden Niveau. Eingetragen in die Trichtergrafik sind je erfasster Studie die Trefferrate und der Stichprobenumfang N.

Unstrittiges

Der Ganzfeld-Datensatz wurde ausgiebig analysiert und es wurde eine Reihe von Metaanalysen durchgeführt. Die Regeln für die Metaanalysen (Auswahl und Gewichtung der einzelnen Studien) sind von Forscherpersönlichkeit zu Forscherpersönlichkeit im Allgemeinen verschieden. Daher ist es kein Wunder, dass manch einer zum Ergebnis kommt, dass die Daten nichts Besonderes zeigen und ein anderer wiederum erreicht ein unglaublich hohes Signifikanzniveau zugunsten von Psi.

In der Analyse der Ganzfelddaten hat sich auf Seiten der Psi-Forscher Charles Honorton hervorgetan und auf Seiten der Skeptiker Ray Hyman.

Wer den Stand der Diskussion zwischen Psi-Forschern und Skeptikern möglichst sachlich darstellen will, muss auch den Standpunkt der Gegenseite gebührend berücksichtigen. Ich liste hier das auf, was zwischen den Vertretern der Psi-Forschung und den Skeptikern unstrittig zu sein scheint. Zu diesem Zweck konsultiere ich, der Skeptiker,  ganz bewusst die Arbeiten der Psi-Forscher. Sie sind als Quellen angegeben.

  1. Psi-Effekte sind, falls existent, schwach und launisch; wissenschaftliche Tests klassischer Manier stoßen an Grenzen.
  2. Metastudien helfen nicht wesentlich weiter. Die Vorlieben des Forschers können sich auf das Analyseergebnis auswirken. Auswahl und Gewichtung der Studien hängen vom individuellen Urteil über Verdachtsfälle fragwürdiger Forschungspraktiken wie Fishing for Significance ab (Bierman et al., 2016).
  3. Die den möglichen Psi-Effekten zugrunde liegenden kausalen Mechanismen sind nach wie vor unbekannt.
  4. Ein praktischer Nutzen der Psi-Forschung ist nicht in Sicht. Die großen Förderer der Psi-Forschung, das US Militär und die Firma Sony, haben ihre diesbezüglichen Programme eingestellt.

Strittiges: die Messlatte

Den Skeptikern wird vorgeworfen, dass sie nach all den Anstrengungen und Erfolgen der Psi-Forscher die Messlatte der Signifikanz immer weiter hochsetzen. Wenn der Skeptiker Carl Sagan sagt „Außergewöhnliche Behauptungen erfordern außergewöhnlich starke Beweise“, dann können sich die Psi-Leute schon angefasst fühlen.

Als allgemeiner Wink mag dieses Skeptikermotto ja noch durchgehen; streng genommen haftet ihm etwas Fortschrittsfeindliches an. Gänzlich auf die schiefe Bahn gerät der Skeptiker, wenn er dieses Motto zu einem Gesetz erheben will und dazu die Bayes-Formel bemüht, wenn er also meint, dass ein Beleg für Psi angesichts der geringen A-priori-Wahrscheinlichkeit nicht weit führen kann.

Derartige Argumente führen ins Nirgendwo; es gibt nämlich keine allgemein akzeptierte Definition für die Hypothesenwahrscheinlichkeit. Auch die Häufigkeitsinterpretation bietet keinen Ausweg: Bayes-Schätzungen sind in diesem Zusammenhang irreführend.

Andererseits hat der Skeptiker durchaus Recht, wenn er dem Psi-Forscher vorwirft, die Messlatte der Effektstärke immer niedriger zu legen, so dass auch das schwachbrüstigste Psi sie noch überwinden könnte. Ein schwaches und launisches Psi lässt sich mit statistischen Methoden nicht dingfest machen und schon gar nicht ausschließen.

Welchen Zweck haben Psi-Tests heute?

Der 1. Punkt weiter oben zeigt, dass beispielsweise der Würzburger Psi-Test erfolglos bleiben wird. Weder positive Ergebnisse noch überzeugend negative sind zu erwarten. Das Psi ist – falls existent – offensichtlich zu schwach und zu launisch dafür. Da die Tests einheitlichen Regeln folgen, ist die Metastudie über sämtliche bisher durchgeführten Tests problemlos möglich. Aber auch diese Zusammenfassung der Tests hat bislang nichts Besonderes zutage gefördert. Und das ist auch zukünftig nicht zu erwarten.

Der Würzburger Psi-Test hat dennoch einen Sinn. Es geht weniger um die Frage, ob es Psi gibt und auch nicht darum, ob man sich angesichts der Beleglage weiterhin mit dem Nachweis pro oder kontra Psi abmühen soll. Der Psi-Test zeigt seinen Wert in der Aufklärungsarbeit und in der Demonstration wissenschaftlicher Arbeitsweisen. Die oben aufgelisteten vier Punkte sollten im Zentrum dieser Aufklärungsbemühungen stehen.

Quellen

Bierman, Dick J.; Spottiswoode, James P.; Bijl, Aron: Testing for Questionable Research Practices in a Meta-Analysis: An Example from Experimental Parapsychologie. PLOS ONE, 2016
https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0153049

Broderick, Damien; Goertzel, Ben (Ed.): Evidence for Psi. Thirteen Empirical Research Reports. 2015

Veröffentlicht unter Bildungswesen, Naturwissenschaften, Schule und Hochschule, Skeptizismus, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , , | Ein Kommentar

Psi

Aufbruch ins dritte Jahrtausend

Gegen Ende meiner Schulzeit besorgte ich mir das Buch „Aufbruch ins dritte Jahrtausend“ von Pauwels und Bergier (1965). Ich war wissbegierig. Diese Schilderung geistiger Abenteuer der Menschheit ist bestens lesbar und sie machte mich Staunen. Die Autoren halten sich nicht mit Kritik an allzu sonderbaren geistigen Gebilden zurück: arische Physik, Astrologie, Atlantis, Yeti und Hohlweltlehre. Letztere hatte, neben der Erdscheibenlehre, bereits Martin Gardner auf dem Schirm (Fads and Fallacies in the Name of Science, 1957). Das alles schien gut abgewogen zu sein und ich nahm es erst einmal für bare Münze.

Aber mehr und mehr kam mir in den Sinn, dass da etwas nicht stimmte. Je länger ich las, desto mehr verlor sich die kritische Grundhaltung des Textes und das eigentliche Anliegen trat immer deutlicher hervor (S. 417):

Die parapsychologischen Experimente scheinen zu beweisen, dass zwischen Mensch und Universum über die gewöhnlichen, durch die  Sinne gegebenen Beziehungen hinaus noch andere Relationen bestehen. Demnach ist jeder normale Mensch imstande, weit entfernte oder hinter Wänden verborgene Dinge wahrzunehmen, die Bewegungen von Gegenständen zu beeinflussen, ohne diese zu berühren, seine Gedanken und Gefühle in das Nervensystem eines anderen Menschen zu projizieren und schließlich in einigen Fällen sogar kommende Ereignisse vorherzuwissen.

Also darum ging es: Um Psi-Phänomene und darum, dass die Menschen sie mit wissenschaftlichen Methoden erforschen sollten. Der Name des Fachgebiets: Parapsychologie (Oepen u. a. 1999). Auch in Deutschland wurde dieses Gebiet damals virulent. Hans Bender gründete im Jahr 1950 in Freiburg sein Institut für Grenzgebiete der Psychologie und Psychohygiene.

Mir fiel zunehmend auf, dass der Text über weite Strecken in der Möglichkeitsform geschrieben ist. Hier ein paar Auszüge aus dem Abschnitt „Das Phantastische in uns“:„Möglicherweise steht [die Wissenschaft] eines Tages Resultaten gegenüber, die durch sogenannte psychische Methoden erzielt wurden.“ Die Beeinflussung des Würfelergebnisses durch Gedankenkraft gelingt in einer so großen Anzahl der Fälle, „dass bloßer Zufall ausgeschlossen erscheint“. „Wenn es, wie wir anzunehmen geneigt sind, einen höheren Bewusstseinszustand gibt“. „Das Studium der außersinnlichen Fähigkeiten und der «Psionik» […] verspricht tatsächlich praktische Anwendungsmöglichkeiten“.  „Hingegen ist es denkbar, dass die uns bisher unbekannten Fähigkeiten des menschlichen Intellekts eine direkte Wahrnehmung der letzten Strukturen der Materie und der Harmonien des Weltalls ermöglichen.“

Ziemlich unkritisch behandeln die Autoren das Nautilus-Experiment von 1959, bei dem es um die Gedankenübertragung zwischen einer Person auf dem US-amerikanischen Festland und einem Passagier des Atom-U-Bootes Nautilus ging, das sich in 2000 Kilometer Entfernung im Atlantik und hunderte Meter unter dem Wasserspiegel befand.

Wenn an den Psi-Effekten etwas dran sein sollte, dann sind die Militärs die ersten, die sich dafür interessieren, wie man sieht.

In Amerika schwand das Interesse an den parapsychologischen Experimenten im Laufe der Zeit, wohl mangels Erfolg. Das hinderte die Sowjets nicht, es den Amerikanern später gleich zu tun. Was dann in den Achtzigerjahren die US-Amerikaner erneut dazu brachte, auf die Übernatur zu setzen, wie Jon Ronson (2004) im unterhaltsamen Gonzo-Stil berichtet.

Möglich ist vieles. Mir wurde schließlich klar, dass ich im Buch von Pauwels und Bergier nichts über die Welt erfahre würde, wie sie sich der Wissenschaft damals darstellte. Ich verlor das Interesse an dem Werk.

Später wurde ich der großen Anziehungskraft gewahr, die das Möglichkeitsdenken der Psi-Wissenschaft auf viele Menschen ausübt – damals wie heute. Und das fand ich dann doch wieder aufregend und fragte mich, warum das so ist. Ich entwickelte ein wissenschaftliches Interesse am Unwissenschaftlichen, oder besser gesagt: ein Interesse am Vorfeld der Wissenschaft. Manches aus alter Zeit, das als unwissenschaftlich und metaphysisch hätte gelten müssen, hat sich später zur Wissenschaft gemausert. Beispiele sind Demokrits Atomlehre und Platons Lehre von der Anordnung der Himmelskörper.

Karl Raimund Popper hat uns zwar das  Abgrenzungskriterium beschert, das es uns erlaubt, Wissenschaft und Metaphysik ziemlich sauber voneinander zu trennen. Aber er hat damit keine Verdammung der Metaphysik und des „Möglichkeitsdenkens“ verbunden. Für ihn spielt die Metaphysik eine wesentliche Rolle im Vorfeld der Wissenschaft („Skeptiker“ kontra Skeptiker über Kreativität in der Wissenschaft).

Aufschlussreich ist ein Interview des Skeptikers Mark Benecke (2017) mit dem heutigen Vorstandmitglied des Instituts für Grenzgebiete der Psychologie und Psychohygiene, Eberhard Bauer. Bauer sagt: „Diese Phänomene, die wir auch im Spontanbereich kennenlernen, wie die Wahrträume, wie manche dieser Spukerfahrungen. Da würde ich immer noch so eine offene Stelle sehen, die ich momentan als nicht erklärbar einschätze. Deshalb halte ich mir einen Überschuss an Deutungsmöglichkeiten offen.“

Aus dem Leben gegriffen

Wir haben es im Leben nicht nur mit Fakten zu tun, sondern vor allem mit Menschen und deren Meinungen. Selbst wenn man sich über die Fakten einig ist, bleibt oft ein ungeklärter Rest, der alle möglichen und teilweise miteinander unvereinbaren Meinungen zulässt. Das wurde mir durch ein Erlebnis im Freundeskreis sehr deutlich vor Augen geführt. Ich wurde vor ein paar Tagen Zeuge einer Auseinandersetzung zwischen Torsten, einem eher wissenschaftlich orientierten Typ, und seiner Freundin Patricia, die an die Wirkung geistiger Kräfte glaubt.

Eine Unterhaltung entgleist

Torsten: Du hast die Quantenphysik mit übersinnlichen Erscheinungen in Verbindung gebracht. Ich nenne so etwas Quantenmystik. Der Mathematikprofessor Claus Peter Ortlieb und der Sozialwissenschaftler Jörg Ulrich nennen es „Quantenquark“. Das war in einem Artikel der Frankfurter Rundschau.

Patricia: Oh – „Quantenquark“. Du bist eben provokant. Quanten sind ein Mysterium; Du kannst nicht wissen, ob Du mit Deiner Auffassung richtig oder auch daneben liegst. Letztendlich ist alles Vermutung. Du hältst Dich an den jetzigen Stand des Wissens. Morgen kann sich eine vollkommen neue Sicht ergeben. Alles fließt. Du bist in zwei Minuten nicht mehr der, der du jetzt bist. Nichts ist sicher, nur der körperliche Tod. Der steht fest.

Torsten: Die Bezeichnung „Quantenquark“ ist nicht von mir. Ich nenne so etwas Quantenmystik. Die Quantenmystik ist viel zu unscharf und beliebig, als dass sie zu einer begründeten und prüfbaren neuen Sicht auf die Welt führen könnten. Jeder phantasiert da auf seine Weise: Fritjof Capra, Hans-Peter Dürr, Michael König, Rupert Sheldrake, … Und natürlich gewinnen wir neue Einsichten. Aber Du erwartest nicht, dass morgen Deine Kaffeetasse gen Zimmerdecke entschwebt. Es kommt darauf an, was UNS die Wissenschaft über das tatsächlich überindividuell Erfahrbare sagt. Mystik betrifft demgegenüber DEINE individuelle Vorstellung.

Patricia: Uri Geller kann Löffel verbiegen – mit Willenskraft. Ich morgen vielleicht auch, oder vielleicht auch nicht. Es gibt sie schon, diese Menschen mit dem Zugang zu Unerklärbarem.

Torsten: Uri Geller ist ein ganz normaler Zauberkünstler und längst gründlich entlarvt. Entweder Du veräppelst mich oder Du hast das wirklich nicht mitgekriegt. Es gibt eine ganze Reihe von Videos, in denen James Randi die Tricks von Uri Geller sichtbar macht. Sie sind jederzeit auf Youtube abrufbar.

Patricia: Lieber Torsten, Uri Geller hat bei meinen Eltern zuhause durch das Fernsehen Löffel verbogen. Ob du dies wahrhaben willst oder nicht. Und das waren ganz normale Kaffeelöffel. Sorry. Mehr sage ich dazu nicht. Dies ist eine Tatsache, die ich und mein Vater und meine Mutter miterlebt haben.

Torsten: Eine Frage nur. Habt ihr die Löffel noch? Wenn der Uri Geller sie via TV verbogen hat, dann sind es ja äußerst spektakuläre Stücke. So etwas hebt man doch auf. Ich bin sicher, dass Du nicht lügst. Frag mal Deine Mutter und Deinen Vater, wie sie sich an das Ereignis erinnern. Das interessiert mich.

Patricia: Torsten, ich frage sie, wenn wir telefonieren. Aber das mit der Lüge, ich hoffe, das war ein Witz; dass du überhaupt so darüber denken kannst.

Torsten: Ich will die Sache nicht auf sich beruhen lassen. Dafür ist der Sachverhalt zu interessant. In Kürze meine Thesen: 1. Du hast wahrheitsgemäß von deinen Eindrücken berichtet. 2. Löffel wurden nicht verbogen. 3. Die Thesen 1 und 2 widersprechen sich nicht. Mir fallen drei mögliche Erklärungen für die Gültigkeit aller drei Thesen ein. Vermutlich gibt es weitere. Um der Sache auf den Grund zu gehen, bitte ich um Deine Mithilfe. Der Anruf bei Deinen Eltern könnte uns des Rätsels Lösung näher bringen. Ich erwarte jedenfalls ein hochinteressantes Ergebnis.

Damit war erst einmal Schluss der Debatte. Patricia wies Torsten noch auf ein YouTube-Video des Seminaranbieters und Esoterikers Robert Betz hin. Dies verstand Torsten als Ablenkung vom Thema; das hat ihn sehr verstimmt. Man könne zwar verschiedener Meinung sein, aber über die Fakten sollte man sich schon verständigen, habe er der Patricia gesagt. Daraufhin sei auch Patricia eingeschnappt.

Ein harmloses Gespräch führte demnach zu etwas, das man eine kleine menschliche Katastrophe nennen könnte: Ein Freundschaft drohte zu zerbrechen.

Fragen

lch teile Torstens Auffassung: Es ist nicht zu akzeptieren, wenn die Spielregeln der modernen Gesellschaft achtlos verändert werden. Zu diesen Regeln gehört nun einmal, dass man sich auf Fakten verständigt, auf Meinungen nicht notwendigerweise. Auch wenn Donald Trump das anders sieht: Diese Regel und der gegenseitige Respekt gehören zu den Voraussetzungen gelingender Kommunikation.

Torsten, der Skeptiker, stand also vor einem quälenden Widerspruch, nämlich dass 1. Patricia nicht lügt, was für ihn selbstverständlich ist, und dass 2. die Löffel nicht durch Geisteskraft verbogen wurden, was er für wissenschaftlich geboten hält. Er suchte nach des Rätsels Lösung und fragte sich, ob der Widerspruch eine natürliche Erklärung hat. Ihm gingen die folgenden Erklärungsmöglichkeiten durch den Sinn.

Hat sich vielleicht einer der Anwesenden einen Spaß gemacht und selber gezaubert? Haben die Eltern ihrer Tochter nur eine schöne Geschichte wie die vom Osterhasen erzählen wollen? Hält Patricia einen Traum für wahr? So etwas kann passieren, wie die meisten von  uns sicher schon erfahren haben. Könnte es sich um einen Erinnerungsirrtum (False Memory) handeln?  Um die kognitive Dissonanz zwischen den suggestiven Aussagen einer „Autorität“ (Uri Geller) und der Beobachtung (nichts biegt sich) zu lösen, erfindet der Kopf zuweilen harmonisierende Geschichten (Steller, 2015).

Des Rätsels (teilweise) Lösung

Patricia und Torsten wollten die Sache dann doch noch einmal etwas ruhiger angehen. Ihr Gespräch führte zu einer Einigung, was die Beschreibung des Sachverhalts angeht. Damit wurde der Sachverhalt zu beider Bedauern leider nicht dingfest gemacht. Eine Einigung ist es trotzdem, eine von beiden Seiten akzeptierte (aber möglicherweise falsche) Beschreibung des Faktums. Ich hole etwas aus, um das zu verdeutlichen.

Der Auslöser des Ganzen wird von Judith Liere  so dargestellt (2014):

Am 17. Januar 1974 ging ein Knick durch Deutschland. An jenem Donnerstagabend trat in der ZDF-Show „Drei mal Neun“ ein 27-jähriger Israeli mit dichten dunklen Locken auf. Der Mann behauptete, Gabeln allein mit der Kraft seiner Gedanken verbiegen oder zerbrechen zu können und stehengebliebene Uhren wieder zum Laufen zu bringen. Der Auftritt des jungen Uri Geller bei Showmaster Wim Thoelke versetzte das Land in Aufregung. Allerdings nicht, weil die Zuschauer sich von einem Scharlatan auf die Schippe genommen fühlten. Zumindest nicht nur.

Fast 13 Millionen Zuschauer sahen die Sendung – und zahlreiche Menschen meldeten sich nach der Ausstrahlung beim Sender. Fassungslos berichteten sie von krummem Besteck in ihren Küchenschubladen, manche verlangten sogar Schadensersatz.

Und der Wahnsinn ging weiter: „Uri Geller verbiegt ganz Deutschland“ titelte die „Bild“ daraufhin und forderte ihre Leser außerdem zu einem Experiment auf: Pünktlich um 17.30 Uhr sollten sie eine Gabel, einen Löffel oder eine kaputte Uhr auf die Zeitung legen und konzentriert an Uri Geller denken – mehrere hundert Briefe erreichten danach die Redaktion, von Menschen, die schrieben, das Besteck sei „weich wie Butter“ geworden. Anscheinend glaubten Massen an das Unglaubliche, das Unerklärliche

Patricia erklärt,  dass sie beim häuslichen Löffelbiegen gar nicht dabei war, sondern das Ereignis nur vom Hörensagen kenne. Sie erinnert sich, dass von einer Essgabel und einem Löffel die Rede war. Die Gabel sei von ihrem Vater verbogen worden. Außerdem sei die Zimmeruhr stehen geblieben. Die Teile wurden nicht aufgehoben, weil es „für uns nicht so wichtig war“.

An der Wahrheitstreue der Eltern bestehen keine Zweifel. Zum Zeitpunkt der  Sendung war Patricia ein Kind, noch nicht Teenager.

Torsten muss zugeben, dass er für die Ereignisse und deren Beschreibung keine schlüssigen Erklärungen hat, nur Vorschläge. Für ihn ist alles mit „rechten Dingen“ zugegangen und damit meint er, dass sie sich mit dem derzeitigen Stand der Wissenschaft erklären lassen (Naturgesetze: metaphysisch oder wissenschaftlich?). Da mehrere Köpfe im Spiel waren, ist für ihn klar, dass es zu Täuschungen gekommen sein muss, zu Vorstellungen, die von den Beteiligten wahrheitsgetreu weitergegeben wurden.

Letztlich bleibt ein ungeklärter Rest. Patricia fühlt sich ebenfalls bestätigt und bleibt bei ihrer Auffassung, dass Geisteskräfte im Spiel waren.

Die beiden vertragen sich wieder.

Nachgang

Als ich die Sendung mit Wim Thoelke und den Auftritt Uri Gellers seinerzeit sah, fragte ich mich: Wie kann der öffentlich-rechtliche Rundfunk einem Aufschneider eine solche Bühne bieten? Ich hielt, und halte immer noch, Uri Geller für einen ganz normalen Zauberkünstler, der sich übernatürliche Fähigkeiten attestiert und der diesen Anspruch mit einiger Genialität vermarktet.

Ich habe die Sache denn auch gleich wieder vergessen. Die Zunft der Zauberkünstler aber hatte ein Problem. Es drohte Rufschädigung. Einige Magier machten sich an die Entzauberung des Zauberers. Thomas von Randow hat sich in einem ZEIT-Artikel von 1974 dem Thema gewidmet. Einer der Entzauberer ist der Skeptiker James Randi. 1982 erschien dessen Buch „The Truth About Uri Geller“.

Es hat dem Uri Geller nicht gefallen. Er strengte drei Klagen gegen James Randi an. Alle drei Klagen blieben erfolglos.

Literaturhinweise

Benecke, Mark: Überschuss an Deutungsmöglichkeiten. Interview mit Eberhard Bauer. skeptiker 3/2017, S. 147 – 153. https://home.benecke.com/publications/mark-benecke-trifft-eberhard-bauer-in-freiburg-igpppicture

Liere, Judith: TV-Magier Uri Geller und sein Löffeltrick bei „Drei mal Neun“. Spiegel online. 17.01.2014.  https://www.spiegel.de/einestages/tv-magier-uri-geller-und-sein-loeffeltrick-bei-drei-mal-neun-a-953262.html

Oepen, Irmgard (Hrsg.); Federspiel, Krista (Hrsg.); Sarma, Amardeo (Hrsg.); Windeler, Jürgen (Hrsg.): Lexikon der Parawissenschaften: Astrologie, Esoterik, Okkultismus, Paramedizin, Parapsychologie kritisch betrachtet. 1999

Pauwels, Louis; Bergier, Jacques: Aufbruch ins dritte Jahrtausend. 1965

Randow, Thomas von: Uri und die Wissenschaft. 8.11.1974. https://www.zeit.de/1974/46/uri-und-die-wisschenschaft/komplettansicht

Ronson, Jon: The men who stare at goats. 2004

Steller, Max: Nichts als die Wahrheit? Warum jeder Unschuldige verurteilt werden kann. 2015

Ortlieb, Claus Peter; Ulrich, Jörg: Quantenquark: Über ein deutsches Manifest Eine kritische Stellungnahme zu „Potsdamer Manifest“ und „Potsdamer Denkschrift“. Frankfurter Rundschau (28.10.2005). http://www.netzwerk-zukunft.de/tl_files/netzwerk-zukunft/dokumente/zukuenfte/51/Beitraege_Potsdamer%20Manifest.pdf

Veröffentlicht unter Naturwissenschaften, Skeptizismus, Spiritualität, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , | 5 Kommentare

Risiko ist nicht objektivierbar

Sichtweisen auf das Risiko

Im Artikel Faktenjongleure und Statistikzauberer habe ich die von Hans Rosling propagierte optimistische Weltsicht aufs Korn genommen, insbesondere sein plattes Risikokalkül. Rosling unterscheidet das wahrgenommene vom realen Risiko und empfiehlt ausschließlich letzteres zum Maßstab von Entscheidungen zu machen. Es ist das sogenannte objektive Risiko, und das ist definiert als Schadenserwartungswert im rein mathematischen Sinn. Im einfachsten Fall ist dieses objektive Risiko gegeben durch die Formel Risiko = Schadenshöhe × Eintrittswahrscheinlichkeit.

Unter Maßgabe des objektiven Risikos ließe sich alles, was uns irgendwie ängstigt, richtig einordnen und wir brauchten uns nicht mehr allzu sehr vor Terrorismus, Pflanzengiften, Radioaktivität usw. zu fürchten (Rosling, 2018, S. 101-123). Die „faktenbasierte Weltsicht“ ist demnach alles, was wir benötigen, um die Welt, so wie sie ist, gut zu finden.

Diese Sicht der Dinge hat den Vorteil, dass sie das Individuum mit seinen subjektiven Gefahreneinschätzungen und seinen Launen aus den Überlegungen heraushält. Der Begriff des objektiven Risikos ist ein ideales Vehikel einer für jedermann verbindlichen Weltsicht. Der Neue Skeptiker – im Artikel Hochstapelei im Namen der Wissenschaft war von ihm die Rede – präferiert das objektive Risiko, denn so lassen sich nach seiner Auffassung Handlungsanweisung rein wissenschaftlich gewinnen. Es entsteht eine Wissenschaft der Moral (Shermer, 2015).

Florian Aigner schreibt am 28.4.2019 in seiner Futurezone-Kolumne zum Thema „Wissenschaftlich korrekte Panik“ ganz im Sinne des Neuen Skeptizismus: „Es wird immer schwierig sein, die Grenze zwischen gerade noch harmlosen und gerade schon gefährlichen Dingen zu ziehen. Aber wir sollten die Gefahren um uns wenigstens in die richtige Reihenfolge bringen und unsere Energie den größeren Gefahren widmen, anstatt uns vor Kleinigkeiten zu fürchten.“

Wenn von „richtiger Reihenfolge“ die Rede ist, dann lese ich das so: Es gibt eine richtige und von allen rational entscheidenden Menschen zu akzeptierende Reihenfolge der Gefahren.

Diese Prämisse ist unhaltbar, ebenso die Lehre vom objektiven Risiko als verbindliche Maßgabe der Gefahrenbewertung. Gerade der Skeptiker sollte wissen, dass menschliches Verhalten durch einfache mathematische Beschreibungen nicht zu erfassen ist. Das System Mensch und seine gesellschaftliche Einbindung sind dafür viel zu komplex.

Für Entscheidungen bei Risiko, denen sich der Einzelne gegenüber sieht, ist das reale oder objektive Risiko ein nur unzureichender Maßstab. Diese Unzulänglichkeit herauszustellen, dafür genügt mir im Folgenden ein ziemlich einfaches mathematisches Modell.

Die Neuen Skeptiker schießen über das Ziel hinaus. Aber in einem Punkt liegen sie wohl richtig: Unsere Ängste sind oft weit übertrieben und manch wirklich Bedrohliches nehmen wir nonchalant hin. Da ist ein Blick auf die Statistik ratsam, auf die Fakten. Dieser Blick verhilft uns dann zwar nicht zu einer allgemeinverbindlichen und von jedermann zu akzeptierenden Weltsicht, aber er hilft uns, unseren persönlichen „Angstmaßstab“ zu justieren.

Aber was sind die Fakten? Auch wer den „klassischen Gatekeepern“ (Pörksen) misstraut und den Internetforen allemal, kann sich einen Eindruck verschaffen. Er geht zu den Datenquellen und wendet ein wenig Dreisatzrechnung an.

Beispiel: Impfgegner kontra Impfpflicht

Im Falle des Hin und Her zur Masernschutzimpfung kann jedermann die Daten des Robert Koch Instituts (RKI) heranziehen. (Sollte er auch dieser Quelle misstrauen, ist er ziemlich verloren und es bleibt ihm letztlich nur Kaffeesatzleserei.)

Die Impfquote bei Schuleingangsuntersuchen liegt seit Jahrzehnten bei 90% (Epidemiologisches Bulletin, 4. Januar 2018 / Nr. 1). Von den 80 Mio. Einwohnern Deutschlands sind demnach etwa 72 Mio. gegen Masern geimpft. Die Impfung findet nur einmal in einem im Mittel 80 Jahre langen Leben statt. So kommt man – grob gerechnet – auf etwa 900 Tausend Masernschutzimpfungen je Jahr; es können aber auch gerade einmal 700 Tausend sein.

Die Zahl der anerkannten Impfschäden sinkt kontinuierlich (Meyer u. a., 2002). Im Jahr 1999 waren es 21. Über einen größeren Beobachtungszeitraum (1972-1999) gemittelt, gehen 1,1% der anerkannten Impfschäden auf die Impfungen gegen Masern und die Kombinationsimpfungen gegen Mumps, Masern und Röteln  zurück.  Sogar derartig grobe Abschätzungen lassen darauf schließen, dass einer Million Masernimpfungen schlimmstenfalls ein anerkannter Impfschaden zuzurechnen ist.

Andererseits weiß man um die Gefahren, die dem nicht Geimpften drohen: „Nach Angaben der WHO liegt in entwickelten Ländern die Letalität der Masern zwischen 0,05% und 0,1%.“ (https://www.rki.de/DE/Content/InfAZ/M/Masern/Masern.html)

Soweit sind das Daten. Inwieweit sie Fakten abbilden, kann dem einen oder anderen zweifelhaft erscheinen. Wer sie  anerkennt, muss diese Fakten noch irgendwie in seine Weltsicht einpassen. Und da fangen die eigentlichen Schwierigkeiten an. Unter anderen gibt es

  • grundsätzlich Misstrauische, die überall Verschwörungen vermuten,
  • Anhänger der Naturmedizin, die Impfung als unnatürlich verurteilen und ablehnen,
  • gewisse Gottgläubige, die es ablehnen, mit Massenimpfungen Gott ins Handwerk zu pfuschen,
  • diejenigen, die sich auf anekdotische Evidenz verlassen (,„Meine Tochter ist nicht geimpft worden und jedes Mal, wenn wir alle krank werden, ist sie die einzige, die nichts hat“),
  • Leute, die den einfachen Regeln des Volkswissens vertrauen („Das Immunsystem funktioniert nur durch Kennenlernen“).

Die Zitate sind aus den Kommentaren zum ZEIT-Artikel von Schade u. a. (2015).

Der Skeptiker tritt gegen diese irrationalen Weltsichten an. Das ist aber nur ein Teil seiner faktenbasierten Mission. Selbst wenn er alle irrationalen Elemente eliminieren könnte, wäre er noch lange nicht beim objektiven Risiko als Grundlage aller rationalen Entscheidungen angekommen. Bereits unser Beispiel von der Impfgegnerschaft zeigt ein paar Hindernisse, die dem entgegenstehen.

Aufgrund der Impfrate von 90% sind die Masern in Deutschland sehr selten. Die Nichtgeimpften sind durch die Geimpften weitgehend geschützt. Das verringert die Wahrscheinlichkeit für Erkrankung der Ungeimpften. Impfverweigerung kann also durchaus eine rationale persönliche Entscheidung sein.

Die Erhöhung der Impfrate lässt sich über das erwartbare zukünftige Gemeinwohl rechtfertigen: Ausrottung der Masern. Mit dem Vorwurf der Trittbrettfahrerei wäre ich dennoch vorsichtig. Jedenfalls betreten wir hier das Feld der Moral und der Wertvorstellungen, und da reicht die objektive Risikobewertung nicht hin.

Subjektive Wertmaßstäbe sind rational

Ohne sichere Datenbasis sind Risikoerwägungen ziemlich sinnlos. Aber sie allein reicht nicht für ein Urteil. Die Situation des Entscheiders, sein Denkrahmen spielt eine große Rolle. Risiko ist unabweisbar subjektiv. Das lässt sich mit einer einfachen Modellvorstellung leicht einsehen.

Die meisten Menschen haben irgendwelche Wünsche. Manches steht ganz oben auf der Wunschliste, anderes eher unten. Es hängt von den persönlichen Lebensumständen und vom Wertesystem jedes Einzelnen ab, welches Hochgefühl die Erfüllung eines Wunsches bewirkt. Ich entwickle die Gedanken dazu an der fiktiven Gestalt „Horst“.

Horst hat eine Rangordnung seiner Wünsche erstellt. Ganz oben steht der Erwerb einer Eigentumswohnung. Bei einem „warmen Regen“ von 100 000 € wäre dieser Wunsch erfüllbar. Horst misst den hunderttausend Euro einen subjektiven Nutzen von 100 % zu: hundertprozentiges Hochgefühl bei einem Lottogewinn von hunderttausend Euro.

Aber auch die Hälfte davon wäre nicht übel. Nach Rücksprache mit der Familie stellt er fest: Die Eigentumswohnung wäre auch bei einem Gewinn von 50 000 € noch erschwinglich. Durch den Schuldendienst müssten andere, weniger dringliche Wünsche zurückgestellt werden. Er kommt zur Überzeugung, dass das Hochgefühl nicht etwa mit nur 50 %, sondern mit etwa 80 % zu veranschlagen wäre. Mit einem Gewinn von 25000 € läge –  verglichen mit dem vollen Gewinn von 100000 € – sein Hochgefühl immer noch deutlich über 50 %.

Horst ist Mathematiker; nach einigem Hin- und Her findet er eine Funktion, die sein Hochgefühl in Abhängigkeit vom Betrag wiedergibt, seine subjektive Nutzenfunktion.

Horst sagt sich: Mein Hochgefühl hängt womöglich logarithmisch vom gewonnenen Betrag x ab. Bereits im 18. Jahrhundert hat Daniel Bernoulli einen solchen Ansatz gemacht. Die Nutzenfunktion u(x) stellt den subjektiven Nutzen in Abhängigkeit vom Betrags x dar. Zumindest für größere fünfstellige Beträge passt der Logarithmus. Bei kleinen Beträgen bin ich mir nicht so sicher: Zwei Euro sind mir doch tatsächlich doppelt so viel wert wie ein Euro. Also korrigiere ich die Formel, so dass für höhere Beträge näherungsweise das logarithmische und für kleinere näherungsweise das lineare Nutzengesetz gilt. Mit dem Ansatz u(x) = cln(1+x/x0) kann ich meine Empfindungen recht genau wiedergeben. Es handelt sich um eine Funktion mit von links nach rechts abnehmender Steigung. Der Ankerwert xmuss in der Übergangszone zwischen den Gültigkeitsbereichen des linearen und des logarithmischen Nutzengesetzes liegen. Ein plausibler Wert angesichts meiner Präferenzen ist 5000 €.“

Die sich so ergebende Kurve für Horst ist in der Grafik wiedergegeben. Die Nutzenfunktion ist linear, solange sich die Beträge im Rahmen des normalen Budgets halten.

Nehmen wir an, Horst bekommt die Gelegenheit, an der Börse oder sonst wo, auf einen Gewinn von 100 000 € zu wetten, bei einer Gewinnchance von 40%. Wieviel wäre ihm eine solche Wette wert?

Seine Nutzenkurve zeigt 40%-prozentigen Nutzen bei 12 000 €. Das ist das Sicherheitsäquivalent der Wette. Höchstens diesen Betrag wird Horst für die Teilnahme an der Wette bereitwillig einsetzen. Horsts Nachbar Bernd ist wohlhabender; sein Ankerwert liegt bei 30 000 €. Dementsprechend höher ist sein Sicherheitsäquivalent: 24 000 €. Je größer der Ankerwert, desto mehr nähert sich die Nutzenfunktion der linearen Nutzenfunktion an. Zur Rangfolge der Alternativen: Horst würde 20 000 € der Wette vorziehen. Für Bernd gilt die umgekehrte Rangfolge; er wettet lieber und setzt dafür die 20 000 € aufs Spiel.

Die Kurven oberhalb der linearen stehen für Risikoaversion: Der Spatz in der Hand ist mir lieber als die Taube auf dem Dach.

Für die subjektive Schadensfunktion übernehmen wir die Form der Nutzenfunktion. Ein deterministische Schaden, beispielsweise der Zeitverlust durch Verzicht aufs Überholen, wird gegenüber dem zufälligen Schaden eines möglichen Unfalls überbewertet. In der Schadensbetrachtung sind wir also risikofreudig.

Sowohl bei der Beurteilung von möglichen Schäden als auch beim Nutzenkalkül gibt es bei den hier gewählten Nutzen- und Schadensfunktionen eine Tendenz zur Überbewertung der Gewissheit. Diese Tendenz hat den Rang eines allgemeinen psychologischen Prinzips: Ein fester Nutzen wird gegenüber dem zufälligen präferiert, und ein zufälliger Schaden erscheint uns gegenüber festen Kosten eher erträglich – immer bei gleichem objektivem Risiko.

Es gibt Ausnahmen: Sogar die bei Gewinnaussichten eher risikoscheuen Leute spielen zuweilen Lotto. Und der risikofreudige Autofahrer hat eine Reihe von Versicherungen abgeschlossen, die objektiv gesehen jedenfalls ein Verlustgeschäft sind.

Der subjektive Nutzen und Schaden lässt sich also noch nicht einmal für eine Person in eine einfache Formel fassen. Es kommt auf den Denkrahmen an, innerhalb dessen eine Entscheidung fallen muss. Dieses Framing verstärkt den Zweifel an einer machbaren objektiven Risikobewertung weiter. Wer mehr darüber wissen will, sollte sich den Werken von Daniel Kahneman und Richard Thaler zuwenden.

Quellen

Kahneman, Daniel: Thinking Fast and Slow. 2011

Kahneman, Daniel; Tversky, Amos: Prospect Theory: An Analysis of Decision under Risk. Econometrica, Vol. 47, 2/1979, 263–291

Meyer/Rasch/Keller-Stanislawski/Schnitzler (RKI): Anerkannte Impfschäden in der Bundesrepublik Deutschland 1990–1999. Bundesgesundheitsbl – Gesundheitsforsch – Gesundheitsschutz, 2002 45:364–370

Pörksen, Bernhard: Die große Gereiztheit. 2018

Rosling, Hans: Factfulness. Ten reasons we’re wrong about the world – and why things are better than you think. 2018

Shermer, Michael: The Moral Arc. How science makes us better people. 2015

Thaler, Richard H.; Sunstein, Cass, R.: Nudge. 2008

Links

http://www2.hs-fulda.de/~grams/DecisionsUnderRisk/Risk.html

Von Blickle, Paul; Schadwinkel, Alina (24.2.2015): Masern sind viel gefährlicher als die Impfung.
https://www.zeit.de/wissen/gesundheit/2015-02/masern-impfung-risiko-nebenwirkung

Veröffentlicht unter Grafische Darstellung, Moral und Ethik, Skeptizismus, Wahrscheinlichkeitsrechnung, Wirtschaft | Verschlagwortet mit , , , , , | 3 Kommentare

Sinn gesucht, Unsinn gefunden

Im Zufallsmuster der Badezimmerkacheln erkennen wir Gesichter. Das Wolkenbild formt sich zu einem Hund. Zwölf von 150 Frauen wählten beim Autokauf einen Ford; unter gleich vielen Männern trafen nur sechs diese Entscheidung. So kommen wir vorschnell zur Auffassung, dass Frauen die Automarke Ford bevorzugen.

Das sind Beispiele dafür, wie Phantasie und Spekulation fast gewohnheitsmäßig über unsere Erfahrung und unser Wissen hinausgreifen. Das ist die unvermeidliche Sinnsuche unseres Wahrnehmungs- und Denkapparats.

Manch ein übersensibler Mensch braucht nur ein paar schwer erklärliche Umstände, sonderbare Riten oder befremdliche Symbole und schon vermeint er die Anzeichen einer Verschwörung zu erkennen. Besonders zwingend wird ein solcher Verdacht, wenn sich in den Beobachtungen mathematische Strukturen ausmachen lassen.

Für den Hochsensiblen kann das kein Zufall sein. Einfache und möglichst geheimnisvolle Erklärungen müssen her. Dann kann er sich seinen esoterischen und verschwörungstheoretischen Gedanken  hingeben und sich genüsslich so manchen Schauer über den Rücken laufen lassen.

Dabei steckt oft nicht mehr als Zufall dahinter, oder Spielerei, oder Wichtigtuerei, oder ein ähnlich harmloser Anlass. Sinn gesucht – Unsinn gefunden!

Ich greife ein Thema der Zahlenmystiker auf. Die folgende Miniatur ist meiner Problemsammlung „Querbeet“ entnommen. Zweck der Problemsammlung ist zwar die freudvolle Beschäftigung mit Mathematik. Andererseits zeigt diese Miniatur Fallstricke der überbordenden Sinnsuche auf und findet so ihren Platz im Hoppla!-Blog.

Zahlenmystik um die Fünf

Für mich begann es mit dem Film „V wie Vendetta“ (2006). Der Held nennt sich V, nach der Nummer der Zelle, in der er eingekerkert war: Fünf. Es ist ein beliebtes Spiel unter Kinogängern, herauszufinden, wo überall in dem Film ein V oder die Zahl Fünf erscheint: bei der Zeigerstellung der Uhr, den Schnitten des Degens, dem Feuerwerk, einem Bild an der Wand, auf den Tasten der Jukebox.

Die Fünf ist von alters her ein Symbol der belebten Natur. Die Fünfzähligkeit zeichnet die Rosengewächse aus. Schneiden Sie einmal einen Apfel quer durch und schauen Sie sich das Kerngehäuse an. Weitere Beispiele sind die fünf Finger unserer Hand und der fünfarmige Seestern.

Dem regelmäßigen Sternfünfeck, dem Pentagramm, wurden bereits in der Antike magische Kräfte zugeschrieben. Heute sieht man es oft auf zwei seiner Spitzen gestellt. Beim Drudenfuß, er soll bis in unsere Tage hinein der Abwehr böser Geister dienen, weist eine Spitze zur Erde. Hier entdecken wir das V schon wieder.

Die Spitzen des Pentagramms bilden ein regelmäßiges Fünfeck, ein Pentagon. Das Zentrum des Pentagramms ist ebenfalls von einem Pentagon umgeben. Ein Pentagon entsteht beispielsweise beim Knüpfen eines einfachen Knotens (Überhandknoten) mit einem Streifen Papier.

Im Pentagramm ist alles goldener Schnitt. Genauer: Zu jeder Strecke (oder Teilstrecke) lässt sich im Pentagramm eine weitere Strecke finden, die zu ihr im Verhältnis des goldenen Schnittes steht. Zur Erinnerung: Eine Strecke ist im goldenen Schnitt geteilt, wenn sich die Gesamtstrecke zur größeren Teilstrecke verhält wie die größere Teilstrecke zu kleineren.

Im obigen Pentagramm habe ich mit a und b die Längen von Streckenabschnitten bezeichnet. Eine Strecke von Spitze zu Spitze hat die Länge 2a + b. Tatsächlich gelten die Gleichungen des goldenen Schnittes, nämlich (2a+b)/(a+b) = (a+b)/a = a/b.

Das Streckenverhältnis des goldenen Schnittes wird zuweilen mit dem griechischen Buchstaben ɸ (Phi) bezeichnet: ɸ = a/b. ɸ ist Lösung der Gleichung ɸ2 – ɸ -1 = 0 und hat den Wert 1,61803398874989…

Der Wikipedia entnehme ich diese Deutung des Pentagramms (15.04.2019):  „Pythagoras kannte es als Symbol für Gesundheit. Ihn interessierte daran besonders der mathematische Aspekt des Goldenen Schnitts. Da man es in einem Zug zeichnen kann und am Schluss wieder zum Anfang gelangt, galt es auch als Zeichen für den Kreislauf des Lebens. Abraxas, Gott der Gnostiker, wurde ebenfalls durch ein Pentagramm symbolisiert, weil er fünf Urkräfte in sich vereint.“

Wem das zu wenig Grusel ist, der möge sich an die auf die Spitze gestellte Version mit dem eingezeichneten gehörnten Ziegenkopf halten (Baphomet). Dann sieht er das Pentagramm als Symbol von Geheimgesellschaften und Satanismus. Davor kann er sich dann so richtig fürchten. (Er könnte das folgenlos aber auch sein lassen.)

Der goldene Schnitt wird vom Menschen als besonders harmonisches Streckenverhältnis empfunden. „Die göttliche Proportion … ist der goldene Schnitt… So lässt sich vielleicht die Vorliebe für fünfeckige Strukturen in der gotischen Kunst vor allem in den Verstrebungen der Rosetten der Kathedralen erklären“ (Eco, Umberto: Die Geschichte der Schönheit. Hanser, München, Wien 2004, S. 66 ff.).

Damit sind wir unversehens vom Kino über Mathematik und Magie zur Architektur und zu den schönen Dingen gekommen.

Von da aus mache ich nun einen kühnen Sprung hinein in die Populationsbiologie. Wie viele Kaninchenpaare kann ein Kaninchenpaar im Laufe der Zeit erzeugen? Diese Kaninchenaufgabe hat Leonardo von Pisa, genannt Fibonacci, im Jahre 1202 gestellt.

Aus dem Lehrbuch des Fibonacci: „Das Weibchen eines jeden Kaninchenpaares gebiert von Vollendung des zweiten Lebensmonats an allmonatlich ein neues Kaninchenpaar.“ Es ist die Zahl der Kaninchenpaare im Laufe der Monate zu berechnen unter der Voraussetzung, dass anfangs nur ein Kaninchenpaar vorhanden ist und dass die Kaninchen nicht sterben.

Die Zahlenfolge für die Anzahl der Kaninchenpaare ist 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, … Das sind die Fibonacci-Zahlen. Und so lautet das Bildungsgesetz dieser Zahlen: Ab der Zahl 2 ist jede Zahl die Summe ihrer beiden Vorgänger.

Wir bilden nun die Quotienten je zweier aufeinander folgender Fibonacci-Zahlen, und zwar teilen wir die größere der beiden durch die kleinere. Diese Werte streben gegen einen Grenzwert, nämlich gegen die Zahl ɸ des goldenen Schnittes. Und damit sind wir wieder beim Pentagramm, der Zahl Fünf und bei „V wie Vendetta“.

Und was ist der tiefere Sinn des Ganzen? Es gibt ihn nicht. Da ist nichts Mystisches, keine unerklärliche Magie – nur Spiel.

V ist ein sehr einfaches Symbol. Es ist kein Wunder, dass es uns hin und wieder begegnet. Denselben Effekt ruft das „Gesetz der kleinen Zahlen“ hervor (Underwood Dudley: Die Macht der Zahl. 1999): Eine kleine Zahl wie die Fünf erscheint immer wieder einmal. Auch die einfachen Relationen des Pentagramms und dass wir diese in der Fibonacci-Folge wiederfinden, ist nichts Besonderes. Einfaches passiert oft.

Dazu kommt, dass die „Sinnsuche unseres Wahrnehmungsapparats“ vor kleineren Manipulationen nicht zurückschreckt, wie oben bei der leichten Drehung des Pentagramms hin zum Drudenfuß. Auch wird manch „wundersamer“ Fund in der Bedeutung gern überbewertet. Dem Standardwerk zur europäischen Baukunst entnehme ich beispielsweise die Bemerkung : „Der Goldene Schnitt … wird in der Kunst weit seltener angewendet als allg. angenommen wird“ (Koch, Wilfried: Baustilkunde. Bertelsmann Lexikon Verlag, Gütersloh 2000).

Aber was sagen Sie dazu: Das Symbol V hat den Morsecode „…-“, „didididaaa“. Da kommt Ihnen etwas in den Sinn? Musik? Eine Symphonie? Von Beethoven? – Richtig: Es ist die Fünfte.

Spekulation in der Wissenschaft

Ohne Spekulation gibt es keinen Wissenszuwachs. Von esoterischen Umtrieben und von der Pseudowissenschaft unterscheidet sich die Wissenschaft dadurch, dass neue Ideen und Theorien unerbittlich auf innere Konsistenz und auf  Übereinstimmung mit den Fakten geprüft werden.

Beispielsweise war das Weltsystem des Kopernikus zunächst nur eine schöne Spekulation. Das Weltsystem wurde später durch Gelileo durch Beobachtungen und Erfahrung angereichert und so zu Wissenschaft.

Was aber, wenn neue Beobachtungen und Fakten ausbleiben? Die Frage nach dem Sinn des Ganzen verlässt uns ja nicht. Er lässt die Wissenschaftler nach immer schöneren Theorien suchen, nach Theorien, die zwar keine neue Erkenntnis liefern, die aber die  alte Erkenntnis in immer eleganteren Formulierungen zusammenfasst.

Dann droht der Wissenschaft dieselbe Gefahr wie der Zahlenmystik: Sie könnte sich in reiner Spekulation und in bloß illusionärem Denken ergehen. Beispielsweise sieht Sabine Hossenfelder keinen großen Unterschied zwischen dem Glauben, die Natur sei schön und dem Glauben, Gott sei gütig (Spektrum der Wissenschaft 11/2018, S. 21).

Sie sagt: „Ohne empirische Daten könnten mathematische Konsistenz und Ästhetik zu den einzigen Lotsen auf der Suche nach neuen Naturgesetzen werden. Und manchen Physikern würden diese Kriterien möglicherweise bereits genügen, um eine hinreichend ausgearbeitete Theorie für wahr zu erklären.“

Abgrenzung

(Ergänzung vom 18.04.2019)

Wie lässt sich Sinn vom Unsinn scheiden? Woran erkennen wir die nützlichen Vorstellungen und das hilfreiche Wissen? Was zeichnet die fruchtbaren Theorien aus und hebt sie von reiner Spekulation ab?

Nach Karl Raimund Popper müssen Hypothesen, die unser Wissen erweitern, an der Erfahrung scheitern können. Sie müssen prinzipiell falsifizierbar sein. Dieses Kriterium dient ihm zur Abgrenzung wissenschaftlicher Theorien von der Metaphysik.

Es sind also die Fakten und die Überprüfung unserer Vorstellungen und Theorien anhand dieser Fakten, die den Wissensfortschritt ausmachen.

Obwohl Sabine Hossenfelder genau dieses Fehlen von Erfahrung und Fakten den neuen physikalischen Theorien als Manko anlastet, schreibt sie auf Seite 9 ihres Buches „Das hässliche Universum“: „Was ich jedoch lerne, ist, dass Karl Poppers Idee, wissenschaftliche Theorien müssten so gebaut sein, dass sie falsifizierbar sind, längst überholt ist. Ich freue mich, das zu  hören, denn es ist eine Philosophie, die in der Wissenschaft sowieso niemand gebrauchen konnte[…] Eine Idee zu falsifizieren ist nämlich so gut wie nie möglich“.

Diese Geringschätzung des Abgrenzungskriteriums geht meines Erachtens auf eine übertrieben strenge Auffassung von Falsifizierbarkeit und Falsifikation zurück. Karl Raimund Popper zeigt im 9. Abschnitt seiner Logik der Forschung, dass Vorsicht geboten ist: „Wer in den empirischen Wissenschaften strenge Beweise verlangt oder strenge Widerlegungen, wird nie durch Erfahrung eines Besseren belehrt werden können.“

Die Falsifizierbarkeit einer Theorie besagt nicht, dass die tatsächliche Falsifizierung eine einfache Sache ist. Von zentraler Bedeutung ist das Abwägen von Theorien in einem sozialen Prozess. Popper: „Widersprechen anerkannte Basissätze einer Theorie, so sind sie nur dann Grundlage für deren Falsifikation, wenn sie gleichzeitig eine falsifizierende Hypothese bewähren.“ (Logik der Forschung, Abschnitt 22)

Die Widerlegung der Theorie der verborgenen Variablen in der Quantenmechanik ist ein lehrreiches Beispiel. Eine Konsequenz dieser Theorie ist die bellsche Ungleichung. Die Verletzung der bellschen Ungleichung lässt sich nur anhand statistischer Daten erkennen. Einen strengen Beweis geben diese natürlich nicht her. Aber die Datenlage ermöglicht es, dass sich die Wissenschaftler auf ein Urteil einigen: Die Theorie der verborgenen Variablen gilt heute als widerlegt.

Veröffentlicht unter Bildungswesen, Glaube und Agnostizismus, Naturwissenschaften, Skeptizismus, Spiritualität, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , | 2 Kommentare

Faktenjongleure und Statistikzauberer

Der Prolog von Michael Shermers Buch „The moral arc: how science and reason lead humanity toward truth, justice and freedom“ trägt in Anspielung auf ein Wort Martin Luther Kings den Titel „Bending the moral arc“. Wie bereits im Hoppla!-Artikel Achtung, statistische Klassen und andere Stolpersteine deutlich geworden sein sollte, wäre der Titel „Bending the Facts“ angemessener. Auch andere Fortschrittsapologeten glänzen als Faktenjongleure und Statistikzauberer. Herausragend ist das neue Buch „Factfulness“ von Hans Rosling.

Ausgehend von ihren Glaubenssätzen, nämlich dass uns die Wisssenschaft zu besseren Menschen mache und dass die Welt auf dem Weg in eine rosige Zukunft sei, wählen diese Autoren die zu ihren Ansichten passenden Fakten; mittels Interpretationstricks tauchen sie diese dann in ein rosiges Licht; Gegenläufiges wird kleingeredet.

Wir werfen einen Blick in die Trickkiste dieser Meinungsmacher.

Zweckdienliche Klassifizierung

Im Artikel über statistische Klassen und andere Stolpersteine sprach ich an, was man mit der Wahl unterschiedlicher Klassenbreiten anrichten kann. Roslings Leitbeispiel jedoch lässt Shermers Anstrengungen dagegen verblassen.

Rosling setzt alles daran, die Leute davon zu überzeugen, dass sie eine völlig verkehrte Sicht auf die Welt haben; dann rückt er diese gnädigerweise zurecht. Der Untertitel seines Buches lautet dementsprechend: Ten reasons we’re wrong about the world – and why things are better than you think.

Um den Leuten vor Augen zu führen, dass sie dümmer als Schimpansen sind, fragt er beispielsweise danach, wo die Mehrheit der Weltbevölkerung wohl lebe und er gibt nach Multiple-Choice-Manier drei mögliche Antworten zur Auswahl vor: in Ländern mit geringem, mit mittleren oder mit hohem Einkommen.

Der hier zitierte Schimpanse würde mangels Wissen eine zufällige Trefferwahrscheinlichkeit von 1/3 erzielen. Das gebildete Publikum – es tippt überwiegend auf die erste Antwort (geringes Einkommen) – erreicht nur eine wesentlich geringere Trefferwahrscheinlichkeit. Zu den dümmsten Leuten gehören offenbar die Deutschen und die Ungarn mit einen Trefferquote von jeweils nur 17%. So groß ist der Anteil derjenigen, die auf die richtige, auf die mittlere Antwort tippen: Die Mehrheit der Weltbevölkerung lebt in Ländern mit mittlerem Einkommen, so Rosling.

Sie hätten das auch nicht gewusst? Nun ja: Ich hätte mich vermutlich geweigert, überhaupt eine Antwort zu geben, einfach weil aus der Frage gar nicht hervorgeht, wo die Einkommensgrenzen liegen, die einen zu einem armen, begüterten oder gar reichen Menschen machen. Die Frage ist so gesehen schlichter Quatsch.

Später verrät Rosling die von ihm gewählten Einkommensklassen: Länder von Leuten mit einem mittleren Einkommen unter $2  gelten ihm als arm. Die unteren mittleren Einkommen gehen für ihn bis $8. Danach kommt die Ländergruppe mit gehobenen mittleren Einkommen und ab $32 erscheinen die reicheren Länder. Die Statistik zeigt dann, dass eine Milliarde Menschen arm, fünf Milliarden mittelmäßig begütert und eine weitere Milliarde gut begütert sind.

Ob die Antwort richtig ist oder falsch, hängt von den ziemlich willkürlich gewählten Einkommensgrenzen ab. Gegen die Klassifizierung ist an sich nichts zu sagen. Die Weltbank verfährt ähnlich. Der Weltbank geht es jedoch nicht um besserwisserische Abfragerei des Weltzustands; ihr geht es um die Bestimmung des Trends der Entwicklung.

Für die Bestimmung des Weltzustands eignet sich das grobe Raster nicht. Außerdem sorgt der logarithmische Maßstab dafür, dass die Anzahl der Menschen in den niedrigen Einkommensklassen systematisch unterschätzt wird. Der unermessliche Reichtum derjenigen ganz oben fällt demgegenüber überhaupt nicht ins Gewicht. Hätten man – immer dem Faktor vier folgend – eine Einkommensgrenze von 50 Cent für die ganz armen Leute eingeführt, würde die Armut noch weniger ins Auge fallen, denn dann lägen ja noch weniger Leute am ganz unteren Ende.

Sogar für die Trendaussagen ist das Klassifizierungsschema viel zu grob. Es sagt zu wenig über die Ungleichverteilung der Verdienstchancen aus und es lässt von den Trends zu wenig erkennen. Feinere Klassifizierungen machen diese Verhältnisse durchsichtiger. Davon war im Hoppla!-Artikel Achtung, statistische Klassen und andere Stolpersteine bereits die Rede.

In der Volkswirtschaftlehre sind weit weniger manipulationsanfällige Darstellungsweisen der Einkommensverteilung bekannt: Die Lorenzkurve und daraus abgeleitete Kennzahlen wie der Gini-Index.

In der folgenden Grafik ist die Lorenzkurve der weltweiten Einkommensverteilung zu sehen. Hinsichtlich des Volkseinkommens pro Kopf greife ich auf die Statistik der Weltbank, des IWF und der OECD aus dem Jahre 2017 zurück. Erfasst sind 78 Länder. Sie machen 85% der Weltbevölkerung aus.

Als Einkommen einer jeden Person habe ich das Durchschnittseinkommen des Landes gewählt. Länder mit großer Bevölkerung erscheinen in der Lorenzkurve folglich als Geradenstücke. Die für Indien, China und USA habe ich in der Grafik benannt. Um auszudrücken, dass in der Grafik nicht die Einkommen der einzelnen Personen verrechnet werden sondern dass je Person das Durchschnittseinkommen des jeweiligen Landes angesetzt wird, nenne ich die Lorenzkurve „geklumpt“: Jedes Land erscheint als ein Klumpen – zwar mehr oder weniger groß, aber nach innen undifferenziert.

Der geklumpten Lorenzkurve lässt sich entnehmen, dass 50% der erfassten Menschen in Ländern leben, die sich mit nur 10% des Einkommenskuchens bescheiden müssen und dass die fünf Prozent in den reichsten Ländern immerhin 27% des Kuchens bekommen. In dieser Spitzengruppe liegen die USA, die Schweiz, Norwegen und einige Steueroasen.

Aber auch diese genauere Darstellung zeigt noch nicht das wahre Ausmaß der Ungleichverteilung der Einkommen. Um das zu sehen, müssen wir die Sachlage noch etwas weiter aufdröseln.

Aggregieren: Mittelwerte machen Unterschiede unsichtbar

Die obige Grafik beruht auf Gleichmacherei: Für alle Personen eines Landes wird dasselbe Einkommen angesetzt, nämlich das Durchschnittseinkommen des Landes.  Diese landesweite Einebnung mildert das Bild der Einkommensungleichheit. Wenn wir das Bild schärfer stellen wollen, müssen wir uns mit den Einkommensverteilungen der einzelnen Länder beschäftigen.

Zur besseren Verständigung nutze ich jetzt den Gini-Index. Er misst die Bauchigkeit der Lorenzkurve; er ist gleich der Fläche zwischen Lorenzkurve und Diagonale bezogen auf die gesamte Dreiecksfläche unterhalb der Diagonale. Der Gini-Index ist gleich null bei vollkommener Einkommensgleichheit und gleich eins, wenn eine Person alles bekommt und alle anderen nichts.

Der Gini-Index weltweit ist gemäß obiger Grafik gleich 60%. Ohne die nationenweise Einebnung fällt der Wert noch deutlich größer aus.

In Deutschland hatten wir im Jahr 1998 einen Gini-Index von 28,3%. Er stieg im Zuge der Agenda 2010 bis auf den Wert 32,3% im Jahre 2005 an. Stichwort: „Leistung muss sich wieder lohnen.“ Seither ist er wieder etwas abgesunken. Verbunden mit der erhöhten Ungleichheit ging ein verstärktes Wirtschaftswachstum einher. Davon profitierten auch die Ärmsten.

Die Wirtschaftspolitik wird die Auswirkungen von Gleichheit und Ungleichheit nicht aus dem Auge lassen: Ein zu geringer Gini-Index verringert die Wirtschaftsdynamik durch fehlende Leistungsanreize und ein zu großer hat lähmende soziale Spannungen zur Folge. Andernorts sieht es so aus:

In den USA stieg der Gini-Index in den Jahren von 1979 bis 2016 von 34,6% bis auf 41,5% an.

Einen noch stärkeren Anstieg hatte China zu verzeichnen: 1980 war der Index geringer als 30%. Die Öffnungspolitik führt zu mehr Ungleichheit der Einkommen und diese machte sich durch einen Anstieg des Indexwerts auf 43,7% im Jahr 2010 bemerkbar.

Diese Vergrößerung der Ungleichheit im Lande ging einher mit einer Erhöhung des Volkseinkommens. In der geklumpten weltweiten Lorenzkurve kommt die  landesinterne Ungleichheit nicht zum Ausdruck. Die Disparitäten auf nationaler Ebene bleiben unsichtbar.

Im FAZ-Artikel Gini-Koeffizient : Die globale Ungleichheit ist stark gesunken berichtet Philip Plickert am 14.01.2019, dass nach den Berechnungen eines schwedischen Forscherteams innerhalb vieler Länder die Ungleichheit zwar gestiegen sei, auch in China: „Aber zwischen den Ländern nimmt die Ungleichheit ab.“ Auch diese Forscher arbeiten mit ausgewählten Daten und mit Durchschnittswerten.

Wir haben jetzt zwar genauer hingeschaut, aber durch die Aggregierung von Einkommensdaten bleiben die wahren Verhältnisse im Weltmaßstab weiterhin unklar. Skepsis ist angebracht, wenn jemand behauptet, den totalen Durchblick bezüglich der weltweiten Einkommensverteilung zu besitzen.

Scheinobjektivierung

Ein wesentliches Stilmittel der Fortschrittsapologeten ist die durchgängige Anbetung von Fakten: Durch Entwicklung einer faktenbasierten Weltsicht könne der Schimpanse in uns geschlagen werden.

Oben habe ich gezeigt, wie Meinungen zuweilen als Fakten verkleidet werden. Das Prinzip funktioniert so: Schnüre das Faktum und deine Meinung zu einem Bündel; dann verkaufe dieses Bündel als Faktum. So bekommt deine Meinung den Anschein objektiver Gültigkeit.

Das nenne ich Draufsatteln. Aber manchmal geht es genau anders herum. Beispielsweise richtet sich unsere Risikowahrnehmung keineswegs allein nach der mathematischen Schadenserwartung (Risiko = Schadenshöhe × Eintrittswahrscheinlichkeit). Dieses objektive Risiko wir durch subjektive Komponenten angereichert. Insbesondere geht in unsere Risikowahrnehmung die Kontrollierbarkeit des Risikos ein; diese ist unter Anderem bestimmt durch die Bekanntheit der Gefahr, die Freiwilligkeit im Eingehen des Risikos und die Beeinflussbarkeit des Risikos.

Wenn Rosling empfiehlt, sich allein auf das zu konzentrieren, was er reelle Risiken nennt, redet er uns ein, man könne problemlos auf die subjektiven Anteile der Risikobewertung verzichten und sich allein auf das objektive Risiko verlassen – man könne also absatteln und damit der Wahrheit näher kommen.

Aber das geht nicht! Die Risikoanalyse muss die subjektiven und nicht so leicht mathematisierbaren Bestandteile der Risikowahrnehmung in Rechnung stellen. Zwei Beispiele dazu:

Versicherungen sind objektiv gesehen ein Verlustgeschäft für den Versicherten. Die Prämien übersteigen die Schadenserwartung meist bei Weitem! Aber man ist dadurch abgesichert gegen existenzgefährdende Verluste. Also zahlt man gerne und das zu Recht.

Oder nehmen wir den Terror: Durch einen Anschlag zu Tode zu kommen, ist nicht sehr wahrscheinlich. Dennoch ist auch große Angst durchaus angebracht. Die Bedrohung ist unfassbar; das Staatsgefüge ist in Gefahr; und wer will schon einen Polizeistaat? Hier könnte uns unser subjektives Empfinden tatsächlich die verlässlicheren Signale geben und nicht etwa das rational kalkulierende Gehirn.

Veröffentlicht unter Grafische Darstellung, Humanismus, Prognosen, Skeptizismus, Soziologie, Statistik, Wirtschaft | Verschlagwortet mit , , , , | 9 Kommentare

Astroturfing 2

Aus Sicht des Skeptikers spricht nichts dagegen, dass sich die Kernkraftbefürworter organisieren, beispielsweise in der Nuklearia. Wünschenswert ist Transparenz auf beiden Seiten: Kernkraftgegner einerseits und Kernkraftbefürworter andererseits. Deshalb bemühe ich mich, hinter die Kulissen zu schauen und die treibenden Kräfte zu identifizieren. Bei den Befürwortern fällt einem das wesentlich schwerer als bei den Gegnern, besonders da bei Ersteren offenbar Astroturfing im Spiel ist. Dieser Artikel schließt an den vorherigen Hoppla!-Artikel zum Thema Astroturfing an.

Wenn die Hinterleute von Astroturfing-Kampagnen leicht auszumachen wären, wären es kein Astroturfing-Kampagnen. Das ist die grundsätzliche Schwierigkeit, die sich dem Hobby-Entzauberer entgegenstellt.

Deshalb widmet er sich zuerst leichter zugänglichen Indizien: Künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven, Übernahme von teils altbekannten Propagandaaussagen der eigentlichen Interessengruppe, die Emotionalisierung („grün“, „nachhaltig“, „schonend“, „sanft“), der gewollt amateurhafte Auftritt (beispielhaft ist das Plakat zum Nuclear Pride Fest) und das Moralisieren.

Davon war im letzten Hoppla!-Artikel die Rede. Nun versuche ich etwas tiefer zu graben.

Wie kommt man den Drahtziehern auf die Spur?

Als Einstieg in die Suche nach den möglichen Drahtziehern der Nuclear Pride Coalition betrachte ich zunächst die beteiligten Organisationen und deren Hauptakteure hinsichtlich Profession und Werdegang. Dann befrage ich die von der Nuklear-Pride-Bewegung als „Feinde“ betrachteten Organisationen nach den Resultaten ihrer Recherchen.

Die Bundestags- und Europaabgeordneten mit einschlägigem Tätigkeitsfeld und die Parteistiftungen haben möglicherweise auch etwas zu bieten. Und dann gibt es noch den Verein LobbyControl, der es sich zur Aufgabe gemacht hat, Lobbyarbeit wie das Astroturfing ans Licht zu ziehen.

Nuclear Pride – Gründungsmitglieder

Auch wenn man die eigentlichen Drahtzieher kaum wird zweifelsfrei benennen können, lassen sich doch Hinweise finden, die ihr „Reich“ ziemlich gut eingrenzen. Im Folgenden will ich beispielhaft aufzeigen, dass auch ein Hobby-Entzauberer dabei ziemlich weit kommen kann. Ausgangspunkt der Recherche zur Nuclear Pride Coalition ist die Liste ihrer Gründungsmitglieder:

Citizen Movement 100 TWh (Belgien), Energy for Humanity (Vereinigtes Königreich, Schweiz), Environmental Progress (USA), Environmentalists For Nuclear, Generation Atomic (USA), Mothers for Nuclear (Schweiz), Nuklearia (Deutschland), Oekomoderne (Deutschland), Partei der Humanisten (Deutschland), Ren Energi Oplysning (REO, Dänemark), Saving Our Planet  (Frankreich, Vereinigtes Königreich, Norwegen, Türkei), Stichting Ecomodernisme (Ökomoderne Gesellschaft, Niederlande), Stichting Thorium MSR (Thorium-MSR-Gesellschaft, Niederlande), Suomen Ekomodernistit (Ökomoderne Gesellschaft Finnlands), Voix du Nucléaire (Stimmen der Kernkraft, Frankreich).

Verbindungen zur Atomindustrie

Genauer angesehen habe ich mir einige der Gründungsmitglieder. Angesichts der Fülle des Materials beschränke ich mich auf die mir aus meiner Berufstätigkeit bei einem Kraftwerksproduzenten bekannte Atomindustrie in Deutschland, Schweiz und Frankreich.

Energy for Humanity (Vereinigtes Königreich, Schweiz)

Zum Team gehört Daniel Aegerter. Er ist Chairman und geschäftsführendes Vorstandsmitglied der TRADEX, einer Exklusivagentur der weltweit größten Messeveranstalter für Unternehmen aus Deutschland, Österreich und der Schweiz.

Mothers for Nuclear (Schweiz)

Gegründet wurde der Zusammenschluss von Kristin Zaitz und Heather Matteson. Zaitz ist seit 15 Jahren Angestellte des Diablo Canyon Kernkraftwerks in Kalifornien. Heather Matteson ist Kernkraftwerksbedienerin. Für die europäischen Aktivitäten ist die Biologin Iida Ruishalme zuständig. Von ihr ist ein Gastbeitrag im GWUP-Blog: „Leben und Natur retten: Wider die Stigmatisierung von pro-Kernenergie.“

Nuklearia (Deutschland)

Dafür, dass es sich bei den Aktionen der Nuklearia um Astroturfing handelt, habe ich im vorigen Artikel Indizien zusammengetragen. Verräterisch ist der betont laienhafte Auftritt der Nuclear-Pride-Aktionen, auch erkennbar am scheinbar handgemalten und naiv wirkenden Plakat zum Nuclear Pride Fest.

Konkret ist der Hinweis auf den Einfluss der Nuklearindustrie durch deren Verbindung zum Verein Bürger für Technik (BfT): Die Nuklearia-Mitgliederversammlung 2018 war eingebettet in die Jahrestagung technikfreundlicher Vereine, die vom Verein Bürger für Technik und von der Fachgruppe Nutzen der Kernenergie der Kerntechnischen Gesellschaft (KTG) ausgerichtet und organisiert wurde.

Die KTG wird vom Deutschen Atomforum, der offiziellen Interessenvertretung der Kernkraftwerkbetreiber, finanziell unterstützt, wie DIE ZEIT schreibt (www.zeit.de/2008/17/Atomlobby).

Die personellen Überschneidungen zwischen der KTG und dem Verein BfT, der die Interessen der Energiewirtschaft als Bürgerinitiative vertritt, legen nahe, dass es sich hier um Astroturfing handelt.

Der Wikipedia-Artikel über die Kerntechnische Gesellschaft enthält weitere Hinweise auf die Verzahnung von Bürgerinitiativen und Atomlobby (02.03.19).

Ein Kommentator des ZEIT-Artikels schreibt mir aus der Seele: „Werben oder kämpfen – mit offenem Visier! Lobbyisten sollten den Bürgern immer „reinen Wein einschenken“! Sie müssen der Öffentlichkeit gegenüber bekannt geben, welche Interessen sie denn tatsächlich vertreten! Tarnen und täuschen – das ist im Krieg erlaubt. Hat aber im Ringen um den besseren Standpunkt oder um das überzeugendere Argument – auf demokratischer Basis – nichts verloren!“

Voix du Nucléaire

Die Voix du Nucléaire ist eine von Myrto Tripathi gegründete Kampagne. Myrto Tripathi ist Account Managerin der für die Industrie tätigen Werbeagentur BETC. Sie begann ihre Karriere bei dem damals für den nuklearen Brennstoffkreislauf zuständigen Unternehmen Cogema.

Bürger für Technik – Hintergrund

Die größte Protestaktion der Anti-Atomkraftbewegung war die Besetzung des Baugeländes im südbadischen Wyhl, das für einen Reaktorblock vorgesehen war. Die Demonstration begann im Februar 1975 und dauerte monatelang an.

Ende der 1970er Jahre schwand das Vertrauen der Bevölkerung in die Kernkraft zusehends. Die Atomindustrie machte dagegen mobil. Der Spiegel (51/1978) berichtete, dass damals innerhalb kurzer Zeit wenigstens acht Vereine der Kernenergiebefürworter gegründet wurden. Mitte der 1980er Jahre verschwanden diese Vereine wieder von der Bildfläche.

Eine Wiederauferstehung erlebte die Pro-Kernkraft-Bewegung mit der Gründung des Vereins Bürger für Technik (BfT) im Jahre 2001. Der Gründer Ludwig Lindner war bis 2004 Sprecher der KTG-Fachgruppe Nutzen der Kerntechnik. Das KTG-Beiratsmitglied und derzeitiger Sprecher der Fachgruppe, Eckehard Göring, gehört zum Team der Bürger für Technik.

Veröffentlicht unter Astroturfing, Moral und Ethik, Skeptizismus, Wirtschaft | Verschlagwortet mit | 15 Kommentare

Astroturfing

Was ist Astroturfing?

„1987 vereinigte der damalige Eigentümer Monsanto alle Zweige seiner AstroTurf-Abteilung nach Dalton im US-Bundesstaat Georgia unter dem Namen AstroTurf Industries Inc. Bis in  die späten 90er-Jahre war AstroTurf  Kunstrasen-Marktführer, muss heute jedoch mit ernsthafter Konkurrenz leben.“ (Wikipedia, 09.02.19)

Astroturfing steht zu spontanen Bürgerbewegungen, wie Kunstrasen zu echtem Rasen. Der Begriff meint PR-Projekte mit folgenden Merkmalen:

  1. Vortäuschen einer Graswurzelbewegung.
  2. Finanzierung durch eine Interessengruppe.
  3. Verbergen der wahren Drahtzieher.
  4. Hochgejazzte Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven.
  5. Übernahme von teils altbekannten Propagandaaussagen der ursprünglichen Interessengruppe.
  6. Schüren von Emotionen. Aufbau eines freundlichen Images: „Grün“, „nachhaltig“, „schonend“, „sanft“ usw. Moralisieren.

Unter Propaganda verstehe ich das, was auch die Bundeszentrale für politische Bildung (bpb) darunter versteht, nämlich „die zielgerichteten Versuche, politische Meinungen und öffentliche Sichtweisen zu formen, Erkenntnisse zu manipulieren und das Verhalten in eine vom Propagandisten oder Herrscher erwünschte Richtung zu steuern. Dies steht im Gegensatz zu pluralistischen und kritischen Sichtweisen, welche durch unterschiedliche Erfahrungen, Beobachtungen und Bewertungen sowie einen rationalen Diskurs geformt werden.“

Und wie lässt es sich entzaubern?

Wie in früheren Hoppla!-Artikeln geht es nicht darum, irgendwelche Akteure an den Pranger zu stellen. Ich enthalte mich ebenso wie bei den täuschenden Argumenten jeglicher moralischer Wertung: Astroturfing mag nicht jedem gefallen, aber solange keine Gesetze gebrochen werden, wird man es hinnehmen, wenn auch nicht notwendigerweise klaglos.

Die Verächtlichmachung der Akteure ist nicht angebracht. Mancher gerät ungewollt in eine solche Aktion und selbst derjenige, der diese Form der Werbung und Lobbyarbeit bewusst betreibt, kann sehr wohl in lauterer Absicht handeln.

Ich will mit diesem Artikel nicht den Moralpredigern Munition liefern, sondern den Adressaten solcher PR die Möglichkeit eröffnen, die wahren Absichten und Hintergünde vom täuschenden Beiwerk zu befreien.

Wir alle wollen uns nicht hinters Licht führen lassen, aber wir haben weder die Mittel noch die Zeit des investigativen Journalismus. Welche Möglichkeiten bleiben uns dann noch, Astroturfing aufzudecken?

Astroturfing kann von mächtigen Interessenverbänden betrieben und finanziert werden, aber es gibt auch bescheidenere Anlässe. Astroturfing ist für mich eine Bezeichnung für PR-Aktionen, auf die die Mehrzahl der oben genannten Merkmale zutrifft.

Der allgemein gehaltene und umfassende erste Punkt wird durch die anderen Punkte konkretisiert; er bedarf keiner eigenen Nachforschung. Beim zweiten Punkt wird es schwierig. Üblicherweise werden ein oder mehrere Vereine ein Projekt vertreten. Es ist für den Hobby-Entzauberer fast aussichtslos, verlässliche Auskünfte zu den Finanzströmen zu erhalten, es sei denn, die Träger des Projekts sind besonders gutwillig. Damit fiele dann die ganze Entzauberungsaktion schon in sich zusammen.

Das dritte Merkmal (Verbergen der Drahtzieher) ist nur per Zufall oder durch Leichtsinn der PR-Leute zu entdecken. Also richten wir unsere Anstrengungen nicht zuallererst darauf. Vielleicht ergibt sich im Laufe der Recherchen zu den übrigen Merkmalen ein Zufallsfund.

Wer den Verdacht hat, einem Astroturfing auf der Spur zu sein, sollte mit den Punkten vier bis sechs anfangen. Daraus ergeben sich dann möglicherweise Indizien für den ersten, für den Hauptpunkt.

Beispiel: Nuclear Pride

Die Ankündigung

Nuklearia, das Bündnis für moderne und sichere Kernenergie, lud am 5. September 2018 zum  Nuclear Pride Fest nach München ein. Zuvor hatte man auf einer Tagung europäischer Kernkraftfreunde in Amsterdam im kleinen Kreis von fünfzig Leuten mit der Nuclear Pride Coalition ein neues, europaweites Bündnis gegründet.

So wurde das Fest angekündigt: Es sollte ein Fest für die ganze Familie werden, mit Musik, Essen, Informationen, Blumen, Luftballons und weiteren Aktionen. Auf dem Münchner Marienplatz würden Hunderte von Kernkraft-Enthusiasten mit ihren Familien singen, tanzen, spielen und ihre persönlichen Geschichten erzählen. In zahlreichen Aktivitäten würden sie als Einzelne und als Gruppe ihrer Freude an der Kernenergie Ausdruck verleihen und die Vorteile der Kernkraft feiern.

Ziel der Veranstaltung war, die positiven Eigenschaften der Kernenergie ins Bewusstsein der Leute zu rücken: emissionsarm, CO2-arm wie Windkraft, und besser als Photovoltaik.

Zum Thema Radioaktivität ignorierten Atomkraftgegner gern die Fakten, so die Nuklearia, sie schürten unbegründete Ängste und agierten immer emotional, offensiv und laut. Kernkraftfreunde hingegen seien eher leise, wissenschaftlich orientiert, agierten eher kopfgesteuert als aus dem Bauch heraus und seien leider nur schlecht sichtbar.

Atomkraftgegner setzten auf Energiesparen. Darin sehen die Kernkraftfreunde keine Lösung. Aus ihrer Sicht ist eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand unverzichtbar.

So lief das Nuclear Pride Fest ab

Das Fest fand am 21. Oktober 2018 auf dem Münchner Marienplatz statt.

Die Nuclear Pride Coalition, ein im vergangenen September gegründetes Bündnis von rund 50 Organisation und Einzelpersonen aus Europa und den USA, hatte beim Nuclear Pride Fest bewusst auf eine Willkommensatmosphäre gesetzt. An verschiedenen Ständen und auf der »Bühne der Begeisterung« konnten Besucher und Besucherinnen mit den Kernkraftfreunden ins Gespräch kommen, an Aktionen teilnehmen und sich über Kernenergie, Klimawandel, Versorgungssicherheit oder Strahlung informieren. Nicht jeder wüsste, dass man durch den Verzehr einer Banane mehr Radioaktivität in den Körper aufnimmt, als wenn man ein Jahr lang in der Nähe eines Kernkraftwerks lebt.

Auf den Szenenfotos vor dem Rathaus waren unter den vielen Passanten etwa fünfzig Personen auszumachen, die an dem Fest teilnahmen. Nicht nur das organisierte Anti-Atom-Establishment glänzte durch Abwesenheit, wie der Veranstalter bedauert, auch die fünfzig Unterstützerorganisationen hatten sich offensichtlich rar gemacht.

Seltsam muten angesichts des schwachen Auftritts der Eigenkommentar der Veranstalter und die große Internetpräsenz an (SZ.de und Welt.de): „Beeindruckend, wie viele Kernkraftfreunde sich motivieren ließen, nach München zu kommen! Kernenergie hat offensichtlich noch immer viel mehr Sympathisanten in Deutschland, als man glaubt.“ Das Nuclear Pride Fest sei ein Kondensationspunkt für Kernkraftbegeisterte. Es habe funktioniert. In diesem Jahr soll es ein solches Fest in Paris geben.

Kernkraft einst

In den Siebziger- und den frühen Achtzigerjahren war ich bei einem Kernkraftwerkshersteller beschäftigt. Gleich bei meinem Einstieg wurde ich mit der Aussage konfrontiert, dass dem angestrebten und erwarteten Wirtschaftswachtum von jährlich 7% ein Wachstum des Energiebedarfs von ebenfalls 7% entspreche und man sich darauf einstellen müsse.

Wenn die Kernkraftfreunde heute wieder „eine reichhaltige und großzügige Versorgung mit Energie für ein Leben in Wohlstand [für] unverzichtbar“ halten, greifen sie genau das damalige Mantra auf. Auch die Kurven für den Kohlendioxidanstieg kenne ich aus dieser Zeit. Das war einer der Gründe, die Kernenergie positiv zu sehen. Heute ist dieses Argument für die Kernenergie noch stärker.

Nicht an die große Glocke gehängt, aber unter uns Risikoleuten heftig diskutiert, wurde damals die Kehrseite: Einige sahen das Risiko einer Kernschmelze mit ihren Folgen als das größte Problem an. Für mich und einige andere war das Entsorgungsproblem vorrangig. Beide Fraktionen haben inzwischen ihre Bestätigung gefunden.

Der Club of Rome mit seinen „Grenzen des Wachstums“ und die Ölpreiskrise zeigten bereits damals, dass Wirtschafts- und Energiewachstum doch nicht so eng miteinander verkoppelt sind wie behauptet.

Damals lud der Vorstand meiner Firma den Publizisten Alfred Grosser ein, um sich von  ihm erklären zu lassen, warum es in Frankreich mit der Atomkraft besser läuft als in Deutschland. Ich erinnere mich so: Anders als erwartet, erklärte der Gast damals, dass wir in Deutschland mit unseren Gesetzen und dem Prinzip der Trennung von Hersteller, Betreiber und Genehmigungsbehörde gut bedient seien. Alle Leistungen aus einer Hand, wie bei der Electricité de France, sei nicht erstrebenswert.

Ich hatte den Eindruck, dass die Begeisterung für die Kernkraft bei den Ranghöheren der Firma stärker schwand als an der Belegschaftsbasis.

In der Öffentlichkeit aber blieb man dabei: Mehr Energie muss her, möglichst ohne Kohlendioxid, am besten mittels Kernkraft.

Heute, fast ein halbes Jahrhundert später, werden die Argumente wieder aufgegriffen, in einer Verpackung, die man abstoßend finden kann: „Achieving the future will first require that we abandon our ridiculous fears and start seeing nuclear waste as the environmental blessing that it is.“ (Michael Shellenberger bei Forbes.com am 19. Juni 2018)

An  den Argumenten ist, netto gesehen, nichts auszusetzen. Aber sie zeigen nur die eine Seite einer sehr komplexen Angelegenheit. Ein Skeptiker sollte sich jedenfalls auch die andere Seite ansehen und die Argumente abwägen, so wie uns das bereits Moses Maimonides lehrt.

Welche Schlüsse können wir daraus ziehen?

Die Argumente waren einst wie heute; im Zentrum standen auch damals schon der Kohlendioxidanstieg in der Atmosphäre und die Prämisse des notwendigen Wirtschaftswachstums und in dessen Gefolge des Wachstums des Energiemarkts. Nur dass heute noch mehr Datenmaterial vorliegt. Ich stelle fest, dass das fünfte Merkmal des Astroturfings gegeben ist: Übernahme von altbekannten Propagandaaussagen.

Wir haben es bei der Nuclear-Pride-Bewegung wohl tatsächlich mit dem Vortäuschen einer Graswurzelbewegung zu tun, weil die Bewegung auch die folgenden Charakteristika aufweist: Übertriebene Angaben zu den Teilnehmerzahlen und künstlich aufgeblähte Medien- und Internetpräsenz bei einer nur geringen Anzahl von Aktiven sowie das Schüren von Emotionen mittels positiv belegter Vokabeln.

Das schließt nicht aus, dass die Bewegung Recht behält. Die Option Kerntechnik wird wohl auch hierzulande nicht aus der Diskussion verschwinden. Es ist Sache der demokratischen Institutionen, die mit allen Meinungsgruppen klar kommen müssen – auch mit Astroturfing.

In diesem Artikel geht es nicht um die transportierten Meinungen – allein die Kommunikationskultur und wie sich der Einzelne darin zurechtfinden kann, stehen zur Debatte. Es geht um Transparenz.

Bei dieser Gelegenheit: Unser parlamentarisches System würde von einem verpflichtenden Lobbyregister profitieren. Bedauerlich ist, dass dieses Thema nach einem kurzen Aufflackern in den vergangenen Koalitionsverhandlungen in Berlin wieder in der Versenkung verschwunden ist.

Veröffentlicht unter Astroturfing, Moral und Ethik, Skeptizismus, Wirtschaft | Verschlagwortet mit | 4 Kommentare

Irreführende Bayes-Schätzungen

Wenn es weltweit auch nur einen einzigen 50%-Psi-Begabten im Sinne des vorigen Hoppla!-Artikels Was zeigen uns die Ergebnisse statistischer Tests? gäbe, wäre das eine Riesensensation. Aber er wäre kaum aufzufinden. Und dann würde er beim Würzburger Psi-Test auch noch mit 50prozentiger Wahrscheinlichkeit unentdeckt durchrutschen. In diesem Licht scheint die Behauptung, dass die Keine-Übernatur-Hypothese prüfbar sei, doch etwas kühn zu sein.

Auch wenn der Würzburger Psi-Test wohl nie zu positiven Ergebnissen führt, kann man sich die Frage stellen, wie sich die weltweite Verteilung der Trefferwahrscheinlichkeit der Psi-Begabung anhand der erzielten Trefferquoten ermitteln lässt.

Wie wir im vorhergehenden Artikel gesehen haben, kann die Bayes-Schätzung Derartiges wohl nicht leisten. Schade. Woran liegt es, dass die Bayes-Schätzung versagt? Lässt sich über die speziellen Fälle hinaus etwas über die generellen Gültigkeitsgrenzen der Bayes-Schätzung sagen? (Die unten zitierten Quellen finden Sie ebenfalls am Schluss des vorigen Hoppla!-Artikels.)

Oft funktioniert die Bayes-Schätzung wie erwartet

Im Fall der Harvard-Medical-School-Studie wird mit einer einfachen Häufigkeitsbetrachtung die Wirksamkeit eines diagnostischen Tests abgeschätzt. Durch den Übergang von Häufigkeiten auf Wahrscheinlichkeiten wird daraus die Bayes-Schätzung.

Im Kern besagt die Formel von Bayes, dass die Wahrscheinlichkeit einer Hypothese H („Person ist krank“) durch die gemachte Beobachtung E („Test ist positiv“) in demselben Verhältnis steigt, wie die Beobachtung durch die Hypothese wahrscheinlicher wird. Mit den Formelzeichen für (bedingte) Wahrscheinlichkeiten sieht dieser Zusammenhang so aus:

P(H|E)/P(H) = P(E|H)/P(E).

Im Fall der Harvard-Medical-School-Studie setzen wir folgende Daten als bekannt voraus: P(H)=0,1%, P(E|H)=95% (Power, auch Sensitivität des Tests) und P(EH) = 5% (Falsch-positiv-Wahrscheinlichkeit). Damit ist P(E) = P(E|H)∙P(H)+ P(EH)∙PH) ≈ 5,1%. Die Formel liefert dann das Ergebnis für P(H|E): Eine positiv getestete Person ist mit der Wahrscheinlichkeit von weniger als 2% tatsächlich krank.

Diese Anwendung der Bayes-Formel auf diagnostische Tests ist methodisch einwandfrei. Die Wahrscheinlichkeiten P(H) und P(H|E) sind die A-priori- bzw. A-posteriori-Wahrscheinlichkeit der Hypothese.

Die A-posteriori-Wahrscheinlichkeit ist eine verbesserte Schätzung unter der Bedingung der gemachten Beobachtung. Es geht nicht darum, mithilfe der Bayes-Formel mehr über die Hypothesenwahrscheinlichkeit P(H) zu erfahren. Die Basisrate der Krankheit bleibt selbstverständlich unverändert!

Bei der Parameterschätzung ist die Anwendung der Bayes-Formel fragwürdig

Versuch der Abschätzung einer Parameterverteilung

Was auf diagnostische Tests so erfolgreich angewendet wird, das sollte auf Parameterschätzungen übertragbar sein, oder?

Eine bis vor etwa zehn Jahren im Rahmen des GUM (Guide to the Expression of Uncertainty in Measurement) empfohlene Methode zur Bestimmung der Messunsicherheit basiert auf der Formel von Bayes und funktioniert im Kern folgendermaßen:

Zu bestimmen ist ein Parameter α, der einer Messung direkt nicht zugänglich ist. Messbar ist die Zufallsvariable X, deren Verteilungsdichte f vom Parameter α abhängt: fα(x).

Der Parameter α wird als Realisierung einer Zufallsvariablen Α aufgefasst. Das anfängliche Wissen oder auch Unwissen hinsichtlich dieser Variablen wird durch die A-priori-Verteilungsdichte g(α) modelliert. Die A-priori-Wahrscheinlichkeitsdichte kann das Ergebnis vergangener Beobachtungen sein oder sie kann nach dem Prinzip maximaler Unwissenheit angesetzt werden (Rüger, 1999, S. 211 ff.). Im letzten Kapitel haben wir zur Bestimmung der A-priori-Verteilung das Indifferenzprinzip angewendet.

Wird nun ein bestimmter Wert x gemessen, dann ergibt sich mit der Formel von Bayes eine neue Schätzung der Verteilungsdichte des Parameters, die A-posteriori-Schätzung h(α):

h(α) ~ fα(x)∙g(α).

Hierin ist der Proportionalitätsfaktor durch die Eigenschaft der Dichte bestimmt: Das Integral über h muss den Wert 1 ergeben.

Die A-posteriori-Schätzung sollte laut Messunsicherheits-Leitfaden als Verbesserung der Parameterschätzung gegenüber der A-priori-Schätzung angesehen werden. Das war jedenfalls die Interpretation des Ergebnisses vor der Revision des Messunsicherheits-Leitfadens im Jahre 2008. In der kleinen Studie Bayes-Schätzung – Eine kritische Einführung habe ich mich seinerzeit mit den Hintergründen der Bayes-Schätzung befasst.

Kritik

Anders als bei den klassischen Test- und Schätzverfahren gibt es für die Bayes-Schätzung von Messunsicherheiten keine gesicherten Genauigkeitsangaben. Zuweilen ergeben mehr Daten sogar schlechtere Folgerungen. Dass es zu solchen paradoxen Resultaten kommen kann, liegt daran, dass die Bayes-Schätzung von Parametern nicht auf einer logisch zwingenden Deduktion beruht.

Wenn man die A-posteriori-Verteilung des Parameters als eine gegenüber der A-priori-Verteilung bessere Schätzung der tatsächlichen Verteilung des Parameters ansieht, dann ist das lediglich ein plausibler Schluss. Die A-posteriori-Verteilung ist nur eine verbesserte Schätzung unter der Bedingung des Messergebnisses; sie besagt, mit welchen Wahrscheinlichkeiten die verschiedenen Parameterwerte zu dem beobachteten Messergebnis beigetragen haben können. Der Umkehrschluss von der Beobachtung auf die tatsächliche Verteilung des Parameters kann demnach auch falsch sein. Im Grunde werden aus einer Beobachtung zu starke Schlussfolgerungen gezogen.

Im Wikipedia-Artikel „Satz von Bayes“ habe ich seinerzeit meine Kritik zu dieser Art der Parameterschätzung abgeliefert. Am 29. September 2008 war die Kritik noch auffindbar.

Seinerzeit wurde der Messunsicherheits-Leitfaden neu gefasst, da die von vielen Seiten geäußerte Kritik wohl unüberhörbar war. Die Methode von Bayes spielt darin jetzt keine große Rolle mehr, wie die aktuelle Version des Wikipedia-Artikels zum Thema GUM (Norm) zeigt.

Inzwischen ist der kritische Abschnitt durch ein Rechenbeispiel über die „Ermittlung von Messunsicherheiten“ ersetzt.  Darin wird nach wie vor die umstrittene Bayes-Formel auf die Parameterschätzung angewendet, jedoch ohne zu sagen, welchen Sinn diese Rechnung haben soll.

Zum Schluss

In der medizinischen Diagnostik nimmt man, anders als bei der Parameterschätzung, die A-posteriori-Wahrscheinlichkeit nicht als eine verbesserte Schätzung gegenüber dem Apriori: Die Basisrate der Krankheit bleibt unverändert. Die errechnete A-posteriori-Krankheitswahrscheinlichkeit gilt nur für die Personen mit positivem Testergebnis und nicht etwa für „die ganze Welt“. Das ist eine gut abgesicherte Anwendung des Satzes von Bayes.

Einen solchen sicheren Interpretationsrahmen gibt es bei der Anwendung der Formel von Bayes auf die Parameterschätzung nicht.

Wer einer Analyse mittels der Bayes-Formel nähertreten will, kann sich über die Anwendbarkeit vergewissern, indem er sich ein Urnenmodell vor Augen hält, wie das beispielsweise auch Regina Nuzzo (2014) tut.

Wie sich die Bayes-Formel auswirkt, habe ich mit dem Ein-Euro- Spiel versucht zu veranschaulichen.

Veröffentlicht unter Bildungswesen, Statistik, Tests, Wahrscheinlichkeitsrechnung | Verschlagwortet mit , , , , | Ein Kommentar

Was zeigen uns die Ergebnisse statistischer Tests?

Hoppla!

In einem Lehrbuch zum Thema Software-Verifikation finde ich den fett hervorgehobenen Satz: „Der Test von Hypothesen geht über die Falsifizierung ihres Komplements“.  Dann wird gezeigt, dass bei einem Sachverhalt, der im Widerspruch zur Hypothese steht, der Test schlimmstenfalls mit einer geringen Wahrscheinlichkeit (von sagen wir 5%) bestanden wird. Aus dem Bestehen des Tests wird dann gefolgert, dass der angenommene Sachverhalt, die Alternativhypothese, unwahrscheinlich ist (5%) und die Hypothese entsprechend wahrscheinlich (95%).

Bei der Berechnung der Wahrscheinlichkeiten wurde die Alternativhypothese, die übrigens gar nicht  das Komplement der Hypothese sein muss, als fest gegeben vorausgesetzt. Es geht also gar nicht um die Wahrscheinlichkeit der Alternativhypothese und schon gar nicht um die Wahrscheinlichkeiten von Hypothese und deren Komplement.

Irrtümer dieser Art sind selbst in der Fachwelt nicht selten. Wahrscheinlichkeiten treten unter verschiedenen Rahmenbedingungen in Erscheinung und sie sind dementsprechend auch verschieden definiert. Wer das nicht beherzigt, fällt herein.

Hier will ich Wahrscheinlichkeiten in die ihnen zukommenden Zusammenhänge stellen. Das soll helfen, Denkfallen der Statistik und Wahrscheinlichkeitsrechnung rechtzeitig zu entdecken und irrige Interpretationen zu entlarven.

Den letzten Anstoß zu diesem Hoppla!-Artikel gab das Buch „The Skeptics’ Guide to the Universe“ von Steven Novella (2018), in dem er sich u. a. auf die Arbeiten von Regina Nuzzo beruft. Novella beklagt, dass der p-Wert einer Studie oft als Wahrscheinlichkeit für das Nichtvorliegen des untersuchten Sachverhalts (z. B.: „das Medikament ist wirksam“) genommen wird, dass also die Hypothese über das Vorliegen des vermuteten und zu prüfenden Sachverhalts eine Wahrscheinlichkeit von 1-p haben muss. In klinischen Studien wird im Sinne eines schwachen Signifikanzniveaus oft ein Wert von p = 5% zugrunde gelegt, was für den zu prüfenden Sachverhalt eine Wahrscheinlichkeit von 95% nahelegen würde.

Solche Studien liefern nur Folgendes: Bei vorausgesetzter Nullhypothese besitzt das tatsächlich ermittelte Testergebnis zugunsten des zu prüfenden Sachverhalts eine nur geringe Wahrscheinlichkeit von p. Wir können die Nullhypothese also getrost verwerfen. Die Nullhypothese ist so gebildet, dass sie den zu testenden Sachverhalt, die zu prüfende Hypothese, ausschließt (Sachs, 1992, S. 185f.). Damit ist der zu prüfende Sachverhalt weiter im Rennen. Was wir aus dem Testergebnis nicht erfahren, ist die Wahrscheinlichkeit dafür, dass der zu testende Sachverhalt im Rahmen des Tests anwesend ist.

Beispiel: Psi-Test Würzburg 1-aus-10

Für die Konkretisierung der eben gemachten Aussagen wähle ich einen gut dokumentierten Test, nämlich den 1-aus-10-Test, den die Gesellschaft zur wissenschaftlichen Untersuchung von Parawissenschaften (GWUP) bisher 37mal in Würzburg durchgeführt hat. Ich habe die Daten von Soehnle (2014) um die seither durchgeführten Tests ergänzt.

Geltungsanspruch und Testbedingungen

Zu diesen Tests mit Aussicht auf ein Preisgeld können sich Personen melden, die sich für Psi-begabt halten: Wünschelrutengänger, Wahrsager usw.

Ein Beispiel: Im Jahr 2016 war unter den Kandidaten eine Homöopathin, die angab, Verunreinigung in Pflanzenerde erkennen zu können. Für den Test füllen die Versuchsleiter zehn Petrischalen mit Blumenerde. In einer davon ist – für die Kandidatin unsichtbar – kontaminierte Erde. Die Kandidatin muss nun ihre Fähigkeit nachweisen, indem sie die Schale mit kontaminierter Erde herausfindet. Das ist der Findevorgang. Dies wird dreizehn Mal gemacht. Der Stichprobenumfang je Test ist also gleich 13. Der Test ist bestanden, wenn der Kandidat wenigstens sieben Treffer vorzuweisen hat. Das ist das Testkriterium.

In allen anderen der insgesamt 37 von der GWUP durchgeführten 1-aus-10-Tests ging es vergleichbar zu.

Nullhypothese

Die Nullhypothese wird als Alternative zum Geltungsanspruch definiert und aus den allgemein akzeptierten Gesetzmäßigkeiten hergeleitet. Maßgabe ist also der Stand der Wissenschaft und nicht etwa eine übergeordnete Ontologie.

Die Nullhypothese im Falle des 1-aus-10-Tests besteht darin, dass  bei sorgfältiger Versuchsdurchführung das Indifferenzprinzip gilt: Das Versteck wird bei jedem der dreizehn  Findevorgänge rein zufällig mit einer Trefferwahrscheinlichkeit von 10% gefunden.

Interpretation des Tests

Das Bestehen und Nichtbestehen des Tests ist eine Sache des Zufalls. Es kann durchaus sein, dass ein paranormal Begabter fälschlich übersehen wird, weil er das Testkriterium zufälligerweise nicht erfüllt. Diesen Fall nennt man einen Fehler zweiter Art, anschaulich: „Übersehfehler“. Auf der anderen Seite steht die Möglichkeit, dass einem paranormal Unbegabten paranormale Fähigkeiten attestiert werden, weil er aus purem Zufall das Testkriterium erfüllt. Das ist ein Fehler erster Art, anschaulich: „Vortäuschungsfehler“.

Das Testkriterium muss sowohl die Interessen des Kandidaten an einer möglichst geringen Wahrscheinlichkeit für einen Fehler zweiter Art berücksichtigen, aber auch die Interessen der GWUP an einer möglichst geringen Wahrscheinlichkeit für einen Fehler erster Art.

Die Wahrscheinlichkeit für den Fehler erster Art („Vortäuschungsfehler“) wird in der mathematischen Statistik mit α bezeichnet, und die Wahrscheinlichkeit für einen Fehler zweiter Art („Übersehfehler“) mit β.

Wichtig ist also die Festlegung der Bedingungen für das Bestehen des Tests derart, dass sowohl der Fehler erster Art („Vortäuschungsfehler“) als auch der Fehler zweiter Art („Übersehfehler“) möglichst unwahrscheinlich werden. Wir suchen also nach Testkriterien mit möglichst kleinen oder zumindest ausbalancierten Werten für α und β. Die Wahrscheinlichkeit α ist das Signifikanzniveau des Tests und 1- β ist die Power des Tests.

Wir nehmen zunächst einmal an, dass der Bewerber paranormal unbegabt ist (Nullhypothese H0). Die Trefferzahlen je Test mit jeweils 13 Findevorgängen folgen der (13, 10%)-Binomialverteilung.

Eine auf lange Sicht erzielte Trefferwahrscheinlichkeit von 50% spricht für paranormale Fähigkeiten (H1). Die Trefferzahlen eines derartig paranormal Begabten folgen der (13, 50%)-Binomialverteilung.

Die folgende Grafik stellt diese beiden Verteilungen dar. Die Zufallsvariable X ist gleich der Trefferzahl eines Tests und P(X=| H0) bezeichnet die Wahrscheinlichkeit für i Treffer unter der Bedingung der Nullhypothese.

Bei sieben verlangten Treffern ist die Wahrscheinlichkeit eines Übersehfehlers mit 50% genau so groß wie die Power des Tests (hinsichtlich der willkürlich gewählten Hypothese H1). Die Wahrscheinlichkeit eines Vortäuschungsfehlers, das Signifikanzniveau des Tests, ist gleich 0.01 Prozent. Ein paranormal Begabter könnte sich benachteiligt fühlen.

Testergebnisse

Bisher wurde der 1-aus-10-Test der GWUP 37mal durchgeführt. Es gab je zehnmal einen Treffer oder zwei Treffer. Viermal waren drei Treffer und einmal vier Treffer zu verzeichnen. Die restlichen zwölf Tests blieben trefferlos. Diese Häufigkeiten sind mit der Nullhypothese sehr gut vereinbar. Das Testkriterium wurde in keinem Fall erfüllt.

Bei dreizehn Findevorgänge je Test ist der Gesamtumfang der Stichprobe N gleich 481. Die Gesamtzahl der Treffer ist gleich 46. Die mittlere Trefferzahl je Findevorgang liegt demnach bei knapp 10%, was mit der Nullhypothese gut verträglich ist. Bei dreizehn Versuchen je Test kommt man auf eine „normale“ mittlere Trefferzahl von knapp 1.3. Wenn unter den Kandidaten Psi-Begabte waren, dann muss deren Erfolg durch total Unbegabte mehr als ausgeglichen worden sein.

Bayes-Interpretation des Psi-Tests

Wie sieht es mit den Wahrscheinlichkeiten von Hypothesen aus?

Spaßhalber führen wir den p-Begabten – einen Sonderfall des Psi-Begabten – ein. Der p-Begabte hat im 1-aus-10-Test die mittlere Trefferquote von p. Der 10%-Begabte ist ziemlich normal. Seine Trefferquote entspricht der von Hinz und Kunz, nichts Außergewöhnliches also; er ist die wandelnde Nullhypothese.

Tolerant, wie wir nun einmal sind, stellen wir uns vor, dass es p-Begabte aller Schattierungen geben möge. Sie sind die Elementarereignisse unseres Ereignisraums. Mangels Voreingenommenheit sind für uns alle Begabungen gleichermaßen möglich. Wir gehen vom Indifferenzprinzip aus und nehmen a priori die Zufallsvariable p als gleich verteilt auf dem Intervall von 0 bis 1 an.

Bei einem p größer als 10% sprechen wir von echter Psi-Begabung. Für Werte unterhalb von 10% hat man negativ Psi-Begabte vor sich: Auch bei höchster Anstrengung erzielen sie noch nicht einmal die Zufallstreffer. So einen holt man sich ins Haus, wenn man sicher gehen will, dass der Schatz nicht gefunden wird.

Die Gleichverteilungsannahme ist kaum haltbar. Die bisherigen Testergebnisse ermöglichen uns, etwas mehr über die tatsächliche Verteilung der Psi-Begabung zu erfahren.

Wir gehen davon aus, dass die Begabungsverteilung durch die Beta-Verteilung mit den Parametern a und b beschrieben werden kann. Zumindest für die A-priori-Schätzung, die Gleichverteilung, ist das möglich. Diese ist nämlich durch die Betaverteilung mit den Werten a = b = 1 gegeben.

Die Bayes-Formel liefert als Lerneffekt aus den Tests eine Betaverteilung zu den Werten a = 1+k = 47 und b = 1+Nk = 436. Wie die Grafik zeigt, konzentriert sich die Psi-Begabung p auf Werte um 10%. Genau das ist nach dem Stand der Wissenschaft auch zu erwarten.

Caveat Emptor: Schlechtere Schätzung durch mehr Daten

Das Paradoxe an der Bayes-Schätzung ist, dass sie gerade für die Fälle nicht funktioniert, für die sie gedacht ist. Die Bayes-Schätzung kann unter Umständen mit jeder weiteren Beobachtung sogar schlechter werden anstatt besser.

Wir betrachten einen Produktionsprozess, der Lose mit unterschiedlichen Fehlerwahrscheinlichkeiten liefert. Diese Fehlerwahrscheinlichkeit p sei also für jedes Los die Realisierung einer Zufallsvariablen aus dem Intervall von 0 bis 1. Die Tests werden für verschiedene Lose durchgeführt.

Die Fehlerwahrscheinlichkeit p sei gleichverteilt, was der Beobachter aber nicht weiß. Er soll mittels Bayesschätzung genau diese Verteilung herausfinden.

Der Beobachter beginnt mit der Gleichverteilung, wie beim obigen Psi-Test. Dass seine Anfangsschätzung bereits die gesuchte Verteilung ist, weiß der Beobachter natürlich nicht.

Überraschung! Eine einfache Simulation zeigt, dass die Schätzung sich mit jedem weiteren Los von der Gleichverteilung wegbewegt. Auch in diesem Fall wird die Verteilungsdichte mit jedem weiteren Test und mit jeder weiteren Beobachtung immer schmaler. Die Verteilung von p wird sich schließlich auf eine kleine Umgebung des Wertes 50% konzentrieren. Jedenfalls hat die Schätzung immer weniger mit der eigentlich zu findenden Gleichverteilung zu tun. Ähnlich gelagerte Fälle zeigen: Mehr Daten führen zu schlechteren Folgerungen (Székely, 1990, S. 126).

Man könnte einwenden, dass man die Bayes-Schätzung nur anwenden darf, wenn der Parameter p eigentlich als konstant anzusehen ist, und dass die Annahme einer Verteilung für p nur unserem Unwissen zuzuschreiben ist, das wir mit jeder Schätzung weiter reduzieren wollen.

Ein derartiger Gewährleistungsausschluss ist jedoch eine Einschränkung, die sich nur von den erzielten Resultaten her und nicht etwa aus dem Verfahren begründen lässt. Dazu Bernhard Rüger  (1999, S. 188): „Mit der Angabe einer Verteilung des Parameters ist hier keine Behauptung oder Annahme über die ‚Natur‘ des Parameters verbunden, etwa darüber, ob der Parameter vom Zufall abhängt (eine Zufallsgröße ist) oder eine deterministische Größe darstellt, ja nicht einmal darüber, ob der Parameter überhaupt verschiedene Werte annehmen, also ‚schwanken’ kann, oder einen eindeutig feststehenden, unbekannten Wert besitzt, ein Standpunkt, der innerhalb der Bayes-Inferenz vorherrscht.“

Genau genommen können wir über die Verteilung der p-Begabten bei Psi-Tests nichts erfahren, sollte es solche mit p ungleich 10% überhaupt geben.

Fazit

Testergebnisse lassen keine Rückschlüsse auf die Wahrscheinlichkeitsverteilung des Untersuchungsgegenstands zu. Auch die Bayes-Schätzung hilft nicht wesentlich weiter.

Ratsam ist, sich die einzelnen Psi-Tests anzusehen. Bei den Würzburger Psi-Tests konnte man jeweils mit gutem Grund die behauptete Psi-Fähigkeit verwerfen. Und das sind ziemlich viele Fälle. Das deutet daraufhin, dass wir bezüglich der parapsychologischen Begabung (Psi) die Nullhypothese nicht aufgeben müssen: Vermutlich sind wir ausnahmslos Psi-Unbegabte.

So eindeutig liegt die Sache bei den üblichen statistischen Studien leider nicht. Anders als bei den Psi-Ansprüchen ist die Beleglage pro oder kontra eines Geltungsanspruchs oft ziemlich dünn. Es bleibt die Empfehlung, statistische Studienergebnisse äußerst zurückhaltend zu interpretieren und den Zufall nicht voreilig auszuschließen.

Quellen

Fisz, Marek: Wahrscheinlichkeitsrechnung und mathematische Statistik. Berlin 1976

Novella,  Steven: The Skeptics’ Guide to the Universe. 2018

Nuzzo, Regina: Der Fluch des p-Werts. Spektrum der Wissenschaft 9/2014, S. 52-56

Rüger, Bernhard: Test- und Schätztheorie. Band I: Grundlagen. München 1999

Sachs, Lothar: Angewandte Statistik. Anwendung statistischer Methoden. Berlin, Heidelberg 1992

Soehnle, Stefan: Der Psi-Test der GWUP 2004-2014. skeptiker 4/2014 S. 183-188

Székely, Gábor J.: Paradoxa. Klassische und neue Überraschungen aus Wahrscheinlichkeitsrechnung und mathematischer Statistik. Frankfurt am Main 1990

Veröffentlicht unter Bildungswesen, Naturwissenschaften, Statistik, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , | Schreib einen Kommentar

Täuschende Argumente

Motiv

Im Sinn liegt mir nicht, eine allseits bekannte Liste von Argumentationsfiguren abzuarbeiten und systematisch anzuordnen. So etwas findet man problemlos im Internet; auch „Die Kunst, Recht zu behalten“ von Arthur Schopenhauer ist eine gern genommene Sammlung. Vorbild ist mir eher die problemorientiert fokussierte Behandlung des Themas im Büchlein „Wie man mit Fundamentalisten diskutiert, ohne den Verstand zu verlieren“ von Hubert Schleichert (1997).

Mein Ansatz ist noch etwas enger: Ich nehme mir nur solche Argumentationsfiguren vor, die mir im Laufe der letzten vier Jahren in meiner Auseinandersetzung innerhalb der Skeptikerbewegung begegnet sind. Sie werden meine Verblüffung verstehen darüber, dass mir in diesem Zirkel genau die Argumentationsweisen begegnet sind, die diese Leute ihren Lieblingsfeinden vorwerfen.

Das muss einen nun tatsächlich nicht um den Verstand bringen. Ich trete ein paar Schritte zurück und freue mich über die wirklich herrliche Sammlung an selbst erlebten Beispielen fehlleitender Argumentation. Und an dieser Freude sollen Sie, mein Leser, teilhaben.

Die Sammlung ist wirklich praxisnah und enthält nichts, was man sich nur ausdenkt oder bloß angelesen hat. Insofern bin ich meinen Kontrahenten dankbar. Immerhin haben sie ja einigen Zeitaufwand in die Auseinandersetzung gesteckt.

Eine ganze Reihe von Beispielen fehlleitender Argumentation habe ich bereits im Artikel Argumentationsfehler des ontologischen Naturalismus nach ihrer Herkunft benannt und aufgespießt. Wiederholungen erspare ich Ihnen. Interessant sind die Grundmuster der sich daran anschließenden Verteidigung durch Vertreter der Skeptikerbewegung. Weiteres Quellenmaterial ergab sich in der Diskussion in demselben Kreis zum Hoppla!-Artikel  Hochstapelei im Namen der Wissenschaft und zum Artikel Das Elend des Instrumentalismus von Martin Mahner.

Argumentationsmuster

Petitio principii: Begging the Question, logischer Kurzschluss

Dieser Argumentationsfehler ragt besonders heraus, weil sich die Skeptikerbewegung solchermaßen begründet: In der Skeptikerbewegung wird die Beschränkung auf Pseudowissenschaften wie Homöopathie und Wahrsagerei als Hauptziel ihrer Angriffe als unbefriedigend empfunden. Um irgendwie auch eine Handhabe gegen die Religionen zu bekommen, legt man sich eine mit der Religion unverträgliche Philosophie zu: den Naturalismus.

Im aktuellen Buch zum Thema klingt das dann so: „Unsere These lautet daher, dass jeder, der Beobachtungen, Messungen und Experimente als realwissenschaftliche Methoden akzeptiert, auch diese vorgeordneten ontologischen Prinzipien akzeptieren muss, weil diese Methoden sonst unanwendbar, wenn nicht gar sinnlos, wären.“ Zu den vorgeordneten Prinzipien gehört der Realismus, nach dem es eine strukturierte und erkennbare Welt außerhalb unseres Denkens gibt.

Demnach habe man im Rahmen dieser Philosophie so zu denken: Nur wenn es die strukturierte Realität (A) gibt, können wir Beobachtungen machen (B). Da wir Beobachtungen machen, muss es die Realität geben. Kurz: Aus B impliziert A zusammen mit B folgt A. Da die Implikation zu beweisen war, greift der Beweis auf den zu beweisenden Satz zurück. So führt man Leute an der Nase im Kreis herum.

Wer den logischen Kurzschluss nicht als solchen erkennt, sollte sich von der Wissenschaft fern halten.

Argumentum ad lapidem

So klingt der Naturalist: Ihren Texten entnehme ich, dass sich die weltbezogene Wissenschaft ausschließlich mit „Erscheinungen“ und „Beobachtungsbündeln“, d.h. allgemeiner mit menschlichen Sinnesdaten oder vielleicht besser Sinneserlebnissen beschäftigt. Wenn ich gegen eine Straßenlaterne laufe, kollidiere ich dann mit meinem eigenen Beobachtungsbündel?

Das Argument ähnelt dem, das dem Bischof George Berkeley (1685-1753) entgegengehalten wurde, der ja die Existenz einer abstrakten Idee wie die einer denkunabhängigen Außenwelt verneinte. Sein Kontrahent stieß einen Stein (lat. lapis) weg und meinte: „Damit ist es widerlegt.“

Ad-lapidem-Aussagen sind insofern fehlerhaft, als sie das Strittige gar nicht ansprechen, sozusagen am Punkt vorbeizielen und so den Adressaten vom Thema ablenken. Das ist ganz ähnlich dem nächsten Argumentationsmuster.

Ablenkung hin zum Nebensächlichen: Red Herring, Definitionsfragen

Im Artikel über Argumentationsfehler schreibe ich unter dem 6. Punkt von einem klassischen Dilemma-Argument: Es wird so getan, als gäbe es nur Erkenntnis der Realität und Wahrheit einerseits und alternativ dazu einen bedeutungsarmen Diskurs und Pseudowissenschaft. Das ist auch eine Art Strohmann-Argument. Die Alternative kommt so abschreckend daher, dass man sie ablehnen muss. Selbstverständlich gibt es weitere Alternativen, und darunter sind weit plausiblere als die hier präsentierte. Meine Lieblingsalternative ist der kritische Rationalismus des Karl Raimund Popper.

Die Entgegnung darauf stellt heraus, dass der kritische Rationalismus gar keine Alternative zum erkenntnistheoretischen Realismus sein könne, da eine Alternative das ursprüngliche Konzept ersetzen können müsse. Das sei hier aber nicht der Fall, da Realismus und kritischer Rationalismus miteinander vereinbar sind. Was vereinbar ist, kann nicht zugleich eine Alternative sein.

Um dieses Argument überhaupt wirksam zu machen, muss erst einmal die ursprüngliche Aussage, nämlich die von der „Lieblingsalternative“, aus dem von mir stets betonten Zusammenhang gerissen werden: Der kritische Rationalismus bedarf keiner philosophischen Überhöhung. Insofern ist er tatsächlich eine Alternative zu den philosophisch aufgemotzten Begründungssystemen.

Was aber schwerer wiegt, ist die Tatsache, dass mit diesem Geplänkel vom ursprünglichen Argument abgelenkt wird, nämlich dem, dass es weitere Alternativen gebe. Dem Argument wird nichts entgegengehalten. Es wird nur so getan, als ob.

Wer behauptet, dass der Gegensatz zur Erkennbarkeit der Realität doch nur eine im Großen und Ganzen bestehende Nicht-Erkennbarkeit sein kann, der übergeht die Haltung des Agnostikers, der weder die Erkennbarkeit noch die Nicht-Erkennbarkeit postulieren mag.

Eine beliebte Methode der Gegenwehr durch Ablenkung ist auch das Ausweichen auf Definitionsfragen, selbst dann, wenn allen klar sein sollte, worum es geht.

Ein Diskussionsteilnehmer schrieb einmal über Risiko in Sachen grüner Gentechnik: „Bitte erst nachschlagen was Risiko ist, dann darüber reden. Solange bleibt ihr Text einfach nur unnütz.“ Dann kommt er mit einer total verunglückten Formel zum Risiko und zeigt, dass er vom modernen Risikobegriff keine Ahnung hat. Im Gefolge kommt es zu ausgiebigen Belehrungen hin und her. Dabei wird das ursprüngliche Argument völlig aus den Augen verloren, nämlich, dass bei der Risikobewertung zuweilen völlig außen vor gelassen werde, „dass auch ein geringes Risiko anders bewertet werden muss, wenn die Folgen eines Eintritts massiv sind“. So funktioniert Ablenkung durch Ausweichen auf Definitionsfragen.

Holzhammermethode: nicht sachdienliche Wiederholung des Immergleichen

Eine in dem von mir besuchten Kreis sehr beliebte Methode ist, den Kontrahenten dadurch weich zu kochen, in dem man dessen Argumente konsequent überhört und die eigenen immer wieder auftischt. Am besten funktioniert das mit unwiderlegbaren selbstbezüglichen Behauptungen, logischen Kurzschlüssen und Ad-lapidem-Argumenten. Beispielsweise tritt die Realitätsannahme auch in diesem Gewand auf: „Unsere Sinne informieren uns tatsächlich – wenn auch fehlbar – über die Außenwelt.“

So etwas nennt man Mentizid oder Holzhammermethode. Aus psychologischen Gründen funktioniert sie gut; wer ihr widerstehen will, braucht einiges an Kraft und Stehvermögen. Es ist die gemeinste Methode, die außerdem an den, der sie anwendet, die geringsten kognitiven Ansprüche stellt.

Sich-dumm-stellen

Diese Methode tritt in Erscheinung, wenn einer der Naturalisten schreibt: Till scheint für den Begriff des „Erkenntnisfortschritts“ zu plädieren. Hier stellt sich aber gleich die Frage: Erkenntnis von was? Dies führt er nicht weiter aus. Sollte sich der Erkenntnisfortschritt auf Sinnesdaten beziehen? Ist die empirische Kosmologie eine Wissenschaft, die von Sinnesdaten handelt, wie jede andere Wissenschaft auch? Kosmologie als Sinnesdatenwissenschaft ergibt aber kaum Sinn und Kosmologie als reine Mathematik greift wegen des empirischen Anteils zu kurz. Wenn man von Beschreiben spricht, sollte auch erläutert werde, was da eigentlich beschrieben werden soll. Till bleibt es unbenommen, an seinen Haltungen festzuhalten, die mir persönlich jedoch nicht klar sind.

Allen Beteiligten an der Diskussion muss klar gewesen sein, dass Till den Erkenntnisfortschritt im Sinne Karl Raimund Poppers gemeint hat. In Poppers Logik der Forschung geht es von vorn bis hinten um den Fortschritt der Wissenschaft, um Erkenntnisfortschritt also. Und Popper lässt das nicht undefiniert. Die obigen Fragen haben als einzigen erkennbaren Zweck: Sie sollen Till verunsichern und ihn dazu bewegen zu erklären, was eigentlich längst klar ist. Damit wäre er dann hinreichend beschäftigt und nicht weiter störend tätig; außerdem würde auf diesem Weg klar, dass sich Till wohl doch nicht richtig ausdrücken kann und nachbessern muss.

Der Hinweis auf die Kosmologie ist ein Ablenkungsmanöver von der weiter oben beschriebenen Art: Um Welterklärung geht es beim Erkenntnisfortschritt zunächst einmal nicht. Wer sich mit Kosmologie beschäftigt, wird sich auch mit Erkenntnisfortschritt auseinandersetzen müssen. Ein Zwang in entgegen gesetzter Richtung existiert nicht, auch wenn die Naturalisten nicht müde werden, genau das zu behaupten. Es handelt sich um den oben beschriebenen logischen Kurzschluss.

Moralisieren

Wer moralisiert, will verletzen. Die Täuschungsabsicht ist im Allgemeinen daran zu erkennen, dass derjenige, der die Einhaltung von Anstandsregeln anmahnt, bei deren Verletzung ganz vorne mit dabei ist.

Beispiele: Das beharrliche Vertreten eines Standpunkts wird als Renitenz angekreidet. Wer kritisiert, wird als Stänkerer gebrandmarkt. Wer Toleranz einfordert, dem wird der Wille zur Zensur unterstellt. Eine abweichende Meinung ist ein Zeichen dafür, dass es an der „skeptischen Redlichkeit“ mangelt. In all diesen Fällen wird auf unanständige Weise mehr Anstand eingefordert. Aber das sind noch die harmloseren Verstöße gegen die Anstandsregeln.

Eine Frau F. meint, einen Kritiker als „hochmütig, penetrant und überheblich“ charaktierisieren und dabei darauf verzichten zu dürfen, der sachlichen Kritik so etwas wie einen sachlichen Einwand entgegenzusetzen.

Eine Krönung diesbezüglich liefert Herr S. Es geht ihm um den gerade eben beschriebenen Vorwurf des Sich-dumm-stellens, das man durchaus als Gesprächsstrategie auffassen kann, ohne damit eine moralische Wertung verbinden zu müssen. Herr S. kontert den Vorwurf so: „Für solchen Umgangston gibt es die anderen ca. 99.999999% des Internets, wo ein aggressiver, abwertender Umgangston üblich ist. Ich bitte hier um Beachtung der Netiquette.“ Dabei scheut sich Herr S. bei einer späteren Gelegenheit nicht, eine Sachdiskussion auf die persönliche Ebene zu hieven mit dem Satz: „Ich schlage Herrn G. als Kandidaten für die Wahl des Listentrolls vor.“

Die Lehren

Ich halte es übrigens nicht für eine gute Idee, die täuschenden Argumentationen mit einer moralischen Bewertung zu beladen. Meinen Standpunkt dazu habe ich einst in einem vhs-Kurs kundgetan:

Tarnen und Täuschen gehören so sehr zum Leben auf dieser Erde (man denke nur an die Geweihe der Hirsche, die Mimikri der Schmetterlinge, die Scheinmuskeln der Männer, das Imponiergehabe in den Chefetagen und die Werbung), dass man sich generelle moralische Urteile über dieses Verhalten besser verkneift. Täuschung und Manipulation abzuschaffen, ist schon aus Gründen des Wettbewerbs aussichtslos: Wer will schon auf große Vorteile verzichten, die zu moderaten Kosten zu haben sind?

Ein Ziel des Kurses ist das Herstellen von Waffengleichheit. Jedermann sollte grundsätzlich die Möglichkeit erhalten, manipulationstechnisch nachzurüsten, so dass er in der durch Manipulation, Manipulationsabwehr und Gegenmanipulation bestimmten Kommunikation seine Chancen wahren kann.

Allgemeine Nachrüstung auf diesem Gebiet hat paradoxe Auswirkungen: Können es alle, wird Täuschen unrentabel und kommt entsprechend seltener vor.

Veröffentlicht unter Bildungswesen, Logik, Moral und Ethik, Skeptizismus | Verschlagwortet mit , , , , , | 4 Kommentare