Denkfallen vermeiden mit System (Buch)

Seit über 30 Jahren gehört das Thema Denkfallen zu meinem Interessengebiet. Dem Leser dieses Weblogbuchs ist das eine oder andere Resultat meiner Anstrengungen schon begegnet.

Anfangs lag mein Schwerpunkt auf der Entlarvung von Irrtümern auf dem Gebiet  meiner Berufstätigkeit: Ingenieurwissenschaft und Informatik. Daraus entstand im Jahr 1990 das Springer-Buch „Denkfallen und Programmierfehler“. Das war der Anfang der Taxonomie System der Denkfallen.

Ich habe gemerkt, dass sich das System und die damit einhergehende negative Methode auf Alltagssituationen gewinnbringend anwenden lassen.

In einem früheren Artikel, habe ich darüber berichtet, dass ein Verlag an dem Thema interessiert war und dass meine Ernüchterung über das Vorhaben dazu führte, dass ich das Buch nicht mehr machen wollte. Jetzt habe ich es doch gemacht – im renommierten Springer-Verlag. Er hat meine Intention aufs Beste umgesetzt:

KlügerIrrenhttp://www.springer.com/de/book/9783662502792
http://link.springer.com/book/10.1007%2F978-3-662-50280-8

Veröffentlicht unter Bildungswesen, Heuristik, Korrelation und Kausalität, Logik, Problemlösen, Prognosen, Skeptizismus, Statistik, Stellvertreterstatistik, Verzerrte Stichprobe, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , , , , , | Schreib einen Kommentar

Der Scheuklappen-Effekt

Wer Scheuklappen trägt, den erschreckt nichts, was abseits seines Weges liegt. Für Pferde ist das im Allgemeinen eine gute Sache. Beim Menschen nicht immer.

Dass auch er Scheuklappen trägt, hat einen einfachen Grund: Er muss mit begrenzten mentalen Ressourcen zurechtkommen: Sein Gehirn hat nun einmal eine begrenzte Kapazität für die Speicherung und die Verarbeitung von Informationen. Der von den Sinnesorganen erfasste Informationsfluss ist um viele Millionen Male größer als das, was er wahrnehmen kann. Er muss den Scheinwerfer seiner Aufmerksamkeit auf das momentan jeweils Wichtigste ausrichten – eine im Grunde gute Sache.

Zuweilen empfiehlt es sich, die Scheuklappen abzusetzen. Nur wann? Die folgenden Beispiele geben Hinweise.

Das Neun-Punkte-Problem

Ich beginne mit einer Denksportaufgabe. Sie werden das Problem kennen: Gegeben sind neun im Quadrate regelmäßig angeordnete Punkte. Je drei nebeneinander, je drei untereinander. Diese Punkte sind in einem Zug durch vier gerade Linien zu verbinden.

Erstaunlicherweise vereinfacht sich die Lösungssuche, wenn Sie zwei weitere Punkte hinzunehmen: Einen Punkt zusätzlich in der ersten Zeile und einen in der ersten Spalte. Das Punktemuster sieht nun so aus:

•   •   •   •
•   •   •
•   •   •

Eine Lösung ist leicht zu finden: Zuerst verbindet man die Punkte der ersten Reihe und zieht den Stift von links nach rechts, dann folgt die Diagonale von rechts oben nach links unten. Danach geht es senkrecht nach oben zurück zur ersten Zeile. Schließlich zieht man von links oben zum Punkt rechts unten. Fertig. Mit dem Elf-Punkte-Problem ist natürlich auch das Neun-Punkte-Problem gelöst.

Warum ist es bei den neun Punkten so schwer, die Lösung zu finden, und warum ist es bei den elf Punkten so leicht? Einfach weil der Denksportler bei der ursprünglichen Aufgabe die Scheuklappen absetzen muss. Er muss seinen Blick weiten und erkennen, dass er zur Lösungsfindung den vorgegebenen Rahmen, der durch die neun Punkte abgesteckt ist, verlassen darf.

Verzerrte Stichproben

Mit der Statistik wird viel Schindluder betrieben. Spektakuläres und stimmige Storys engen das Blickfeld ein. Ich berichtete darüber im Artikel Proben mit Stich.

Besonders dreist geschieht das bei den sogenannten TED-Umfragen, die von den Tageszeitungen, dem Rundfunk oder auch im Internet initiiert werden. Niemand weiß etwas über den Teilnehmerkreis einer solchen Umfrage, nur die Antworten sind bekannt. Das Ergebnis solcher Umfragen ist genauso interessant und informativ wie das wöchentliche Horoskop.

In einem Fall wurde um Antwort gebeten auf die Frage „Glauben Sie an (den christlichen) Gott?“ Für die Antwort konnte aus fünf Abstufungen gewählt werden. Fast alle Teilnehmer wählten eine der beiden Extremantworten: Ja oder Nein. Die Agnostiker waren zusammen mit den Wachsweichen der einen oder anderen Neigung klar in der Minderheit. Man sieht: Um sich zur Teilnahme aufraffen zu können, braucht man schon etwas Enthusiasmus. Der ist sowohl bei den Gläubigen als auch bei den Atheisten offenbar vorhanden. Wahrlich keine weltbewegende Erkenntnis.

Ebenso unsinnig ist es, die Besucher eines Kneipenviertels danach zu fragen, wie oft sie hierher kommen und dann deren Antworten zum Maßstab der Beliebtheit des Viertels zu machen. Da man nur die fragen kann, die da sind, müssen die Vielbesucher in der Stichprobe zwangsläufig überrepräsentiert sein.

Risikofaktoren

Im Artikel über Wundersame Geldvermehrung erzähle ich von einem Politiker, der uns weismachen will, dass der Ankauf von Staatsanleihen ursächlich für den Zusammenbruch einer Währung ist. Nach derselben „Logik“ könnte man aus der Tatsache, dass den meisten Auto-Karambolagen eine Vollbremsung vorausgeht, folgern, dass die Vollbremsung ein Risikofaktor ist und deshalb besser unterbleiben sollte.

In dem Artikel können Sie auch sehen, wie professionelle Unfallforscher zum Opfer des Scheuklappeneffekts werden. Das geschieht beispielsweise dann, wenn bei der Analyse von Unfallursachen nur die tatsächlichen Unfälle in Betracht gezogen werden. Charles Perrow stellte anhand einer Statistik fest, dass bei einer Reihe von Schiffszusammenstößen in den meisten Fällen ein Ausweichmanöver vorausgegangen ist. Er macht dann die Ausweichmanöver für die Kollisionen verantwortlich. Das ist zu eng gesehen.

In Weitwinkelperspektive geraten auch die Beinaheunfälle ins Blickfeld, die durch Ausweichmanöver verhindert worden sind. Das Urteil, dass Ausweichmanöver ein Risikofaktor sind, relativiert sich dann.

Patientenzufriedenheit

Eine Studie zur Patientenzufriedenheit ermittelte für zufällig ausgewählte Arztpraxen das Verhältnis aus erzielter Zufriedenheit in Relation zu den Anforderungen der Patienten. Die Einschätzungen der Ärzte und Medizinischen Fachangestellten wurde mit dem Ergebnis einer Patientenbefragung abgeglichen.

Die Patientenbefragung ergab einen Durchschnittswert von 48,6%. „Die in den Praxen arbeitenden Ärzte gingen davon aus, eine Betreuungsqualität von 81,4% zu erzielen, also nahezu das Optimum. Das Personal zeigte sich hingegen mit einer mittleren Einschätzung von 53,9% deutlich kritischer.“

Der Bericht über die Studie trägt die Überschrift „Der Scheuklappen-Effekt: Gravierende Diskrepanzen zwischen Eigen- und Fremdbild in Arztpraxen“.

Ballerspiele für Terroristen und Amokläufer

Dem Bericht „Unter Beschuss“ der Zeitschrift Stern vom 4.8.2016, S. 112-115, entnehme ich: Der 18-Jährige, der vor Kurzem in München neun Menschen erschoss, hatte Shooter-Spiele auf seinem Computer, ebenso die Schützen von Littleton (1999), der Menschenjäger auf der Insel Utøya, die Jugendlichen, die 2002 in Erfurt und 2009 in Winnenden insgesamt 27 Menschen töteten.

Der Schluss liegt nahe, dass Ballerspiele auf dem Computer Böses mit sich bringen, dass sie ursächlich für die Taten sind.

Weiten wir den Blick. Virtuelle Ballerspiele werden immer beliebter. Heute werden sie von etwa 17 Millionen Deutschen gespielt. So steht es in dem Stern-Artikel. Die Zahl der Tötungsdelikte sank in den letzten zweieinhalb Jahrzehnten auf weniger als die Hälfte. Ein möglicher negativer Einfluss von Ballerspielen wird offensichtlich durch mildernde Effekte überdeckt. Vielleicht gibt es diesen negativen Einfluss gar nicht.

Will man etwas über die Kausalbeziehung zweier Erscheinungen erfahren, sollte man immer in Betracht ziehen, dass ein Drittes die gemeinsame Ursache beider Erscheinungen sein kann. Das ist eine einfache Technik der Blickfelderweiterung.

Der Stern hat Experten zu den Einflussfaktoren, die Gewaltbereitschaft betreffend, befragt und ein paar Antworten erhalten: Traumata, Flucht, Vergewaltigung, geraubte Kindheit, genetische Veranlagung. „Die Biografien und Befunde jener Täter, deren Gewaltakte uns einfach nicht in den Kopf wollen, legen tiefe seelische Wunden und womöglich auch psychische Deformationen als hauptsächliche Ursachen nahe. […] Es leuchtet ein, dass jemand, der das Leiden anderer als Befriedigung erlebt, auch Spaß am virtuellen Töten haben kann. Der Umkehrschluss hingegen gilt nicht – wer ‚Counter-Strike‘ mag, ist nicht schon Sadist.“

Prognosen: Laien schlagen Experten

Der Spiegel (33/2016, S. 124-125) berichtet unter der Überschrift „Anleitung zum Wahrsagen“, dass gerade die Gurus eines Fachgebiets mit ihren Prognosen daneben liegen. Mehrere Gründe werden gesehen.

Der Experte hat seine Theorie, mit der er steht und fällt. Er ändert sie möglichst nicht, da er Gesichtsverlust befürchtet. Er trifft auf Menschen, die jede Erklärung begierig aufgreifen, die ihnen halbwegs stimmig erscheint. Eine gute Geschichte oder eine halbwegs plausible Analogie stellen sie zufrieden. Außerdem haben die Menschen ein ziemlich schlechtes Gedächtnis, was die Prognosen der Vergangenheit angeht. Die Treffergenauigkeit eines Experten wird daher kaum infrage gestellt. Alles zusammen fördert den Rechthaber-Mechanismus. „Je bekannter ein Experte ist, desto schlechter sind seine Prognosen.“ So zitiert der Spiegel den Psychologen und Politikwissenschaftler der University of Pennsylvania Philip Tetlock.

Sie ahnen es schon: Es liegt an der Blickverengung. Vielleicht aber haben Sie auch noch andere Erklärungen.

Tetlock stellte den Expertenaussagen die Aussagen von Laien gegenüber. Unter diesen Laien gab es Superprognostiker, die besser abschnitten als beispielsweise die Analysten der Geheimdienste. Was zeichnet sie aus? „Sie lesen viele Bücher, sie informieren sich vorrangig aus sogenannten Qualitätsmedien, sie können gut mit Zahlen umgehen. Und sie zählen zu den intelligentesten 20 Prozent der Bevölkerung. Aber: Sie sind, gemessen an ihrem Intelligenzquotienten, keine Genies.“ Philip Tetlock charakterisiert die erfolgreichen Prognostiker als offen, vorsichtig, selbstkritisch und bescheiden. Sie nutzten die Meinungsvielfalt der Masse und sie kombinierten die verschiedenen Perspektiven. Und das geschehe in einem einzigen Kopf.

Veröffentlicht unter Korrelation und Kausalität, Problemlösen, Prognosen, Statistik, Umfragen, Verzerrte Stichprobe | Verschlagwortet mit , , , , , , | Schreib einen Kommentar

Fünftes Intermezzo: Der Agnostiker

Till ist einer, den ich sehr gut kenne – besser als jeden anderen. Heute schreibe ich über ihn, vor allem darüber, wie er die Welt sieht.

Diesseits

Die Welt besteht für Till aus den Vorstellungen in seinem Kopf. Die innere Welt in seinem Kopf ist das Resultat eigenen Erlebens, das Wissen über die Erscheinungen und Phantastisches aus allen möglichen Kunstgattungen. Diese innere Welt ist ein Vorstellungsbild.

Ob es eine äußere Welt gibt, die vom Bewusstsein unabhängig ist, dafür interessiert sich Till nicht sonderlich. Er kann nichts damit anfangen, wenn Realisten behaupten, dass sich die Außenwelt, die Realität, sogar erkennen ließe. Auch lässt ihn die Frage nach den Ursachen, nach dem Schöpfer der hypothetischen Realität kalt: Das alles sind Fragen, die sich seinem Erleben und seiner Erkenntnis entziehen und die für ihn deshalb belanglos sind.

Gottgläubige und Realisten kann er nicht so recht voneinander unterscheiden: Er meint, der Realist schließe nur die Augen vor der Frage, wer die von ihm so geschätzte Außenwelt eigentlich geschaffen hat. Till ist Agnostiker durch und durch und Skeptiker im klassischen Sinn (Sextus Empiricus, 2. Jahrhundert).

Till denkt über Welt in seinem Kopf nach. Er will wissen, wie sein Weltbild zustande kommt und ob es ihn verlässlich leitet oder ob es ihn manchmal auch narrt. Dazu muss er sich die Welt in seinem  Kopf vorstellen. Wer so etwas tut, begibt sich in höchste Gefahr: Das Nachdenken über diese Welt gehört selbst zur inneren Welt. Der Denker droht, in einen Teufelskreis zu geraten. Er muss darauf achten dass ihm vor lauter Reflexion seine Welt nicht abhanden kommt.

Till kennt einen Weg aus der Gefahr: „Meine Gedanken über die Welt in meinem Kopf betreffen ein abgeleitetes Vorstellungsbild, eines, das mein Vorstellungsbild von der Welt zum Gegenstand hat. Mit meinem Vorstellungsbild von der Welt, diesem von einem Vorstellungsbild abgeleiteten Vorstellungsbild, kann ich machen, was ich will. Ich entferne daraus das Denken über Vorstellungsbilder; ich denke einfach nicht weiter darüber nach.“ Das klingt nach Trotz. Aber es hilft.

Das Nachdenken über die Welt im Kopf ist offenbar eine halsbrecherische Sache. Für seine Gewaltlösung holt sich Till Unterstützung bei einem Großdenker von Format: Immanuel Kant wies seinerzeit darauf hin, dass „das denkende Subjekt ihm selbst in der inneren Anschauung bloß Erscheinung“ ist (Kritik der praktischen Vernunft, 1788 , Akademie-Ausgabe AA6). Es ist ja gut, dass Till das versteht. Ich will versuchen, mit einer Grafik Klarheit in die Sache zu bringen (Bild: Diesseits 1).

 

Diesseits 1

Wichtig für ein Ende der Reflexionskette ist, dass das eingebettete Vorstellungsbild der inneren Welt keine weitere rückbezügliche Einbettung enthält! Es gibt keinen unendliche Regress und auch keinen teuflischen Zirkelbezug.

Aber etwas Wichtiges fehlt noch. Es betrifft Tills Hobby: Er sammelt Denkfallen und versucht diese in ein Klassifikationsschema zu bringen. Indem er das tut, bewegt sich sein Denken auf einer weiteren Ebene: Till denkt über das Nachdenken nach. Eingebettet in die innere Welt ist nun auch die Reflexion über die Reflexion des Vorstellungsbilds (Bild Diesseits 2).

Diesseits 2

Diesseits 2

Es ist wie im Film „Welt am Draht“ von Rainer Werner Fassbinder: Fred Stiller – der Held der Geschichte – ist Herr über eine Simulation der Welt. Ein Wesen dieser simulierten Welt erkennt seine Lage und will heraus aus der Simulation und aufsteigen in Stillers Realität. Stiller erkennt schließlich, dass er selbst Teil einer Simulation ist. Als er aus dieser simulierten Welt heraufsteigt, bleibt unklar, ob er jetzt in der wirklichen Wirklichkeit gelandet ist oder ob es sich wieder nur um eine virtuelle Realität handelt.

Der Phantasie sind keine Grenzen gesetzt. Unserem Weltbild aber schon. Prinzipiell hat Till recht: Irgendwann ist Schluss mit der Reflexion der Reflexionen. Das Nachdenken über die innere Welt bleibt notgedrungen bruchstückhaft und endlich – allein aus Gründen der Kapazitätsbeschränkung. Es gibt keinen Zirkel und auch keinen unendlichen Regress. Es ist schon komisch: Die Endlichkeit des Denkens ermöglicht, dass wir uns einen Begriff von der „Welt“ machen.

Wissen

Es gibt viele Menschen und deshalb auch viele Welten. Dennoch bleiben Sprachverwirrung und grundlegendes gegenseitiges Unverständnis aus. Denn glücklicherweise können wir uns über wesentliche Teile unserer Vorstellungsbilder einigen, meistens jedenfalls. Die intersubjektiv nachprüfbaren Bestandteile nennen wir Wissen. Glaubensakte sind für den Wissenserwerb nicht erforderlich. Die Regeln des kritischen Rationalismus genügen (Karl Raimund Popper, 1902-1994).

Dass unsere innere Welt von Recht und Ordnung zusammengehalten wird und dass wir uns über das Wissen darüber verständigen können, ist ein großes Wunder. Der Realist versucht dieses Wunder zu eliminieren, indem er sich eine bewusstseinsunabhängige Realität vorstellt, die kausal für alle Erscheinungen ist (Hilary Putnam, On Not Writing Off Scientific Realism, 2010). Till ist von der Idee nicht angetan und sagt: „Anstelle der wunderbaren Ordnung der Erscheinungen tritt dann doch bloß die Realität, und die ist nicht weniger wunderbar. Der Gedanke einer bewusstseinsunabhängigen Realität schafft das Wunder nicht aus der Welt.“

Aufgabe der Wissenschaft ist, Hypothesen über die Erscheinungen zu prüfen und in Kommunikationsprozessen die besten Hypothesen herauszufiltern. Das Wissen über die Welt ist letztlich die Gesamtheit der gut geprüften und bewährten Hypothesen; es beinhaltet die allgemein akzeptierten und bewährten Erkenntnisse über das kommunizierbare Erleben aller; Dieses Wissen wird zumindest auszugsweise zum Bestandteil von Tills innerer Welt. Wissen und Weltbild befinden sich im dauernden Wandel.

Tun

Aber nicht nur Objektives, also intersubjektiv Nachprüfbares, gehört zum diesseitigen Weltbild. Die innere Welt ordnet sich nicht nur nach der ersten der berühmten drei Kantschen Fragen, nämlich: „Was kann ich wissen?“, sondern wenigstens noch nach der zweiten: „Was soll ich tun?“

Das ist das Feld der praktischen Vernunft. Dort herrschen Wertvorstellungen und die Moral, und dafür gibt es keine empirische Basis. Der naturgesetzliche Zwang entfällt. Hier herrscht die Freiheit, die Freiheit in der Wahl der Weltanschauung und der sie regierenden Maximen, Grundsätze und Dogmen.

Till gesteht jedermann die Freiheit zu, sich seine eigene Weltanschauung zuzulegen. Er verträgt sich mit Atheisten, weltlichen Humanisten, Juden, Katholiken, Moslems – also Gläubigen jedweder Couleur. Er hat Verständnis für alle, die einen festen Halt für ihr Weltbild suchen und die diesen in irgendeiner Weise gefunden haben: in Gott, in der Materie, in der Natur.

Till selbst ist toleranter Agnostiker. Er meint, dass sein Weltbild denkbar sparsam und friedfertig sei. Bekehrungseifer ist ihm fremd. Die Vielfalt der Überzeugungen, das Bunte in der Welt, ist für ihn der wesentliche Fortschrittsmotor. So wie die biologische Evolution die Variabilität braucht (Charles Darwin, 1859), so braucht die Gesellschaft den weltanschaulichen Pluralismus.

Nach Tills Überzeugung lässt sich für kein Glaubenssystem ein Überlegenheitsanspruch herleiten. Es geht nur darum, wie es sich auf dem Feld der „praktischen Vernunft“ (Kant) im friedlichen Wettstreit mit anderen bewährt. Es kommt nicht darauf an, was einer glaubt, sondern was er tut.

Tills Dogmen zeichnen sich aus durch die Hochschätzung von Freiheit, Toleranz und Pluralismus.

Tills Friedfertigkeit hat Grenzen. Er leistet Widerstand, wenn jemand seinen Glauben dort ins Spiel bringt, wo er nichts zu suchen hat – insbesondere in der Wissenschaft. Wer die Bibel wörtlich nimmt und diese Interpretation gegen die Naturwissenschaften ins Feld führt, wie es die US-amerikanischen Kreationisten und Anhänger des Intelligent Design tun, ruft ihn auf den Plan. Auch wenn ihm jemand weismachen will, dass der Realismus eine unabdingbare Voraussetzung der empirischen Wissenschaft sei und dass es so etwas wie „approximative oder partielle Wahrheit“ geben müsse, dann regt sich sein Widerspruchsgeist.

Veröffentlicht unter Biologie, Glaube und Agnostizismus, Intermezzo, Moral und Ethik, Skeptizismus, Spiritualität, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit | 8 Kommentare

Betet Richard Dawkins?

Was, Sie kennen die „Skala des Gottesglaubens“ noch nicht? Dann wird es höchste Zeit für eine Lektion in dieser Sache. Ich habe davon erstmals in dem Buch „The God Delusion“ von Richard Dawkins (2006) gelesen (deutsch: „Der Gotteswahn“) . Er mag sie erfunden haben. Aber letztlich stammt die Grundidee vom großen Mathematiker Blaise Pascal. Sie hat vermutlich nicht zu seinem Ruhm beigetragen.

Wenn jemand wie Richard Dawkins heute noch damit hausieren geht, muss er sich einigen Spott gefallen lassen. Die Idee ist nämlich ein Musterbeispiel für den Versuch, Glaubensfragen mit mathematisch-wissenschaftlichen Methoden zu lösen. Es geht darum, der eigenen Überzeugung Nachdruck zu verleihen. Die Geschichte zeigt, dass sich der Apologet dabei fast notgedrungen in fusseligen Gedankenfäden verheddert und auf die Nase fällt.

Das gilt für Gläubige wie Pascal und für Atheisten wie Dawkins gleichermaßen. Beginnen wir mit

Pascals Wette auf die Existenz Gottes

Vom französische Religionsphilosophen, Mathematiker und Physiker Blaise Pascal (1623-1662) stammt diese Wette: Wenn du an Gott glaubst – sozusagen auf ihn setzt – und Gott existiert nicht, so verlierst du nichts. Wenn du aber nicht an Gott glaubst und Gott existiert, dann kommst du in die Hölle. Deswegen ist es vernünftig, an Gott zu glauben. So wahrst du deine Chance, in den Himmel zu kommen.

Lassen wir die Hölle einstweilen links liegen und beschäftigen wir uns nur mit der Nutzenseite der Angelegenheit. Nach Pascal ergibt sich der zu erwartende Nutzen als Produkt aus Wahrscheinlichkeit und Nutzen.

Da wir nicht genau wissen, ob es Gott gibt, setzen wir für die Wahrscheinlichkeit seiner Existenz die Variable p ein. Wie alle Wahrscheinlichkeiten ist das ein Wert im Bereich von null bis eins. Der Nutzen für den Gläubigen ist, falls es Gott tatsächlich gibt, riesengroß – für uns Erdenbürger jedenfalls gleich unendlich, in Zeichen: ∞. Damit ergibt sich der zu erwartende Nutzen des Glaubens zu p·∞. Pascal meint, dass die Wahrscheinlichkeit der Existenz Gottes zwar klein, vielleicht sogar sehr klein, niemals aber gleich null sein könne. Folglich ist der zu erwartende Nutzen nach den Regeln der Mathematik gleich ∞.

Für den Ungläubigen sieht die Rechnung ganz genauso aus, nur dass hier der drohende Schaden – nämlich das Schmoren in der Hölle – gleich unendlich ist.

Gottesdienst und Beten als Ausdruck des Glaubens und gottgefälliger Lebenswandel sind demnach das einzig vernünftige Handeln. Wir wollen das einmal so hinnehmen.

Dawkins’ Skala des Gottesglaubens

Richard Dawkins ist der wortmächtige Anführer der so genannten Neuen Atheisten. Er hat in seinem Buch von 2006 Pascals Idee aufgegriffen. Seine Gedankenspiele landen – vorhersehbar – im Absurden.

Dawkins will zwar nicht den Glauben, sondern den Unglauben begründen. Sein mathematisches Instrumentarium aber ist dasselbe wie das pascalsche; und es ist in diesem Fall gleichermaßen ungeeignet. Warum Dawkins voller Emphase diese Denkfalle ansteuert und prompt darin untergeht, wird sein Geheimnis bleiben.

Dawkins schlägt vor, die Intensität des Glaubens mit der Wahrscheinlichkeit p zu bewerten, genau wie es Pascal tut. Seine Skala des Gottglaubens reicht von p = 100%, das sind die starken Theisten, über die De-facto-Theisten mit p knapp unter 100%, die Agnostiker mit p = 50%, die De-facto-Atheisten mit sehr kleinem, aber immerhin noch positivem p bis hin zu den starken Atheisten mit p = 0%. Dawkins zählt sich zu den De-facto-Atheisten („I cannot know for certain but I think God is very improbable“). Und damit landet er in der Falle der Pascalschen Wette. Ihm bleibt nichts anderes übrig, als auf Gott zu setzen.

Wer sich auf solche Wahrscheinlichkeitsrechnungen einlässt, muss wissen, worum es geht. Und da haben wir nun einmal – das gilt für Dawkins wie für Pascal –  das von der Kirche vermittelte Bild von Gott, Himmel und Hölle. Man sollte nicht, wenn einem das Ergebnis des Kalküls missfällt, an den Definitionen herumdoktern.

Der Fehler liegt bereits im Ansatz: Im Aufsatz 1654: Ein neues Denken beginnt zeige ich, dass Pascals Risikoformeln hier gar nicht anwendbar sind. Richard Dawkins scheint das nicht weiter zu interessieren. Er verliert sich in Phantasien über das Gottesbild.

Glaubenspluralismus

Dawkins ist ein Glaubenskämpfer in Sachen Atheismus. Ihm will offenbar nicht einleuchten, dass der Agnostizismus eine logisch einwandfreie und entschiedene Position der Entscheidungsenthaltung ist: Der Agnostiker verweigert sich der Zumutung, eine Aussage für oder gegen die Existenz Gottes zu treffen. Und dieselbe Verweigerungshaltung gilt für Wahrscheinlichkeitsaussagen. Eine Wahrscheinlichkeitszumessung zur Existenz Gottes ist für den Agnostiker ohne Sinn, da jeglicher Erfahrungshintergrund fehlt. Ohne Aussicht auf eine Statistik bleibt für ihn  die Ungewissheit total.

Frank Stößel spricht in seinem Kommentar zum Hoppla-Artikel Die Unterwanderungsstrategie des Neuen Atheismus  von einer Skala des Agnostizismus — in Anlehnung an Dawkins. Er meint damit eine Vielzahl von Standpunkten und Glaubensrichtungen.

Das Wort Skala halte ich in dem Zusammenhang für falsch. Eine Skala setzt voraus, dass sich die Standpunkte messen lassen. Es bleibt die Frage nach einer geeigneten Maßzahl. Jedenfalls ist die hier angesprochene Wahrscheinlichkeit p als Maß für die Glaubensintensität nicht geeignet: Bereits beim Agnostiker scheitert der Versuch einer Vermessung und Einordnung. Deshalb würde ich lieber von Glaubenspluralismus sprechen und nicht von einer Skala des Agnostizismus.

Glaubenspluralismus und Toleranz halten unsere offene Gesellschaft am Laufen. Die verschiedenen Dogmensysteme treten im freien und friedlichen Spiel auf dem Feld der praktischen Vernunft gegeneinander an. In diesem Spiel findet sich auch der De-facto-Atheist wieder. Dass er sich bei der Begründungen seines Standpunkts rettungslos verheddert, muss uns nicht weiter bekümmern. Anderen Gläubigen geht es mit ihrer Apologetik auch nicht besser.

Veröffentlicht unter Logik, Skeptizismus, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , | 4 Kommentare

„Skeptiker“ über Wissenschaft und Wahrheit

Die sich irrtümlich als Skeptiker bezeichnenden Leute liefern immer wieder überzeugende Lehrbeispiele für fehlleitende Argumentation. Wer nicht aufpasst, tappt in die von diesen Leuten aufgestellten Denkfallen. Ein Ziel dieses Weblogbuchs ist, sich durch Analyse solcher Beispiele gegen Reinfälle zu wappnen.

2007 schrieb einer der „dogmatischen Skeptiker“: „Es gibt keine Wechselwirkung mit einer Übernatur.“ Ich berichtete in Argumentationsfehler des ontologischen Naturalismus davon. Ganz aktuell gibt er unter dem Titel „Wissenschaft und Wahrheit“ zu Protokoll: „Es gibt keine negativen Sachverhalte.“ Ohnehin sei es unser Ziel, „das festzustellen, was ist“ (skeptiker, 2/2016, S. 75 ff.). Für mich postuliert der Dogmatiker mit der Keine-Übernatur-Hypothese einen negativen Sachverhalt. Ich sehe hier einen Widerspruch; die Aussagen lassen sich nicht unter einen Hut bringen.

Neben solch Schwerverständlichem bietet der Dogmatiker Thesen, die auf den ersten Blick vernünftig erscheinen. Bei näherem Hinsehen verflüchtigt sich der positive Eindruck. Es folgen zwei Beispiele aus dem bereits zitierten skeptiker-Artikel.

  1. „Es gibt […] gute Argumente dafür, dass das Streben nach Wahrheit unverzichtbarer Bestandteil der Wissenschaft ist.“

Die meisten der mir bekannten Wissenschaftler streben nicht nach Wahrheit, sondern nach Erkenntnis, das heißt: nach Theorien, welche die Phänomene möglichst gut erklären und die eine gute Chance auf Bewährung haben. Das Wort „unverzichtbar“ habe ich von ihnen in diesem Zusammenhang nicht gehört. Es ist aus dem Sprachschatz der Dogmatiker und nicht aus dem der Wissenschaftler.

  1. „[Es muss] so etwas geben wie approximative oder partielle Wahrheit.“

Als Zeuge wird Karl Raimund Popper aufgeführt. Ich finde bei Popper dies: „Da wir aber die Wahrheit nicht kennen, so ist es klar, dass wir bestenfalls immer nur die relative Wahrheitsnähe zweier oder mehrerer Theorien vergleichen können“ (Logik der Forschung, *XV. Über Wahrheitsnähe). Mein Stöckchen-Beispiel aus dem Artikel Kontrastbetonung sollte genau das deutlich machen. Relative Wahrheitsnähe mit approximativer oder gar partieller Wahrheit gleichzusetzen, ist ein Argumentationsfehler des ontologischen Naturalismus. Popper wird also zu Unrecht für eine Metaphysik vereinnahmt.

Die „dogmatischen Skeptiker“ stehen mit ihrer Rabulistik nicht allein. Der Begriff der „approximativen Wahrheit“ wird auch vom Philosophen Hilary Putnam falsch verwendet. Dabei ist er sich über die Wortbedeutung sehr wohl im Klaren: „And if one says that most scientific ‚findings‘ are at least approximately true, then where are the criteria by which we can determine how good the approximation is?“

Im Rahmen seines „scientific realism“ bezieht Hilary Putnam die Genauigkeit der Approximation jedoch nur auf eine bessere Theorie und nicht etwa auf die Wahrheit schlechthin. Es handelt sich folglich um relative Wahrheitsnähe und nicht um approximative Wahrheit: „In this sense Newtonian physics is robust; it is ‚approximately true‘, and later physics tells us just how good the approximation is“ („Philosophy in an Age of Science“, 2012, Kapitel 4: „On Not Writing Off Scientific Realism“, S. 91-108).

Es würde der Klarheit dienen, wenn die „Skeptiker“ endlich einmal von dieser Selbstbezeichnung Abstand nehmen würden. Sie sehen sich offenbar als Realisten, und diese sind in der über zweitausendjährigen gemeinsamen Geschichte hinweg die direkten Gegenspieler der Skeptiker. Durch eine solche Klarstellung würde dann auch jedermann deutlich, dass die ganze Debatte auf dem Feld der Metaphysik stattfindet, also dort, wo der Skeptiker sich gewöhnlich nicht aufhält.

Veröffentlicht unter Skeptizismus, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit | 4 Kommentare

Ist Pseudowissenschaft unvernünftig?

Unter Pseudowissenschaft verstehe ich, und mit mir tun das viele andere, ein auf Erkenntnis angelegtes System, das einen Anspruch auf Wissenschaftlichkeit erhebt, diesen aber nicht einlösen kann. Ihre Vertreter geben vor, ein Spiel nach gewissen Regeln zu spielen, hier ist es das Spiel „empirische Wissenschaft“, aber sie verletzen genau diese Regeln.

Das klingt nach verwerflichem Tun. Tatsächlich haftet dem Begriff der Pseudowissenschaft der Ruf der Unvernunft an. Aber allein die Verletzung bestimmter Spielregeln ist für sich gesehen noch nichts Unanständiges. Das habe ich vor vier Jahren bereits im zweiten Intermezzo dieses Weblogbuchs deutlich gemacht: Tarnen, Täuschen und Manipulation gehören so sehr zum Leben auf dieser Erde, dass man sich generelle moralische Urteile über dieses Verhalten besser verkneifen solle, schrieb ich damals. Täuschung und Manipulation abzuschaffen, sei schon aus Gründen des Wettbewerbs aussichtslos, denn wer will schon auf große Vorteile verzichten, die zu moderaten Kosten zu haben sind.

Ich wage die Aussage, dass das Verletzen der Regeln der Wissenschaft zu den Spielregeln  der Pseudowissenschaft gehört. Es ist ein anderes Spiel.

Es ist gut, „Pseudowissenschaft“ nicht von vornherein als Schimpfwort zu verstehen. Im Sinne eines gesellschaftlichen Pluralismus enthalte ich mich einer moralischen Bewertung. Ich stelle mir die Frage, ob diese Spielregeln unvernünftig sind oder nicht.

Zur Klärung dieser Frage kommt mir ein Büchlein gelegen, das erst kürzlich erschienen ist. Es ist von Natalie Grams und heißt „Homöopathie neu gedacht“ (Springer, Berlin, Heidelberg 2015).

Die Ärztin „war lange Zeit überzeugte Homöopathin“. Dann stellte sie fest, dass die Grundsätze der Homöopathie „sich zwar irgendwie gut anfühlen, deren Prinzipien jedoch wissenschaftlichem Denken teilweise komplett widersprechen“. In der Folge distanzierte sich Grams von der Homöopathie und wurde zu einer engagierten Kritikerin.

Für Natalie Grams ist Homöopathie eine Methode, „mit der man in Ruhe Gespräche führt, die es dem Patienten und seinem Körper ermöglichen, etwas für sich selbst zu tun“. Die Globuli sieht sie „als Placebos, aber auch als Träger einer individuellen Autosuggestion“. Im weiteren Verlauf ihres Textes zeigt sie auf, dass aus wissenschaftlicher Sicht die Homöopathika wirkungslos sind. So weit – so gut.

Weil der Homöopath im Zuge der Anamnese sich dem Patienten methodenbedingt stärker zuwendet als es einem Arzt im Rahmen der Gebührenordnung möglich ist, hält Natalie Grams es für „wünschenswert, die Teile der Homöopathie, die sie so menschlich machen, in unsere symptomfokussierte und zeitarme Medizin zu übernehmen“.

Aber Hoppla! Hier tut sich ein riesengroßes Loch in der Argumentation auf. Denn was soll eine gefühlvolle Anamnese, wenn dem kein Akt der Medikation, keine Heilungsanstrengung folgt, die den Patienten überzeugt? Erst die Darreichung eines Homöopathikums setzt doch die Selbstheilungskräfte in Bewegung. Die Heilwirkung mag auf einer Täuschung beruhen. Aber diese Täuschung ist letztlich unentbehrlicher Bestandteil der Methode.

Der Glaube des Patienten ist dabei ausschlaggebend. Dass er auf einer Täuschung beruht, schmälert die Wirkung nicht. Und die Täuschung gelingt am besten, wenn auch der behandelnde Homöopath an seine Sache glaubt: Wer sich selbst betrügt, kann andere besser täuschen, meint Robert Trivers.

Das ist bei der Homöopathie so, aber auch beim Schamanismus: Der Patient muss erfahren, dass zum Zwecke seiner Heilung etwas Großartiges passiert. Beim Schamanen sind es die Trommelei und der Tanz. Bei der Homöopathie ist es die Potenzierung, die schrittweise Verdünnung der Ausgangssubstanz und das rituelle Verschütteln. Es sind diese  magischen Handlungen, die den Glauben an die Wirksamkeit hervorrufen.

In ihrer Rezension des Buches von Natalie Grams schreibt Irene Kapuschewski am 10. August 2015 bei Amazon: „Die Schlussfolgerung der Autorin lautet danach: Homöpathische Anamnese ja, weil gut, Globuli nein, weil wirkungslos. Aber das ist doch völlig unlogisch! Die Homöpathie funktioniert – auch nach dem, was die Autorin schreibt – doch genau auf der Kombination aus gründlicher Anamnese und genau passenden Globuli. Ohne die Globuli wäre doch auch die Anamnese wirkungslos. Insofern frage ich mich – auch wenn ich Homöpathie ablehnen würde – warum um alles in der Welt lässt man das System nicht so wie es ist, wenn man damit vielen Menschen hilft?“

Wenn Natalie Grams ihr Werk zu Ende geschrieben hätte, wäre möglicherweise ein Plädoyer für die Homöopathie dabei herausgekommen. Denn im Grunde zeigt sie, dass dieser Pseudowissenschaft eine gewisse Vernünftigkeit nicht abzusprechen ist.

Das mag so sein. Aber damit wird die Homöopathie noch lange nicht zu einer Wissenschaft. An Hochschulen, dem Ort der Wissenschaft, hat die Homöopathie nichts zu suchen.

Veröffentlicht unter Naturwissenschaften, Schule und Hochschule, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , | 12 Kommentare

Astrologie funktioniert!

Die Aufregung um „Die Akte Astrologie“ von Gunter Sachs hat sich inzwischen gelegt. Ich wärme die Sache auf, weil sich daran gut demonstrieren lässt, wie unterschiedlich Skeptiker an vermeintlichen Hokuspokus herangehen, und inwieweit sie fähig sind, pfiffige Streiche als solche zu erkennen.

Zur Erinnerung: Manch ein Skeptiker beruft sich auf eine Metaphysik – den ontologischen Naturalismus beispielsweise – und neigt dazu, bei seinen Urteilen vorzugsweise Patentrezepten zu folgen nach dem Motto, dass nicht sein kann, was nicht sein darf. Skeptiker  in der Tradition der pyrrhonischen Skepsis und deren moderner Varianten vermeiden derartige schnelle Urteile nach Möglichkeit; sie sind überhaupt vorsichtig mit Urteilen aller Art (Markus Gabriel, 2008). Ein beherzigenswerter Leitsatz ist der Gerichtspraxis entlehnt: „Man muss gut zuhören können.“ (Steller, 2015).

Gunter Sachs hat sein datenreiches Buch 1997 vorgelegt. Die darin enthaltenen Statistiken erfassen sehr viele Fälle, in der Regel mehrere hunderttausend. In den Tabellen des Buches findet man beispielsweise, dass Mann und Frau mit demselben Tierkreiszeichen überdurchschnittlich oft einander heiraten. Das ist ein Zeichen, dass die Astrologie zu funktionieren scheint.

Nehmen wir als Beispiel die Widder-Menschen. Die folgende Tabelle zeigt: Von den insgesamt 358709 erfassten Paaren sind 33009 Männer und 32830 Frauen im Tierkreiszeichen Widder geboren. Würde die Paarbildung rein zufällig passieren, ergäben sich im Schnitt 33009×32830/358709 = 3021 reine Widder-Paare. Diese Zahl kommt so zustande: Der Anteil der Widder-Frauen unter den Frauen, die einen Widder-Mann heiraten, ist unter der Zufallsannahme etwa so groß, wie der Anteil der Widder-Frauen unter den Frauen insgesamt. Sei also x die Zahl der reinen Widder-Ehen, m die Zahl der Widder-Männer, f die Zahl der Widder-Frauen, und n die Zahl der Ehen und damit auch der Frauen insgesamt, dann gilt x/m = f/n. Also ist x = mf/n.

Die Statistik weist aus, dass es tatsächlich 3154 Widder-Paare sind, also 133 mehr als erwartet.

Die Tafel der Eheschließungen bezieht sich auf die Schweiz und die Jahre 1987-1994. Verblüffend ist, dass über die gesamte Tabelle gesehen zwischen den Tierkreiszeichen und den Eheschließungen ein Zusammenhang im Sinne der Astrologie erkennbar ist. Die Zusammenhänge sind zum Teil sehr deutlich. Der Wert der Prüfgröße für das Widder-Vierfelderschema ist beispielsweise gleich P = 7,09, und das zeichnet den Zusammenhang als signifikant auf dem 1 %-Niveau aus (Sachs, 1992).

Müssen die Astrologie-Skeptiker auf Grund dieser Zahlen ihr Weltbild revidieren? Jedenfalls hat das Buch des Gunter Sachs diese Gemeinde in erhebliche Unruhe versetzt. Da nicht sein kann, was nicht sein darf, hat man schnell Gegenargumente parat: Die Studie habe „methodische Mängel“ und außerdem könnten „irrelevante kleinere gruppenspezifische Besonderheiten im Jahresrhythmus“ schuld sein (Ponocny/Ponocny-Seliger, 2009).

Dabei ist die Aufregung unnötig. Es kommt nicht nur auf die Signifikanz eines Zusammenhangs an, sondern auch auf dessen Größe. Und daran mangelt es in diesem Fall. Die Vorhersagen der Astrologen sind zwar deutlich belegt, aber die Effekte sind klein.

Widder-PaareAngesichts der Kleinheit der zu erklärenden Effekte können selbst geringe Einflüsse eine große Rolle spielen. Mit der direkten Einwirkung der Sterne hat das alles nichts zu tun.

Interessant ist beispielsweise, dass 0,7 % der Verheirateten bezeugen, dass das Sternzeichen bei der Wahl des Partners eine Rolle gespielt hat, und 3,9 % geben zu, dass das „ein bisschen der Fall“ war. Und genau die Möglichkeit, dass selbsterfüllende Prophezeiungen hinter den Effekten stehen könnten, hat uns Gunter Sachs in seinem Buch auch verraten.

Manch ein Astrologiegegner war aber offenbar schon nach den ersten Seiten beim Gegenangriff. Er hat die Auflösung des Rätsels dann gar nicht mehr mitbekommen. An die Stelle des genauen Studiums traten Rätselraten und die Konstruktion eines „Erklärungsmodells“ mit passenden Daten gemäß der Vermutung, dass „bei der Paarbildung diese Kombination aus astrologischen Motiven von den Partnern als günstig angesehen wurde“ (Basler, 1998).

Mein persönliches Fazit aus der Analyse der „Akte Astrologie“:

  1. Size matters: Die von Sachs berichteten Effekte, nämlich die Abweichungen von dem rein zufällig zu Erwartenden, betragen nur wenige Prozent (im Widder-Fall 4 %). Das ermöglicht keine wirklich überzeugenden Prognosen.
  2. Die Astrologie funktioniert tatsächlich, und zwar im Sinne der selbsterfüllenden Prophezeiungen.

Zum Weiterlesen

Gunter Sachs: Die Akte Astrologie. 1997

Lothar Sachs: Angewandte Statistik. Anwendung statistischer Methoden. 1992

Ivo Ponocny, Elisabeth Ponocny-Seliger: Akte Astrologie Österreich. skeptiker 4/2009, S. 176-190

Herbert Basler: „Die Akte Astrologie“ von Gunter Sachs aus Sicht der Mathematischen Statistik. Skeptiker 3/1998, S. 104-111

Markus Gabriel: Antike und moderne Skepsis. 2008

Max Steller: Nichts als die Wahrheit? Warum jeder unschuldig verurteilt werdene kann. 2015

Veröffentlicht unter Bildungswesen, Korrelation und Kausalität, Naturwissenschaften, Prognosen, Skeptizismus, Statistik, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , , | 4 Kommentare

Oberflächenkompetenz und Tiefenscheinwissen

Die Welt bringt am 28.05.15 eine aufsehenerregende Meldung über den 50. „Jugend forscht“-Bundeswettbewerb: „Niedersächsin behandelt Bienen homöopathisch.“ Wenn es Bienen schlecht gehe, könne man es auch mal mit Homöopathie versuchen, meint die Jungforscherin. Sie hat drei von Varroamilben geplagte Völker ein Jahr lang mit einem homöopathischen Präparat behandelt. Aus den Stöcken seien vergleichsweise deutlich weniger tote Milben gefallen als aus Bienenstöcken, deren Bevölkerungen nur Zuckerwasser bekommen haben. „Es scheint zu funktionieren“, sagt die 18-Jährige über ihr Projekt.

Dieses Resultat ist weniger spektakulär als die Tatsache, dass es die Jungforscherin bis ins Finale des 50. Bundeswettbewerbs von „Jugend forscht“ geschafft hat. Bereits 2009 hatte es einen Preis für alternative Heilmethoden in neuer Anwendung gegeben: „Akupunktur bei Pflanzen“. In der Projektmitteilung von „Jugend forscht“ heißt es: „Bei Mensch und Tier erzielt die Akupunktur Heilerfolge. Energieströme sollen durch sie geleitet, umgeleitet und geöffnet werden.“ An den Naturwissenschaften sind diese Erkenntnisse weitgehend spurlos vorübergegangen.

An der Forschung zur Homöopathie und zur Akupunktur ist zunächst einmal nichts auszusetzen – selbst wenn die Themen im Grunde ausgelutscht sind. Die allgemein zugängliche und deutliche Beweislage besagt, dass die Erfolgsaussichten, wirklich neue Einsichten auf diesen Gebieten zu gewinnen, außerordentlich niedrig sind. Wenn überhaupt, hat nur derjenige eine Chance auf neue Ergebnisse, der über ein umfangreiches und tiefgehendes Fachwissen verfügt, der Versuche professionell planen und durchführen kann und dem dafür die erforderlichen Ressourcen in materieller und personeller Hinsicht zur Verfügung stehen. Jedenfalls scheint es von vornherein aussichtslos zu sein, sich einer solchen Sache als Jungforscher zu nähern.

War denn da kein Lehrer, der die angehenden Jungforscher gewarnt hat? Haben die Eltern versäumt, sie vor nutzlosem Treiben zu bewahren? Hat ihnen niemand gesagt, dass Studien mit sehr kleinen Stichproben keinerlei wissenschaftlich bedeutende Ergebnisse erbringen können? Oder geht es hier nur um Werbebotschaften?

Damit bin ich bei meinem Thema, nämlich bei den zwei Trends in der Bildung, die ich für bedauerlich halte: Oberflächenkompetenz und Tiefenscheinwissen.

Oberflächenkompetenz

Michael Berger ruft im aktuellen Journal des Fachbereichstags für Elektrotechnik und Informationstechnik zu mehr Bildung auf: „Die Fachhochschulen haben sich lange vor der Bologna-Reform von der Vermittlung von Rezeptwissen – zu wissen wie, aber nicht warum – verabschiedet[…] Der Abschied vom Rezept war sicher kein Fehler.“ Berger meint ferner, dass sich die Schüler (sozusagen befreit vom Rezeptwissen) auf das lnternet im Smartphone oder Tablet verließen. Unter Zugrundelegung wissenschaftlicher Maßstäbe könne man diese Art der lnformationsgewinnung nur als unzureichend und oberflächlich bezeichnen.

Mit dem allgemeinen Trend zur Oberflächlichkeit geht das sinkende Interesse von Schülern einher, einen Ingenieurstudiengang zu beginnen. Das folgende Vorkommnis an einer höheren Schule markiert so etwas wie den Endpunkt der Entwicklung. Ein Schüler weigert sich, die Integralrechnung zu lernen. Seine Begründung: „Auf meinem Taschenrechner gibt es das Integralzeichen.“

Der freudvolle Umgang mit Problemen aller Art – mathematischen, technischen oder auch alltagspraktischen – geht verloren. Wer jegliche Anstrengung vermeidet, wird niemals die Freude empfinden können, die mit einem selbst gelösten Problem einhergeht. Und er kann auch nicht den damit verbundenen tiefen Lerneffekt erfahren.

Die lebenserhaltende Fähigkeit der Stressbewältigung bleibt auf der Strecke (Hüther, 2005). Stattdessen wird Stressvermeidung geübt. Es bleibt bei einer Arbeit an der Oberfläche und dem damit verbundenen bescheidenen Lustgewinn. Es entsteht eine Art Oberflächenkompetenz, eine Kompetenz, die nicht auf einer aktiven Durchdringung des Gegenstands beruht. Die Kritikfähigkeit bekommt keine Entwicklungschance. Mehr darüber in „Oberflächenkompetenz und Konsumverhalten“ (2006).

Tiefenscheinwissen

Michael Berger schreibt weiter: „Ein zweiter Trend besteht in einer gewissen Selbstzufriedenheit mit dem eigenen Wissen. Die Studierenden glauben zum Teil schon in jungen Jahren, Wichtiges von Unwichtigem für ihre Zukunft und ihr Berufsleben unterscheiden zu können.“

Als ich einen meiner Studenten auf Mängel in seinem Computerprogramm hinwies, meinte er, dass sein Programm ausgereift sei. Oberflächliches Wissen geht mit Selbstgewissheit einher. Wer wenig weiß, kann sich seiner Sache ziemlich sicher sein.

Demgegenüber ist Wissenschaft durch Unsicherheit geprägt. Mit jeder Antwort auf eine Frage tun sich neue Fragen auf. Wissenschaftler zeichnen sich dadurch aus, dass sie mit solchen Unsicherheiten leben können.

Beim vordringenden Zeitgeist der Bequemlichkeit kommt diese Haltung aus der Mode. Das Selbstbild lässt sich auch mit einfachen Antworten auf schwierige Fragen vorteilhaft gestalten.

Darum geht es: Anstrengungslos Experte werden und Gewissheit erlangen. Da bieten sich Scheinerklärungen an. Bei der Akupunktur sind es irgendwelche okkulten „Energieströme“ und die Homöopathie beruht auf dem „geistartigen Wesen“ von Arzneisubstanzen. Das sind anstrengungslose Begründungen, die zur Beruhigung der Gemüter beitragen. Es ist metaphysisches Gedankengut, unüberprüfbares „Wissen“ über tiefer Liegendes; es sind einfache Antworten, die dem Fragen ein Ende machen. Das nenne ich Tiefenscheinwissen.

Metaphyisches Gedankengut findet sich nicht nur bei den Esoterikern. Die um sich greifenden Glaubenssysteme machen auch vor den „Skeptikern“ nicht halt, denn: Glauben ist einfacher als denken.

Eigentlich sind die „Skeptiker“ strenge Kritiker von Okkultem aus den Bereichen Homöopathie und traditionelle chinesische Medizin. Das dortige Tiefenscheinwissen wird heftig gegeißelt. Dabei wird angeprangert, dass Pseudowissenschaften nur unter dem Deckmantel der Wissenschaftlichkeit mit methodisch fragwürdigen Methodiken arbeiteten und ein Weltbild voraussetzten, welches dem ontologischen Naturalismus entgegenstehe.

Auch diese Leute haben ihr Tiefenscheinwissen. Sie glauben an die Prinzipien des ontologischen Naturalismus, beispielsweise daran, dass es keine Übernatur gebe und dass die Welt kausal geschlossen sei. Ein Pseudowissenschaftler setze ihrer Meinung nach ein völlig anderes Weltbild voraus und sei sich nicht bewusst, dass er sich unter dem Deckmantel der Wissenschaftlichkeit über deren „wahre Prinzipien“ hinwegsetze.

Der „Skeptiker“ hat demnach ein einfaches Rezept, wonach er Pseudowissenschaft als solche erkennen kann. Prüfstein ist sein Weltbild. Er argumentiert metaphysisch.

Im allgemeinen Sprachgebrauch ist der Begriff frei von Metaphysik. Unter Pseudowissenschaften versteht man nämlich „Behauptungen, Lehren, Theorien, Praktiken und Institutionen, die beanspruchen, Wissenschaft zu sein, aber Ansprüche an Wissenschaften nicht erfüllen“ (Wikipedia, Zugriff am 12.12.2015). Wissenschaft hat mit Transparenz, Falsifizierbarkeit, Diskussionsbereitschaft, Offenheit, Freiheit, also mit allerlei Diesseitigem zu tun. Diese Auffassung von Pseudowissenschaft kommt ohne Bezug auf irgendeine Ontologie aus. Aber sie macht Arbeit: Um die Spreu vom Weizen zu trennen, muss sich der Skeptiker in das anstrengende Geschäft der Wissenschaft begeben. Oberflächenkompetenz ist dabei ziemlich nutzlos und Tiefenscheinwissen hinderlich.

Zum Weiterlesen

Michael Berger: Mehr Bildung! Ein Aufruf zur Unzeit. FBTEI-Journal Wintersemester 2015/16

Timm Grams: Oberflächenkompetenz und Konsumverhalten. Trends im Bildungswesen – eine kritische Betrachtung. Erschienen in THEMA Hochschule Fulda 2/2006, S. 4-6

Felix von Cube: Gefährliche Sicherheit. Die Verhaltensbiologie des Risikos. 1995

Gerald Hüther: Biologie der Angst. Wie aus Stress Gefühle werden. 2005

 

Veröffentlicht unter Bildungswesen, Naturwissenschaften, Problemlösen, Schule und Hochschule, Skeptizismus, Statistik, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , | Schreib einen Kommentar

Die Patentrezepte der „Skeptiker“ und der Medizin-Nobelpreis 2015

Der gute Wille ist
keine Entschuldigung
für schlechte Arbeit.

Winston Churchill

Wir lieben einfache Lösungen. Wer wird schon den Werbebrief genauer studieren, der ihm Gewinn und Reichtum oder eine kostenlose Fernreise verspricht? Die Zeichen sind allzu deutlich: Abzocke droht – weg damit. Eine genauere Prüfung des Angebots ist entbehrlich.

„Skeptiker“ sind Großmeister einfacher Lösungen dieser Art. Sie kennen die Warnzeichen, die auf Pseudowissenschaften hinweisen: Yin Yang, Chi, geistartige Kräfte, Äther, Unvereinbarkeit mit den heute anerkannten Naturgesetzen usw. Diese Merkmale machen es ihnen leicht, Irrwege zu erkennen und sie von wahrer Erkenntnis zu unterscheiden.

Das ausgefeilteste Konzept, das in diese Richtung geht, ist das der Scientabilität von Christian Weymayr. Nach seiner Ansicht sind beispielsweise homöopathische Arzneimittel nicht scientabel. Weymayr meint damit, dass eine Überprüfung der Wirksamkeit dieser Mittel entbehrlich sei, da die Begründung für das zu Prüfende den Naturgesetzen widerspreche. Folglich sei ein Bestehen der Prüfung von vornherein auszuschließen ­(Die Homöopathie-Lüge“ – Ein Interview).

Schön wäre es, könnte man die Welt so einfach sortieren. Leider ist dem nicht so. Die „Skeptiker“ geraten in Gefahr, mit ihren einfachen Rezepten in Denkfallen zu stolpern.

Die Begründungsmuster der Traditionellen Chinesischen Medizin (TCM) eignen sich vorzüglich zur satirischen Herabwürdigung ihrer Rezepturen. Und diesem Geschäft widmen sich einige „Skeptiker“ mit großer Hingabe. Ich nehme an, dass sie damit großenteils auch richtig liegen. Aber wohl nicht immer. Hier ein paar Beispiele:

Große Aufregung erfasste diese „Skeptiker“, als der diesjährige Nobelpreis der Medizin an die chinesische Wissenschaftlerin Youyou Tu ging, die sich der TCM tief verbunden fühlt. Da nicht sein kann, was nicht sein darf, wird ein wahrer Eiertanz aufgeführt (Geht der Medizin-Nobelpreis 2015 an die Traditionelle Chinesische Medizin?). Der „Skeptiker“ fragt sich irritiert „Und das macht nun die pseudomedizinische TCM mit einem Paukenschlag salonfähig?“ und er gibt sich auch gleich die Antwort: „Man könnte sogar argumentieren, dass Youyou Tu gezeigt hat, wie unzureichend TCM ist.“ (Edzard Ernst, emeritierter Professor für Alternativmedizin)

Eingedenk der Umkehrung von Churchills Spruch – etwa so: Ein fragwürdiger Ansatz garantiert noch nicht den Misserfolg – wage ich den folgenden Kommentar.

Die (empirische) Wissenschaft hat zwei Seiten, nämlich die kritisch-rationale und die schöpferische. Karl Raimund Popper hat sein Hauptwerk dem – wie er es später nannte – kritischen Rationalismus gewidmet. Von dort aus hat er die Abgrenzung zur Metaphysik unternommen. Diese andere Seite hat er nicht tiefer ausgeleuchtet, aber ihm war wohl bewusst, dass auf der anderen Seite die Illusion, die Spekulation, der Zufall, der fruchtbare Irrtum, die Mystik zuhause sind, und dass diese Seite für den schöpferischen Prozess unverzichtbar ist. Ohne diese Seite wäre der kritische Rationalismus des Karl Raimund Popper sinnlos: Es gäbe ja nichts, was zur Falsifizierung anstehen könnte.

Alexander Flemings Entdeckung des Penicillins ist nicht weniger wert, nur weil er sie im Grunde der eigenen Schlamperei zu verdanken hat. Und die Erfinder des Telefons werden nicht gescholten, nur weil ihre Leistung letztlich auf einem Zufallsfund beruht – Serendipity eben.

Die kritisch-rationale Seite der Wissenschaft ist gut im Aufräumen und Optimieren. Aber wirklich Neues bringt der kritische Rationalismus nicht hervor. Manches von Belang entsteht nun einmal in einem mystischen und illusionären Umfeld, wie sogar Karl Raimund Popper zugesteht.

Vom TCM-Bashing hat keiner etwas. Wer sich ausdauernd über den „mystischen und pseudowissenschaftlichen Überbau der TCM“ aufregt, bringt die Wissenschaft nicht voran. Die Berufung auf das Geistartige ist eben nur ein Warnzeichen. Verlassen kann man sich nicht darauf, dass auf dem Hintergrund solcher Vorstellungen nur Blödsinn entsteht.

Einfache Lösungen sind in erster Linie eins: einfach. Wer sicher gehen will, prüft im Detail. Und die TCM wird kritisch geprüft, und zwar von kompetenter Seite, von den Kennern, wie dieser Artikel der New York Times andeutet:

http://www.nytimes.com/2015/10/11/world/asia/nobel-renews-debate-on-chinese-medicine.html

Veröffentlicht unter Logik, Problemlösen, Skeptizismus, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , | Schreib einen Kommentar

Pseudomathematik

Thy wish was father to that thought
William Shakespeare. Heinrich IV

Was nach Wissenschaft klingt, aber keine ist, nennen wir Pseudowissenschaft. Harald Walach beispielsweise betreibt Pseudowissenschaft, wenn er die Welt der Esoterik in wissenschaftliches Licht taucht. Er nutzt, wie er zugibt, nur die „wissenschaftliche Terminologie“, nicht etwa die Methoden und Erkenntnisse der Wissenschaft. Er gibt also vor, ein Spiel nach bestimmten Regeln zu spielen; dabei hat er gar nicht vor, diese einzuhalten.

Dasselbe kann man mit Mathematik machen: Pseudomathematik klingt wie Mathematik, ist aber keine.

Um das Feld einzugrenzen, um das es hier geht, stelle ich klar: Ich spreche nicht von den notorischen Fehlern in Herleitungen und Formeln, die bei nächster Gelegenheit bereinigt werden. Denn: Zum Werkzeug des Mathematikers gehören Papier, Bleistift und ein großes Radiergummi. Das Studium notorischer Fehler ist ein grundlegendes pädagogisches Prinzip: Aufgedeckte Fehler sind lehrreich, wie Walter Lietzmann in „Wo steckt der Fehler“ schreibt. Ich gebe ein klassisches Beispiel für diese Art von Fehlern: a2a2 lässt sich auf mehrerlei Arten darstellen, beispielsweise so: a(aa) oder auch so: (a+a)(aa). Also ist a(aa) = (a+a)(aa). Wir kürzen den Faktor aa heraus und erhalten a = 2a. Jede Zahl ist also ihrem Doppelten gleich. (Nicht immer springt einem die unerlaubte Division durch null so ins Gesicht wie hier.)

Also: Um diese Art von Fehlern geht es mir nicht. Für viel wichtiger halte ich die weit verbreitete grundlegende Fehlauffassung von mathematischen Konzepten. So etwas nenne ich Pseudomathematik.

Ich beginne mit einem Beispiel, bei dem schon die Aufgabenstellung falsch in Formeln umgesetzt wird, nach dem Motto: Wenn du nicht beweisen kannst, was du beweisen willst, dann demonstriere etwas anderes und behaupte, es sei dasselbe. Der Problemlöser macht sich sozusagen an einem Stellvertreter zu schaffen, der leichter zugänglich ist als das Original, und gibt vor, das schwere Problem zu lösen.

So etwas finden wir beispielsweise in Konsumstudien, wenn die in der Stadt angetroffenen Besucher als repräsentativ für die Bürger des Einzugsbereichs gelten, oder auch in öffentlichen Statistiken, wenn die Absolventenquote eines Jahrgangs als Absolventenquote aller Schüler oder Studenten einer Kohorte ausgegeben wird.

Umtauschparadoxon und Ziegenproblem

Ein Stück Pseudomathematik habe ich auf der Suchliste zum Stichwort „Umtauschparadoxon“ gefunden:

http://www.reiter1.com/Glossar/Umtauschparadoxon.html.

Die gute Google-Platzierung spricht dafür, dass die hier angebotene einfache Lösung allgemeinen Beifall findet. Hier der Text.

Jemand erhält einen Briefumschlag. Ihm wird gesagt, dass es insgesamt 2 Umschläge gibt, wobei im einen doppelt so viel Geld drin ist wie im anderen.

Frage: Soll er den Umschlag behalten, oder gegen den anderen umtauschen?

Die naive Rechnung lautet: Seien die beiden Beträge x und 2x. Bei Tausch erhält man zu jeweils 50% Wahrscheinlichkeit den doppelten bzw. den halben Betrag, also 0.5x/2 +0.5×2x = 1.25x. Man gewinnt demnach bei Tausch statistisch im Mittel 25% dazu.

Dass das Umtauschparadoxon in Wahrheit gar kein Paradoxon ist, erkennt man, wenn man das Rätsel anders formuliert, ohne es mathematisch und logisch zu verändern: Jemand erhält 2 Briefumschläge. Ihm wird gesagt, dass im einen doppelt so viel Geld drin ist wie im anderen.

Welchen soll er nehmen?

Hier erkennt man, dass der Beschenkte gar keinen gezielten Einfluss auf den erzielten Gewinn haben kann, denn die beiden Umschläge sind völlig gleichberechtigt. Er kann nur den einen oder anderen wählen.

Hier gilt die folgende Rechnung: 0.5x + 0.5×2x = 1.5x. Das jetzige x bezieht sich auf den kleineren Betrag, von dem man nicht weiß, in welchem Brief er steckt.

Das x in der naiven Rechnung weiter oben dagegen bezieht sich auf den unbekannten Betrag, welcher in dem Umschlag ist, den der Beschenkte gerade in Händen hält.

Allerdings wird in der naiven Rechnung die Bezugsbasis gewechselt: Das erste x geht davon aus, dass man den Brief mit dem größeren Betrag in Händen hält, während das zweite x davon ausgeht, dass man den Brief mit dem kleineren Betrag in Händen hält.

Ferner ist in der naiven Rechnung von 0.5x und 2x die Rede, was ja um Faktor 4 auseinander liegt, was für sich genommen schon der Ausgangsformulierung widerspricht.

Deshalb ist das Ergebnis 1,25x ohne jegliche Bedeutung.

Dem Autor ist das passiert, was man die „Leugnung des Problems durch Umformulierung“ nennen könnte. Wenn er schreibt „Hier gilt die folgende Rechnung: 0.5x + 0.5×2x = 1.5x“, so hat er die eigentliche Aufgabe aus den Augen verloren. Ohne nähere Begründung – und auch ohne das so zu benennen – gibt er die Gewinnerwartung an. Aber danach war gar nicht gefragt. Gefragt war, ob es sich lohnt zu tauschen.

Den interessierten Leser, der sich dem Umtauschparadoxon nähern will und der sich mit derartigen Kurzschlüssen nicht zufrieden gibt, den verweise ich auf meine Denkfallen-Seite.

Eine ganz ähnliche Leugnung des Problems wie hier ist mir im Zusammenhang mit dem sogenannten Ziegenproblem begegnet.

Nun wende ich mich einem anderen Bereich der Pseudomathematik zu: Fehlerhafte Herleitungen von Hypothesenwahrscheinlichkeiten und Fehlauffassungen zu Konfidenzintervallen in der schließenden Statistik. Denn eins zeigt sich immer  wieder: Auch geübte Statistiker wechseln ohne Vorwarnung von der  Testtheorie zur Bayes-Schätzung und wieder zurück und beachten nicht, dass  jeweils ganz verschiedene Voraussetzungen gelten.

Die „exakten“ Konfidenzintervalle nach Clopper und Pearson

Es gibt Leute, die behaupten, dass sich das Wissen der Menschheit alle sieben Jahre verdoppele. Diese Leute messen wohl nur die Berge an Papier oder Textzeilen, die produziert werden. Meiner Meinung nach irren sich diese Leute.

Lehrbuchautoren pflegen von anderen abzuschreiben. Und da sich einfache „Beweise“ leichter „verkaufen“ lassen als komplizierte, breiten sie sich auf dem Lehrbuchmarkt auch schneller aus.

Leichtfassliches hat einen Selektionsvorteil. Scheinwissen, das den Schülern und Studenten mit geringem kognitiven Aufwand nahe gebracht werden kann, hat eine größere Wachstumsrate als das Schwerverdauliche. Die einfache und plausible, wenngleich logisch und mathematisch windige Herleitung hat im Darwinschen Überlebenskampf der Ideen die besseren Karten.

Durch diesen Mechanismus werden wertvolle Erkenntnisse zugeschüttet. Das gewaltige Wissenswachstum ist in vielen Bereichen nur vorgetäuscht.

Das habe ich bereits während meiner Studienzeit bemerkt, als ich in einem weit verbreiteten damals aktuellen Lehrbuch der Variationsrechnung (Gelfand/Fomin) einen fehlerhaften Beweis entdeckte. Erst später las ich, dass dieser Fehler in der Fachliteratur unter dem Titel „Irrtum von Lagrange“ bereits aktenkundig war. Aber unter den Lehrbuchschreibern hatte der korrekte langwierige Beweis offensichtlich keine Verbreitungschance.

Vor einigen Jahren begegneten mir die in Statistikerkreisen gut bekannten Formeln für die Schätzung einer Wahrscheinlichkeit von Clopper und Pearson. Diese Formel und besonders die zugehörige Herleitung erschienen mir ziemlich dubios

Diese Formeln werden in vielen Lehrbüchern – beispielsweise auch in dem zu meinen Studienzeiten beliebten Buch von Heinhold und Gaede – als „exakte“ Vertrauensgrenzen nach Clopper und Pearson ausgegeben. Auch in dem von mir geschätzten Buch „Qualität und Zuverlässigkeit technischer Systeme“ von Birolini habe ich die Formeln samt „Herleitung“ gefunden.

Ich bin meinen Zweifeln auf den Grund gegangen und habe ein Programm geschrieben, das bei vorgegebener Wahrscheinlichkeit p mir eine Reihe von möglichen Stichproben der Größe n zieht. Für jeden der Versuche habe ich also die zufällige Trefferzahl k ermittelt. Zu jedem dieser Werte k und n habe ich dann das Konfidenzintervall nach den Formeln von Clopper und Pearson errechnet. Als Aussagewahrscheinlichkeit 1-b1b2 habe ich 95% gewählt. Genauer: b1 = b2 = 2.5%.

Das Ergebnis von hundert solcher Versuche ist in der folgenden Grafik für die Wahrscheinlichkeit p = 0.07, und die Stichprobengröße n = 10 dargestellt. Der exakte Wert p müsste in etwa 5% der Fälle außerhalb des Intervalls liegen. Tatsächlich wird der exakte Wert aber von allen hundert Intervallen überdeckt.

151002ClopperPearsonDas kann Zufall sein. Also habe ich 100 000 Versuche gemacht. Anstelle einer „Daneben-Rate“ von 5% komme ich auf etwa 3 Promille. Der tatsächliche Wert ist also um wenigstens den Faktor zehn kleiner als die angebliche Aussageunsicherheit.

Bei anderen Zahlenkombinationen sind die Abweichungen von den Clopper-Pearson-Vorgaben nicht ganz so drastisch. Aber die tatsächliche Daneben-Rate ist stets signifikant geringer als die „exakte“ Vorhersage nach Clopper und Pearson.

Immer noch zweifelte ich an meinen Zweifeln. Wenn die Formeln falsch sind, dann muss sich das in der Literatur niedergeschlagen haben. Also bin ich ins Internet. Bereits der dritte Google-Eintrag zu Clopper und Pearson förderte ein Papier zutage, das meine Daten bestätigte. Dort finde ich auch den Satz: „Nun ist seit langem bekannt, dass die Clopper-Pearson-Intervalle die zugelassene Irrtumswahrscheinlichkeit bei weitem nicht ausschöpfen, was zu unnötig langen Intervallen führt.“ (Johannes Gladitz in den RZ-Mitteilungen Nr. 9 vom Dezember 1994. Titel der Schrift: Fudizialintervalle für den Parameter der Binomialverteilung mit SPSS 6.0 für Windows.)

Mir scheint, dass Clopper und Pearson auf der Basis falscher Annahmen zufällig Formeln gefunden haben, die als pessimistische Schätzungen durchgehen können.

Ich stelle nun mit gestärkter Überzeugung fest, dass manche der in den Lehrbüchern vorgebrachten Gründe oder „Herleitungen“ für Konfidenzintervalle und Hypothesenwahrscheinlichkeiten sich nur als Mathematik ausgeben. Einen weiteren Beleg für derartige Pseudomathematik findet der Leser auf meiner Denkfallen-Seite unter dem Stichwort Software-Verifikation und –Test. Die hier aufgespießte Pseudomathematik nimmt sich auch Gerd Gigerenzer in seinem gut lesbaren Aufsatz „Die Evolution des statistischen Denkens“ vor (Unterrichstswissenschaft 32(2004)1, S. 4-22).

Es gibt Leute, die behaupten, dass sich das Wissen der Menschheit alle sieben Jahre verdoppele. – Diese Ansicht ist zu bezweifeln.

Veröffentlicht unter Bildungswesen, Logik, Schule und Hochschule, Skeptizismus, Statistik, Stellvertreterstatistik, Wahrscheinlichkeitsrechnung, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , , , , , | 3 Kommentare