Quantenmystik

„Fragt man sich unbefangen, wie die Wissenschaft ihre heutige Gestalt bekommen hat […], so erhält man schon ein anderes Bild. Nach glaubwürdiger Überlieferung hat das im sechzehnten Jahrhundert, einem Zeitalter stärkster seelischer Bewegtheit, damit begonnen, daß man nicht länger, wie es bis dahin durch zwei Jahrtausende religiöser und philosophischer Spekulation geschehen war, in die Geheimnisse der Natur einzudringen versuchte, sondern sich in einer Weise, die nicht anders als oberflächlich genannt werden kann, mit der Erforschung ihrer Oberfläche begnügte.“
Robert Musil, „Der Mann ohne Eigenschaften“, 1933, Kap. 72

Gerade erhalte ich die Einladung zum nächsten Fuldaer ZukunftsSalon. Dr. Michael König soll zur „Quantenphysik des Lebens“ sprechen. Versprochen wird die Aufhellung der Hintergründe zu einem „Paradigmenwechsel in den Natur- und Geisteswissenschaften“. In der beigefügten Literaturliste ist die Rede von der „Physik Gottes“ und von „Quantenheilkunde“. Im Begleittext steht etwas von „ganzheitlichen Gedankenansätzen“, „neuer Physik“ und „komplementärer Medizin“.

Das erinnert mich an die ganzheitliche Physik des renommierten Physikers Hans-Peter Dürr, Träger des alternativen Friedensnobelpreises.  Diese ganzheitliche Physik wirkt  auf den ersten Blick seriös. Sie ist mir eine genauere Betrachtung wert.

Im Folgenden beziehe ich mich auf das fast zweistündige Video „Hans-Peter Dürr über ganzheitliche Physik“ und auf die „Potsdamer Denkschrift 2005“, deren Mitverfasser Dürr ist. Beide Werke sind im Internet frei zugänglich. Außerdem ziehe ich Dürrs Buch „Geist, Kosmos und Physik“ von 2011 zu Rate.

Ein erster Verdacht

Es fällt auf, dass in Dürrs Reden und Schreiben immer wieder dieselben Reizwörter auftauchen: neues Denken, Freiheit, Liebe (gern auch in Verbindungen wie „liebendes Herz“ und „liebender Dialog“), Verantwortung, kooperatives Denken (das dann auch schon mal „neu verbunden“ sein darf). Ständige Wiederholungen sind eine bekannte Masche der Werbeleute. Und auch das weiß der Werbemann: Wörter mit positiven Assoziationen machen den Adressaten gefügig. Das alles sind geläufige Manipulationstechniken.

Über weite Strecken kommt Dürr dem Leser mit solcherlei rosarotem Eiapopeia.  Das sichert ihm einen prominenten Platz in den Esoterik-Ecken der Buchhandlungen. Das Buch „Geist, Kosmos und Physik“ ist denn auch in einem Verlag erschienen, der Neues Denken, Mystik, weibliche Spiritualität und Lebenshilfe im Programm hat. – Das ist nicht weiter schlimm. Man wird ja nicht gezwungen, dieses Zeug zu kaufen. Aber das nähere Studium zeigt: Die sanfte Oberfläche täuscht; es kommt noch ziemlich dicke, und Dürrs Publikum sollte auf starke intellektuelle Zumutungen gefasst sein.

Die Steigerung: Eingriffe des Mikrokosmos ins reale Leben

Dürr baut seine neue Weltsicht auf der Erkenntnis auf, dass die Physik heute nicht mehr mit unserem Sensorium und Denkapparat, die auf die uns zugängliche Welt der mittleren Entfernungen und Geschwindigkeiten zugeschnitten sind, erfasst werden kann. In diesem unserem Mesokosmos erfahren wir die Materie als Basis alles Begreifbaren.

Die Quantenphysik zeigt nun aber, so lautet Dürrs durchaus wohl zulässige Interpretation der Quantenphysik, dass Materie nicht aus Materie zusammengesetzt ist. Und dann fährt er kühn fort: „Am Grund bleibt nur etwas, was mehr dem Geistigen ähnelt – ganzheitlich, offen, lebendig, Potenzialität“ (Dürr, 2011, S. 33). „Wir sind alle Teile dieses selben Einen, derselben Potenzialität, auf der wir gemeinsam gründen“. (S. 37)

Dieses Geistige können wir nicht wahrnehmen und bleibt letztendlich für immer verborgen. Dieses für unseren Geist prinzipiell unerreichbare Eckchen ist für Dürr nun das letzte Refugium für Gott: „Der Glaube wird durch das neue [durch die Quantenphysik befeuerte] Denken von seiner Lückenbüßerrolle befreit, in der ihm jeweils nur noch überlassen bleibt, was bis zu diesem Zeitpunkt ‚noch nicht gewusst‘ wird. Das Wissbare erfährt in der neuen Weltsicht eine prinzipielle Einschränkung. Dadurch erhält der Glaube wieder seine volle Bedeutung und eigenständige Wertigkeit zurück.“ (Dürr, 2011, S. 17)

Und jetzt kommt es: Gott – oder besser gesagt: das Geistige – ist nicht gefangen. Es gibt ein Hintertürchen, über das es in unsere Realität hineinwirken kann. Und das soll so vor sich gehen: In unserem Mesokosmos gibt es Momente der Instabilität, wie beispielsweise bei einem vertikal auf eine Ebene gestellten sehr dünnem Stab oder einem auf dem Kopf stehendem Pendelstab. Wie er fällt, scheint dem Zufall überlassen zu sein. Aber nein: Für Dürr ist das ein Moment höchster Sensibilität. Solche Instabilitäten bilden das Tor, durch das die Mikrowelt  in unser reales Leben, in die uns sensorisch und gedanklich zugängliche Realität eintreten kann. „In der Instabilitätslage, dem Punkt höchster Sensibilität ‚spürt‘ das Pendel, was in der ganzen Welt los ist […] Es ‚erlebt‘ jetzt dieses Hintergrundfeld, die Potenzialität […] Das Pendel wird an diesem Punkt ‚lebendig‘. Es tritt in Kontakt mit dem Informationsfeld des Ganz-Einen.“ (S. 67)

„Die von der Sonne zugestrahlte hochgeordnete Energie […] wird […] zu einer ordnenden Hand, wenn ihre Energie sich von der kreativen Potenzialtät im Hintergrund leiten lässt, die vermöge von Instabilitäten in die Mesowelt durchstoßen kann.“ (S. 42) Und damit ist klar: „Das Fundament unserer Wirklichkeit ist nicht die Materie, sondern etwas Spirituelles.“ (S. 45) Der Empfängliche gelangt zu einer „mystischen Teilhabe an der lebendigen, unauftrennbaren Advaita [Einheit von göttlicher Kraft und Seele], dem Urquell des Kosmos“ (S. 112).

So bekommen alle möglichen Religionen und Glaubenssysteme, vom Buddhismus bis zur Anthroposophie, aber auch die Denksysteme totalitärer Regime, die geeigneten Begriffe geliefert, so dass sie sich scheinbar problemlos an die Physik anflanschen und Bedeutung heraussaugen können.

Aber was geboten wird, ist Mystik und reine Spekulation. Es hat mit den nur noch mittels Mathematik mitteilbaren neuen Erkenntnissen der Physik so gar nichts zu tun!

Es kommt noch schlimmer: Vom Sein zum Sollen

Dürr meint nun sogar, das Sollen, die Moral aus seinem Verständnis der Quantenphysik und mittels des „neuen Denkens“ herleiten zu können:  „Aus dem neu gewonnenen (aber schon alten) Wissen über die Welt erschließt sich uns eine Ethik […] Hier ist der Mensch – wie Natur – nicht bloße ‚Biomaschine‘, sondern ureigenst ‚kreatürlich‘ eingebunden in einem sich genuin-differenzierenden und fortlaufend weiter entfaltenden Lebensprozess“ (Denkschrift).

Und weiter: „Ein immer lebendigeres Sein, ein fortdauerndes Werden tritt an die Stelle eines erstarrten Habens-Wohlstandes, und das Individuum gewinnt wachsende Offenheit in seiner intensiven Teilhabe und seiner Zeit und Raum übergreifenden Einbettung in den Lebensverbund der Erde. Erst dieses dynamische Wechselspiel zwischen den Menschen und ihrer lebendigen Mitwelt ist wirklich wohlstandsschaffend und fordert und fördert den Menschen in seinem ganzen Wesen.“

„Wir sollten die Teilhabe an der lebendigen Welt in Freude annehmen und im vollen Bewusstsein daran verantwortungsvoll im Sinne eines ‚das Lebende lebendiger werden lassen‘ (was letztlich ‚Nachhaltigkeit‘ meint) handeln.“

„Dem muss und kann ein neues Denken folgen […] Unter dem Einfluss eines wirklich neu verbundenen, dezentral-kooperativen Denkens werden sich unsere ökologischen, ökonomischen, kulturellen, sozialen und auch persönlichen Beziehungen miteinander und mit der komplexen Geobiosphäre verwandeln und in neuem Handeln äußern, welches dann den bisher stetig steigenden Krisen- und Gefährdungsstrategien unserer modernen Geschichte wirkungsvoll begegnen kann.“ (Denkschrift)

Das könnte man für harmlose Gemeinplätze halten. Aber hoppla! Spätestens beim „Weltbewusstsein“ sollten die Alarmglocken läuten. Damit bezeichnet die Denkschrift auf Seite 8 den kostbaren und unersetzlichen Beitrag, den der Mensch zur Evolution, zum Weltengang leisten könne.

Wir müssen fragen, wie diese neue Ethik in einer pluralistischen Gesellschaft durchgesetzt werden soll? Wie sieht das Programm konkret aus, und wie soll es wirksam werden? Dafür gibt es Beispiele.

Wir erinnern uns an die Gesellschaftsentwürfe des letzten Jahrhunderts mit ihren katastrophalen Konsequenzen. Auch diese beriefen sich jeweils auf ein neues Denken und auf absolute Ideen. Was dem einen System das „innerste Wollen der Natur“ war, boten dem anderen die „Bewegungsgesetze der modernen Gesellschaft“.

Dass das Zusammenleben der Juden, Christen, Moslems, Atheisten, Esoteriker und der vielen anderen Menschen bei uns heute halbwegs störungsarm funktioniert, liegt an der durch Gewaltenteilung und durch Checks and Balances doch ziemlich oberflächlich strukturierten pluralistischen Gesellschaft. Jedwede Metaphysik, die alle bewegen und vereinnahmen will, ist aus der Mode gekommen und zunehmend ins Private abgedrängt worden.

Täuschung und Selbstbetrug

Wahrheit und Unterbewusstsein

Auch die Verfasser der Denkschrift müssen darauf gekommen sein, welche schrecklichen Schlussfolgerungen drohen, wenn sie ihr System zu Ende denken und ihre Vorschläge konkretisieren.

Deshalb bleiben sie im Allgemeinen und überlassen das Zuendedenken dem Publikum. Aber dieses Publikum wird gründlich getäuscht: Es erhält scheinbar physikalische Begründungen für seine Vorurteile und Glaubenssysteme. Und damit erreichen die Autoren möglicherweise das Gegenteil dessen, was sie anstreben, nämlich eine Radikalisierung: Liebe gesät, Zwietracht geerntet.

Der konsequente Verzicht auf Konkretisierungen, der an Dürrs Werk so ins Auge fällt, könnte die Folge einer Art Selbstbetrug des Autors sein: Robert Trivers („Deceit and Self-Deception“, 2011)  meint, dass man andere besser täuschen kann, wenn man die Wahrheit vor sich selbst verbirgt, sie sozusagen im Unterbewusstsein verstaut.

Veröffentlicht unter Naturwissenschaften, Physik, Spiritualität, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , | 3 Kommentare

Fraktale allerorten: Wissenschaft mit Schmackes

Ein Lob dem  Marktschreier

Der schwarze Schwan von Nassim Nicholas Taleb beschäftigt mich noch immer. Ich mag dieses Buch („The Black Swan“, 2007). Ich mag es, obwohl viel dummes Zeug drin steht und obwohl es vor Übertreibungen und Beschimpfungen strotzt. Vielleicht mag ich es gerade deshalb. Die Marktschreierei und der blühende Blödsinn sind so offensichtlich, dass sie schlimmstenfalls zu einem leicht erhöhten Blutdruck führen und sich aufmerksamkeitssteigernd, also dann doch durchaus positiv auswirken. Schon in meinem Blog-Artikel „Mensch ärgere dich“ sprach ich davon. Hier lege ich noch eins drauf.

Ich will auf Talebs Kernthema eingehen, nämlich auf die fraktalen Verteilungen, mit denen wir es seiner Meinung nach auf den meisten Gebieten unseres Lebens zu tun haben. Taleb entdeckt sie bei der Verteilung der Vermögen oder der Einkommen der Bürger eines Landes, bei den Verkaufszahlen von Büchern, bei Unfall- und Kriegsfolgen, im Zusammenhang mit terroristischen Attacken, in Börsennotierungen und bei vielen weiteren Erscheinungen.

Hinter all der Marktschreierei steckt einiges an nützlicher Mathematik. In Talebs populärwissenschaftlicher Darstellung mathematischer Zusammenhänge habe ich keine Fehler entdeckt. Die gesteigerte Aufmerksamkeit beim Lesen weitete meinen Blick und förderte das Nachdenken über Tragweite und Grenzen mathematischer Modellbildung.

Wiederbelebung eines aus der Mode gekommenen Themas

Im Grunde geht es in Talebs Buch um eine Klasse von Kurven, die seiner Meinung nach geeignet sind, alle der oben genannten Phänomene und noch viel mehr angemessen zu beschreiben.

Diese Kurven zeichnen sich durch eine Art Selbstähnlichkeit aus, sie sind in diesem Sinne fraktal. Die nebenstehende Grafik zeigt eine solche Kurve. Ihr Definitionsbereich liegt in Intervall von 0 bis 1 und ihr Wertebereich ebenso. Die Kurve wächst ausgehend vom Ursprung monoton bis zum Wert 1. Die Tangente an die Kurve und die waagrechte Linie durch den Berührungspunkt schneiden aus der rechten Begrenzungslinie die Abschnitte A und B aus (s. Grafik).  Die Kurve ist nun dadurch charakterisiert, dass das Verhältnis B/(A+B) für alle Punkte der Kurve dasselbe ist. Ich führe dafür die Konstante Epsilon ein: ε = B/(A+B).

Was ist an dieser Kurve fraktal? Wenn man die Grafik „herunterbricht“, indem man unten oder links von der Grafik etwas weglässt, dann bleibt die ε-Eigenschaft der Kurve erhalten. Insofern sind alle Teile der Kurve „selbstähnlich“. Allerdings ist das eine ziemlich triviale Art der Selbstähnlichkeit; denn sie ist einfach eine Folge der Tatsache, dass für die formbestimmende ε-Eigenschaft nur die rechte obere Ecke eine Rolle spielt, und dass uns diese Ecke beim „Herunterbrechen“ als Orientierungspunkt erhalten bleibt.

Mit der etwas weit hergeholten Terminologie gelingt Taleb der Anschluss an die „Chaostheorie“. Und diese Theorie löst bei Taleb ein wahres Feuerwerk der Begeisterung aus: Der Schöpfer der „Apfelmännchen“, Benoît Mandelbrod („The Fractal Geometry of Nature“, 1982), ist für ihn „einer der einflussreichsten Mathematiker in der Geschichte“, wohingegen Leute, deren Augen sich dieser Welt nicht geöffnet haben, für ihn Scharlatane sind, die nichts besseres zu tun wüssten, als ihre Studenten einer Gehirnwäsche mittels gaußscher Glockenkurve und ähnlicher Betrügereien zu unterziehen.

Das Gebiet des Chaos und der Fraktale ist an Marktschreiern nicht gerade arm. Dennoch ist es seit seiner Blütezeit in den Achtzigerjahren des letzten Jahrhunderts etwas aus der Mode gekommen. Es hat den verkündeten Anspruch nicht einlösen können, Erklärungen für alles Mögliche zu liefern. Übrig geblieben ist eine hübsche Spielerei, die jedenfalls schön anzusehen ist, die aber lediglich oberflächliche Computersimulationen für komplexe Erscheinungsformen des belebten und unbelebten Universums bieten kann.

Anwendung Lorenzkurve

Sehen wir vom marktschreierischen Chaos-Marketing einmal ab, so bleibt uns doch eine klar umrissene Klasse von Funktionen. Und wir erhalten von Taleb Hinweise darauf, inwieweit diese Kurven sich zur Beschreibung und Modellierung von Phänomenen eignen könnten, die mit dem üblichen Standardinstrumentarium kaum zu erfassen sind. Die Wertschätzung, die Taleb den „fraktalen“ Verteilungen entgegenbringt, hat nämlich einen tieferen Grund: Diese Verteilungen lassen Ausreißer zu —  „schwarze Schwäne“ in Talebs Sinn. Beispielsweise verfügte im Jahr 2009 die Hälfte der deutschen Haushalte über ein monatliches Nettoeinkommen von höchstens 1311 Euro (Wochenbericht des DIW Berlin Nr. 24/2010). Daneben gibt es Leute mit einem monatlichen  Einkommen von mehreren Millionen Euro. Die Superreichen sind zwar äußerst selten, aber eben keineswegs ausgeschlossen. Mit einer unterstellten Normalverteilung der Einkommen ist das jedenfalls nicht vereinbar, mit der fraktalen Verteilung schon.

Neu ist das alles nicht. Die Lektüre von Talebs Buch hat mich an einen Aufsatz von F. J. Radermacher zum Thema „Globalisierung“ (Informatik-Spektrum 6/2002) erinnert, in dem er die Klasse fraktaler Funktionen für die Charakterisierung der Ungleichverteilung von Einkommen in den Staaten dieser Erde verwendet. Sein Ausgangspunkt ist die Armutsdefinition der Europäischen Union. Nach dieser Definition gelten Menschen als arm, wenn sie über weniger als das halbe Durchschnittseinkommen verfügen.

Nun setzt Radermacher eine fraktale Einkommensverteilung voraus: Es mögen in einem bestimmten Land der Ärmste nur über einen Bruchteil ε des Durchschnittseinkommens verfügen. Lässt man nun alle Menschen weg, die über weniger als ein bestimmtes Einkommen verfügen, dann gilt für die übrigbleibende Population der Reicheren dasselbe: Der Ärmste unter ihnen verfügt über einen Bruchteil ε des Durchschnittseinkommens dieses reicheren Teils der Bevölkerung.

Für die Beschreibung der Einkommensverteilung einer Volkswirtschaft eignet sich die Lorenzkurve: Für jede nichtnegative Zahl x kleiner als eins teilen wir die Bevölkerung Ärmere und Reichere auf derart, dass die Ärmeren insgesamt einen Bruchteil x der Gesamtbevölkerung ausmachen. Der Anteil dieser Bevölkerungsschicht am Gesamteinkommen wird mit F(x) bezeichnet. In der grafischen Darstellung ergibt sich daraus die Lorenzkurve. Eine fraktale Einkommensverteilung führt zu einer fraktalen Lorenzkurve der oben gezeigte Art. Die Konstante ε nennt Radermacher Equity-Faktor.

Der Zusammenhang zwischen der fraktalen Einkommensverteilung und der fraktalen Lorenzkurve wird klar, wenn man bedenkt, dass die Steigung der Lorenzkurve proportional zum Einkommen der durch den x-Wert repräsentierten Bevölkerungsschicht ist und dass der Proportionalitätsfaktor der Anteil dieses Einkommens bezogen auf das mittlere Einkommen derjenigen ist, deren Einkommen wenigstens genauso groß ist.

Aber eins ist gewiss: Die Anpassung einer fraktalen Kurve an eine Einkommensstatistik ist kein zwingender Prozess mit eindeutigem Ergebnis: Je nach Anpassungsverfahren ergeben sich für dieselben Daten im Allgemeinen verschiedene Equity-Faktoren und damit auch verschiedene Lorenzkurven. Ob es gerechtfertigt ist, überhaupt eine fraktale Kurve anzusetzen oder ob man besser einen anderen Ansatz wählt, muss Gegenstand einer genauen Prüfung sein. Jedenfalls ist es nicht gerechtfertigt, die Selbstähnlichkeit als naturgegeben hinzunehmen. Chaos-Klamauk hilft da nicht weiter. Die fraktalen Kurven bilden nur einen von vielen möglichen Beschreibungsansätzen.

In der Studie „Lorenzkurven, Equity-Faktoren und schwarze Schwäne“ habe ich die mathematischen Hintergründe des „Schwarzen Schwans“ und des Equity-Ansatzes etwas ausführlicher dargestellt.

Emotionen in der Wissenschaft

Emotionen haben in der Welt der Wissenschaft einen schlechten Ruf. Aber sie können dem wissenschaftlichen Diskurs auch gut tun. Mit Verve vorgetragene Überzeugungen haben große Chancen, Gehör zu finden. Und manche wissenschaftliche Aussage bleibt im kollektiven Gedächtnis haften, weil im Streit auch einmal Unhaltbares, Skurriles, Kurioses oder Polemik im Spiel war. Ein paar Beispiele:

  1. Der Streit um die Bedeutung der Fraktale findet in Talebs Buch „The Black Swan“ einen späten Nachhall. Die Sache hatte sich eigentlich schon anfangs der Neunzigerjahre erledigt, unter anderem mit dem Aufsatz „Chaos, Fraktale und das Bild der Mathematik in der Öffentlichkeit“ von Klaus Steffen (DMV Mitteilungen 1/1994, S. 25-40).
  2. In der Ausstellung „WeltWissen – 300 Jahre Wissenschaften in Berlin“, die 2010 im Martin-Gropius-Bau in Berlin im Jahr 2010 stattfand, gab es im Raum zum Thema „Streit“ eine Tafel mit diesem Text: „»Der ist wohl die Puderquaste in den Nachttopf gefallen.« So die einzig überlieferte Reaktion im Publikum auf einen Vortrag der Medizinerin Rahel Hirsch 1907 vor der Gesellschaft der Ärzte der Charité. In ihren Ausführungen hatte sie – entgegen der herrschenden Lehrmeinung – nachgewiesen, dass größere, feste Partikel durch die Schleimhaut des Dünndarms gelangen und als Fremdkörper über den Harnweg ausgeschieden werden können.“
  3. In der Unterhaltungsmathematik gab es vor vielen Jahren ein Leserbriefscharmützel zum Drei-Türen-Problem. Nachdem Marilyn vos Savant in ihrer Kolumne die korrekte Lösung vorgestellt hatte, wurde sie mit Spott überschüttet: „Unsere Fakultät hat herzlich über Sie gelacht“, „Vielleicht haben Frauen eine andere Sicht auf mathematische Probleme als Männer“, „Sie haben Unsinn verzapft“, „Darf ich den Vorschlag machen, dass Sie zunächst einmal in ein Standard-Lehrbuch über Wahrscheinlichkeitsrechnung schauen, bevor Sie das nächste Mal versuchen, ein derartiges Problem zu lösen?“, „Wieviele entrüstete Mathematiker braucht es, bis Sie endlich Ihre Meinung ändern?“ Marilyn vos Savant konterte trocken: „Lösungen mathematischer Probleme werden nicht durch Abstimmung entschieden.“ (Spektrum der Wissenschaft 11/1991, S. 12-16)

Der Drei-Türen-Streit mit seinen Entgleisungen hat für die mathematische Breitenbildung vermutlich mehr gebracht als alle didaktisch einwandfreien Bemühungen auf diesem Gebiet.

Veröffentlicht unter Prognosen, Statistik, Wahrscheinlichkeitsrechnung, Wirtschaft | Verschlagwortet mit , , , | Schreib einen Kommentar

Mensch ärgere dich

Herausgestoßen aus der Box

Arglos greife ich mir ein Buch, „The Black Swan“ von Nassim Nicholas Taleb (2007), auf das mich Daniel Kahneman mit seinem „Thinking, Fast and Slow“ (2011) aufmerksam werden ließ, und lese ein wenig kreuz und quer darin herum. Beide Bücher behandeln Themen, die für meine Denkfallen-Taxonomie, das System der Denkfallen, eine Rolle spielen.

Auf Seite 31 geht es los. Da ist die Rede vom rotzfrechen und frustrierten Durchschnittseuropäer, der von den Amerikanern nichts halte und seine Stereotype über sie zum Besten gebe: „Kulturlos“, „nicht intellektuell“ und „schwach in Mathe“. Derselbe aber, so Taleb, hänge von seinem iPod ab, trage Blue Jeans und lege seine „kulturellen“ Ansichten mittels Microsoft Word auf dem PC dar. Tatsächlich sei Amerika momentan weit, weit kreativer als diese Nationen der Museumsbesucher und Gleichungsauflöser.

Mein Blutdruck steigt. Wer ist es denn, der hier seine Stereotype pflegt? Mir fallen ein paar Namen ein: Tim Berners-Lee, ein Engländer, hat 1989 das World-Wide-Web im CERN, also mitten in Europa, erfunden. Die Physik-Nobelpreisträger von 2007, Peter Grünberg vom Forschungszentrum Jülich und Albert Fert von der Unversité Paris Sud, lösten mit ihrer Entdeckung des Riesenmagnetwiderstands eine Revolution in der digitalen Speichertechnologie aus.

Dieses Aufleuchten europäischer Beiträge zum heutigen Leben hätte mich wohl beruhigen können. Aber mein Ärger war zu groß. Ich las weiter. Sehr aufmerksam tat ich das, denn ich musste ja aufpassen, wo dieser Taleb noch daneben liegt. – Und dabei habe ich eine ganze Menge über Denkfallen gelernt.

Irgendwann begann ich, die Polemik zu genießen, beispielsweise wenn Taleb die gaußsche Glockenkurve als großen Betrug beschreibt: „I recently looked at what college students are taught under the subject of chance and came out horrified; they were brainwashed with this ludic fallacy and the outlandish bell curve.” – Wahr daran ist, dass wir die Gesetzmäßigkeiten des Zufalls im Spiel (Würfeln, Roulette, Münzwurf, Urnenmodelle) für gute Regeln auch im täglichen Leben halten, und dass wir damit den verwickelten Situationen oft nicht gerecht werden. Taleb nennt diese Denkfalle Ludic Fallacy. Die Irrtümer bei der Abschätzung von Zukunftstrends sind Beispiele dafür. Es ist tatsächlich mehr Vorsicht geboten, als wir gemeinhin aufbringen. Und es ist ganz gut, wenn uns jemand aus der Box stößt, in der alles nach der reinen Lehre funktioniert. Wir können ihm nachsehen, dass er dazu eine gehörige Portion Polemik ins Feld führt.

Begegnung mit dem schwarzen Schwan

Schwarzer Schwan in Wörlitz

Der schwarze Schwan, hier ein reales Exemplar aus dem Wörlitzer Park, steht in der Erkenntnislehre (Epistemologie) für das überraschende Ereignis, das uns zwingt, eingefahrene  Denkbahnen zu verlassen. Popper würde wohl sagen, dass die erste Beobachtung eines schwarzen Schwans die vorher allgemein akzeptierte Theorie „Alle Schwäne sind weiß“ falsifiziert hat.

Für Taleb ist ein schwarzer Schwan etwas Unerwartetes, das große Wirkung entfaltet und für dessen Erscheinen wir uns Erklärungen zurechtlegen, so dass es uns im Nachhinein als vorhersehbar erscheint. Beispiele: Die Anschläge auf das World Trade Center am 11. September 2001, der Zusammenbruch des Ostblocks und die Beendigung des kalten Krieges, der Siegeszug des Personal Computers und des Internets, überhaupt alle goßen Erfindungen und Entdeckungen, die Wirtschaftskrisen. Schwarze Schwäne sind Ereignisse außerhalb unserer Box, für die unsere Vorstellungkraft nicht ausreicht und die unser Leben umkrempeln — zum Guten oder zum Bösen.

Eigentlich handelt dieses Weblogbuch von Nachrichten, denen man nicht sofort ansieht, dass sie – hoppla! – auf Irrtümern beruhen oder in die Irre führen. In diesem Artikel läuft es einmal umgekehrt: Im Falle der Lektüre des Buches „The Black Swan“ wurde die Aufmerksamkeit ja geweckt, und zwar anders als es uns die Kommunikationsexperten als vorbildlich weis machen wollen, also nicht auf die schmerzlose, einschmeichelnde Art.

Bevor ich diesen Gedanken weiter verfolge, will ich kurz sagen, welche Erkenntnis mir Talebs Buch beschert hat. Im Grunde bewegt sich Taleb auf dem Felde der Heuristics and Biases, die von Kahneman und anderen schon seit vierzig Jahren beschrieben werden. Manch einer wirft Taleb vor, dass er nur alten Wein in neue Schläuche gießt. Aber das trifft es nicht ganz. Seine Zuspitzungen und Übertreibungen sind anregend und bringen einen auf neue Gedanken.

Und das habe ich beim Lesen des Buches kapiert: Die Erinnerungsfalle (Hindsight Bias) beruht auf dem, was Taleb die Narrative Fallacy nennt. Wir verbinden Erinnerungsbruchstücke zu einfachen Geschichten, die uns im Nachhinein gut zu passen scheinen und die unser Selbstwertgefühl stützen. Geschichten haften besser in der Erinnerung als unverbundene Einzelfakten. Dabei „bleibt alles in der Box“, im Vertrauten. Und das bewirkt systematische Verzerrungen der Wirklichkeit.

Einige unserer Irrtümer gehen auf diese Szenario-Falle zurück. Diesen Gedanken habe ich in das System der Denkfallen eingearbeitet und damit eine stärkere Aussagekraft und größere Schlüssigkeit des Systems erreicht — so hoffe ich zumindest.

Der gute Vortrag: Ein Missverständnis

Und nun zurück zum Thema. Der Schulungsleiter einer Großfirma (es war während meiner Zeit bei BBC, so um 1980 herum) meinte im Rahmen eines Rhetorik-Seminars einmal: „Geben Sie mir ein beliebiges Thema und einen Tag Zeit. Ich halte Ihnen dann einen perfekten Vortrag dazu.“ In der Tat: Seine Vorträge boten lesbare Folien, leicht verdauliche Schlagwörter, bestens geordnete Grafiken. Alles war überaus süffig. Das Urteil musste lauten: Klasse Vortrag, witzig, unterhaltend – und ohne jegliche Nachwirkungen. Eigentlich waren es nur aufgedonnerte Banalitäten. Nach diesem Rezept arbeitet auch mancher Erfolgsschriftsteller: Er sagt dir das, was du sowieso schon weißt, nur eben besonders schön.

Zu den pädagogischen Volksweisheiten gehört, dass der Lehrer den Schüler dort abzuholen hat, wo er ist. Vor allem muss er Hindernisse aus dem Weg räumen, den Schüler positiv einstimmen und motivieren. Er weiß auch: Spaß muss sein, denn das weckt die Lernbereitschaft. Abstraktionen sind Überforderungen des Gehirns und folglich zu vermeiden. Alle Themen sind vom Lehrer konkret, anschaulich und praxisnah aufzubereiten. Ausführliche Erklärungen gehören dazu. Bilder und Animationen lockern das Ganze auf. Die Zahlen erhalten Gesichter, Arme und Beine. Sie sprechen und tanzen. Die Fallgesetze sind schwer zu verstehen? Da muss ein Bild des schiefen Turms von Pisa her – schon geht es leichter. Die Mathematik und die Naturwissenschaften werden zum launigen Cartoon.

Das ist gut gemeinte aber leider ziemlich erfolglose Pädagogik. Was ist falsch daran? Ich bringe es auf eine einfache Formel: Die Belohnung kommt vor der Leistung. Und das funktioniert eigentlich nie. „Mehr desselben“, also noch mehr Belohnung vor der Leistung, ist kein Erfolgsrezept. Da bleibt nichts haften bei den Schülern und Studenten. Es ist genau andersherum: Glücksgefühle stehen nicht am Anfang, sie sind Folge der Problemlösung, der erledigten Arbeit. So funktionieren die biologischen Belohnungssysteme, und so ergibt das Ganze einen Sinn.

Manchmal beginne ich meine Vorträge mit der Warnung: Erwarten Sie keine Witze. Die Wissenschaft hat nämlich gezeigt, dass der schlecht gelaunte Zuhörer kritisch ist und mehr versteht als derjenige, der sich nur gut unterhalten fühlt. Einige der Zuhörer halten das für den ersten Witz.

Aber die Warnung ist (halb) ernst gemeint. Dass etwas daran ist, dafür liefert Kahnemans Buch den Beleg: In einem psychologischen Experiment hatten die Versuchspersonen ein Rätsel zu lösen, bei dem die Intuition irregeleitet wurde. Eine Gruppe bekam eine gut lesbare Textversion des Rätsels und die andere eine ziemlich unleserliche. Besser schnitt die Gruppe ab, die den unleserlichen Text bekommen hatte. Die Erkenntnis daraus: Die Schwierigkeiten beim Entziffern machen wachsam gegenüber der intuitiven und falschen Antwort (S. 65) und sorgen dafür, dass der Denkapparat überhaupt erst eingeschaltet wird.

Fazit: Bei der Bildung und beim Lernen steht nicht das Wohlbehagen am Anfang. Besser wirkt „Mensch ärgere dich“. Die Glücksgefühle werden dann schon kommen, mit dem Begreifen.

Veröffentlicht unter Biologie, Naturwissenschaften, Prognosen, Statistik, Wahrscheinlichkeitsrechnung, Wirtschaft | Verschlagwortet mit , , , , , | 6 Kommentare

Neurolinguistisches Programmieren (NLP) – Schaf oder Wolf?

Im Bekannten- und Freundeskreis wurde ich immer wieder einmal auf das Neurolinguistische Programmieren angesprochen, erstmals etwa 1983 durch einen Professoren-Kollegen mit Erfahrungen in der Unternehmensberatung. Seit meiner mehrjährigen Industrietätigkeit bin ich allerdings ziemlich allergisch gegen Motivierungsveranstaltungen der Art, die Industrieunternehmen ihrer mittleren Führungsschicht angedeihen lassen. Und NLP schien mir eine solche zu sein. Erst kürzlich kam NLP im Freundeskreis wieder zur Sprache, ein Anlass, sich die Sache einmal etwas genauer anzuschauen.

Im Grunde geht es um Verhaltensbeeinflussung. Geschehen soll das durch Abbildung eines wünschenswerten Verhaltens auf ein kybernetisches Modell, das dann mit gewissen Tricks von einer Person auf eine andere übertragen werden kann– so hofft man. Dabei kann ich selbst Quelle oder auch Ziel dieser Übertragung sein. Klar, dass derartige Lehren in Vertreterkreisen, im Marketingbetrieb und im weiten Feld der Werbung gut ankommen.

In dem über das Internet frei zugänglichen Text „Strategies The Mind-Body Connection to Behavior“ beschreibt der zertifizierte NLP Master Trainer (was immer das sein mag) Tad James die Sache folgendermaßen: “Modeling mental strategies in NLP allows us to take a strategy from one place and move it to another place. Now, if I’m dealing with content, then it’s hard to move content from one place to another. But if I’m dealing with process, if I’m dealing with the ‘how to’ regarding processing information then I can discover somebody’s internal program and I can install it in someone else.”

NLPler beschreiben NLP

Auf der Web-Seite www.nlp.de/info/nlp_methode.shtml liest sich das NLP-Konzept so: „Die NLP-Axiome (od. besser Glaubenssätze), die durchgängig auf ein hoffnungsvolles Menschenbild verweisen, sind als nicht überprüfbare Grundannahmen tragende Elemente des NLP. Als wichtigste Annahmen gelten nach einer Zusammenfassung von Thies Stahl:

1. Menschen reagieren auf ihre subjektive Abbildung der Wirklichkeit und nicht auf die äußere Realität.

2. Geist und Körper sind Teile des gleichen kybernetischen Systems und beeinflussen sich wechselseitig.

3. Viele Verhaltensmöglichkeiten sind wichtig, weil ein System immer von dem Element kontrolliert wird, das am flexibelsten ist.

4. Ein Mensch funktioniert immer perfekt und trifft stets die beste Wahl auf der Grundlage der für ihn verfügbaren Informationen.

5. Jedem Verhalten liegt eine positive Absicht zugrunde, und es gibt zumindest einen Kontext, in dem es nützlich ist.

6. Das Ergebnis von Kommunikation ist das Feedback, das der einzelne bekommt; Fehler oder Versagen gibt es nicht.

7. Kann ein Mensch lernen, etwas Bestimmtes zu tun, können es grundsätzlich alle Menschen.

8. Menschen verfügen über alle Ressourcen, die sie brauchen, um eine von ihnen angestrebte Veränderung zu erreichen.

Aus der Kombination der ersten beiden Grundannahmen sind nach Robert Dilts alle Modelle und Techniken des NLP entstanden. Die Grundannahmen werden von NLP nicht als Wahrheiten, sondern als nützlich apostrophiert. Sie können also auch verändert oder ergänzt werden. Schon von daher gelten sie auch nur als variable Bestandteile des NLP, deren Akzeptanz jedoch für die effektive Anwendung der NLP-Techniken stets (implizit) vorausgesetzt wird.“

Warum sollten sich Skeptiker für NLP interessieren?

Eigentlich ist NLP ja ein harmloses Schaf: Eingestandenermaßen sind „nicht überprüfbare Grundannahmen tragende Elemente des NLP“. Es handelt sich also um ein Glaubenssystem. Und Glaubenssysteme sind dem Skeptiker in seinem aufklärerischen Bemühen ziemlich egal. Er geht die Sache erst an, wenn ein Glaubenssystem mit dem Anspruch der Wissenschaftlichkeit daherkommt.

Die Homöopathie beispielsweise bietet aus diesem Grund ein wirklich lohnendes Angriffsziel für den Skeptiker. (Artikel: Wie wissenschaftlich ist die Homöopathie?) Auch das Intelligent Design gehört zum Zielgebiet der Skeptiker, denn ID verbindet Religion mit Wissenschaftsanspruch. Angriffe auf das ID, Richter John Jones aus Pennsylvania nannte es seinerzeit (2005) eine „atemberaubende Trivialität“, machen darüber hinaus Spaß. Denn die gewöhnlich mit großem Ernst vorgetragenen Kernaussagen des ID lassen sich schon mit ziemlich einfachen Computerprogrammen restlos widerlegen, wie im Aufsatz „Ist das Gute göttlich oder Ergebnis der Evolution?“ gezeigt wird.

Der Wissenschaftsanspruch geht dem NLP ab – so die Selbstauskunft. Aber — hoppla! — bereits der Name Neurolinguistisches Programmieren drückt das Gegenteil aus: Der naive Adressat muss annehmen, dass es sich hier um seriöse Neurowissenschaft gepaart mit Sprachwissenschaft handelt. Und die Benennung als Programmierung setzt noch eins drauf: Sie soll das Bild solider Technik evozieren. Einen ebensolchen Etikettenschwindel finden wir bei der Scientology-Sekte.

Wir sehen: Das „Schaf“ tritt ziemlich aggressiv auf. Die Leugnung des Wissenschaftsanspruchs dient wohl nur der Immunisierung gegen Skeptikerangriffe. Skeptiker sollten sich das NLP trotzdem vorknöpfen.

Was ist dran am NLP?

Die oben genannten NLP-Glaubenssätze wirken auf mich wie die Aufmunterungszurufe eines Motivations-Gurus. Sie haben mich an Frank T. J. Mackey erinnert, den Sex-Guru aus dem Film „Magnolia“. (Tom Cruise in einer seiner besseren Rollen.)  Lernen lässt sich daraus nichts. Dazu einige Anmerkungen.

Die Kybernetik aus Glaubenssatz 2 ist eine veraltete Modellvorstellung für Körper-Geist-Betrachtungen. Einen „Steuermann“ sieht man heute nicht mehr am Werk. „Wer bin ich, und wenn ja, wieviele“ (Richard David Precht) trifft eher den Kern heutigen Wissens über die Selbstkontrollfähigkeit des Menschen.

Den Glaubenssatz 4 „Ein Mensch funktioniert immer perfekt“ halte ich für grundfalsch. Das Denkfallen-Konzept deutet in die entgegengesetzte Richtung.

Auch Glaubenssatz 6 „Fehler oder Versagen gibt es nicht“ taugt nicht viel: Wenn’s keine Fehler gibt, dann gibt’s auch nichts zu lernen. Seit 150 Jahren wissen wir, dass alle Evolution durch Versuch und Fehlerbeseitigung voranschreitet. Wissenschaft folgt dieser negativen Methode: Suche nach und Lernen aus Fehlern. NLP ist demgegenüber eine der vielen Richtungen positiven Denkens: Wohltuend und fruchtlos.

Bei den Glaubenssätzen 7 und 8 sehe ich Frank T. J. Mackey plastisch vor mir: „Ja! du kannst es!“ Wer so etwas ernst nehmen kann, ist bei NLP gut aufgehoben.

Veröffentlicht unter Naturwissenschaften, Wirtschaft, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit | 24 Kommentare

Gedankenknäuel. Paradoxien und Tautologien des Alltags

Rückbezüge

„Ich mache es, um herauszufinden, warum ich es tue.“ Dieser Satz steht im Spiegel 45/2011. Ich weiß nicht, ob seinem Urheber, dem Schauspieler Ryan Gosling, ganz klar ist, was er mit diesem Satz so anrichtet. Gosling drückt aus, dass er nicht weiß, warum er „es“ tut. Gleichzeitig nennt er uns einen Grund. Der Arme ist gefangen im Niemandsland zwischen Tun und Lassen. Der Satz ist ein Beispiel für gehirnmarternde Rückbezüge. Und solche Rückbezüge wollen wir uns hier genauer anschauen.

Rueckbezug in der Werbung

Rückbezug in der Werbung

Unter der Überschrift „Schlechte Nachrichten für Verschwörungstheoretiker“ berichtet die dpa gemäß Tageszeitung vom 9.11.2011: „Jetzt ist es offiziell: Das Weiße Haus hat keinen Beweis für die Existenz von Außerirdischen.“ Hier wird die Sache interessant, wenn man das Weiße Haus der Verschwörung zurechnet: Egal, was das Weiße Haus verlauten lässt, immer kann es als Bestätigung dafür dienen, dass es die Verschwörung tatsächlich gibt, denn: Verschwörer werden die Verschwörung leugnen.

Und hier noch ein paar Fundstücke aus der ganz alltäglichen Kommunikation:

„Wie lange gedenkst du noch, verrückt zu bleiben?“ -„Das fragst du einen Verrückten?“

Beziehungsgeplänkel: „Hast du `ne andere?“ -„Nein.“ -„Ehrlich?“ -„Ja doch.“

In einer Szene des Monty-Python-Films „Das Leben des Brian“ von 1980 wird Brian von einer Anhängerschar verfolgt.

Brian: Ich bin nicht der Messias. Würdet ihr mir bitte zuhören: Ich bin nicht der Messias. Versteht ihr das? Ganz, ganz ehrlich.

Frau aus der Menge: Nur der wahrhaftige Messias leugnet seine Göttlichkeit.

Brian: Was? Ihr müsst mir doch ’ne Chance lassen, da rauszukommen. Also gut: Ich bin der Messias.

Menge: Er ist es! Er ist der Messias.

Brian: Und jetzt: Verpisst euch!

Ein rückbezüglicher (oder selbstbezüglicher) Satz enthält zwei Aussagen. „Die eine Aussage wird in der Objektsprache, die andere in der Metasprache getroffen und sagt etwas über die Aussage in der Objektsprache aus“ (Watzlawick, Beavin und Jackson in „Menschliche Kommunikation“, 1969, Abschnitt 6.3).

Angenommen, nur der wahre Messias kann seine Göttlichkeit leugnen, dann ist Brians Aussage „Ich bin nicht der Messias“ rückbezüglich und ohne jeglichen Gehalt: Jeder kann unter der Prämisse, dass nur der wahrhafte Messias sich verleugnen kann, behaupten, nicht der Messias zu sein, ob er nun der Messias ist oder nicht. Wir haben es mit einer Tautologie zu tun, einer Aussage also, die mit jedem denkbaren Sachverhalt verträglich ist.

Der einfachste tautologische Rückbezug dürfte der Satz „Ich lüge nicht“ sein: Sowohl der Lügner als auch der Wahrheitsliebende kann ihn sagen, ohne sich in Widersprüche zu verwickeln. Ich bezeichne diesen Satz auf Kommunikations- bzw. Objektebene mit A. Gleichzeitig macht der Satz auf Metaebene eine Aussage über den Wahrheitsgehalt des Satzes. Beide Aussagen sind gleichzeitig entweder wahr oder falsch: A = A. Diese Gleichheit gilt unter allen Umständen; sie sagt nichts über die Wirklichkeit aus.

Widersprüche

Aber das alles trifft nicht den Kern des ersten Beispiels. Hier haben wir es nicht mit einer Tautologie, sondern mit einem rückbezüglichen Widerspruch zu tun. Das einfachste Beispiel dieser Art ist der Satz „Ich lüge“.

Er führt auf einen Widerspruch der Form A = ¬A und das besagt, dass sowohl der Satz A als auch dessen logisches Gegenteil ¬A gleichzeitig wahr oder gleichzeitig falsch sind. Der Satz ist ohne Sinn (Lügnerparadoxon in Denkfallen und Paradoxa).

Früher, als Student in den späten Sechzigerjahren, habe ich gelitten: Hegel zu lesen und zu verstehen hielt ich angesichts der damaligen Studentenrevolte für unverzichtbar. Es war ein grausames Misslingen; Hegel hatte offenbar einen Weg gefunden, sich in einer für mich völlig unverständlichen Weise auszudrücken. Heute sehe ich Hegel deutlich entspannter: Man muss die Texte einfach mit derselben Grundeinstellung lesen, mit der man sich einen Monty-Python-Film ansieht. Seit ich das tue, habe ich Spaß daran.

Nehmen wir uns ein paar Textproben aus seiner Philosophischen Propädeutik vor. Im Anhang über Antinomien schreibt Georg Wilhelm Friedrich Hegel (1770-1831) unter § 73: „1) Die Welt ist der Zeit nach endlich oder hat eine Grenze. In dem Beweise der Thesis ist eine solche Grenze, nämlich das Jetzt oder irgendein gegebener Zeitpunkt angenommen. 2) Das Dasein hat nicht an dem Nichtdasein, an der leeren Zeit, eine Grenze, sondern nur an einem Dasein. Die sich begrenzenden sind auch positiv aufeinander bezogen und eines hat zugleich dieselbe Bestimmung als das andere. Indem also jedes Dasein begrenzt oder jedes ein endliches d. h. ein solches ist, über welches hinausgegangen werden muss, so ist der Progress in’s Unendliche gesetzt.“ Und weiter geht’s mit § 74: „Die wahrhafte Auflösung dieser Antinomie ist, dass weder jene Grenze für sich, noch dies Unendliche für sich etwas Wahres ist, denn die Grenze ist ein solches, über welches hinausgegangen werden muss und dies Unendliche ist nur ein solches, dem die Grenze immer wieder entsteht. Die wahre Unendlichkeit ist die Reflexion in sich und die Vernunft betrachtet nicht die zeitliche Welt, sondern die Welt in ihrem Wesen und Begriff.“

Um das zu verstehen, übersetze ich § 69 des Anhangs über Antinomien einmal in die heutige mathematische Sprache: Kann man für ein Ding die Aussage A herleiten und gleichzeitig deren Negation ¬A, so „entstehen dadurch antinomische Sätze, deren jeder gleiche Wahrheit hat“. Für Hegel ist also die konjunktive Verknüpfung der Aussagen A und ¬A wahr, anders als für den Logiker, der dem zusammengesetzten Ausdruck A˄¬A nur den Wert falsch zuerkennen kann und der darauf bestehen wird, dass in den Herleitungen von A oder ¬A Fehler stecken müssen.

Ludwig Boltzmann fand Hegels Einlassungen zur Logik einer ernsthaften Kritik würdig: „Dies Logik zu nennen, kommt mir vor, wie wenn jemand, um eine Bergtour zu machen, ein so langes und faltenreiches Gewand anzöge, dass sich darin seine Füße fortwährend verwickelten und er schon bei den ersten Schritten in der Ebene hinfiele.“ (Auf einem Kongress in St. Louis 1904)

Analyse

Wir nehmen die Werkzeuge der Logiker und nähern uns damit dem ersten Beispiel, nämlich dem Satz „Ich mache es, um herauszufinden, warum ich es tue“. Offenbar weiß Gosling nicht, warum er „es“ (die Schauspielerei nämlich) tut. Diesen Sachverhalt bezeichne ich einmal mit A. Die Feststellung, dass er es tut, erhält das Symbol B. Die Aussage von Gosling unterstellt eine Kausalbeziehung, nämlich dass es einen Grund für sein Tun gibt und dass dieser Grund das Nichtwissen des Grundes ist, nämlich A. In Kürze: AB.

Gosling gibt also einen Grund für sein Tun an. Folglich ist der Grund bekannt und es gilt ¬A (Es ist nicht wahr, dass er nicht weiß, warum er es tut). Es gilt also gleichermaßen A und ¬A. Damit kommt vielleicht der Hegel-Geschulte zurecht, nicht aber der allgemeine Menschenverstand. Mir reicht es, das Gedankenknäuel entwirrt zu haben: Gosling ist entweder auf den Spuren der Monty-Python-Truppe gewandelt, oder er hat versehentlich Unsinn geredet; das kann ja mal passieren.

Ein Rätsel zum Schluss

Wie groß ist die Chance, dass Sie richtig liegen, wenn Sie auf diese Frage eine der folgenden Antworten rein zufällig auswählen?

(A) 25 %

(B) 0 %

(C) 25 %

(D) 50 %

Quelle: „Best Statistics Question Ever“ von Raymond Johnson, 20.10.2011.

 

Veröffentlicht unter Logik | Verschlagwortet mit , | 3 Kommentare

Gesundheitswesen schafft Krankheitsbedarf

Nach einem Schiunfall mit starker Belastung der Halswirbelsäule kam es zu Taubheitsgefühlen in der Hand. Das Urteil des in unserem Städtchen inzwischen sehr geachteten Neurochirurgen lautete: So schnell wie möglich an der Wirbelsäule operieren, möglichst innerhalb der nächsten zwei Wochen. Der Neurochirurg der Universitätsklinik einer benachbarten Großstadt kam zu einem anderen Urteil. Er fand nichts Beängstigendes. Sein Rat an den Patienten: Leben Sie weiter wie bisher.

Es entstand der Eindruck, dass die vom hiesigen Chirurgen diagnostizierte Schwere der Krankheit nur virtuell bestand und vor allem ökonomische Ursachen hatte: Die Gerätschaften der Neurochirurgie sind teuer und sie sollten möglichst nicht ungenutzt herumstehen.

Neue Krankheiten: Burnout und Liebeskummer

Das Beispiel ist Ausdruck eines bekannten und weithin diskutierten Phänomens unseres Gesundheitswesens. Es gibt gute Bücher und Artikel darüber in großer Zahl. Da muss ich mich nicht auch noch hineinhängen, dachte ich. Da las ich einen kleinen Artikel in der Fuldaer Zeitung zum Thema „Neue, versteckte Volkskrankheit“ (27 .7.2011). Gemeint war der Burnout. Und letzte Woche erschien die Zeitschrift Stern 43/2011 mit der Titelgeschichte „Liebeskummer – Das unterschätzte Leiden“.

Nach der Lektüre konnte ich nicht mehr an mich halten.

Also: Zum Leben gehören Glücksgefühle – und deren unangenehme Kehrseite eben auch. Wir sind zuweilen erschöpft oder fühlen uns ausgebrannt. So sagt uns der Körper, dass wir es etwas langsamer angehen sollen. Aber es ist keine Krankheit, die sich da meldet, sondern ein im Grunde lebenserhaltendes Warnsignal. Und auch Liebeskummer ist zwar unangenehm, aber nicht wirklich lebensbedrohlich.

Nun ist es Mode geworden, unangenehme Gefühle, die eigentlich zum Leben dazugehören, zu Krankheiten zu erklären. Daran lässt sich dann trefflich Geld verdienen. Sollte es noch jemanden geben, der noch nicht weiß, dass er eigentlich schwer krank ist und behandelt werden muss, dann gehört ihm das gesagt, und zwar möglichst drastisch. „Eine Trennung ist wie eine Amputation“ oder – noch eins draufgelegt – Liebeskummer „ähnelt der Reaktion auf eine Krebsdiagnose“. Das sind Formulierungen aus der erwähnten Stern-Titelgeschichte. So lässt sich lukrative Panik erzeugen.

Krankheiten werden erfunden. Und das hat offenbar Methode. In seinem Buch „How Doctors Think“ (2007, S. 207 ff.) schreibt der Arzt Jerome Groopman von der Erfindung einer „männlichen Menopause“ durch die pharmazeutische Industrie und über die Empfehlung an die Ärzte, bei Leistungsabfall und Müdigkeit den älteren männlichen Patienten ein Testosteron-Ersatzmittel zu verschreiben. Einige Arzneimittelhersteller meinten wohl, so Groopman, den natürlichen Alterungsprozess in eine behandlungswürdige Störung umdefinieren zu sollen.

Aber es geht nicht nur um neue Krankheitsbilder sondern auch um Übertreibungen bei der Beschreibung und Behandlung bekannter Leiden. Dazu Groopman (S. 223): Manchmal scheine es so, als würden hohe Kostenerstattungen und die Freigiebigkeit der Apparatehersteller (damit meint er die finanziellen Aufmerksamkeiten gegenüber Ärzten) die Zahl unnötiger Operationen in die Höhe treiben. Die Operationen an der Wirbelsäule seien ein herausragendes Beispiel.

„Wundert es da, dass Orthopäden an die eigene Bandscheibe zwar Wärme und die Hände einer Krankengymnastin heranlassen würden, das Messer des Kollegen jedoch scheuen?“ fragt Jörg Blech in seinem Buch „Heillose Medizin. Fragwürdige Therapien und wie Sie sich davor schützen können“ (2005, S. 160). Und den Artikel „Vorsicht, Medizin!“ im Spiegel 33/2011 schließt er mit der Bemerkung ab: „Ärzte lassen sich im Schnitt seltener operieren als der Rest der Bevölkerung“.

Die Kausalitätsfalle

Wir suchen für alles, was uns betrifft, insbesondere für alles Unangenehme, eine Ursache. Dieser Drang ist nützlich: Mit dem Aufzeigen von Ursache-Wirkungs-Beziehungen erklären wir uns die Welt und so finden wir Ansatzpunkte zur Verbesserung unserer Lage. Kein Wunder, dass dieses Kausalitätsdenken zu unserer genetischen Ausstattung gehört. Es ist ein angeborener Lehrmeister, wie Konrad Lorenz es in seinem Buch „Die Rückseite des Spiegels“ ausdrückte.

Aber das Kausalitätsdenken macht uns auch anfällig für Fehlschlüsse und Manipulation. Denn: Haben wir eine mögliche Ursache gefunden, hört die Suche nach Ursachen gewöhnlich auf. In der Kognitionspsychologie heißt dieses Verhalten lineares (oder auch eindimensionales) Ursache-Wirkungsdenken.

Und die Meinungskneter werden uns die passende Ursache schon einreden, beispielsweise wenn sie suggerieren, dass die Hektik, die Reizüberflutung, die Anforderung der ständigen Erreichbarkeit und der Terror der modernen Kommunikationsmittel den Stress hervorrufen, der schließlich zum Burnout führt.

Es ist wohl so, dass die schlechten Lebensbedingungen eine Rolle spielen und den Krankenstand erhöhen können. Demzufolge erhöhen sich die Ausgaben für das Gesundheitswesen und das medizinische Angebot wächst. Die Gesundheitsangebote wirken auf den Krankenstand mindernd zurück – mit negativem Vorzeichen also. Denn dafür sind sie ja da: zum Heilen.

Aber es gibt noch einen Weg der Rückwirkung; der ist weniger erfreulich und er destabilisiert das System. Dieser Rückkopplungspfad wird gern übersehen, denn eigentlich haben wir die Ursache für den wachsenden Krankenstand bereits gefunden; und mehr als eine Ursache brauchen wir nicht.

Schauen wir uns diesen Rückkopplungspfad (im Wirkungsgraphen rot gezeichnet) dennoch etwas genauer an.

Im Spiegel-Artikel „Jetzt mal langsam!“ (30/2011) kommt ein Personalvorstand der Firma Merck zu Wort: „Die Zahl der psychischen Erkrankungen in seinem Werk nimmt kontinuierlich zu.“ Und woran merkt er das? An den zunehmenden Behandlungen derselben: „Im Jahr 2007 registrierten seine Werkärzte in den deutschen Stützpunkten noch 127 Beschäftigte, die wegen psychosomatischer Störungen in Behandlung waren. Binnen drei Jahren hat sich die Zahl mehr als verdoppelt.“

Der Spiegel fährt fort: „Insgesamt geben deutsche Unternehmen für die Gesundheitsvorsorge ihrer Mitarbeiter rund 4,7 Milliarden Euro aus – Tendenz steigend. So verwundert es kaum, dass rund ums Thema Burnout auch eine Art Wohlfühl-Industrie entstanden ist, mit Reha-Kliniken und Ratgeberliteratur, Coaching-Agenturen und Führungsseminaren.“

Womit dann wieder hinreichend Potential für die Werbung um Patienten und die Propagierung neuer Krankheitsbilder geschaffen wäre. Der Wellness-Zirkus definiert und sucht sich seine Burnout-Opfer.

Die Rückkopplung mit positivem Vorzeichen ist hergestellt: Das Gesundheitswesen erzeugt Krankheitsbedarf.

Das unvermeidliche Resultat: Der Psychomarkt wächst. Seit zwanzig Jahren hat sich die Zahl der in Krankenäusern behandelten Menschen mit psychischen Leiden mehr als verdoppelt (Der Spiegel, 30/2011). Die Frage drängt sich auf, ob der psychische Druck wirklich wächst und dadurch mehr Menschen krank werden, oder ob nur mehr Menschen behandelt werden.

Veröffentlicht unter Korrelation und Kausalität, Nicht kategorisiert, Statistik | Verschlagwortet mit , , | Schreib einen Kommentar

Ist die Vererbung erworbener Eigenschaften möglich?

“Spectacular, spectacular/No words in the vernacular/Can describe this great event/You’ll be dumb with wonderment.” So beginnt ein Song des Musicals Moulin Rouge. Gemessen am Varieté ist Wissenschaft eine unterkühlte Angelegenheit. Aber auch Wissenschaft braucht Publikum, denn das zahlt sowieso. Es soll und will begeistert sein. Dafür gibt es dann den Wissenschaftsjournalismus, der ein wenig Varieté in trockene Materie bringt.

Daran ist nichts auszusetzen. Aber es kommt zu Übertreibungen: Mancher vermeintliche Knaller entpuppt sich beim näheren Hinsehen als Larifari. Aber wer kann das schon: näher hinsehen? Wer besitzt die Fachkenntnis, die vertretbaren Zuspitzungen von den sachlich nicht gerechtfertigten zu unterscheiden? Wir alle sind Laien auf beliebig vielen Feldern und daher grundsätzlich verführbar.

Aber auch der nur allgemein geschulte Menschenverstand findet Wege, die Spreu vom Weizen zu trennen. Und um einen solchen Weg geht es hier. Ich greife eine Schlagzeile des Magazins Bild der Wissenschaft heraus: „Die Auferstehung des Monsieur Lamarck. Organismen können erworbene Eigenschaften vererben“ (3/2011, S. 36 ff.). Und der Text des Artikels lässt keine Zweifel zu: Hier geht es nicht um niedere Lebewesen, sondern um höhere Tiere und den Menschen. Im Spiegel-Artikel „Das Gedächtnis des Körpers“ (DER SPIEGEL 32/2010, S. 110-121) liest sich das, vorsichtig in Frageform verpackt, so: „Und wäre das nicht der sensationelle Beweis für eine bis dahin kaum denkbare Art der Vererbung – Gene lernen aus Erfahrung?“

Wenn da etwas dran ist, dann ist das tatsächlich spektakulär, ein wahrer Knaller. Denn es ist seit über einhundert Jahren eingebrannte Erkenntnis der Biologen: „Da die Nachkommen aus den Keimzellen hervorgehen, haben Veränderungen in den somatischen, den Körperzellen des Tieres keinen Einfluss auf das Erbgut der Nachkommen. Genveränderungen, Mutationen, werden nur dann vererbt, wenn sie in den Keimbahnen auftreten. Es gibt also keine Vererbung von erworbenen Eigenschaften.“ (Christiane Nüsslein-Volhard in „Das Werden des Lebens“, S. 38)

Evolution beruht demnach auf Versuch und Fehlerbeseitigung; und den Antrieb dazu liefert allein der Zufall. Wir können Erlerntes nicht an unsere Kinder auf biologischem Wege, also anstrengungslos, vererben. Es geht nur kulturell und mehr oder weniger schmerzhaft durch Erziehen und Lernen. Das ist die bislang anerkannte Lehre.

Was ist unter einer „Vererbung erworbener Eigenschaften“ zu verstehen?

Im Bild-der-Wissenschaft-Artikel geht es um eine Wirkungskette, wie in der folgenden Grafik dargestellt.

Wir brauchen nicht an den Bausteinen dieser Grafik zu zweifeln: Offenbar können wir lernen, also Eigenschaft wie das Rechnen und Schreiben erwerben. Auch wurde in den Labors die epigenetische Modifikation des Erbguts nachgewiesen: Aufgrund des stofflichen Umfelds der Gene werden bestimmte Schalter umgelegt, die das Interpretieren gewisser in den Genen enthaltenen Informationen unterdrücken oder fördern. Da das stoffliche Umfeld der Gene, also zunächst einmal der Zellinhalt, auch von äußeren Einflüssen abhängt, ist es zumindest plausibel, dass die epigenetischen Veränderungen auch von außerhalb angestoßen werden können. Auch dass sich epigenetische Merkmale vererben können, scheint heute ausgemacht zu sein. Und dass sich diese vererbten genetischen Merkmale im Lebewesen wieder irgendwie bemerkbar machen können, ist wohl auch nicht weiter strittig.

Die Behauptung im Artikel sieht nun so aus: Es gibt Beispiele dafür, dass die ganze Wirkungskette durchlaufen wird und dass schließlich die erworbene Eigenschaft X und die Ausprägung Z im Nachkommen gleich sind: Z=X. Genau so muss man wohl die Aussage von der Vererbung erworbener Eigenschaften verstehen: Die Eigenschaft X wird von einem Individuum gelernt und an Nachkommen vererbt.

Kurzschlüsse

Aber was finden wir in dem Artikel: Die Beispiele betreffen immer nur einige Abschnitte der Wirkungskette. Nie wird die ganze Wirkungskette durchlaufen. Nicht vorhandene Verbindungsglieder werden sozusagen kurzgeschlossen. Und damit fehlt die zwingende Kraft der Argumentation. Die ersten sechs Beispiele sind aus dem Bild-der-Wissenschaft-Artikel und die letzten beiden sind aus dem ebenfalls bereits angesprochenen Spiegel-Artikel. Zunächst also die Beispiele aus Bild der Wissenschaft.

1. „Durch eine bleibende Umprogrammierung bestimmter Gehirnzellen kann ein frühkindliches Trauma einen Menschen zum Beispiel später im Leben anfällig für Depressionen machen.“

2. „Oder eine Überernährung im Mutterleib kann Stoffwechselzellen so verändern, dass Menschen im Alter eher zu Ty-2-Diabetes neigen.“

3. Es wurde entdeckt, „dass manche Patienten mit Prader-Willi-Syndrom – einer schweren Entwicklungsstörung – eine natürliche epigenetische Veränderung der Großmutter väterlicherseits übernommen haben, die normalerweise von den Keimzellen des Vaters überschrieben wird“.

4. „Hatten [die Väter und Großväter] vor und während der Pubertät ausreichend, aber wenig zu essen, wurden die Söhne und Enkel älter. Konnten die Väter und Großväter hingegen schlemmen, gaben sie ein gewisse Krankheitsanfälligkeit an ihre Nachfahren weiter.“

5. Entdeckt wurde mit einer großen Umfrage, „dass es das Übergewichtsrisiko von Kindern erhöht, wenn die Väter schon im Alter von zehn Jahren geraucht haben“.

6. „In dieses Bild passen Untersuchungsergebnisse von Frauen, deren Mütter während des niederländischen Hungerwinters Ende des Zweiten Weltkrieges mit ihnen schwanger waren. Der extreme Nahrungsmangel veränderte vermutlich das epigenetische Programm der gerade heranreifenden Eizellen. Denn die Kinder und sogar die Enkel dieser Frauen sind eher klein und haben ein erhöhtes Risiko für bestimmte Krankheiten.“

Nun kommen die Beispiele aus dem Spiegel-Artikel.

7. „In Experimenten an Laborratten wiesen die Montrealer [Moshe Szyf und Michael Meaney] in der Folge tatsächlich nach, dass traumatische Erlebnisse das Erbgut chemisch markieren können. Dazu untersuchten sie das Gen für einen Rezeptor, der im Gehirn Stresshormone abbaut und einem hilft, Stress positiv zu verarbeiten und gelassen auf Belastungen zu reagieren. In den Hirnzellen der umhegten Rattenjungen war dieses segensreiche Gen angeschaltet. Die Tiere waren deshalb gelassen. Bei den vernachlässigten Ratten dagegen war es anders. Das besagte Gen war verstärkt methyliert – und damit ausgeschaltet!“

8. „Die stimulierende Umwelt wirkte wie eine Medizin auf die geschrumpften Gehirne. Die Tiere schnitten im Lerntest anschießend so gut ab wie gesunde Artgenossen und konnten Gedächtnisinhalte wieder normal abrufen. Den übriggebliebenen Nervenzellen war es offenbar gelungen, den Ausfall der abgestorbenen Neuronen auszugleichen. Die Kompensation war verbunden mit epigenetischen Veränderungen der Nervenzellen des Hippocampus und der Hirnrinde.“

Kommentare zu den Beispielen

In den Beispielen 1 und 2 spielt Vererbung keine Rolle. Es geht ausschließlich um die Prägung eines Individuums.

In den Beispielen 3-6 geht es gar nicht ums Lernen, sondern darum, dass eine Störung Y mit der epigenetischen Ausprägung Z eingefangen und weitergegeben wird: Der erste Schritt der Wirkungskette fehlt. Anstelle eines Lerngegenstands steht irgendeine Ursache.

Beispiel 7 ist geradezu ein Gegenbeispiel für die Vererbung von Erlerntem. In stressfreier Umgebung besteht doch überhaupt kein Anreiz, die Stressresistenz zu stärken. Und vererbt wird die Stressresistenz offenbar auch nicht, denn davon ist in dem Artikel nicht die Rede.

Im Beispiel 8 wird gezeigt, dass die ersten beiden Schritte der Wirkungskette durchlaufen werden: Erwerb von Fähigkeiten X und die damit einhergehende epigenetische Modifikation der Erbsubstanz Y. Aber danach ist Schluss: Die Modifikation betrifft somatische Zellen, die sich außerhalb der Keimbahn befinden. Eine Vererbung der Modifikation Y findet nicht statt.

Fazit

Erlerntes mag zuweilen erblich sein. Die hier zitierten Artikel zeigen das jedoch nicht. Vom spektakulären Aufmacher bleibt bei skeptischer Betrachtung nichts übrig.

Veröffentlicht unter Biologie, Logik, Naturwissenschaften | Verschlagwortet mit , | 23 Kommentare

Ein X für ein U

Eine Bachelor/Master-Erfolgsmeldung

Wir haben Grund zur Freude. Wenigstens die Nachrichten über die Studienreform – die Einführung der Bachelor/Master-Studiengänge – hellen unseren ansonsten durch Katastrophenmeldungen über Staatsverschuldungen und weitere Misslichkeiten eingetrübten Alltag etwas auf. So schreibt Jan-Martin Wiarda in seinem Beitrag „Vor dem Sturm“ (DIE ZEIT, Nr. 32, 4. August 2011, S. 67): „Um zu begreifen, wie weitreichend die Effekte der Reform sind, genügen ein paar Zahlen: Laut jüngsten Erhebungen des Statistischen Bundesamtes verstreichen vom Studienstart bis zum Masterabschluss im Schnitt 10,5 Semester – anderthalb Semester beziehungsweise ein Achtel weniger Zeit als beim Erwerb das alten Diploms.“

Die Zahl von 10,5 Semester vom Studienstart bis zum Masterabschluss hat der Autor offenbar aus der Tabelle 3.3.3 der „Statistische Daten zur Einführung von Bachelor- und Masterstudiengängen Wintersemester 2010/2011 – Statistiken zur Hochschulpolitik 2/2010“, herausgegeben von der Hochschulrektorenkonferenz (HRK), Bonn, November 2010 (www.hrk.de, www.hrk-nexus.de). Die Zahl besagt, dass im Berichtsjahr 2008 alle Master-Absolventen die Regelstudienzeit von zehn Semestern nur um ein halbes Semester überschritten haben. Die Ingenieurwissenschaftler stechen aus der Masse der Studenten durch besonders unbändiges Studieren hervor: Sie kamen mit einer mittlerem Gesamtstudiendauer von 9,8 Semestern aus und blieben damit sogar noch unter der Regelstudienzeit. Demgegenüber musste derjenige, der nicht im gestuften System studiert, mit einer um wenigstens zwei Semester längeren Studiendauer rechnen.

Das ist doch Grund zu jubeln. Oder?

Wir halten inne und vergegenwärtigen uns, dass die Einführung der neuen Studiengänge gerade erst geschehen ist. Im vergangenen Jahrzehnt wurde im Laufe des Bologna-Prozesses das alte System mit seinen Diplomen und Magistern Schritt für Schritt durch das neue ersetzt. Dementsprechend hat die Zahl der durch die Reform betroffenen Studienanfänger Jahr für Jahr zugenommen.

Wer heute mit dem Masterstudium fertig wird, gehört mit großer Wahrscheinlichkeit zu den „frühen Vögeln“ des (Master-)Studienanfängerjahrgangs von vor zwei Jahren. Diese „frühen Vögel“ haben allesamt eine optimale Studiendauer von zwei Jahren. Dazu gesellen sich die Nachzügler des Jahres zuvor. Diese Nachzügler verschlechtern den Durchschnitt der Studiendauer etwas, aber nicht allzu sehr, denn sie rekrutieren sich aus einem deutlich kleineren Jahrgang als die „frühen Vögel“. Noch ältere Jahrgänge, die zur Verschlechterung des Durchschnittswerts beitragen können, sind noch stärker unterrepräsentiert. Eine niedrige mittlere Studiendauer der heutigen Masterabsolventen ist so zumindest zum Teil erklärbar.

Modellrechnung und Analyse

Ist es wirklich die mittlere Studiendauer der Absolventen, die uns interessiert? Nein! Die mittlere Studiendauer muss sich – wenn sie halbwegs aussagekräftig sein soll – auf die Kohorte derjenigen Studenten beziehen, die zur selben Zeit das Fachstudium angefangen haben, und nicht etwa auf diejenigen, die zur selben Zeit ihre Prüfung ablegen. Letzteres wird berichtet und für ersteres ausgegeben. Uns wird ein X für ein U vorgemacht.

Natürlich ist es nicht leicht, die Daten für die Kohorte zu bekommen: Man muss warten, bis auch der letzte fertig ist oder aufgegeben hat. Und das kann dauern und erfordert die mühsame Verfolgung von Einzelschicksalen. Also lässt man es sein.

In Zeiten des gleichmäßigen Betriebs, also dann, wenn die Zahl der Studienanfänger über die Jahre konstant und die Studienbedingungen gleich bleiben (der Ingenieur spricht vom eingeschwungenen Zustand), verschwindet der Unterschied zwischen der mittleren Studiendauer der aktuellen Absolventen und derjenigen einer Kohorte. Andererseits führen Übergangsphasen wie zurzeit zur Diskrepanz zwischen den Zahlen: In der Einführungsphase wird die kohortenbezogene mittlere Studiendauer durch die mittlere Studiendauer eines Absolventenjahrgangs systematisch unterschätzt.

Als Regelstudienzeit des Masterstudiums setzen wir für unsere Modellrechnung vier Semester an, also zwei Jahre. Außerdem nehmen wir an, dass die Hälfte einer Kohorte in der Regelstudienzeit fertig wird. Von den restlichen fünfzig Prozent möge erneut die Hälfte nach einem weiteren Jahr fertig werden. Und so weiter. Bei diesem einfachen Modell kommt für eine Kohorte eine mittlere Studiendauer heraus, die ein Jahr über der Regelstudienzeit liegt: das Studium dauert im Mittel also sechs Semester. Eine Überziehung der Regelstudiendauer um durchschnittlich ein Jahr entspricht in etwa den Erfahrungswerten im alten System (also vor Einführung der gestuften Studiengänge).

Ergebnis der Modellrechnung

Das Modell habe ich einmal auf die jährlichen Studienanfängerzahlen (erstes Fachsemester) seit Einführung des Masters angewendet. Die Grafik zeigt das Ergebnis. Wichtig sind bei diesem Modell nur die relativen Jahrgangsbreiten. Eine bestimmte prozentuale Verringerung dieser Anfängerzahlen um die Studienabbrecher ändert nichts am Ergebnis.

Im ersten regulären Abschlussjahr sind die Studiendauern optimal: zwei Jahre – also Regelstudienzeit – für alle. In den Anfangsjahren erhöhen sich die (prognostizierten) Studienanfängerzahlen nicht dramatisch. Dadurch gewinnen die Nachzügler an Gewicht und die mittlere Studiendauer der Absolventen steigt an. Aber sie bleibt deutlich unter dem Gleichgewichtswert von drei Jahren. In den Jahren ab 2007 erhöhen sich die Studienanfängerzahlen sprunghaft. Daraus folgt nun, dass die mittlere Studiendauer der Absolventen ab 2009 wieder absinkt.

Wir vergleichen die Prognose des Modells mit den Daten der HRK-Veröffentlichung. Dort steht, dass die Absolventen des Jahres 2009 allein für das Masterstudium eine mittlere Studiendauer von 4,6 Semestern benötigten. Da es neben den viersemestrigen auch dreisemestrige Masterstudiengänge gibt, kann man also von einer Überschreitung der Regelstudienzeit durch diese Absolventen um etwa ein Semester ausgehen. Das stimmt  mit dem durch das einfache Modell prognostizierten Wert recht gut überein.

Wir können also auch für die gestuften Studiengänge mit ähnlichen Studienverläufen und Studiendauern rechnen wie bei den alten Studiengängen, auf lange Sicht gesehen also mit einer Studienzeitverlängerung um ein Jahr bzw. zwei Semester je Studiengang.

Da die Studienzeitverlängerung aber einmal für das Bachelor-Studium anfällt und danach auch noch für das Masterstudium, führt das gestufte Studium tendenziell zu einer Studienzeitverlängerung gegenüber dem alten System. Dabei ist noch nicht einmal eingerechnet, dass das Bachelor/Master-System aufgrund der divergenten Zielsetzung des Bachelor-Abschlusses – Berufsqualifizierung einerseits und Vorbereitung auf die Wissenschaftslaufbahn andererseits – ineffizienter ist als ein durchgängiges Studium.

Weitere Widersprüche

Ich komme auf die Erfolgsmeldung am Anfang des Artikels zurück. Die Zahlen sind zu gut, um wahr zu sein.

Wir setzen die genannte Zahl in Beziehung zu weiteren Daten der HRK-Veröffentlichung: Die Fachstudienzeiten für Bachelor und Master zusammengenommen addieren sich auf 11,2 Semester für alle Studierenden der gestuften Studiengänge und auf 11,7 Semester bei den Ingenieurstudiengängen. Selbst wenn die Masterstudenten im Schnitt das Bachelorstudium etwas schneller beenden als die anderen, ergeben sich kaum weniger als 11 Semester für die mittlere Studiendauer der Absolventen und nicht 10,5.

Meine Anfrage an die HRK, was bei der Ermittlung der mittleren Studiendauer für das gesamte Bachelor-Master-Studium eigentlich gezählt worden ist, wurde nicht beantwortet. Stattdessen wurde ich auf das Statistische Bundesamt als Quelle der Datensammlung verwiesen. Von dort habe ich bislang keine Antwort auf meine Anfrage erhalten. Sollte sie noch eintreffen, werde ich im Diskussionsforum darüber berichten.

Stellvertreterstatistiken

Die Bachelor/Master-Erfolgsmeldung ist ein Musterbeispiel für Stellvertreterstatistiken. Darrell Huff spricht im berühmten Büchlein „How to Lie with Statistics“ von „Semiattached figures“. Dem Datenmanipulanten gibt er den Rat: Wenn du nicht beweisen kannst, was du beweisen willst, dann demonstriere etwas anderes und behaupte, es sei dasselbe. Hier ein paar Beispiele aus meiner Sammlung:

Wenn du nicht zeigen kannst, wie oft die Bewohner der Region in die Stadt kommen, dann zeige, dass die, die da sind, oft kommen und behaupte, dass das auch für die Bewohner der Region gilt. (Dieses Beispiel aus der Konsumforschung kennen Sie bereits aus einem meiner früheren Artikel.)

Wenn du nicht feststellen kannst, ob unter den heutigen Menschen der Burnout grassiert, dann berichte stattdessen über die stark zunehmenden Aktivitäten zur Bekämpfung des Burnouts und behaupte, dass diese Zunahme für wachsenden Stress in Alltag und Beruf spricht (DER SPIEGEL, 30/2011, S. 58 ff.).

Wenn du nicht erkennen kannst, welche Fachbereiche an den Hochschulen gute Forschung machen und welche nicht, dann zähle die eingeworbenen Drittmittel und behaupte, dass ein hohes Maß an Drittmitteln für gute Forschung steht.

Wenn du nicht weißt, wie gut die Professoren an deiner Hochschule in der Forschung sind, dann miss die Längen ihrer Publikationslisten und nimm diese Zahlen zum Maßstab für die Bedeutung der Forscher.

Und so weiter. Die Zeitungen und Wissenschaftsjournale sind voll von dem Zeug.

Ich erinnere mich an ein Erlebnis aus meiner Zeit in der Industrie: Der Forschungsmanager rief zur Steigerung der Reputation seines Instituts seine Mitarbeiter dazu auf, ihre Forschungsergebnisse möglichst mehrfach zu veröffentlichen. Sie mögen nur darauf achten, dass die Bilder immer etwas anders aussehen, so dass die Mehrfachverwertung nicht so auffällt.

 

Veröffentlicht unter Bildungswesen, Schule und Hochschule, Statistik, Stellvertreterstatistik | Verschlagwortet mit , , | Ein Kommentar

Size matters

Spektakuläres aus der Wissenschaft

„Koreanische Wissenschaftler haben eine neue Anwendung für die Kunst des Handlesens entdeckt – angesichts der Finger ihrer männlichen Probanden vermochten die Forscher um Kim Tae Beom vom Gachon University Gil Hospital deren Penislänge einzuschätzen. Je kleiner der Quotient aus den Längen von Zeige- und Ringfinger der rechten Hand, desto stattlicher der Penis, berichten die Wissenschaftler…“ So steht es im Nachrichtenmagazin „Der Spiegel“ unter dem reißerischen Titel „Finger verrät Penislänge“, Ausgabe 27/2011, Seite 120.

Da haben wir wieder einmal eine jener vermeintlich spektakulären wissenschaftlichen Entdeckungen, die von den Medien so gerne an die große Glocke gehängt werden. Für Partygespräche mag so etwas gut sein. Aber was steckt dahinter? Ist es für den Hausgebrauch – im Swingerclub beispielsweise – von irgendwelchem Nutzen? Sehen wir doch einmal genauer nach.

Was wurde tatsächlich herausgefunden?

Der Spiegel gibt die qualitativen Aussagen des Originalartikels „Second to fourth digit ratio: a predictor of adult penile length“ korrekt wieder. Aber solche qualitativen Aussagen sind im Grunde belanglos.

Grundsätzlich liefern statistische Studien quantitative Ergebnisse, die etwas darüber aussagen, wie groß und wie deutlich der gefundene Effekt ist. Wenn wir verstehen wollen, was bei der Studie, über die hier berichtet wird, wirklich herauskam, müssen wir uns demnach mit Zahlen beschäftigen. Etwas Mathematik ist zum Verständnis unerlässlich. (Die Mathematik, von der hier die Rede ist, sollte zumindest zukünftig zur mathematischen Allgemeinbildung zählen.)

Es geht um den statistischen Zusammenhang zweier Größen. Aus der Stichprobe der 144 Männer wurden für die untersuchten Größen Schätzwerte für Mittelwert (Erwartungswert) und Standardabweichung ermittelt. Die folgende Tabelle zeigt diese Werte.

In der Studie ermittelte statistische Kenngrößen

Den Zusammenhang zwischen den beiden Größen beschreibt der Korrelationskoeffizient. Die Studie ergab den Wert r = −0.216.

Ein kleines Experiment

Was sagen uns diese Zahlen über Größe und Deutlichkeit des Zusammenhangs? Um das zu klären, schiebe ich ein kleines Rechenexperiment ein, das sich mit einem ganz normalen Tabellenkalkulationsprogramm (beispielsweise Excel) durchführen lässt: Regression.xls.

Die Deutlichkeit des Zusammenhangs lässt sich daran ermessen, inwieweit sich das gefundene Ergebnis von einem reinen Zufallsfund abhebt. Wir gehen also erst einmal von der Hypothese aus, dass es keinen Zusammenhang zwischen den beiden untersuchten Größen gibt (Nullhypothese). Für unser kleines Experiment nehmen wir an, dass die Größen einer Normalverteilung unterliegen. Durch Mittelwert und Standardabweichung sind die den Größen zugeordneten Zufallsvariablen eindeutig bestimmt.

Ich erzeuge eine Stichprobe aus 144 Wertepaaren der uns interessierenden Größen mit dem Zufallsgenerator und trage diese in eine xy-Grafik ein — auf der x-Achse die Werte der Einflussgröße (Quotient der Fingerlängen, Digit ratio) und auf der y-Achse die jeweils zugehörigen Werte der Zielgröße (Penislänge, Penile length).

Die Regressionsgerade (linearer Trend) hat eine Steigung, die proportional zum ermittelten Korrelationskoeffizienten ist. Wohlgemerkt: Die Wertepaare sind jeweils voneinander statistisch unabhängig und der Korrelationskoeffizient ist nach den Regeln der Wahrscheinlichkeitsrechnung gleich null. Wegen der endlichen Stichprobengröße ergeben sich Zufallswerte, die meist ein wenig von null abweichen (vorgetäuschte Korrelation).

Nach ein paar Experimenten (etwa zehn bis zwanzig Neuberechnungen des Arbeitsblattes) erscheint eine Grafik, die derjenigen der Originalveröffentlichung verblüffend ähnlich sieht. Der Korrelationskoeffizient beträgt in dem von mir gefundenen Fall sogar -0.26. Das folgende Bild zeigt links mein Ergebnis und rechts das der Studie.

Ergebnisse des Computerexperiments (links) und der Studie (rechts)

Offenbar lässt sich nicht ausschließen, dass es sich bei dem Ergebnis der Studie um einen reinen Zufallsfund handelt.

Die Autoren haben ihr Ergebnis als signifikant (nur ein anderes Wort für deutlich) eingestuft, sehen es also nicht als Zufallsfund an. Dabei legen sie, wie in solchen Studien üblich, ein Signifikanzniveau von 5% zugrunde. Das heißt: Unter zwanzig Zufallsergebnissen findet sich im Mittel eins, das in diesem Sinne signifikant ist. Oder so: Der Zufall produziert mit 5-prozentiger Wahrscheinlichkeit „signifikante“ Ergebnisse.

Als Faustregel kann gelten: Wenn das Quadrat des Korrelationskoeffizienten, das sogenannte Bestimmtheitsmaß, den Kehrwert des um eins verminderten Stichprobenumfangs um wenigstens den Faktor vier übersteigt, dann ist der Zusammenhang signifikant auf dem 5%-Niveau. Bei der hier vorliegenden Stichprobengröße von 144 und dem Korrelationskoeffizienten r = −0.216 ist die Bedingung erfüllt.

Die Faustregel sagt uns darüber hinaus, dass mit sehr großen Stichproben auch ziemlich kleine Korrelationen deutlich erkennbar sind. Ich komme noch darauf zurück.

Interpretation der Grafiken und der Zahlen

Selbst wenn Zweifel bleiben: Wir nehmen das gefundene Ergebnis als einen deutlichen Hinweis auf den Zusammenhang. Das fällt auch deshalb leicht, weil dem Bericht über die Studie zu entnehmen ist, dass es kein Fishing for Significance gegeben hat: Es wurden also nicht viele verschiedene Einflussgrößen (Länge der Nase, Schuhgröße, Größenverhältnisse aller möglichen Finger- und Zehenpaarungen, usw.) untersucht und aus der Menge der Befunde dann der mit dem deutlichsten Zusammenhang ausgewählt. Bei einem solchen Vorgehen wäre es nämlich nahezu unausweichlich, einen zufällig vorgetäuschten „signifikanten“ Zusammenhang zu finden.

Aber wie steht es um die Größe des Einflusses? Da sieht es tatsächlich ziemlich mager aus: Das Quadrat des Korrelationskoeffizienten, das Bestimmtheitsmaß also, ergibt für die Studie den Wert 4.7%.

Das Bestimmtheitsmaß ist gleich dem Anteil der Varianz der Zielgröße, der durch den linearen Trend erklärt wird. Hier sind das weniger als fünf Prozent. Die Grafiken geben beredtes Zeugnis, wie wenig eine Prognose auf Basis des Größenverhältnisses der Finger mit den tatsächlich stark schwankenden Werten zu tun hat.

Fazit

Ja, es kommt auf die Größe an. Auf die Größe des Zusammenhangs. Die Studie hat einen möglicherweise tatsächlich vorhandenen Effekt gezeigt. Aber er ist winzig und für Vorhersagen unbrauchbar. In der Tat: Size matters.

Veröffentlicht unter Korrelation und Kausalität, Prognosen, Statistik | Verschlagwortet mit , , , , | Schreib einen Kommentar

Erstes Intermezzo

Nachdenken über Sinn und Zweck des Weblogbuchs

Neulich beim Mittagstisch sprachen wir über dieses Weblogbuch und ein Kollege meinte sinngemäß: Wenn man zu jedem Thema etwas sagen wolle, überhebe man sich. Zum Thema „Wundersame Geldvermehrung“ beispielsweise gebe es bereits viele gute Kommentare von Wirtschaftsfachleuten. Ein Informatiker und Ingenieur könne dazu doch kaum etwa beitragen.

Ja, dem stimme ich zu.

Dennoch: Welcher normal gebildete Bürger versteht schon alles, was in den von Experten verfassten Kommentaren steht? Und wer weiß schon, von welchen Interessen der Kommentator geleitet wird? Muss man wirklich das jeweilige Fach studiert haben, um die Dinge halbwegs zu durchschauen und sich ein eigenes Urteil bilden zu können?

Nein und noch mal nein! Wir Bürger mit unserem Alltagsverstand müssen nicht kapitulieren und den Technokraten alle Macht überlassen. Ich halte es mit dem, was Perikles in seiner berühmten Grabrede gesagt hat: „Obgleich nur wenige eine politische Konzeption entwerfen und durchführen können, so sind wir doch alle fähig, sie zu beurteilen.“ (Zitiert nach Karl R. Popper: Die offene Gesellschaft und ihre Feinde.)

Das ist für mich das wichtigste Axiom der Demokratie: Wir können über die Dinge, die uns betreffen, sachgerecht und in unserem wohlverstandenem Interesse urteilen. Gilt dieses Axiom nicht, funktioniert auch die Demokratie nicht.

Es kann in so einem Weblogbuch nicht darum gehen, den Profis ins Handwerk zu pfuschen. Aber eins geht schon: Den gesunden Menschenverstand derart schärfen, dass wir den Experten besser verstehen und den Manipulanten leichter durchschauen können. Durch Betätigung des eigenen Verstandes überwinden wir die Unmündigkeit.

Daran können wir arbeiten. Als Wahlbürger ist es genau genommen sogar unsere Pflicht. Was wir brauchen, ist nicht etwa ausgefeiltes Expertenwissen. Wir müssen nur unsere Allgemeinbildung pflegen. In diesem Weblogbuch geht es speziell um Alltagslogik, Alltagsmathematik und die Kunst, die richtigen Fragen zu stellen.

Veröffentlicht unter Intermezzo | Schreib einen Kommentar