Wundersame Geldvermehrung

Der „Sündenfall“: Zentralbanken kaufen Staatsanleihen

Der Tagesspiegel meldete am 11.05.2010 unter dem Titel „Eine Institution bröckelt“: „Die Europäischen Zentralbank (EZB) kauft erstmals Staatsanleihen… damit finanziert sie indirekt die Schulden, die Griechenland und andere in Bedrängnis geratene Länder aufgenommen haben.“

Zitiert wird der EZB-Rat und Bundesbank-Chef Axel Weber. Weber habe gesagt, dass der Ankauf „erhebliche stabilitätspolitische Risiken“ berge und dass es jetzt darauf ankomme, die Risiken so gering wie möglich zu halten. Die Ankäufe seien eng begrenzt und zielten allein darauf ab, „die Funktionsfähigkeit der Anleihemärkte und des geldpolitischen Transmissionsprozesses wiederherzustellen“.

Der Leser bleibt verunsichert zurück: Einerseits bröckelt eine Institution, aber andererseits ist es nicht so schlimm; die Funktionsfähigkeit der Anleihemärkte kann ja wieder hergestellt werden. Wer wissen will, wie schwerwiegend das Geschehen tatsächlich ist, muss sich ein paar grundlegende Elemente der Volkswirtschaftslehre vor Augen führen, insbesondere das Prinzip der Geldmengenkontrolle.

Hauptaufgabe der Zentralbanken ist die Sicherung der Preisniveaustabilität. Diese Aufgabe erfüllen sie vor allem durch die Festlegung von Mindestreserven für die Geschäftsbanken und durch die Festlegung der Leitzinsen.

Auf dem Geldmarkt hängt die Nachfrage nach Geld vom Zinsniveau einerseits und von der Wertschöpfung der gesamten Wirtschaft andererseits ab. Die Erhöhung von Mindestreserven und Leitzinsen wirkt sich gegenläufig auf die Geldmenge aus: Darlehen und Kredite werden teurer und die Geldmenge sinkt. Und das wiederum wirkt dämpfend auf das Preisniveau.

Bei – gemessen an der Wirtschaftsleistung – zu geringer Geldmenge und darbender Wirtschaft erniedrigt die Zentralbank die Leitzinsen. Das ermöglicht den Geschäftsbanken, Geld  zu niedrigeren Zinssätzen auszugeben – Geld, das die Unternehmen dann für Investitionen zur Verfügung haben. Ein unerwünschter Nebeneffekt der erhöhten Geldmenge ist, dass die Preise tendenziell steigen. Eine Erhöhung der Leitzinsen bewirkt das Gegenteil.

Wir haben es also mit einem Regelkreis zu tun, der durch die negative Rückkopplung über die Leitzinsen und Mindestreserven stabilisiert wird. Wesentlich dabei ist, dass die Zentralbank genau in dem besprochenen Sinnen funktioniert. Der folgende Wirkungsgraph zeigt den Regelkreis der Geldmengenkontrolle.

Regelkreis der Geldmengenkontrolle

Zu den Schuldenmachern gehören die Staaten: Sie können sich auf dem freien Markt Geld besorgen, indem sie Staatsanleihen auflegen. Staaten wie Griechenland, die dringend an Geld kommen müssen, besorgen es sich über Staatsanleihen mit weit über dem Durchschnitt liegenden Zinsangeboten; das wiederum führt zu einer nicht mehr tragbaren Staatsverschuldung.

Wenn nun die Zentralbank zur Abwendung des Staatsbankrotts die Staatsanleihen kauft, bricht sie den Regelkreis der Geldmengenkontrolle auf: Die Zentralbank gibt ihre Souveränität und Steuerungskompetenz teilweise auf und macht sich zum Opfer möglicher Umschuldungsmaßnahmen. Die Steuerungsparameter, also Leitzinsen und Mindestreserven, verlieren an Wirksamkeit. Wegen des überhöhten Zinses, den nun ja die Zentralbank erbringen muss, wird Geld geschaffen, das nicht mehr durch die Wertschöpfung gedeckt ist. Bei Fortsetzung dieses Prozesses droht Inflation.

In dem Tagesspiegel-Artikel kommen Experten zu Wort, die die Verpflichtung der Europäischen Zentralbank (EZB), Anleihen aus angeschlagenen Staaten aufzukaufen, als „Sündenfall“ bezeichnen. Man achte auf die verniedlichenden Anführungszeichen. Das klingt nach Schönfärberei: Tatsächlich schwächt die Zentralbank ihre Funktionsfähigkeit; sie macht sogar das Gegenteil dessen, was ihre Aufgabe ist. Axel Weber hat dieser Befürchtung inzwischen starken Ausdruck gegeben und ist zurückgetreten (Spiegel online, 14.02.2011).

Was sind die Folgen einer Inflation? Erspartes verliert an Wert. Es mag ja richtig sein, dass auf diese Weise diejenigen, die etwas haben, die Sparer, zu solidarischem Handeln mit den Notleidenden herangezogen werden. Allerdings irritiert, dass die Hilfeleistung um mehrere Ecken herum und für die Betroffenen ziemlich schwer erkennbar, im Halbdunkel sozusagen, geschieht.

Außerdem ist es möglich, dass die Auswirkungen des „Sündenfalls“ die Falschen treffen. Der Internationale Währungsfonds IWF meint, dass  die Inhaber solcher hoch verzinsten Staatsanleihen auf einen Teil ihrer Rendite verzichten sollten. (Der Spiegel, 14/2011, S. 60). So ließe sich eine übermäßige Geldschöpfung vermeiden. Allerdings wäre zur Zeit, wegen der bereits gekauften Staatsanleihen, auch die EZB ein Opfer dieser Maßnahme.

Unsere Probleme mit dem Unendlichen

Der oben geschilderte Prozess der Geldvermehrung bringt mich auf Ponzis Schema. Charles Ponzi hat in den Monaten Juni, Juli und August 1920 in Boston ein Schneeballsystem betrieben. Die Bezeichnung geht auf ihn selbst zurück: „I started a small snowball downhill. But it developed into an avalanche by itself.“ (Mitchell Zuckoff: Ponzi’s Scheme. 2005)

Ponzis Angebot: Man erhält auf seine Einlagen 50 % Zinsen in 45 Tagen, 100 % in 90 Tagen. Der mathematisch Geschulte wird bei einem solchen in sich widersprüchlichen Angebot stutzig: Nach doppelter Zeit sollte man deutlich mehr als das Doppelte erwarten dürfen. Aber Gier und Unmäßigkeit sind wohl Feind der gesunden Skepsis. Jedenfalls traf das Angebot auf reges Interesse, das nach den ersten Auszahlungen – getätigt aus den Einlagen der Neukunden – tatsächlich lawinenartig anschwoll. Diejenigen, die nicht rechtzeitig ausstiegen, mussten insgesamt Verluste in zweistelliger Millionenhöhe hinnehmen.

Bernie Madoff hat in New York ein Schneeballsystem sogar über vier Jahrzehnte lang bis Ende 2008 betrieben (Andrew Kirtzman: Betrayal. The life and lies of Bernie Madoff. 2009). Der Schaden belief sich schließlich auf viele Milliarden Dollar. Und das Tolle an diesem Coup: Zu den Betrogenen gehörten Adlige, Neureiche, Bankiers, Hedgefond- Manager, und selbst die Börsenaufsicht SEC (Securities and Exchange Commission) hatte versagt und mehrfach klare Hinweise auf das Betrugssystem missachtet.

Neben der Gier könnte auch eine Denkfalle daran beteiligt sein, dass wir auf Schneeballsysteme hereinfallen. Diese Denkfalle trägt den Namen Complacency und beinhaltet Sicherheitserfahrung („Es ist ja noch nichts passiert“), übersteigertes Selbstvertrauen, Überheblichkeit und Arglosigkeit.

Und dieselbe Denkfalle schnappt möglicherweise zu, wenn wir uns damit trösten, dass im Falle der Staatsanleihen alles wohl nicht so schlimm kommen werde.

Aber da ist noch ein zweiter Aspekt; er betrifft das Konzept des Unendlichen. Dieses mathematische Konzept ist äußerst nützlich, wenn wir beispielsweise Zusammenhänge in der Wirtschaft auf ihre langfristigen Auswirkungen hin untersuchen. Weil sich Systemgrößen in vielen Fällen „auf lange Sicht“ stabilisieren, werden aus komplizierten dynamischen Beziehungen schließlich einfache Gleichungen, die sich leicht untersuchen und interpretieren lassen. Die Lehrbücher der Volkswirtschaftslehre sind voll solcher Gleichungen für stationäre und stabile Fälle.

Aber schon John Maynard Keynes hat uns gewarnt: „In the long run we are all dead.“ Wenn etwas nicht mehr so recht stimmt, wie beim gestörten und aufgebrochenen Regelkreis der Geldmengenkontrolle oder beim Schneeballsystem, kann es zu einer explosionsartigen Dynamik mit verheerenden Folgen kommen. Gleichgewichtsbetrachtungen helfen dann nicht mehr weiter.

Das Umtauschparadoxon

Das Konzept des Unendlichen ist sowohl grandioser Vereinfacher als auch teuflische Falle. Es schadet nicht, sich etwas damit auseinanderzusetzen. Das Umtauschparadoxon bietet dazu Gelegenheit. Ich entnehme die Beschreibung des Paradoxons meiner Sammlung der Denkfallen und Paradoxa.

Zwei Briefumschläge enthalten Geld, einer doppelt so viel wie der andere. Ich darf einen Umschlag auswählen, und das Geld entnehmen. Danach darf ich entscheiden, ob ich das Geld behalten will oder zum anderen Kuvert wechsle. Angenommen, ich ziehe ein Kuvert und finde 100 € darin.  Eine kurze Überlegung zeigt mir, dass ich das Angebot zum Umtausch annehmen sollte: Da ich den Briefumschlag rein zufällig gewählt habe, ist die Wahrscheinlichkeit dafür, dass ich zunächst den kleineren Betrag gezogen habe genauso groß wie die Chance für den größeren Betrag, also jeweils gleich ½. Den 100 €, die ich jetzt habe, stehen im Falle des Umtauschs ½ ∙ 200 € plus ½ ∙ 50 € gegenüber. Das ist eine Gewinnerwartung von 125 €, und das sind 25 € mehr als ohne Umtausch.

Widerspruch: Da es auf den Betrag nicht ankommt, hätte ich mich – ohne den Umschlag zu öffnen – gleich für den anderen Briefumschlag entscheiden können. Aber damit bin ich wieder bei der Ausgangssituation: Ich habe ja einfach nur gewählt und kann dieselbe Überlegung wie oben anstellen. Der Wechsel würde auch jetzt Gewinn versprechen, obwohl ich dann wieder beim ersten Umschlag gelandet wäre.

Veröffentlicht unter Wirtschaft | Verschlagwortet mit , , , | Ein Kommentar

Wie wissenschaftlich ist die Homöopathie?

 

Homöopathie

In der Fuldaer Zeitung vom 13. September 2010 erklärt der Allgemeinmediziner Dr. Klaus Isert, wie Homöopathie funktioniert: „Dem Körper werden Informationen auf dem energetischen Weg geliefert – nichts anderes läuft beim Satellitenempfang ab.“ Dr. Jürgen Freiherr von Rosen (Schlosspark-Klinik Gersfeld) stimmt dem zu: „Die Homöopathie liefert dem Körper Informationen – wenn er aufnahmebereit dafür ist.“ Und die Experten sind sich in einem Punkt einig: „Wasser hat ein Gedächtnis.“

Sollten Sie diese Aussagen nicht verstanden haben, hilft Ihnen vielleicht dieser Kurzkurs in Sachen Homöopathie weiter: Aufgestellt wurde diese Therapieform von Samuel Hahnemann (1755-1843). Die Behandlung beginnt mit einer gründlichen Untersuchung des Patienten. Sie dient der Repertorisierung. Dabei wird das Krankheitsbild ermittelt und mit den Arzneimittelbildern, das sind die Symptome, die die jeweiligen Mittel an Gesunden hervorrufen, verglichen. Ausgewählt wird nach dem Simile-Prinzip dasjenige Mittel, dessen Arzneimittelbild dem Krankheitsbild am ähnlichsten ist (Homöopathie = ähnliches Leiden). Allerdings wird das Mittel nicht pur, sondern stark verdünnt verabreicht. Der Grad der Verdünnung, ausgedrückt in Potenzen, ist meist so extrem, dass in dem Lösungsmittel (Wasser oder Alkohol) keinerlei Spuren der Substanz mehr vorhanden sein können. Der Patient nimmt ausschließlich das Lösungsmittel zu sich. Und um wirksam zu sein, braucht dieses Lösungsmittel eben ein „Gedächtnis“.

Einem Wassermolekül wird im Laufe seiner Existenz eine Menge Information angeboten. Das Wasser braucht also ein ziemlich selektives Gedächtnis, wenn es die angestrebte Informationsübertragung und die damit einhergehende spezifische Wirkung erreichen soll. Nicht anders der Alkohol.

Die Lehre, dass Wasser und Alkohol ein Gedächtnis besitzen, stellt eine Herausforderung für die gängigen Lehrbuchweisheiten und die aktuelle Wissenschaft dar. Auf jeden Fall ist  diese umwälzende Erkenntnis nobelpreiswürdig.

Also: Was ist dran an der Homöopathie? Ist sie wissenschaftlich fundiert?

Wissenschaft

Machen wir uns erst einmal klar, was wir unter Wissenschaft verstehen wollen.

Nach Karl Raimund Popper lassen sich die empirisch-wissenschaftlichen Systeme gegenüber Mathematik und Logik und gegenüber den metaphysischen Systemen durch das Falsifizierbarkeitskriterium abgrenzen (Logik der Forschung, 1934, 1982): „Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können.“ Dieses Abgrenzungskriterium ist eine Spielregel des Spiels empirische Wissenschaft und selbst nicht Gegenstand der wissenschaftlichen Erkenntnis.

Demnach zerfallen die Erkenntnissysteme in zwei Sparten: In wissenschaftliche und in metaphysische Erkenntnissysteme. Zu letzteren gehören die Religionen und die Pseudowissenschaften.

Nicht jeder im Rahmen eines wissenschaftlichen Erkenntnissystems formulierte Satz ist auch richtig. Denn Prüfbarkeit heißt, dass die Prüfung auch zur Widerlegung führen kann. Es gibt also einen Schatz an momentan akzeptierten Aussagen und Theorien einerseits und den wesentlich größeren „Abfallhaufen“, der im Laufe der Geschichte widerlegten Theorien andererseits. Das folgende Klassifikationsschema bietet eine Übersicht über die Erkenntnissysteme.

Klassifikation der Erkenntnissysteme

Wenn ein Gebiet – wie beispielsweise die Homöopathie – den Anspruch auf Wissenschaftlichkeit erhebt, können wir diesen Anspruch mit einigen Testfragen auf die Probe stellen.

  1. Fragen zur Generalisierung: Was genau wird behauptet? Handelt es sich um einen hinreichend allgemeinen Anspruch? (Einmalige Vorgänge und Wunder stehen nicht zur Debatte.)
  2. Fragen zur Falsifizierbarkeit: Ist der Anspruch überprüfbar? Ist er grundsätzlich widerlegbar? (Was immun gegen jeden Widerlegungsversuch ist, hat keinen Erkenntniswert.)
  3. Fragen zur Objektivität: Lassen sich Anspruch und Testergebnis verständlich und nachvollziehbar darstellen? Ist die Prüfung von unabhängiger Seite wiederholbar?

Analyse

Hahnemann hat mit der von ihm vermuteten Heilwirkung der Behandlung nach dem Simile-Prinzip und der Technik der Potenzierung eine prüfbare Hypothese formuliert, auch prüfbar nach den gängigen Regeln der klinischen Tests.

Und solche Tests wurden in großer Zahl und mit unterschiedlicher Strenge durchgeführt. Es gibt Metastudien, in denen viele dieser Tests unter Einrechnung ihrer Strenge zusammengefasst werden. Solche sind in dem renommierten Medizinfachblatt The Lancet erschienen. Noch aktuell dürfte die von Shang u.a. (2005) sein.

In dieser Metastudie wird die Wirksamkeit der Homöopathie derjenigen der „normalen“ Medikation (Allopathie) gegenübergestellt. Verlässlich nachgewiesen wird eine Risikoreduktion auf 88% im Falle der Homöopathie und auf 58% im Fall der Allopathie. Die Zusammenfassung schließt mit dem Urteil, dass die Ergebnisse der Studie mit der Auffassung verträglich seien, dass die klinischen Effekte der Homöopathie Placebo-Effekte sind.

Kurz gesagt: Die Homöopathie ist wissenschaftlich begründet, also grundsätzlich prüfbar; aber sie besteht die Prüfung nicht.

Die Vertreter der Homöopathie können dieses Urteil nicht akzeptieren. Sie sehen den Standard für klinische Tests, die placebokontrollierte randomisierte Doppelblindstudie, als nicht geeignet für die Homöpathie an, da diese Tests der Ganzheit des lebenden Menschen und dem individuellen Krankheits- und Heilungsverlauf nicht gerecht würden. Sie favorisieren die Einzelfallstudie. Nur so könne die individuelle Wahl und erforderlichenfalls der Wechsel der Arznei in Abhängigkeit vom Symptomverlauf berücksichtigt werden.

Es fragt sich allerdings, wie in den Einzelfallstudien der Misserfolg festgestellt werden soll, wenn es zum Prinzip gehört, dass erforderlichenfalls „weitere Interventionen anhand der aktuellen Symptomatik“ erfolgen (Friedrich Dellmour). Durch dieses Hintertürchen entzieht sich die Therapie jeglicher Widerlegung. Und damit verliert die Homöopathie den Status der Wissenschaftlichkeit.

Die Karl und Veronica Carstens-Stiftung, deren zentrale Aufgabe die Förderung der Homöopathie ist, hat zum Thema Homöopathie und klinische Forschung eine Stellungnahme abgegeben.  Diese Darstellung bietet ein erstes Bild vom Für und Wider verschiedener Prüfungsansätze in der Homöopathie.

Ich komme eingedenk der Argumente der Befürworter zum Schluss, dass die Homöopathie entweder widerlegte Wissenschaft ist oder aber Pseudowissenschaft. Sie gehört wohl in eines der beiden grauen Kästen des Klassifikationsschemas.

Vielleicht wollen Sie selbst einmal die eine oder andere Diagnosemethode oder Therapieform der Alternativ- und Komplementärmedizin unter die Lupe nehmen und auf Wissenschaftlichkeit untersuchen. Hier ein paar Anregungen:

  • Kirlian-Photographie
  • Aroma-Therapie
  • Bachblüten-Therapie
  • Eigenblut-Therapie
  • Edelsteintherapie
  • Fußreflexzonen-Massage
  • Detox-Ausleitungsfußbad
  • Magnetfeld-Therapie
  • Neurolinguistisches Programmieren (NLP)
  • Positives Denken
  • Reiki
Veröffentlicht unter Skeptizismus, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , , , | 2 Kommentare

Korrelation und Kausalität: Sex ist gesund

Keine Angst. Jetzt kommt nicht schon wieder die Geschichte von den Störchen und den Geburten. Die ernst gemeinten Zeitungsmeldungen sind viel interessanter. In der TIME vom 21. Februar 2011 habe ich diese entdeckt: Eine britische Studie (ALSPAC) habe zum Thema Kinder und Ernährung ergeben, dass gesund ernährte Dreijährige (viel Früchte, Gemüse, Reis und Teigwaren) im Alter von achteinhalb Jahren einen höheren Intelligenzquotienten hätten als Kinder, deren Ernährung aus viel Fett, Zucker und verarbeiteten Lebensmitteln bestand. Verblüffend sei, dass eine Verbesserung der Ernährung in höherem Alter zwar die Gesundheit insgesamt verbessere, aber dass sie keinen Einfluss auf den IQ habe.

Dem Leser wird hier eingeredet, dass eine gesunde Ernährung einen direkten Einfluss auf den IQ hat. Aber eins ist gewiss: Mit Statistiken dieser Art lassen sich niemals  Ursache-Wirkungsbeziehung nachweisen. Wenn die Statistik einen Zusammenhang zwischen zwei Größen A (Ernährung) und B (Intelligenz) ergibt, dann ist möglicherweise eine Veränderung von A tatsächlich die Ursache einer Veränderung von B. Aber es kann auch umgekehrt sein. Oder aber beide Größen hängen von einer dritten Größe C ab.  Ein guter Rat ist, sich bei solchen Meldungen immer diese drei grundsätzlichen Möglichkeiten vor Augen zu führen:

  1. AB
  2. B → A
  3. CA und CB.

Die Zusammenfassung der oben angesprochenen Studie ist etwas zurückhaltender als der Zeitungsbericht. Hier ist nur von Zusammenhängen (Korrelationen) die Rede.  Aber da wir Menschen von Natur aus überall Ursache-Wirkungsbeziehungen (Kausalitäten) vermuten und suchen, kann der unvorsichtige Leser genauso auf diese Kausalitätsfalle hereinfallen wie die Redakteure der TIME.

Bei dieser Studie könnte man beispielsweise die durch das Elternhaus gegebenen Voraussetzungen (C) als ursächlich sowohl für die Ernährung als auch für den IQ ins Feld führen.

Die kritische Untersuchungsmethode der drei Möglichkeiten hilft, die Kausalitätsucht besser zu beherrschen, auch wenn die Welt tatsächlich viel komplexere Abhängigkeiten zu bieten hat. Hier noch ein Beispiel, an dem Sie diese simple Methode ausprobieren können.

Die Fuldaer Zeitung meldete am 10. Januar 1998: „Männer, die häufiger Sex haben, leben länger als Sexmuffel… Drei Forscher aus Bristol und Belfast untersuchten dazu 918 Männer zwischen 45 und 59 Jahren auf ihren Gesundheitszustand und ihre sexuellen Aktivitäten über zehn Jahre hinweg. Das Ergebnis: Bei den Männern, die die meisten Orgasmen hatten (mindestens zwei pro Woche), war die Sterblichkeitsrate nur halb so hoch wie bei denjenigen der enthaltsamsten Gruppe, die seltener als einmal pro Monat aktiv waren.“ Die Autoren der Studie schreiben in ihrem Bericht, erschienen im traditionsreichen British Medical Journal (BMJ), dass  ihre Ergebnisse im Gegensatz zu der in vielen Kulturen vertretenen Ansicht stehe, dass das Vergnügen des Geschlechtsverkehrs nur auf Kosten der Vitalität und des Wohlbefindens zu haben sei.

Auf ähnliche sonderbare Meldungen in Zeitung, Radio und Fernsehen werden Sie nicht lange warten müssen. Dann sollten Sie an die oben beschriebenen drei Möglichkeiten denken.

Übrigens kann man den Autoren der BMJ-Studie kaum einen Vorwurf machen. Hier haben die Journalisten etwas für bare Münze genommen, was wohl nicht ganz so ernst gemeint war. Die Autoren schreiben nämlich – wohl mit der Zunge in der Backe: „Der in dieser Studie beschriebene Zusammenhang zwischen Orgasmushäufigkeit und Sterblichkeit ist aus epidemiologischer und biologischer Sicht wenigstens genauso überzeugend wie viele der in anderen Studien berichteten Zusammenhänge… Auch könnten Gesundheitsprogramme in Erwägung gezogen werden, vielleicht so wie die anregende Wenigstens-fünfmal-täglich-Kampagne zur Förderung des Obst- und Gemüsekonsums – obwohl man die Zahlenvorgabe etwas anpassen sollte… Die enttäuschenden Ergebnisse von Gesundheitsförderungsprogrammen könnten hier ausbleiben, da es sich um potentiell freudvolle Aktivitäten handelt.“

Veröffentlicht unter Korrelation und Kausalität, Statistik | Verschlagwortet mit , , , | Schreib einen Kommentar

Prognosen und Singularitäten

Den Leuten, die einen Blick in die Zukunft wagen, verdanken wir wunderbare Visionen: Bücher und Filme breiten vor uns Phantasiewelten aus. Darin gibt es Roboter, die den Menschen an Kraft und Intelligenz überlegen sind. Angefangen hat es wohl 1950 mit den Kurzgeschichten „I, Robot“ von Isaac Asimov.

Noch bevor sein erster Computer funktionsfähig war, ahnte Konrad Zuse, „dass es eines Tages Rechenmaschinen geben würde, die den Schachweltmeister besiegen können“ (Der Computer – Mein Lebenswerk. 1984). Heute ist es Geschichte: Im Jahr 1996 gelang es dem Schachcomputer Deep Blue, den amtierenden Schachweltmeister Garri Kasparow zu schlagen.

Und das ist noch lange nicht alles. Die Nachricht dieses Jahres ist der Sieg des Supercomputers Watson in der US-Quizshow „Jeopardy“.

Es sieht danach aus, als würden die Phantasien Wirklichkeit. Zumindest gibt es gestandene Wissenschaftler und Unternehmer, die fest daran glauben. Sie haben sich in der Singularitätsbewegung (Singularity Movement) zusammengefunden und ziehen in letzter Zeit ziemlich viel Aufmerksamkeit auf sich. Die Wochenzeitung TIME widmet ihr in der Ausgabe vom 21. Februar 2011 einen großen Bericht.

Auskunft über das Wesen der Bewegung erhalten wir von Ray Kurzweil, ihrem zurzeit wortmächtigsten und einflussreichsten Vertreter. Zentral in Kurzweils Argumentation ist eine Grafik; darin sind 49 Rechner und Computer des zwanzigsten Jahrhunderts nach ihren Erscheinungsjahren erfasst. Jede der Maschinen wird in der Grafik durch einen Punkt repräsentiert, dessen Lage durch die Anzahl der Instruktionen pro Sekunde festgelegt ist, die man für jeweils 1000 Dollar erhält. Kurzweil vergleicht diese Punktwolke mit dem Gesetz von Moore, das schon seit einigen Jahrzehnten als relativ stabile Aussage über das exponentielle Wachstum der Computerleistung gilt.

Kurzweil weist darauf hin, dass das Gesetz von Moore wohl für die integrierten Schaltungen gelte, aber dass es von der Mechanik über die Relaisschaltungen, die Röhren- und Transistortechnik bis hin zu den integrierten Schaltungen eine Reihe von Technologiewechseln gab und dass das Wachstum über alle diese Phasen hinweg sogar stärker als exponentiell sei.

Kurzweil veranschaulicht den Effekt der wachsenden Wachstumsrate („law of accelerating returns“) in einer Grafik. Durch die Punktwolke der logarithmisch über der Zeit aufgetragenen Rechnerleistungen legt er einen flotten aufwärts gerichteten Bogen. Er verlängert den Bogen weit über die Punktwolke hinaus und dehnt diesen kühnen Nike-Schwung auf das 21. Jahrhundert aus. Die folgende Grafik basiert auf Kurzweils Daten (Homo s@piens von 1999 und www.kurzweilai.net/the-law-of-accelerating-returns).

Darrell Huff (How to lie with statistics, 1954) nennt so etwas „Gee-Whizz Graphs“: grafisch aufgedonnerte Banalitäten.

Wachsendes Wachstum

Das Bild lässt nach Meinung der Singularitätsanhänger klar erkennen, ab wann der Computer den Menschen bezüglich Intelligenz überflügeln und dann an dessen Stelle die kulturelle Evolution vorantreiben werde. Es geschehe in etwa ab dem Zeitpunkt, zu dem die Wachstumskurve die Gerade „Mensch“ schneidet, also ab 2023. Danach werde es ziemlich bald zu einer Singularität kommen – zu einem Bruch in der Geschichte der Menschheit aufgrund des raschen und grundlegenden technischen Wandels.

Derartige punktgenaue Prognosen sind eigentlich eine Angelegenheit der Weltuntergangspropheten. Diesmal soll der Knall nach oben losgehen.

Kurzweils Daten habe ich nicht im Detail überprüft. Aber ich will doch kurz auf ein paar Dinge eingehen, die mir im Vorübergehen aufgefallen sind. Danach komme ich auf die Wachstumskurve zurück.

  1. Warum soll die Bitzählerei irgendetwas über die Intelligenz aussagen? Man weiß doch noch gar nicht, was Intelligenz überhaupt ist und wie man sie messen soll. Andererseits war bereits Zuses Z3 dem Menschen bezüglich Rechengeschwindigkeit und Genauigkeit weit überlegen. Und wer wissen will, wie weit die Wissenschaft der künstlichen Intelligenz nach Jahrzehnten größter Anstrengungen heute ist, der sollte sich diesen Artikel einmal maschinell ins Englische und dann wieder zurück ins Deutsche übersetzen lassen.
  2. Was die Kosten angeht, wird Zuses Z3 in eine Reihe mit dem IBM-PC gebracht. Aber der PC ist ein Massenprodukt und die Z3 war nie käuflich zu erwerben.
  3. Die Intelligenz des ENIAC wird höher eingestuft als die der Z3. Aber der ENIAC war, anders als die Z3, gar nicht frei programmierbar.

Nun zurück zur Wachstumskurve. Ich verrate Ihnen jetzt, wie Sie eigenhändig exponentielles Wachstum aus dem Nichts erzeugen können. Sie kennen sicherlich die Zahlenrätsel, bei denen man eine Folge von Zahlen geeignet fortsetzen soll. Die Aufgabe besteht darin, ein Bildungsgesetz für die Folge zu erkennen. Nehmen wir einmal die Folge 1, 3, 7, … Sie werden schnell erkannt haben, dass es sich um Zweierpotenzen minus eins handelt. Sie setzen diese Folge folgendermaßen fort: 1, 3, 7, 15, 31, 63, 127, 255, 511, 1023, …

Aber hoppla, es geht auch anders. Sie wissen, dass sich zu drei vorgegebenen Punkten immer ein Polynom zweiten Grades finden lässt, das diese Punkte genau trifft. Also konstruieren Sie sich ein solches Polynom. (Die unabhängige Variable durchläuft dabei die Platznummern der Zahlenfolge.) Sie erhalten jetzt die Folge 1, 3, 7, 13, 21, 31, 43, 57, 73, 91, …

Jetzt brauchen Sie nur noch die beiden Zahlenfolgen voneinander abzuziehen und können sich über dieses Resultat freuen: 0, 0, 0, 2, 10, 32, 84, 198, 438, 932, … Sie haben mit einer einfachen Funktion aus drei vorgebenen Nullen tatsächlich ein exponentielles Wachstum erzeugt. Und das können Sie noch weiter treiben. Sind Ihnen vier Nullen oder gar fünf oder sechs oder … gegeben: Stets finden Sie eine einfache Funktion, die nach diesen Anfangswerten exponentiell ins Unendliche strebt.

Ich hoffe, dieses Zahlenexperiment hat Ihr Vertrauen in kühne Prognosen etwas erschüttert.

Veröffentlicht unter Prognosen, Wissenschaft und Pseudowissenschaft | Verschlagwortet mit , | Schreib einen Kommentar

Evaluitis: Hochschulranking

Mein letzter Artikel sollte zeigen, wie schwer es ist, aus einer Statistik, die mehrere Institutionen betrifft und die in mehrere Bewertungskategorien zerfällt, eine stichhaltige Rangordnung der Institutionen zu gewinnen. Wenn das schon bei untadeligen statistischen Grundlagen wie der Kriminalstatistik gilt, wie viel ungewisser ist dann ein Ranking, wenn auch noch die Datenbasis wackelig ist.

Ein Beispiel für alltäglichen Statistikplunder ist das Hochschulranking, das vom Centrum für Hochschulentwicklung (CHE) der Bertelsmann-Stiftung in gewissen Abständen durchgeführt wird und das auflagenwirksam in den Zeitschriften des Bertelsmann-Verlags referiert wird.

Ich berichte. Wir hatten vor nicht zu langer Zeit den Fachbereich Elektrotechnik an der Fachhochschule Fulda ins Leben gerufen. Da erschien das CHE-Hochschulranking unter anderem mit dem Schwerpunkt Elektrotechnik. Wir kamen dabei sehr gut weg (Fuldaer Zeitung vom 27.1.2001). Wir waren Spitze, zumindest in Hessen. Einige Kollegen meinten, das an die große Glocke hängen zu sollen.

Massenweise wurden die einschlägigen Zeitschriften geordert, um die gute Nachricht möglichst flächendeckend unter das Volk zu bringen. Die Warnung, dass uns das noch schwer auf die Füße fallen könne, blieb im Freudentaumel ungehört.

Wir hatten unter anderem bei der technischen Ausstattung gut abgeschnitten und auch die Studenten fühlten sich gut betreut. Besonders ins Gewicht fiel die Tatsache, dass alle unsere Absolventen in der Regelstudienzeit von acht Semestern abgeschlossen hatten. Das machte unseren Fachbereich zu einem Leuchtturm in der Bildungslandschaft.

Nun ist es allerdings kein Wunder, wenn in einem frisch aufgebauten Fachbereich alle Computer in Ordnung sind. Und auch die  Betreuung funktioniert sehr gut, wenn die neu berufenen Professoren sich vor allem auf die ersten Studentenjahrgänge konzentrieren können.  Aber entscheidend ist, dass den Absolventen damals gar nichts anderes übrig blieb, als in der Regelstudienzeit fertig zu werden. Zur Zeit der Umfrage gab es den Fachbereich gerade einmal vier Jahre und die ersten Absolventen hatten nur die acht Semester des Regelstudiums zur Verfügung. Diejenigen, die den Abschluss damals nicht schafften, kamen in der Statistik nicht vor. Sie „verdarben“ dafür das Ergebnis der Folgejahre.

Auch in den Folgejahren und bis heute wird der Fachbereich Elektrotechnik der Hochschule Fulda überwiegend positiv bewertet. Doch er hat sich dem Durchschnitt etwas angenähert. Was beim Publikum hängen bleibt, ist – ungerechterweise – dieser anfängliche „Absturz“ im Ranking (Fuldaer Zeitung vom 15.4.2002).

Besonder schwer hat dieses Ranking den Fachbereich Wirtschaft in Fulda erwischt. Aber der ist wohl selber Schuld. Jahr für Jahr hatten die Professoren des Fachbereichs über die schlechte materielle und personelle Ausstattung gejammert. Kein Wunder war es dann, dass die Studenten ihrem eigenen Laden keine guten Noten gaben. Es folgte ein ziemlich großer Krach innerhalb der Hochschule, der dann unnötigerweise auch noch der Presse durchgereicht wurde. Grund für das Ganze waren nicht etwa schlechte Leistungen des Lehrpersonals sondern eine total verunglückte Öffentlichkeitsarbeit, zu der nun einmal auch das Hochschulranking gehört.

Soweit die Dinge, die mir ins Auge gefallen sind. Wenn man den Berichten aus anderen Hochschulen und den Veröffentlichungen in den zuständigen Verbandszeitschriften Glauben schenkt, ziehen sich die Datenerfassungsmängel durch das gesamte CHE-Hochschulranking.

Fazit: Die Hochschulrankings erzeugen Pseudowissen und Scheintransparenz. Im Grunde sind sie nicht besser als das Lesen im Kaffeesatz.

Zum Schluss noch etwas zum Grübeln.

Konsumforschung: Am 1. September 1999 berichtet die Fuldaer Zeitung über ein Konsum­for­schungsgutachten. Es wurde herausgefunden, dass etwa 50 Prozent der in Fulda befragten Passanten täglich und nur 25 Prozent wöchentlich in die Stadt kommen. Das wurde als ein gutes Zeichen für die Attraktivität Fuldas gewertet. Ich phantasiere nun ein bisschen: In einer anderen Stadt möge die Befragung ergeben haben, dass 40 Prozent der befragten Passanten täglich und 30 Prozent nur wöchentlich kommen. Wäre das ein Zeichen dafür, dass die „Konkurrenzstadt“ weniger attraktiv als Fulda ist? (Denkfallen: Klug irren will gelernt sein)

Veröffentlicht unter Bildungswesen, Prognosen, Schule und Hochschule, Statistik, Umfragen | Verschlagwortet mit , , | Schreib einen Kommentar

Evaluitis: Von der Statistik zum Ranking

Ohne Zweifel haben polizeiliche Kriminalstatistiken (PKS) ihren Nutzen. Fragwürdig wird die Sache erst, wenn Politik und Öffentlichkeitsarbeit ins Spiel kommen: Dann wird ausgewählt, verdichtet und grafisch herausgeputzt, bis die gewünschte Nachricht passend untermauert ist. Und das geht ganz ohne Fälschung.

Aus der polizeilichen Kriminalstatistik 2009

Der Manipulant weiß, dass sich das Publikum durch Rangfolgen leicht beeindrucken lässt. Das umfangreiche Zahlenwerk der PKS lässt sich beispielsweise zu einer Tabelle zusammenkochen. Wir erhalten eines der beliebten Rankings, hier einmal eine Sortierung der Bundesländer nach polizeilichem Aufklärungserfolg (BKA).

Solche Rankings befeuern die politische Diskussion. Sie genießen eine Wertschätzung, die ihnen genau genommen nicht zukommt. Es handelt sich meist um ziemlich sinnleere Zahlenspielereien. Ein Beispiel sind die heute so geschätzten Hochschulrankings. Aber darüber später, in einem eigenen Artikel. Hier will ich nur zeigen, wie man sich ein persönliches Ranking zusammenbasteln kann. Und dieses Ranking wird auch nicht sinnloser sein als das von interessierter Seite veröffentlichte.

Wir bleiben hier einmal bei den Kriminalstatistiken. Was bei den Kriminalitätsstatistiken funktioniert, geht auch mit beliebigen anderen Statistiken, soweit sie mehrere – womöglich gegeneinander konkurrierende – Institutionen betreffen und wenn die Bewertung in mehrere Kategorien zerfällt.

Aus Osthessen kommt diese Stellungnahme zur Kriminalstatistik 2010: „Bei einem deutlichen Straftatenrückgang von 4.4 Prozent … konnte das Polizeipräsidium Osthessen seine Rekordaufklärungsquote des Vorjahres von 63,4 Prozent noch einmal um 0,2 Prozentpunkte auf 63,6 Prozent steigern. Dies ist die beste Aufklärungsquote seit Bestehen des Polizeipräsidiums Osthessen, betont Polizeipräsident Alfons Georg Hoff anlässlich der Vorstellung der Polizeilichen Kriminalstatistik (PKS) 2010.“

Das Polizeipräsidium Nordhessen kommentiert ihre Kriminalstatistik 2010 folgendermaßen: „Neben dem kontinuierlichen Rückgang der erfassten Straftaten sinkt auch Jahr für Jahr die sogenannte Häufigkeitszahl… Gleichzeitig stieg gegenüber dem Vorjahr die Aufklärungsquote nochmals um 0,3 Prozentpunkte auf jetzt 58,2 Prozent.“ (Eckhard Sauer, Polizeipräsident)

Die Aufklärungsquoten des Jahres 2010 lassen sich der Kriminalstatistik entnehmen.

Aus der hessischen Kriminalstatistik 2010

Bei kreativer Auslegung der Statistik könnte die nordhessische Polizei im direkten Vergleich mit den osthessischen Kollegen besser aussehen. Denn: In die Aufklärungsquote gehen alle Straftaten unterschiedslos ein. Aber ist es wirklich angemessen, einen einfachen Diebstahl genauso zu werten wie einen Mord?

Hätten die Nordhessen beispielsweise jeden Mord oder Tötungsversuch 1000-fach, die sexuellen Straftaten und die Rohheitsdelikte je 100-fach und alle anderen einfach gezählt, käme für sie eine Aufklärungsquote von etwa 87 Prozent heraus, und die läge leicht über der entsprechenden Aufklärungsquote der Osthessen.

Das Beispiel mag konstruiert erscheinen. Aber es illustriert die alltägliche Praxis im Rankinggeschäft. Denn die Rangfolgen hängen ganz entscheidend von der Auswahl und Gewichtung der Einflussgrößen und Kategorien ab. Ein Musterbeispiel dafür ist die fragwürdige Auswahl und Gewichtung von Daten im Zukunftsatlas des Prognos-Instituts, der die deutschen Regionen in eine Rangordnung bezüglich ihrer Zukunftsfähigkeit bringt.

Dass die Schwierigkeiten mit Reihenfolgeproblemen grundsätzlicher Natur sind, hat der Marquis de Condorcet bereits 1758 publik gemacht (Wählerparadoxon, Condorcet-Effekt). Ian Stewart bringt in seinem Buch „Professor Stewarts mathematisches Kuriositätenkabinett“ von 2010 eine dazu passende Denksportaufgabe. Ich sags mal so: Sie werden von Ihrem Freund zu einem Würfelspiel eingeladen. Er lässt Ihnen den Vortritt und bietet Ihnen an, einen von drei Würfeln auszuwählen. Er will sich dann einen von den übrigen nehmen. Die Auswahl ist nicht trivial, denn die Augenzahlen sind etwas sonderbar: Einer der Würfel hat zwei Dreien, zwei Vieren und zwei Achten, der zweite hat zwei Einsen, zwei Fünfen und zwei Neunen, und der dritte zwei Zweien, zwei Sechsen und zwei Siebenen. Welcher der Würfel bietet Ihnen die besten Chancen, eine höhere Punktzahl zu erwürfeln als Ihr Freund? Klugerweise nehmen Sie an, dass Ihr Freund aus den verbleibenden Würfeln den für ihn günstigsten auswählt.

Veröffentlicht unter Statistik | Verschlagwortet mit , , | Schreib einen Kommentar

Guter Mond …

Das „Wissen“ von den übernatürlichen Kräften des Mondes ist, glaubt man der Illustrierten Stern (22/2005),  weit verbreitet: Bei Vollmond bluten Wunden stärker. Werden Wurzeln bei abnehmendem Mond gesammelt, sind sie heilkräftiger als zu anderen Zeiten. Wer bei Neumond fastet, beugt Krankheiten vor, weil dann die „Entgiftungsbereitschaft des Körpers“ am höchsten ist.

Anders steht es um das Tatsachenwissen vom Mond. In der Fuldaer Zeitung vom 8. März 2011 habe ich unter der Rubrik „Wetterbild im Februar 2011“ ein Photo mit dem Titel „Der Mond nimmt zu – und hält trotzdem sein Gewicht“ gefunden. Rechts sehen Sie einen Ausschnitt daraus.

Wie das Bild zustande gekommen ist, weiß ich nicht. Vielleicht handelt es sich um eine partielle Sonnenfinsternis. Jedenfalls sieht der Mond weder beim Zunehmen noch beim Abnehmen so aus.

Abgesehen von dem zu harten Übergang von hell zu dunkel scheinen hier die Sonnenstrahlen um den Mond „herumzugreifen“. Auch kann die Hell-dunkel-Linie kein Kreisbogen sein so wie hier. Welche Form hat dieser Dämmerungsbereich tatsächlich?

Das Bild ist von der Deutschen Presse-Agentur übernommen worden und sicherlich in vielen Tageszeitungen unbeanstandet erschienen. Aber hier habe ich noch einen Fuldaer Eigenbau: Wenige Tage später, am 21. März, erschien in der Tageszeitung ein Bild des aufgehenden Mondes, vor dem sich die Ebersburg als Schattenriss abzeichnete. Zu der Zeit „kam der Himmelskörper der Erde mit 356 580 Kilometern sehr nahe. Deshalb wirkte der Mond in dieser Nacht so groß“, so die Zeitungsmeldung.

Nun ja: Die Entfernung des Mondes weicht um höchstens ±7 % vom Mittelwert ab. Dementsprechend gering ist die Veränderung der Ausdehnung des Mondes am Nachthimmel. Der Unterschied dürfte mit bloßem Auge kaum auszumachen sein. Der großartige Eindruck geht hier wohl eher auf die bekannte Mondtäuschung und auf das Teleobjektiv zurück.

Um wieviele Prozent schrumpft der Durchmesser des Mondbildes eigentlich, wenn sich der Abstand des Mondes vom Betrachter um sieben Prozent vergrößert? Wie sieht es aus, wenn sich der Abstand um sieben Prozent verringert?

Veröffentlicht unter Naturwissenschaften | Verschlagwortet mit , | Ein Kommentar

Hoppla! Da stimmt doch etwas nicht.

Dieses Weblogbuch (Blog) greift sonderbare Nachrichten und allgegenwärtigen Statistikplunder auf und lädt zum Nachdenken darüber ein.

Die Idee zu diesem Weblogbuch kam mir, als ich über diese Meldung der Fuldaer Zeitung vom 9. März 2011 stolperte: „Messungen des Fraunhofer-Instituts für Molekularbiologie und Angewandte Ökologie haben ergeben, dass mit dem neuen Pflaster durchschnittlich rund 25 Prozent des Stickstoffdioxids umgewandelt werden können.“ Die Rede ist hier von einem Pflasterstein namens Airclean, einem neuen Produkt der Firma F. C. Nüdling. 

„25 Prozent“ Schadstoffreduzierung klingt gut. Aber was heißt das? 25 Prozent wovon?

Die Pressemeldung des Fraunhofer-Instituts ist hier etwas genauer: „Bei Messungen am bereits mit dem Pflasterstein AirClean belegten Gothaer Platz in Erfurt wurde in drei Metern Höhe eine durchschnittliche Abbaurate von 20 Prozent bezüglich NO2 und 38 Prozent bezüglich NO erreicht.“

Aber was bedeutet „Abbaurate“? Auf welche Zeitspanne bezieht sich diese Größe? Wer etwas über die Wirksamkeit des Steins erfahren will, muss wohl weiter nachforschen.

Veröffentlicht unter Nicht kategorisiert | Verschlagwortet mit , , , | Schreib einen Kommentar