Was ist eine Denkfalle? (zur Beispielsammlung „Denkfallen und Paradoxa“)
Zur Hauptseite (Rahmen)
Zum Klassifikationsschema (Gliederung)
Zum Literaturverzeichnis (auf dieser Seite)
Das Scheinwerfer- und das Sparsamkeitsprinzip ergeben sich aus der Notwendigkeit, mit begrenzten mentalen Ressourcen (Gedächtnis und Verarbeitungsfähigkeit) zurechtzukommen. Sie stecken hinter allen Denkfallen und sind in diesem Sinne übergeordnet.
Aus dem riesigen Informationsangebot der Außenwelt
werden nur relativ kleine Portionen ausgewählt und bewusst verarbeitet. Es
gibt einen
Engpass der Wahrnehmung. Der von den
Sinnesorganen erfasste Informationsfluss, selbst nur ein winziger Ausschnitt
aus der Menge der auf uns treffenden Signale, ist um viele Millionen mal größer
als das, was wir wahrnehmen; das allermeiste entgeht uns (Grams, 1990, S. 35 ff.).
Die Auswahl und Filterung der Information hängt von der Ausrichtung des
Scheinwerfers der Aufmerksamkeit ab. Popper spricht vom Scheinwerfermodell
der Erkenntnis: „Wir erfahren ja erst aus den Hypothesen, für welche
Beobachtungen wir uns interessieren sollen, welche Beobachtungen wir machen
sollen“ (Popper, 1973, S. 369 ff.). Eine
häufige Ursache für Bedienfehler (beim Autofahren beispielsweise) ist die Gefangennahme
der Aufmerksamkeit: Wir werden abgelenkt und richten dadurch den
Scheinwerfer der Aufmerksamkeit falsch aus (Reason,
1994, S. 91).
Das Sparsamkeits- oder Ökonomieprinzip besagt, dass Arten und Individuen, die ökonomisch mit den Ressourcen umgehen, Vorteile im Konkurrenzkampf haben. Durch Auslese wird folglich der Aufwand zur Erreichung eines bestimmten Zwecks minimiert.
„Die angeboren Information des Auslösemechanismus ist so einfach kodiert, wie dies nur möglich ist, ohne ein Ansprechen auf eine andere als die biologisch adäquate Situation wahrscheinlich zu machen“ (Lorenz, 1973, S. 78). Wir haben einen „angeborenen Hang zur einfachsten Lösung“ (Riedl, 1981, S. 143). Karl R. Popper argumentiert auf der Linie des Ökonomieprinzips, auch wenn er meint, ohne diese Annahme auszukommen: „Vor allem aber erklärt unsere Auffassung, weshalb man in der ‚Einfachheit‘ etwas Vorzugswürdiges sieht. Wir brauchen dazu keine Annahme von der Art des ‚Ökonomieprinzips‘ oder dgl.: Einfachere Sätze sind ... deshalb höher zu werten als weniger einfache, weil sie mehr sagen, weil ihr empirischer Gehalt größer ist, weil sie besser prüfbar sind“ (Popper 1982, S. 103). Er verlangt eben, dass die Prüfung der Sätze – und nicht etwa deren Formulierung – dem Ökonomieprinzip folgt.
Bei übertriebener Anwendung des Sparsamkeitsprinzips
können wir Wesentliches übersehen. Wir denken zu einfach. Das Braess’sche
Paradoxon führt uns das vor Augen.
„Die angeborenen Lehrmeister sind dasjenige, was vor allem Lernen da ist und da sein muss, um Lernen möglich zu machen“ (Lorenz, 1973, S. 119). „Das biologische Wissen enthält ein System vernünftiger Hypothesen, Voraus-Urteile, die uns im Rahmen dessen, wofür sie selektiert wurden, wie mit höchster Weisheit lenken; uns aber an dessen Grenzen vollkommen und niederträchtig in die Irre führen“ (Riedl, 1981, S. 37). Zu den angeborenen Lehrmeistern werden hier die Strukturerwartung, die Kausalitätserwartung, die Anlage zur Induktion, sowie der Neugier- und Sicherheitstrieb gezählt.
Alles Leben geht augenscheinlich von der Hypothese eines objektiv
existierenden Kosmos aus, der von Recht und Ordnung zusammengehalten wird.
Diese Strukturerwartung hat sich im Laufe der Evolution als
Erfolgsrezept erwiesen. Die Strukturerwartung wirkt sich bei der optischen
Wahrnehmung als Prägnanztendenz aus. Das ist
die Sinnsuche des Wahrnehmungsapparats.
Die Gestaltgesetze beschreiben
einige der Effekte, die auf die Prägnanztendenz zurückgehen
(Goldstein, 1997, S. 168 ff.). Besonders eindrucksvoll ist der Effekt der Kontrastbetonung
der optischen Wahrnehmung.
Er spielt auch auf höheren kognitiven Ebenen eine wesentliche Rolle.
Strukturerwartung und Prägnanztendenz schießen
zuweilen über das Ziel hinaus; dann kommt es zur Überschätzung des
Ordnungsgehalts der Dinge. Die „rutschende Leiter“ ist ein Beispiel dafür, wie wir uns die Prägnanztendenz täuschen kann.
Eindimensionales
Ursache-Wirkungsdenken
Die „Hypothese von der Ursache“ enthält die
„Erwartung, dass Gleiches dieselbe Ursache haben werde. Dies ist zunächst nicht
mehr als ein Urteil im Voraus. Aber dieses Vorurteil bewährt sich... in einem
derartigen Übermaß an Fällen, dass es jedem im Prinzipe
andersartigen Urteil oder dem Urteils-Verzicht überlegen ist“ (Riedl,
1981, S. 140). Verhängnisvoll wird das Prinzip bei
ausschließlich eindimensionales Ursache-Wirkungsdenken (Linear Cause-Effect Thinking) und wenn
wir die Vernetzung der Ursachen und die Nebenwirkungen unserer Handlungen außer
Acht lassen (Dörner, 1989, S. 54). Die vom
Menschen verursachten Umweltprobleme zeugen davon.
Noch ein Beispiel: Meist wird nach einem
Flugzeug-, Bahn-, Schiffsunglück oder einem Kernkraftwerksunfall der Pilot, der
Lokführer, der Kapitän oder der Operateur als Schuldiger präsentiert. Menschliches
Versagen heißt es dann, obwohl wir besser von einer Fehlanpassung
von Mensch und Maschine reden und von einer Vielzahl von Ursachen ausgehen
sollten.
Die Fehlerbaumanalyse (Fault Tree Analysis) kann helfen, das monokausale Denken zu
überwinden und die meist vielgestaltigen Ursachen unerwünschter Ereignisse mit
schädlichen oder gar katastrophalen Folgen zu erfassen (Leveson, 1995): Das unerwünschte Ereignis ist Wurzel eines
Baumes. Gefragt wird nach den möglichen Ursachen des Ereignisses. Diese bilden
dann die Zweige des Baumes. Die den Zweigen zugeordneten Ereignisse können selbst
wieder auf ihre Ursachen hin untersucht werden. So führt die Analyse zu
weiteren Verästelungen, bis hin zu den als elementar geltenden Ursachen
(Blätter).
Die Kausalitätserwartung verhindert manchmal nicht
nur das Auffinden der wahren Ursache, weil wir meinen, die Ursache bereits
gefunden zu haben; sie bewirkt auch, dass wir Ursachen sehen, wo gar keine zu
finden sind. Dies dürfte wohl eine der häufigsten Ursachen der
Fehlinterpretation von Statistiken sein. Die Statistik zur Xenophobie demonstriert
den Effekt.
Weil wir uns zusammenhängende Geschichten leichter
merken können, verbindet unser Denkapparat fast zwangsläufig und ohne dass der
Vorgang in unser Bewusstsein tritt Einzelfakten zu Szenarios, zu Geschichten in
denen diese Fakten – wie in einem guten Drehbuch – kausal geordnet erscheinen.
Wir tun das auch dann, wenn es diese Zusammenhänge gar nicht gibt oder wenn uns
die tatsächlichen Zusammenhänge verborgen bleiben. Gerade wenn wir nur wenige
Fakten kennen, ist die Sinnsuche besonders einfach: Wir (er)finden leicht
Geschichten, die zu den Fakten passen; und der Mangel an störenden Diskrepanzen
lullt uns ein. Das imaginierte stimmige Weltbild sorgt für Wohlbehagen und wird
für uns zur Realität.
Und das geht zuweilen gründlich daneben:
Vorstellung und Wirklichkeit weichen in wesentlichen Punkten voneinander ab.
Dann sind wir in der Szenario-Falle
gelandet. Und von dieser Falle gibt es zwei wesentliche Spielarten.
Da ist erstens der Erinnerungsirrtum (Hindsight Bias): Wir verbinden einzelne
Erinnerungsbruchstücke zu stimmigen Geschichten. Diese Geschichten erfinden wir
so, dass unser Selbstbild keine unangenehmen Störungen erfährt. Die Geschichten
passen sich neuen Erkenntnissen an und erzeugen die tröstliche Illusion, es „ja
schon immer gewusst“ zu haben (Fischoff, 1980). Der
Erinnerungsirrtum ist es auch, der zum Leidwesen der Rechtsuchenden, die
Wahrheitsfindung in Gerichtsverfahren so schwer wenn nicht gar unmöglich macht.
In den letzten Jahren mussten einige Gerichtsverfahren, die den Kindsmissbrauch
zum Gegenstand hatten, neu aufgerollt werden, weil die Ersturteile
offensichtlich auf Erinnerungsirrtümern der Zeugen beruhten.
Spiegelbildlich dazu gibt es den Prognoseirrtum.
Er beruht darauf, dass wir uns zukünftige Entwicklungen auf der Basis
vorhandener Daten und Statistiken vorzugsweise als Szenarien vorstellen. Und
das ist eine Reduktion der denkbaren Möglichkeiten, die eher einem weit
verzweigten Baum ähneln. Diese Einengung auf scheinbar stimmige Abläufe ist es,
die dem Zukunftsforscher ein großes Publikum beschert. Und diese Forscher
berichten – zunftgemäß – am liebsten von der von ihnen imaginierten Zukunft und
weniger gern darüber, dass ihre früheren Prognosen kaum einmal Wirklichkeit
geworden sind.
Eine besondere Spielart des Prognoseirrtums tritt
beim Design psychologischer Tests auf. Nehmen wir als Beispiel Tests, die das
Verhalten von Experten in komplexen Entscheidungssituationen erfassen sollen.
Das funktioniert so: In einer Simulationsumgebung – einer Nachbildung des
Leitstands eines Großkraftwerks beispielsweise – wird der Versuchsperson ein
Störungsszenario eingespielt. Die Versuchspersonen erfahren vom Anlagenzustand
nur das, was die Mess- und Anzeigeinstrumente ihnen an Information anbieten.
Und aufgrund dieser reduzierten Information müssen sie Entscheidungen treffen
und gegebenenfalls Notfallmaßnahmen einleiten. Sinn des Tests ist es, die
Ursachen von Fehlentscheidungen aufzudecken und Abhilfemaßnahmen zu definieren.
Diesen Tests haftet ein grundsätzlicher Mangel an: Zu den erfassten und im Leitstand sichtbaren Informationen passen
meist mehrere denkbare Szenarien. Nehmen wir einmal an, dass ein
unwahrscheinliches Szenario eingespielt wird und die Versuchsperson entscheidet
auf der Grundlage eines eher wahrscheinlichen Szenarios. Dann ist die
eigentlich vernünftige Entscheidung falsch. Aufgrund solcher rationalen Prognoseirrtümer wird das
Verhalten der Versuchspersonen nicht korrekt beurteilt. Psychologische Tests
dieser Art haben nur geringe Aussagekraft, wenn überhaupt (Grams, 2000).
Unsere Anlage zur Induktion, also unser Hang zu Erweiterungsschlüssen, arbeitet nach folgendem Argumentationsmuster: Wenn sich aus der Theorie (Hypothese) H ein Ereignis E vorhersagen lässt, und wenn gleichzeitig das Ereignis E aufgrund des bisherigen Wissens recht unwahrscheinlich ist, dann wird die Theorie H aufgrund einer Beobachtung des Ereignisses E glaubwürdiger. Kurz: Aus „H impliziert E“ und „E ist wahr“ folgt „H wird glaubwürdiger“. Diese Art des plausiblen Schließens zusammen mit dem linearen Ursache-Wirkungsdenken (Kausalitätserwartung) macht generalisierende Aussagen überhaupt erst möglich. So kommen wir zu wissenschaftlichen Hypothesen und schließlich Theorien.
Plausibles statt logisches Schließen
Wir tendieren dazu, Induktionsschlüsse mit größerer Bestimmtheit
anzureichern und wie logische Schlussfolgerungen zu interpretieren. Wir
unterscheiden nicht konsequent genug zwischen „Aus H folgt E“ und „Aus E folgt H“. Wir wissen: Wenn es regnet wird die Straße nass. Nun beobachten
wir, dass die Straße nass ist, und wir folgern, dass es wohl geregnet haben
wird. Dieser Schluss ist zwar plausibel, aber er ist nicht zwingend. Es kann ja
auch sein, dass kürzlich der Sprengwagen der Straßenreinigung durchgefahren
ist. Dagegen lässt eine trockene (also: nicht nasse) Straße den
Rückschluss zu, dass es gerade nicht geregnet hat. Letztere Schlussweise nennt
man den Modus Tollens. Der zuvor gezeigt Fehlschluss geht auf das Konto
der Denkfalle Scheitern am Modus Tollens (Anderson, 1988). Der Unfall
von Three Mile Island geht – unter
anderem – auf einen solchen Fehlschluss zurück (Grams, 1998): Ein
kleines Leck im Kühlmittelkreislauf des Kernkraftwerks wurde – entgegen der
Vorschrift – von der Bedienmannschaft über lange Zeit akzeptiert. Der
Kühlmittelverlust an sich war harmlos. Eine bedeutende Nebenwirkung wurde aber
übersehen: Ein schwerwiegender Kühlmittelverlust war vom laufenden
Kühlmittelverlust nicht mehr klar zu unterscheiden und wurde dadurch verdeckt.
Der nahe liegende Rückschluss vom Kühlmittelverlust auf das kleine Leck war
bekanntlich verhängnisvoll. Einen ganz ähnlichen
Fehlschluss – diesmal im Bereich der statistischen Aussagen – offenbart die Harvard-Medical-School-Studie.
Fehler bei der Hypothesenbildung und -abschätzung
Haben wir eine halbwegs schlüssige Hypothese über die möglichen Ursachen unserer Beobachtungen gefunden, neigen wir dazu, diese Hypothese als einzig mögliche Erklärung der beobachteten Effekte anzusehen und die Suche nach konkurrierenden Hypothesen abzubrechen. Voreilige Hypothesen und Ad-hoc-Theorien entfalten eine gewisse Beharrlichkeit: Erst einmal gefasst, geben wir sie ungern auf. Dies bereitet uns Schwierigkeiten, beispielsweise wenn wir eine Diagnoseaufgabe vor uns haben und voreilige Annahmen über die Fehlermechanismen das Aufdecken der eigentlichen Fehlerursache verhindern (Grams, 1990, S. 51). Es hat sich herausgestellt, dass diagnoseunterstützende Systeme – in Kraftwerksleitwarten beispielsweise – durch optische Reize das Einfrieren von hinderlichen Vor-Urteilen begünstigen können: „Generally, it was found that pattern matching displays reduce detection time with the disadvantage that subjects may draw hasty conclusions“ (Elzer/Kluwe/Boussoffara, 2000, S. 87). Die Untersuchung dieser Fehlermechanismen mittels psychologischer Experimente ist besonders schwer, weil bereits die Experimentatoren in die Denkfalle tappen können und Gefahr laufen, die Versuchsszenarios zu eng zu fassen (Grams, 2000).
Ein beliebtes Mittel zur Schaffung und Untermauerung von Vorurteilen sind Statistiken (Siehe dazu das Xenophobie-Beispiel).
Da wir Sicherheit suchen, drängen wir auf die Bestätigung unserer Vorurteile, und weniger auf deren Widerlegung. Damit einher geht unsere Neigung zur Überbewertung bestätigender Information (confirmation bias). Auch auf höherer kognitiver Ebene gibt es also eine Art Scheinwerferprinzip und eine darauf zurückzuführende Blickverengung.
Heuristiken – Faustregeln also – erlauben es uns, schnelle Abschätzungen über Hypothesen und deren Wahrscheinlichkeiten zu machen. Aber es kommt dabei auch zu Irrtümern (Tversky/Kahneman, 1974). Bei der Verfügbarkeitsheuristik passiert Folgendes: Das leicht Erinnerbare wird als wahrscheinlicher eingeschätzt als das, worauf man nicht so schnell kommt. Englischsprachigen Versuchspersonen wurde beispielsweise die folgende Frage gestellt: Welche der wenigstens drei Buchstaben langen Wörter sind häufiger? Solche, die mit einem r beginnen (wie road), oder jene, die ein r an dritter Stelle haben (wie car)? Da es leichter ist, nach Wörtern mit gegebenem Anfangsbuchstaben zu suchen als nach solchen mit einem bestimmten Buchstaben an dritter Stelle, kommt man auf mehr Wörter mit einem r am Anfang. Entsprechend antwortete die Mehrheit der Versuchspersonen. Aber: Das Gegenteil ist richtig.
Folgendes psychologisches Experiment wurde durchgeführt. Versuchspersonen erhielten eine Personenbeschreibung von Linda („Sie ist 31 Jahre alt, alleinstehend, geradeheraus und gewitzt. Im Hauptfach studierte sie Philosophie. Als Studentin befasste sie sich mit den Themen Diskriminierung und soziale Gerechtigkeit, und sie nahm an Demonstrationen der Atomgegner teil.“) Anschließend wurden die Versuchspersonen gefragt, welche der Aussagen über Linda wahrscheinlich eher zutreffe, nämlich „Linda ist Bankangestellte“ (B) oder „Linda ist Bankangestellte und aktive Feministin“ (B&F). Erstaunlicherweise wählten 87 % der Befragten die zweite Aussage (B&F). Das widerspricht den Gesetzen der Logik, nach denen die Wahrscheinlichkeit der Konjunktion zweier Aussagen (B&F) nicht größer als die Wahrscheinlichkeit einer Teilaussage (B) sein kann. Als Ursache des Fehlurteils wird die Repräsentativitätsheuristik gesehen: Die Wahrscheinlichkeit für die Zugehörigkeit zu einer Personengruppe wird abgeschätzt durch den Grad, in dem Linda repräsentativ für die Personengruppe ist (Kahneman/Slovic/Tversky, 1982, S. 90 ff.). Etwas verkürzt ausgedrückt: Hier wird in eine Merkmalsbeschreibung mehr hineininterpretiert als sie eigentlich hergibt. Es ist denkbar, dass dieser Effekt auch manchem Bedienfehler zugrunde liegt: Der Operateur leitet aus den gemachten Beobachtungen zu weitgehende Schlussfolgerungen über die Ursachen ab.
Der Verankerungs-Effekt
kommt darin zum Ausdruck, dass wir uns schwer von einmal getroffenen
Bewertungen und Anfangsschätzungen lösen. Die Halbkreis-Aufgabe zeigt diesen Effekt.
Riskante Manöver gibt es nicht nur beim Betrieb von Anlagen und Systemen mit sehr hohen Gefährdungspotentialen. Auch aus dem Alltagsleben kennen wir sie: Bei Überholvorgängen im Straßenverkehr kommt es oft zu einer hohen Gefährdung des eigenen Lebens und des Lebens anderer. Dem steht meist ein recht bescheidener Nutzen, ein geringfügiger Zeitgewinn, gegenüber. Wie alle unsere Schwächen so ist auch unser Risikoverhalten nur die Kehrseite einer an sich nützlichen Verhaltensweise: „Exploration ist die Triebhandlung des Sicherheitstriebes, also die mit Anstrengung verbundene Umwandlung der Unsicherheit in Sicherheit“ (von Cube, 1995, S. 76).
Exploration ist stets mit Risiken verbunden. Wir müssen Risiken eingehen, um uns die Welt vertraut zu machen, und um noch größerer Risiken zu vermeiden. Gefahr droht also dann, wenn wir keine Risiken eingehen wollen, aber auch dann, wenn wir Risiken nicht richtig einschätzen.
Angst ist ein Auslöser von Problemlösungs- und
Lernvorgängen. Sie spielt eine wichtige Rolle für die Hirnentwicklung (Hüther, 2005): Ausweglos erscheinende Problemlagen erfüllen
uns mit Angst. Die Angst löst Stressreaktionen aus, die mit einer Erhöhung der
Plastizität des Gehirns einhergehen. Positive Angstbewältigung verlangt nach Problemlösungsstrategien. Bei
erfolgreicher Problemlösung verschwindet die Angst; es kommt zu
Glücksempfindungen, die dem Lernen förderlich sind. Die entsprechenden
Denkbahnen werden vertieft oder neu angelegt. Wir fühlen uns wieder sicher.
Eine Alternative zur Angstbewältigung ist die Angstvermeidung.
Beispiel dafür ist der Glaube an die Macht der Sterne, an Schutzengel oder
Talismane: „Angst hat eine lebenserhaltende Funktion... Angstvermeidung im
Sinne der Auslieferung an eine nichtbewältigbare
Unsicherheit ist ein ... schwerwiegender Risikofaktor“ (von Cube, 1995, S. 56).
Complacency bedeutet soviel wie „Selbstzufriedenheit bei unbewusster Gefahr“ („Self-satisfaction
accompanied by unawareness of actual dangers or deficiencies“, Webster’s
Dictionary). Unter diesem Begriff fasst
Nancy Leveson (1995, S. 54-68) ein ganzes Bündel von möglichen Unfall-Ursachen zusammen:
Unterschätzen von Risiken, übermäßiges Vertrauen in technische Maßnahmen wie
Redundanztechniken, Ignorieren von Warnungen, Vernachlässigung von
Ereignissen mit möglicherweise großen Folgen aber geringen
Wahrscheinlichkeiten (Risikoakzeptanz). Mögliche Ursachen sind: Sicherheitserfahrung („Es
ist ja noch nichts passiert“), übersteigertes Selbstvertrauen, Überheblichkeit
und Arglosigkeit.
Langeweile und die „Ironie der Automatisierung“
Von Lisanne Bainbridge
stammt der Begriff „Ironie der Automatisierung“ (Reason,
1994, S. 224): Ein weitgehend automatisiertes System enthält dem Bediener die
Gelegenheiten zum Einüben der im Ernstfall wichtigen Fertigkeiten vor. Der
Gewinn, den die Automatisierung verspricht, wird durch das zusätzlich
erforderliche Operator-Training teilweise wieder aufgefressen. Nancy Leveson (1995, S. 118) stellt den
folgenden Zusammenhang her:
„Tasks that require little active operator behavior
may result in lowered alertness and vigilance and can lead to complacency and
overreliance on automated systems“. Und Felix
von Cube (1995, S. 75) sieht die Langeweile als Ursache des Übels: „Dadurch,
dass der Unterforderte seine Aufmerksamkeit nicht oder nur zum geringen Teil
für seine Arbeit einzusetzen braucht, richtet er sie auf andere Bereiche. So
wird sie unter Umständen ganz von der Arbeit abgezogen, es kommt zu
gefährlichen Situationen.“ Für Thomas B. Sheridan wird der Mensch in die Rolle
des Kontrolleurs abgedrängt, und in genau dieser Rolle ist er nicht besonders
gut (Elzer/Kluwe/Boussoffara, 2000, S. 1).
Lust auf Risiko und
Risikoakzeptanz
Bei gleichem objektiven Risiko wird der sicher eintretende Schaden als bedrohlicher angesehen als ein zufälliger Schaden. Beispielsweise nehmen wir beim Überholen auf einer Landstraße – zur Vermeidung eines oft nur geringfügigen Zeitverlusts – das Risiko des Überholens auf uns. Dies ist Ausdruck eines allgemeinen psychologischen Prinzips, nämlich der immer wieder zu beobachtenden Tendenz zur Überbewertung der Gewissheit (Overweighting of Certainty; Kahneman und Tversky 1979).
Dieser Effekt tritt im Allgemeinen dann ein, wenn die Gefahr bekannt ist, das Risiko freiwillig eingegangen wird, und wenn das Risiko beeinflussbar zu sein scheint (Fritzsche, 1986, S. 123-149; Renn/Zwick, 1997, S. 87-100).
Die vorliegende Taxonomie, das System der Denkfallen, ist Ergebnis einer evolutionsbiologischen Sichtweise: Scheinwerfer- und Sparsamkeitsprinzip ergeben sich aus dem Zwang, die verfügbaren Ressourcen im Konkurrenzkampf möglichst effizient zu nutzen. Die angeborenen Lehrmeister – Struktur- und Kausalitätserwartung, die Befähigung zur Hypothesenbildung und das Neugierverhalten – verschaffen Überlebensvorteile, wie uns die Verhaltensforschung lehrt. Deshalb haben sich diese Verhaltensweisen im Konkurrenzkampf durchgesetzt. Es handelt sich um biologisch begründbare allgemeine Prinzipien. Sie sagen aber kaum etwas darüber, „wie das Denken funktioniert“. Das werden wir wohl auch nie erfahren. Aber es gibt Modellvorstellungen vom Denken mit einigem Erklärungswert. Und die Lieferanten dieser Modelle sind die Psychologen, die ihre Aufgabe darin sehen, mit Experimenten die brauchbaren von den weniger starken Modellen zu scheiden (Huber, 1987). Modellvorstellungen bringen zusätzliche Klarheit und Deutlichkeit in das System der Denkfallen.
Einige Modellvorstellungen sind schon lange bekannt. Auf Aristoteles beispielsweise geht die Vorstellung von den Assoziationen, von den miteinander zusammenhängenden Gedankeninhalten, zurück.
Assoziationen, also die Verknüpfung von zunächst unabhängig voneinander funktionierenden Nervenvorgängen, sind es, die das Erkennen und Abspeichern von Zusammenhängen und Gesetzmäßigkeiten möglich machen. Für das Denken von größter Bedeutung ist, dass neue Denkinhalte in ein Netz von miteinander verbundenen (assoziierten) Informationen eingebettet werden und dass bei Aktivierung eines solchen Denkinhalts das assoziative Umfeld mit aktiviert wird. Dadurch entdecken wir Zusammenhänge, deshalb können wir Schlussfolgerungen ziehen.
Eine andere Modellvorstellung betrifft die Arbeitsteilung des Gedächtnisses mittels Kurzzeit- und Langzeitgedächtnis, wobei ersteres für die bewusste Verarbeitung der Ideen da ist und letzteres für die Langzeitspeicherung. Charakteristikum des ersteren ist die Kapazitätbeschränkung: Nur wenige Gedankeninhalte haben im Bewusstsein Platz und wenn sich die Aufmerksamkeit auf etwas Neues richtet, gerät anderes aus dem Fokus und wird aus dem Kurzzeitgedächtnis verdrängt. Das ist der Grund dafür, dass unsere Wahrnehmung nach dem Scheinwerferprinzip arbeitet. Und derselbe Mechanismus regiert auch das Denken: Unser Bewusstsein durchwandert das Wissensnetz der Assoziationen, wobei stets nur ein kleiner Ausschnitt „sichtbar“ wird. Dem Langzeitgedächtnis schreibt man demgegenüber eine praktisch unbegrenzte Kapazität zur dauerhaften Speicherung zu. Hier wird die Grenze hauptsächlich durch die Schwierigkeiten beim Wiederauffinden von Informationen gesetzt.
Für die vorliegende Taxonomie ist eine andere Unterscheidung von noch größerer Bedeutung, nämlich die zwischen
Die Intuition repräsentiert das langfristig abgespeicherte und sofort verfügbare Wissen, während die Reflexion für unsere Fähigkeit steht, durch diskursives Denken und Analyse die intuitiven Eingebungen notfalls zu korrigieren und zu steuern. Kurz gesagt: Die Intuition macht Denkfallen möglich; und verantwortlich für deren Vermeidung ist die Reflexion.
Die Intuition ist bei unseren Entscheidungen immer dabei – ungefragt und blitzschnell. Die Intuition arbeitet automatisch und anstrengungslos. Sie funktioniert dort gut, wo Entscheidungen in einem stark geregelten Umfeld zu treffen sind (Kahnemann, 2011, S. 234 ff.): Der Schachspieler, der Feuerwehrmann und die Krankenschwester bewegen sich in einem solchen Umfeld und können sich mit zunehmender Erfahrung auf ihr Bauchgefühl verlassen. Unter Zeitdruck kann ein verlässliches Bauchgefühl lebenswichtig sein. Die Intuition ist in einer regelhaften Umwelt trainierbar. Wir können Fertigkeiten und Fähigkeiten entwickeln, die unsere schnellen Entscheidungen treffsicher machen.
Die Intuition zeichnet sich dadurch aus, dass bereits wenige Anzeichen eine Vorstellung, ein mentales Modell der Sachlage hervorrufen. Die allzeit bereite Strukturerwartung sorgt für ein stimmiges Bild. Und diese Wahrnehmung folgt dem Weniger-ist-mehr-Muster: Je weniger Hinweise beteiligt sind, je spärlicher die Information ist, desto einfacher ist das Auffinden eines mentalen Modells, das diese Eindrücke erklärt. Wir sind Meister darin, aus spärlichen Informationen tiefen Sinn zu generieren. Und damit einher geht das beruhigende Gefühl, genau zu wissen, was vor sich geht. Dieses intuitive Erfassen ist mit Wohlgefühl verbunden, es lullt uns ein.
Auch wenn wir vor einer offenbar schwierigen Aufgabe stehen,
machen wir es uns leicht. Wir neigen dazu, nicht den komplexen Gegenstand zu
behandeln, sondern einen ähnlichen von größerer Schlichtheit, einen
Stellvertreter sozusagen. Wir machen eine Substitution.
Sind wir beispielsweise vor die Aufgabe gestellt, einen Politiker zu wählen, so
suchen wir nicht den kompetenteren aus, sondern denjenigen, dessen Gesicht mehr
Vertrauenswürdigkeit und Kompetenz ausstrahlt.
Kliniker, Börsenmakler, Gesellschaftswissenschaftler und Unternehmer haben es mit weniger regelhaften Umgebungen zu tun. Sie haben guten Grund, ihrer Intuition zu misstrauen. Die Vertreter gerade dieser Berufsgruppen zeichnet jedoch ein kaum begründetes Vertrauen in die eigenen Fähigkeiten aus. Aber nicht nur diese Leute, wir alle sollten uns die Frage stellen, wann wir unserer Intuition trauen können und wann nicht und wie wir Situationen erkennen können, in denen uns die Intuition fehlleiten könnte.
Die Reflexion, das schlussfolgernde, vergleichende und prüfende Denken erfordert Konzentration und ist leider ohne Anstrengung nicht zu haben – ein Energieaufwand, den wir uns am liebsten ersparen. Daniel Kahneman (2011) spricht deshalb vom faulen Steuermann (Lazy Controller). Glauben ist eben einfacher als Denken. Vorzugsweise unterbleiben dann die kritische Analyse und das kostspielige Erwägen von Alternativen. Evans (1989) nennt dieses Verhalten Glaubensneigung (Belief Bias).
Denkfaulheit ist ein Sparsamkeitsgebot. Der Denkapparat wacht nicht ständig über unser Verhalten. Woher aber erfahren wir dann, dass Denken angesagt ist? Wenn Denkfallen nur unter dem Denkeinsatz zu erkennen sind, stecken wir in einem Teufelskreis. Aber es gibt Trost: Auch die Wachsamkeit ist trainierbar. Es gibt Warnzeichen, und die sollte man kennen und ernst nehmen. Ein Möglichkeit: Denkfallen studieren. Interessant ist, dass die Reflexion bereits durch Schwierigkeiten bei der Informationsbeschaffung aktiviert werden kann: In einem psychologischen Experiment hatten die Versuchspersonen ein Rätsel zu lösen, bei dem die Intuition irregeleitet wurde. Eine Gruppe bekam eine gut lesbare Textversion des Rätsels und die andere eine ziemlich unleserliche. Besser schnitt die Gruppe ab, die den unleserlichen Text bekommen hatte. Die Schwierigkeiten beim Entziffern machten gleichzeitig wachsam gegenüber der intuitiven und falschen Antwort (Kahneman, 2011, S. 65).
Die Automatisierung der Denkvorgänge – auch Einstellungseffekt (mind-set) genannt – beruht darauf, dass uns frühere Erfahrungen dazu verleiten, beim Lösen eines Problems bestimmte Denk- und Handlungsweisen (Operatoren) gegenüber anderen vorzuziehen (Anderson, 1988, S. 210 ff.).
Das blinde Wiederholen von früher erworbenen Reaktionsmustern entlastet den Denkapparat. Es kann aber auch das Lösen von Problemen erschweren. Es besteht die Tendenz, in einen Zustand der Mechanisierung zu verfallen (Luchins, 1942). Zu Fehlern kommt es, wenn dieser Zustand, die Einstellung, nicht verlassen wird, obwohl es angezeigt ist.
Ein Beispiel: Ein Stahlseil hatte sich bei Arbeiten in einem Lager derartig zu einer engen Schleife zusammengezogen, dass es mit Muskelkraft nicht mehr auseinanderzuziehen war. Die rettende Idee, einen kleinen Kran zu Hilfe zu nehmen, kam zunächst niemandem in den Sinn – denn Kräne sind erfahrungsgemäß zum Heben von Lasten da und nicht zum Lösen von Knoten. So etwas nennt K. Duncker funktionale Gebundenheit: Die Gebrauchsanleitung eines Gegenstands scheint mit diesem fest verknüpft zu sein. Man kann es auch objektorientiertes Denken nennen (Grams, 1992).
In Anlehnung an Rasmussen formulierte Reason ein Modell der abgestuften Automatisierung des Denkens auf drei Ebenen: fähigkeitsbasierte (skill-based), regelbasierte (rule-based) und wissensbasierte Ebene (knowledge-based level). Schlüsselmerkmal seines Generischen Fehlermodellierungssystems „ist die Behauptung, dass Menschen, wenn sie sich mit einem Problem konfrontiert sehen, stark dazu neigen, vorgefertigte Lösungen auf regelbasierter Ebene zu suchen und zu finden, bevor sie auf die weit mühsamere wissensbasierte Ebene zurückgreifen“ (Reason, 1994, S. 94).
Hat sich ein Operator oder eine Regel bei der Lösung bestimmter Aufgaben und Probleme in der Vergangenheit gut bewährt, dann wird man in Situationen, die ähnliche Merkmale aufweisen, darauf zurückgreifen. Zeichnet sich eine Problemlage weitgehend durch die besagten Merkmale, aber auch durch einige abweichende aus, dann kann es zur falschen Anwendung der ‚guten Regel‘ kommen, kurz: Die Regel ist bewährt aber verkehrt (strong but wrong). Je geübter jemand darin ist, eine bestimmte Aufgabe auszuführen, desto wahrscheinlicher werden seine Fehler die Form ‚bewährt aber verkehrt‘ annehmen (Reason, 1994, S. 87).
Blickverengung und Verharren in eingefahrenen Denkbahnen verhindern das Auffinden neuer Lösungen. Die Mechanisierung des Denkens steht dem Produktiven Denken entgegen. Aus diesen Schwierigkeiten kann das bewusste Aktivieren von Heuristiken heraushelfen (Schöpferisches Denken – Heuristik, Polya, 1949).
Anderson, J. R.: Kognitive
Psychologie.
Dörner, D.: Die Logik
des Misslingens. Rowohlt, Reinbek bei
Elzer, P. F.; Kluwe, R.
H.; Boussoffara, B. (Eds):
Human Error and System Design and Management. Lecture Notes in Control and
Information Sciences 253. Springer, London 2000
Evans,
Fischoff, B.: For those condemned to study
the past: Heuristics and biases in hindsight. (In: : Kahneman,
Slovic, Tversky, 1982)
Fritzsche, A. F.: Wie sicher leben wir? Risikobeurteilung und -bewältigung in unserer Gesellschaft. TÜV Rheinland, Köln 1986
Goldstein, E. B.: Wahrnehmungspsychologie. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1997
Grams, T.: Denkfallen und Programmierfehler. Springer, Heidelberg 1990
Grams, T.: Denkfallen beim objektorientierten Programmieren. it 34(1992)2, 102-112
Grams, T.: Täuschwörter im Software Engineering. Informatik Spektrum 16 (1993) 3, 165-166
Grams, T.: Bedienfehler und ihre
Ursachen.
- Teil 1. Automatisierungstechnische Praxis atp 40
(1998) 3, 53-56
- Teil 2. Automatisierungstechnische Praxis atp
40 (1998) 4, 55-60
Grams, T.: Putting the Normative Decision Model into Practice. In Elzer/Kluwe/Boussoffara, 2000, S. 99-107
Hell, W.; Fiedler, K.; Gigerenzer, G. (Hrsg.): Kognitive Täuschungen. Fehl-Leistungen und Mechanismen des Urteilens, Denkens und Erinnerns. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993
Huber, O.: Das psychologische Experiment: Eine Einführung. Hans Huber. Bern 1987
Hüther,
G.: Biologie der Angst. Wie aus Streß Gefühle werden.
Vandenhoeck & Ruprecht,
Göttingen 2005
Kahneman, D.; Tversky,
A.: Prospect Theory: An Analysis of Decision under Risk. Econometrica,
47 (March, 1979) 2, 263-291
Kahneman, D.; Slovic,
P.; Tversky, A. (eds.): Judgment under uncertainty:
Heuristics and biases.
Kahneman, D.: Thinking, Fast and Slow. New
York 2011
Leveson, N.: Safeware.
System Safety and Computers. Addison-Wesley, Reading, Mass. 1995
Lorenz, K.: Die Rückseite des
Spiegels. Piper, München 1973
Luchins, A. S.: Mechanization and Problem
Solving. The Effect of Einstellung. Psychological
Monographs 54 (1942)
Polya, G.: Schule des Denkens. Francke,
Popper, K. R.: Logik der Forschung. Mohr, Tübingen 1982
Popper, K. R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hoffmann und Campe, Hamburg 1973
Reason, J.: Menschliches Versagen. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1994. (Original: Human Error. Cambridge University Press 1990)
Renn, O.; Zwick, M. M.: Risiko- und Technikakzeptanz. (Herausgeber: Enquete-Kommission „Schutz des Menschen und der Umwelt“ des 13. Deutschen Bundestages) Springer, Berlin, Heidelberg 1997
Riedl, R.: Biologie der Erkenntnis.
Die stammesgeschichtlichen Grundlagen der Vernunft. Parey,
Tversky, A.; Kahneman, D.: Judgment under Uncertainty: Heuristics and Biases. Science 185 (Sept. 1974), 1124-1131 (Auch enthalten in in: Kahneman, Slovic, Tversky, 1982)
von Cube, F.: Gefährliche Sicherheit. Die Verhaltensbiologie des Risikos. Hirzel, Stuttgart 1995
© Timm
Grams, 3. Januar 2000 (zuletzt revidiert: 04.02.2012)