Das Buch “Risiko – Wie man die richtigen Entscheidungen trifft” des deutschen Psychologen Gerd Gigerenzer bietet zahlreiche Denkanstöße für den Umgang mit “Sicherheit”, “Risiko” und “Unsicherheit” und bietet gleichzeitig einen wenig erfreulichen Einblick in die Welt der technischen Medizin.

Wenn etwas schiefgeht, erzählt man uns, künftige Krisen ließen sich durch bessere Technik, mehr Gesetze oder aufwendigere Bürokratie verhindern. Was fehlt, sind risikokompetente Bürger!

Das Problem ist nicht einfach individuelle Dummheit, sondern das Phänomen einer risikoinkompetenten Gesellschaft.

Diese „Althirn-Furcht“ vor Schockrisiken kann jeden Anflug von rationalem Denken in den neueren Teilen unseres Gehirns unterdrücken.

Eine neue Technologie nicht zu verstehen ist eine Sache. Zu glauben, dass sie Gewissheit bringt, eine ganz andere.

Heute wird mithilfe moderner Technik – von der mathematischen Vorhersage der Aktienkurse bis hin zu bildgebenden Verfahren in der Medizin – um jenes Vertrauen geworben, das bisher Religionen und Autoritäten einflößten.

In einer ungewissen Welt ist nicht alles bekannt und lässt sich die beste Option nicht berechnen.

Risiko: Wenn die Risiken bekannt sind, verlangen gute Entscheidungen logisches und strategisches Denken.

Ungewissheit: Wenn einige Risiken unbekannt sind, verlangen gute Entscheidungen auch Intuition und kluge Faustregeln.

Die Annahme, Intelligenz sei notwendigerweise bewusst und überlegt, ist ein Riesenirrtum. Die meisten Regionen unseres Gehirns sind unbewusst, und wir wären wohl verloren ohne den dort gespeicherten immensen Bestand an Erfahrungen. Rechenintelligenz mag bei bekannten Risiken ausreichend sein, doch angesichts von Ungewissheit ist Intuition unentbehrlich.

Fälschlicherweise anzunehmen, dass alle Risiken bekannt sind, ist eine Gewissheitsillusion. Nennen wir sie die Truthahn-Illusion, obwohl sie vermutlich häufiger bei Menschen als bei Truthähnen anzutreffen ist.

Es besteht eine gewisse Ähnlichkeit zwischen dem unerwarteten Ende des Truthahns und der Unfähigkeit von Experten, Finanzkrisen vorherzusagen: Beide verwenden Modelle, die kurzfristig funktionieren mögen, aber nicht die Katastrophe erkennen können, die weiter in der Zukunft droht.

Das Problem ist ungeeignete Risikoeinschätzung: Methoden, die in einer Welt der Ungewissheit fälschlicherweise von bekannten Risiken ausgehen. Gerade ihre Genauigkeit erzeugt illusorische Gewissheit.

Der glückliche Zufall – die Entdeckung von etwas, was man nicht zu entdecken beabsichtigte – ist häufig das Ergebnis eines Fehlers.

Defensives Entscheiden, von Personen praktiziert, die Zeit und Geld verschwenden, um sich auf Kosten anderer, auch ihres Unternehmens, schützen. Die Furcht vor persönlicher Verantwortung schafft einen Markt für wertlose Produkte, die von hochbezahlten Fachleuten geliefert werden.

Ich glaube an die Wirksamkeit einfacher Regeln in einer realen, unüberschaubaren Welt. Auch wenn sie vielleicht nicht immer helfen, sollte die erste Frage lauten: Können wir eine einfache Lösung für ein komplexes Problem finden? Diese Frage wird selten gestellt. Der erste Reflex ist, nach komplexen Lösungen zu suchen, und wenn die nicht funktionieren, sie noch komplexer zu machen.

Wie weit wir bei der Vereinfachung gehen, hängt von drei Merkmalen ab. Erstens, je größer die Ungewissheit, desto mehr sollten wir vereinfachen. Je geringer die Ungewissheit, desto komplexer sollte die Methode sein. Zweitens, je mehr Alternativen, desto stärker sollten wir vereinfachen; je weniger, desto komplexer darf es sein.

Entscheidend ist, dass Transparenz mehr Sicherheit in die Welt bringt, während Komplexität der Stoff ist, aus dem die Katastrophen sind.

Das grundlegende Missverständnis ist die Überzeugung, dass sich alle Probleme durch Logik oder Berechnung lösen lassen – dass wir in einer Welt des Risikos und nicht der Ungewissheit leben würden.

Wir brauchen unterschiedliche Werkzeuge für Risiken und für Ungewissheit, und in der Regel sind wir auf beide Arten angewiesen.

„Jeder intelligente Narr kann Dinge größer, komplexer und gewaltiger machen. Es gehört eine Menge Inspiration und Mut dazu, sich in die gegenteilige Richtung zu bewegen.“ Albert Einstein

BASEL I war 30 Seiten lang, die Berechnungen ließen sich mit Bleistift und Papier vornehmen. BASEL II mit einer Fülle zusätzlicher Details und neuen, komplexen Risikomodellen war BASEL II 347 Seiten lang. Die Reaktion auf 2008 war eine noch kompliziertere Vorschrift – BASEL III -, die es auf 616 Seiten brachte Während BASEL I sich in den USA in 18 Seiten primäre Gesetzgebung übersetzen ließ, waren es bei BASEL III mehr als 1.000 Seiten. Ich arbeite mit der Bank of England zusammen und habe meine Kollegen dort gefragt: Wer versteht die Folgen von BASEL III? Ihre einhellige Antwort lautete: Wahrscheinlich kein Mensch.

Die Truthhahn-Illusion steht für die Überzeugung, dass ein Risiko sich berechnen lässt, obwohl das nicht möglich ist. Risiken können berechnet werden, wenn drei Bedingungen erfüllt sind: 1. Geringer Grad an Ungewissheit: Die Welt ist stabil und vorhersagbar. 2. Wenig Alternativen: Es müssen nicht zu viele Risikofaktoren abgeschätzt werden. 3. Es steht eine große Datenmenge für diese Schätzungen zur Verfügung.

Nicht zuletzt wird die ständige Verbreitung von Worst-Case-Szenarien langfristig dazu führen, dass die Menschen zynisch werden.

Die Furcht vor Schockrisiken gehört zur menschlichen Natur. Und die Medien machen sich diese Angst zunutze, indem sie Befürchtungen im Hinblick auf Dinge wecken, die eigentlich wenig Anlass zur Besorgnis bieten.

Die Technik hat nur begrenzten Wert, wenn die Menschen sie nicht verstehen.

Kritisches Denken setzt Wissen voraus. Dazu brauchen wir Mut, den Mut, selbstständige Entscheidungen zu treffen und Verantwortung zu übernehmen. „Habe Muth, dich deines eigenen Verstandes zu bedienen.“ Immanuel Kant