Home » Blog » Vernetzung und Komplexität » Das Risikoparadox – Warum wir uns vor dem Falschen fürchten

 

Das Risikoparadox – Warum wir uns vor dem Falschen fürchten

 

Quelle: RiskNet.de

Renn, Ortwin: Das Risikoparadox/Warum wir uns vor dem Falschen fürchten. Frankfurt am Main: Fischer Verlag, 2014

So ziemlich jede Entscheidung basiert auf einem Abwägen von Chancen und Risiken. Allerdings tendiert unser Gehirn dazu, Sinneseindrücke möglichst einfach und übersichtlich zu organisieren. Wir versuchen unsere Wahrnehmung zu erleichtern und uns auf das Wichtigste zu konzentrieren. In Gefahrensituationen ist das sinnvoll. Der Nobelpreisträger und Psychologe Daniel Kahneman spricht in diesem Kontext von zwei Denksystemen, die den Menschen steuern, ein intuitives und ein rationales, und das intuitive ist weitaus mächtiger als das rationale. Das schnelle und intuitive System 1 erkennt aufgrund von abgespeichertem Erfahrungen und Wissen blitzschnell Muster und reagiert mit Ad-hoc-Maßnahmen. Es arbeitet vollautomatisch und ohne willentliche Steuerung. Und das ist beispielsweise in Notfällen auch wichtig: Weder der Steinzeitmensch, der plötzlich einem Säbelzahntiger gegenüber steht, noch der Feuerwehrmann, der in einer Krisensituation schnell reagieren muss, haben die Zeit beispielsweise eine strukturierte und komplexe Szenarioanalyse durchzuführen. Ohne System 1, das schnell, unbewusst und in der Regel emotionsgesteuert Entscheidungen herbeiführt, könnten wir als Menschen gar nicht überleben. Doch bei diesen schnellen und intuitiv gesteuerten Entscheidungen begehen wir auch Fehler, die wir nur dann vermeiden können, wenn wir auch System 2 mit seinen bewussten, langwierigen und nicht selten anstrengenden Überlegungen einschalten. System 2 benötigen wir immer dann, wenn wir Details analysieren, beispielsweise die Ursache-Wirkungs-Ketten eines komplexen Risikoszenarios. Kahneman liefert in seinen Publikationen eine Reihe von Beispielen. Nachfolgend ein kleines Beispiel: Ein Schläger und ein Ball kosten zusammen 1,10 Euro. Der Schläger kostet einen Euro mehr als der Ball. Wie viel kostet der Ball? Wenn Sie zu dem Ergebnis gekommen sind, dass der Ball 10 Cent koste, dann befinden Sie in guter Gesellschaft und sind auf System 1 hereingefallen. System 2 kann das sehr leicht beweisen: Wenn der Ball 10 Cent kostet und der Schläger einen Euro mehr, dann kostet der Schläger 1,10 Euro und beides zusammen 1,20 Euro. Die Antwort muss lauten: Der Ball kostet 5 Cent, der Schläger einen Euro mehr, also 1,05 Euro und beides zusammen dann 1,10 Euro.

Die ganze, sehr empfehlenswerte, Rezension finden Sie auf RiskNet.de

Ausgewählte Zitate mit Relevanz für das Thema “Blackout”

(Ortwin Renn hat dankenswerter Weise der hier durchgeführten Zitierung zugestimmt)

Wenn wir marginale Risiken mit großem Aufwand an Zeit und Geld bekämpfen und die großen Risiken, die für uns alle eine besondere Bedrohung darstellen, aus den Augen verlieren, dann handeln wir verantwortungslos, sofern wir über diese relativen Bedrohungen Bescheid wissen. Und wir handeln fahrlässig, wenn wir das nicht wissen, aber hätten wissen können. S. 27.

»Komplex« bedeutet, dass zwischen Ursache und Wirkung viele andere Einflussfaktoren, sogenannte intervenierende Variable, wirksam sind, die diese Beziehung entweder verstärken oder abschwächen, so dass wir aus der beobachteten Wirkung nicht ohne weiteres rückschließen können, welche Ursache(n) dafür verantwortlich ist (sind). S. 41.

Versuch und Irrtum setzten immer noch voraus, dass der Irrtum real erlebt wird. Bei vielen neuen Technologien, wie etwa bei Kernkraftwerken oder bei der Einführung neuer Nanotechnologien in der Produktion, kann man sich nicht wie noch damals bei der Dampfmaschine darauf verlassen, dass negative Folgen sukzessiv durch Lernen aus Fehlern (etwa wie bei der Dampfmaschine aus der Erfahrungen mit Explosionen) erkannt, bearbeitet und ausgeschlossen werden. Bei dem hohen Katastrophenpotential, das beispielsweise mit Kernenergie verbunden ist, kann man sich den realen Irrtum nicht leisten, bzw. man will ihn aus moralischen Gründen nicht zulassen. »Das Motto: ›Abwarten und die eventuell auftretenden Schäden bekämpfen‹ ist in einer global vernetzten Welt, in der Katstrophen schneller globale Ausmaße annehmen können als je zuvor, keine ethisch verantwortbare Handlungsmaxime.« [ebook]

Wir werden nicht als Kampf- oder als Fluchttypen geboren. Vieles deutet darauf hin, dass es nicht nur von Persönlichkeitsmerkmalen, sondern mehr noch von situativen Bedingungen abhängt, ob wir eher zur Flucht oder eher zum Kampf neigen. Der Totstellreflex ist in jedem Falle als Erstes immer im Spiel und führt häufig dazu, dass wir Gefahren, denen wir nicht direkt begegnen können oder wollen, lieber verdrängen oder verneinen, als sich ihnen zu stellen. S. 251.

Instinktiv können wir Menschen mental (ob real mag hier dahingestellt bleiben) besser mit Gefahren fertig werden, wenn wir darauf vorbereitet und darauf eingestellt sind. S. 266f.

Der angeblich laxe Umgang mit Risiko durch private Firmen und Regierungsbehörden war in den meisten Fällen der Auslöser dafür, dass einzelne Personen Initiative ergriffen haben und sich beispielsweise in Bürgerinitiativen engagiert haben. S. 284.

Da es immer weniger möglich ist, die Nebenfolgen aufgrund der komplexen Zusammenhänge im Voraus zu erkennen und zu begrenzen, erlebt die Gesellschaft ständig neue (meist unangenehme) Überraschungen. S. 292.

Leider kennen wir für viele Systeme den genauen Druckpunkt der Belastungsgrenze nicht. (…) Wir sind uns also dieser Risiken bewusst, tun aber wenig, um sie weiter einzugrenzen oder abzumildern. S. 331.

Es gibt viele Gründe dafür, dass wir die Wirkung systemischer Risiken unterschätzen: Zum Ersten sind diese Risiken schleichender Natur, d.h. wir nehmen die Auswirkungen nur als marginale Veränderungen unserer Umwelt wahr. (…) Zum Zweiten sind systemische Risiken durch komplexe Strukturen miteinander vernetzt, so dass scheinbar nicht zusammenhängende Lebensbereiche über die komplexen Ursache-Wirkungsbeziehungen an irgendeinem Glied der langen Kette aufeinander einwirken. Unsere intuitiven kausalen Denkformen sind, wie wir erfahren haben, nicht auf die Analyse komplexer Ursache-Wirkungsketten ausgerichtet. S. 335.

Systemischen Risiken nicht für eine aufrüttelnde und emotional ansprechende Berichterstattung in den Medien. S. 337. Lokal werden Strukturen geschaffen, um die eigene Verwundbarkeit zu reduzieren und die Widerstandskraft gegen negative Auswirkungen der systemischen Risiken zu stärken. S. 343.

Der grundlegende Charakter von systemischen Risiken, komplex, unsicher und ambivalent zu sein [VUCA – volatility, uncertainty, complexity and ambiguity], ändert sich auch nicht dadurch, dass wir mehr Klimaforschung betreiben. Wir müssen mit einem Rest an Unsicherheit und einem hohen Maß an Ungewissheit über plötzliche Kippeffekte im Klimabereich leben. S. 386.

Gerade weil wir mit nichtlinearen, überraschenden Reaktionen rechnen müssen, versagen unsere intuitiven Faustregeln und Wahrnehmungsmuster, die auf diese Art von Bedrohungen nicht ausgerichtet sind. Umso wichtiger ist es deshalb, die Schwächen unserer Wahrnehmung und Bewertung genau zu kennen und vor allem ihre Grenzen zu respektieren. S. 391.

Nicht die systemischen Krisen, wohl aber deren Auslöser werden systematisch unterschätzt. Dies führt dann zu der schon oben angedeuteten Rat- und Hilflosigkeit. S. 404.

Je mehr aber die Effizienz vorangetrieben wird, desto größer ist die Wahrscheinlichkeit, dass im Bereich systemische Risiken negative externe Effekte ausgelöst werden. Diese treten aber erst dann in unser Bewusstsein, wenn die Krise schon ausgebrochen ist, also wenn es bereits zu spät ist. Und damit kommen wir zu einem zentralen Problem der Effizienz. In einer global vernetzten und komplexen Welt erkaufen wir die Verbesserung der Effizienz durch eine Erhöhung der Verwundbarkeit des Gesamtsystems. (…) Auf diese Weise machen wir das Gesamtsystem immer anfälliger für Störungen. Zum Zweiten steigert die Erhöhung der Effizienz auch die Verwundbarkeit des Ausgangssystems gegenüber unerwarteten Rückkopplungen. (…) Je mehr Effizienz wir verwirklichen und je mehr Kosten wir damit einsparen, desto höher wird in der Regel das Risiko, dass unter besonders schwierigen Umständen nicht genügend Puffer vorhanden ist, um die Funktionsfähigkeit der jeweiligen Dienstleistung zu gewährleisten. (…) Zentralisierung, globale Vernetzung und enge Kopplung von Systemen sind also Merkmale, die zwar die Effizienz der jeweiligen Dienstleistung steigern helfen, die uns aber zunehmend verwundbar gegenüber Ausfällen machen, vor allem dann, wenn die Ursache-Wirkungsketten systemischer Natur sind. Dazu gehört auch, dass wir oft mit vereinfachten Modellen Effizienz und Wirksamkeit von Maßnahmen beurteilen, die sich dann im Nachhinein als zu wenig robust gegenüber der Vielfalt an Ereignissen und externen Nebenwirkungen erweisen. (…) Aus diesem Grunde haben viele Analytiker ein neues Leitbild ins Gespräch gebracht. Dieses Leitbild für wirtschaftliches und politisches Handeln heißt Resilienz. Mit diesem Begriff verbindet man die Widerstandsfähigkeit gegenüber unwahrscheinlichen, aber auch völlig unvorhersehbaren Ereignissen. Je resilienter ein System ist, desto eher kann es seine Funktionsfähigkeit auch unter extrem widrigen Umständen aufrechterhalten. Nach den gängigen Modellen der Berechnung von Wirtschaftlichkeit ist eine auf Resilienz ausgerichtete Strategie nicht kostenoptimal und damit auch nicht maximal effizient. S. 411f.

Hybris tritt also in drei verschiedenen Gestalten in unserer Gesellschaft auf: in der Gestalt des ungerechtfertigten Vertrauens in die Leistungsfähigkeit und Verlässlichkeit unseres Wissens, in der Gestalt der ungerechtfertigten Zuversicht in die Zukunftsfähigkeit von Lösungen, die in der Vergangenheit erfolgreich waren, und schließlich in der Gestalt des Irrglaubens an die Machbarkeit und Korrigierbarkeit von Fehlentwicklungen. S. 421.

Wenn wir aber davon ausgehen, dass systemische Risiken mehrere Funktionsbereiche parallel betreffen und komplexe Auswirkungen über die Systemgrenzen hinweg wirksam werden, dann kann die Autonomie eines jeden Teilsystems dazu führen, dass man die negativen Auswirkungen des eigenen Handelns auf die benachbarten Organisationen oder Systeme ausblendet und gleichzeitig die Risiken, die man durch das eigene Handeln auslöst, auf andere abwälzt. (…) Autonomie muss also dort seine Grenze finden, wo die Folgen autonomen Handelns anderen unnötige Risiken aufbürden. (…) Der Staat hat zunehmend die Aufgabe, auch die externen Wirkungen auf andere Systeme systematisch zu beobachten und Maßnahmen einzuleiten, damit diese Effekte vermieden oder kompensiert werden. S. 424f.

Steuerungsdefizite bei systemischen Risiken sind also vor allem auf drei Problembereiche zurückzuführen: Wegen des Strebens nach Effizienz werden die häufig damit verbundenen externen Effekte übersehen und oft sogar noch verstärkt. Wegen des Strebens nach Autonomie werden mögliche Nebenwirkungen nicht wahrgenommen oder auch bewusst verschleiert, um eigene Ziele durchzusetzen und an der eigenen Macht festzuhalten oder sie weiter auszubauen. Aus nicht gerechtfertigter Zuversicht in das eigene Wissen und in die eigene Handlungsfähigkeit werden Pfadabhängigkeiten in der Logik systemischer Risikoabläufe unterschätzt und die Vorboten für krisenhafte Erscheinungen systematisch übersehen. S. 429f.

Neu ist dagegen das Risiko, dass ohnmächtige Menschen oder Gruppen mithilfe moderner Technologien große Wirkungen bis hin zu Katastrophen auslösen können [kleine Ursache, große Wirkung]. Wenn man sich die Terroranschläge vom 11. September 2001 näher betrachtet, so war das eingesetzte Mittel der Bedrohung nichts anderes als ein banales Teppichmesser. Mit dieser Waffe können zwar Menschen umgebracht werden, aber zu einem systemischen Risiko wird sie erst dann, wenn sie mit der Verwundbarkeit moderner vernetzter Technologien verbunden wird. S. 461.

Was sich aber im Verlauf des Modernisierungsprozesses geändert hat, ist die kollektive Auswirkung des unmoralischen Verhaltens von einigen wenigen für das Wohlergehen aller. (…) Wir werden diese negativen Charaktereigenschaften nicht auslöschen können, müssen aber durch entsprechende strukturelle Maßnahmen das Schadenspotential, was dadurch ausgelöst werden kann, begrenzen. S. 462.

Aufgrund der erhöhten Verwundbarkeit moderner Infrastruktur ergibt sich damit ein Potential an wirkungsvollen Schadensverstärkern. S. 463.

Die genau gegenteilige Reaktion in der Öffentlichkeit auf systemische Risiken: Achselzucken und Verharmlosung. Die trügerische Hoffnung, dass sich schon im Lauf der Zeit von alleine eine Lösung finden werde und dass alles weniger schlimm ausfällt als heute vermutet, ist nicht nur blauäugig, sondern verfehlt auch die grundsätzliche Erkenntnis, dass systemische Risiken keine unabwendbaren Schicksalsschläge sind, sondern Folgen von menschlichen Handlungen. Leider neigen wir dazu, diese Bedrohungen, wenn sie uns nicht passen, aus unserem Sichtfeld zu verbannen. S. 485.

Da sich die Schäden erst in Zukunft entfalten werden und sich der Verlauf von Systemzusammenbrüchen wegen der nichtlinearen Zusammenhänge schwer vorhersagen lässt, gibt es kaum Anreize, im Vorfeld von Krisen Ressourcen zu deren Vermeidung einzusetzen. S. 486.

Mit zunehmender Effizienzausrichtung steigt die Verwundbarkeit unserer Institutionen und Infrastrukturen, weil große zentrale Einrichtungen mit entsprechend hoher Vernetzungsdichte in der Regel kostengünstiger Leistungen anbieten können als viele dezentrale, autonome Einheiten. (…) Dabei verlieren wir aus den Augen, dass mit jeder einseitigen Optimierung Folgekosten in anderen Funktionsbereichen anfallen, die in der Regel nicht bedacht oder auch unterschätzt werden. S. 487.

Was können wir tun? Immer wieder hat sich dabei bewahrheitet, dass allzu komplexe und detaillierte Handlungsempfehlungen wirkungslos in den Schubladen ministerialer Sachbearbeiter verstaubten, während einfache, aber offenkundig problemlösende Ratschläge auf positive Resonanz stießen. S. 491f.

Resilienz vor Effizienz: Höhere Effizienz führt oft zur höheren Verwundbarkeit, vor allem Zentralisierung, Just-in-time-Management und enge Kopplung von Produktionsprozessen. Resilienz erhöht die Widerstandskraft und die Anpassungsfähigkeit eines Systems auch gegen Überraschungen.

  • Dezentralisierung
  • Diversifizierung
  • Einbau von Redundanz
  • Einbau robuster Systemkomponenten
  • weite Kopplung
  • Fehlerfreundlichkeit S. 501.

Mir ist es wichtig, so anschaulich und einprägsam wie möglich zu vermitteln, wie die realen Bedrohungen in unserer Welt aussehen und was wir realistischerweise dagegen unternehmen können. Diese Vermittlung wird nur dann Erfolg haben, wenn wir gleichzeitig verstehen lernen, wie wir »ticken«, also wie wir Menschen normalerweise Risiken einstufen, Informationen zu Risiken aufnehmen und verarbeiten und wie wir zu ausgewogenen Urteilen über die Bedrohlichkeit und Häufigkeit der Risiken gelangen. S. 521f.

Funktionssysteme sind mit einer Vielzahl von unabhängig und dezentral agierenden Akteuren im Prinzip besser in der Lage, auf Überraschungen und nicht-lineare Entwicklungen zu reagieren. Wenn aber diese Akteure aus Effizienzüberlegungen heraus alle zu den gleichen oder ähnlichen Strategien greifen, spielt es keine Rolle mehr, ob es sich um zentrale oder dezentrale Formen der Funktionserfüllung handelt. Das System als Ganzes wird verwundbarer und anfälliger gegenüber Krisen. S. 528f.

Was also benötigt wird, ist eine Anpassung und Modernisierung der gängigen Verfahrensregeln und die beherzte und mutige Bereitschaft der Politiker und Verwaltungen, den Vertretern der Zivilgesellschaft und der Bürgerschaft diese Aufgaben zuzutrauen. S. 550.

Wie bei allen Allmenden gilt auch hier der Grundsatz: Wenn es nur wenige tun, wird die Wirkung verpuffen. Wenn aber jeder auf den anderen wartet, geschieht in der Regel gar nichts. Um diesen Teufelskreis zu durchbrechen, kann ich nur raten, einfach zu beginnen. Viele erfolgreiche Initiativen sind durch die Privatinitiativen von Individuen oder kleinen Gruppen entstanden und haben sich dann wie ein Lauffeuer durchgesetzt. S. 571.

Was bedroht uns denn? Es sind weniger die individuellen als die schleichenden kollektiven Risiken, die wir nicht genügend beachten. Diese kollektiven Bedrohungen haben das Potential, Funktionen, die für unsere Gesellschaft lebenswichtig sind, wie Energie, Nahrung und soziale Zusammengehörigkeit, zu gefährden. (…) Dass wir diese Risiken zu wenig im Blickfeld haben, liegt zum einen an einer Reihe von intuitiven Wahrnehmungsprozessen und mentalen Bewertungsfallen, zum anderen fehlt es uns an kollektiven Eingriffsmöglichkeiten, die es uns erlauben würden, diese Risiken auf globaler Ebene wirksam anzugehen. Ein weiterer Grund dafür, dass die systemischen Risiken zu wenig beachtet werden, liegt in der Erfahrung, dass bislang alles gutgegangen ist und wir deshalb glauben darauf vertrauen zu können, dass dies auch weiterhin so läuft. S. 576.

Risikomündigkeit bedeutet, sich über die Konsequenzen des eigenen Handelns bewusst zu werden. Dazu brauchen wir besseres Wissen, eine gesunde Skepsis gegenüber unseren eigenen Faustregeln der Entscheidungsfindung und die nötige Portion Demut. S. 584f.

Warum nimmt das Bedrohungspotential der systemischen Risiken zu? Die Entwicklung zur Moderne ist dadurch gekennzeichnet, dass wir die Verwundbarkeit von Systemen erhöht haben, vor allem durch Globalisierung, Vernetzung und durch die Möglichkeiten effizienterer Aufgabenerfüllung mit Hilfe der modernen Informations- und Kommunikationsmedien, was diese Systeme verwundbarer macht. Diese verwundbaren Systeme sind gleichzeitig mit anderen Systemen eng gekoppelt, so dass ein Funktionsausfall in einem System zu einem Ausfall in einem anderen System führen kann. Schließlich sind unsere Produktionssysteme so auf Effizienz getrimmt, dass schon kleine Störungen im Produktions- oder Logistikablauf große Auswirkungen haben können. S. 590f.

Warum ist es so schwer, gegen die systemischen Risiken anzugehen? Neben den uns oft in die Irre führenden individuellen Wahrnehmungsmustern sind vier kollektive Verhaltensmuster zu nennen, mit denen wir systemische Risiken wahrnehmen, bewerten und steuern:

  • Allmendefalle: Öffentliche Güter, die von uns allen genutzt werden können, ohne dass wir selbst dazu einen Beitrag leisten müssen, werden entweder übernutzt oder erst gar nicht erstellt, weil jeder darauf hofft, dass der jeweils andere dafür zahlen wird. Im Endeffekt tut es dann keiner. Viele systemische Risiken betreffen solche öffentliche Güter, wie etwa Umweltschutz oder soziale Gerechtigkeit.
  • Effizienzfalle: Mit zunehmender Effizienzausrichtung steigt die Verwundbarkeit unserer Institutionen und Infrastrukturen, weil große zentrale Einrichtungen mit entsprechend hoher Vernetzungsdichte in der Regel kostengünstigere Leistungen anbieten können als viele dezentrale, autonome Einheiten. Diese Entwicklung erhöht unsere Verwundbarkeit, so dass im Krisenfall eine Kette von nicht vorhersehbaren Schäden zu erwarten ist. Die Finanzkrise ist dafür ein passendes Beispiel.
  • Hybrisfalle: Unsere modernen Gesellschaften neigen dazu, mehr Zuversicht in die Leistungsfähigkeit unseres Wissens, unserer Technik und unserer Organisationsformen zu besitzen, als wir dies realistisch erwarten dürfen. Dadurch werden wir blind gegenüber den Schattenseiten der Modernisierung und blenden die latenten systemischen Risiken aus.
  • Autonomiefalle. In jedem Funktionsbereich in Wirtschaft, Politik und Gesellschaft gilt das Gebot der bereichsspezifischen Optimierung. Ob Industrie, Finanzen, Umweltschutz oder soziale Absicherung, das Ziel ist jeweils, für den eigenen Bereich und die eigene Klientel das meiste herauszuholen. Dabei verlieren die Beteiligten leicht aus den Augen, dass mit jeder einseitigen Optimierung Folgekosten in anderen Funktionsbereichen anfallen, die in der Regel nicht bedacht oder auch unterschätzt werden. So kann es, wie der Soziologe Ulrich Beck an vielen Beispielen nachgewiesen hat, dazu kommen, dass im Rahmen eines Funktionsbereiches sinnvolle und wirksame Maßnahmen zu vielen und schwerwiegenden negativen Nebenfolgen in anderen Bereichen führen, die den erwünschten Haupteffekt bei weitem überdecken. Zum Beispiel hat die verstärkte Nutzung von Biomasse zu Energiezwecken die Preise für Lebensmittel wie Reis und Getreide in die Höhe schießen lassen und damit zu einer verstärkten Hungerkrise in den schwach entwickelten Ländern beigetragen. S. 592f.

Anmerkungen

Dieses Buch von Ortwin Renn ist sehr empfehlenswert und wohl für jeden vernetzt denkenden Menschen eine Bereicherung. Auch wenn im Buch vorwiegend globale Themen adressiert werden (Klimawandel, gesellschaftliche Verwerfungen durch die steigende Kluft Arm/Reich), sind die Entwicklungen im europäischen Stromversorgungssystem eindeutig auch als systemisches Risiko zu klassifizieren. Diese sind durch vier Merkmale gekennzeichnet:

  • Die Wirkung ist tendenziell über nationale Grenzen hinweg.
  • Es besteht ein hoher Vernetzungsgrad und viele Interdependenzen zu anderen Systemen.
  • Dadurch sind zufällige und nicht-lineare Ursache-Wirkungsketten zu erwarten.
  • Die Auslöser und Auswirkungen werden systematisch unterschätzt.

Ortwin Renn:

“Bei einem systemischen Risiko kommt im schlimmsten Fall nicht nur derjenige, der das Risiko übernommen hat, zu Schaden, sondern auch die meisten anderen, die im selben Umfeld oder in einem funktional davon abhängigen Umfeld tätig sind. Das Risiko verhält sich hier wie ein Krankheitserreger. Er steckt auch die an, die von ihrer Konstitution her eigentlich gesund und widerstandsfähig sind.”

 

Auswertung einmal anders

Zusätzlich habe ich begonnen, verschiedene Aspekte zu visualisieren und in Zusammenhang zu bringen. Ich verwende dazu iModeler. Hier das Modell: https://www.imodeler.info/ro?key=BVsp-w4-i9ZjvyR_c2cmAaw

(siehe auch Visualisierung)

Modell "Vernetzung und Komplexität" Entwurf

Modell “Vernetzung und Komplexität” Entwurf

Tags: , ,

 

1 Comment

  1. […] das so ist, kann man sehr gut im aktuellen Buch von Ortwin Renn, “Das Risikoparadox“, […]

  2. […] Eine Möglichkeit ist, eine Visualisierung mit dem iMODELER durchzuführen, wie das etwa das deutsche Umweltbundesamt zum Thema “Entwicklung eines Integrated Assessment Modells: Nachhaltige Entwicklung in Deutschland” / “Entwicklung eines Integrated Assessment Modells: Nachhaltige Entwicklung in Deutschland Band 2: Modelldokumentation”  durchgeführt hat. Siehe auch Das Risikoparadox. […]

  3. […] Ortwin: Das Risikoparadox/Warum wir uns vor dem Falschen fürchten. Frankfurt am Main: Fischer Verlag, […]

  4. […] Siehe auch Das Risikoparadox – Warum wir uns vor dem Falschen fürchten […]

  5. […] Radiokolleg behandelt viele Aspekte, die auch hier immer wieder angesprochen werden. Siehe auch Das Risikoparadox – Warum wir uns vor dem Falschen fürchten oder Wir rüsten für den letzten […]

  6. […] Siehe auch Wenn betriebswirtschaftliche Optimierungen systemgefährdend werden bzw. Das Risikoparadox. […]

  7. […] Es wird also klar, daß Unfälle und Katastrophen nicht in Einzelfällen und nur aufgrund von menschlichem Versagens auftreten. Sondern die Wahrscheinlichkeit eines Störfalls, der zu einem Unfall oder einer Katastrophe wird, steigt mit zunehmender Komplexität und Kopplung eines Systems. Je komplexer und je enger gekoppelt ein System ist, umso effizienter ist es auch. Aber in gleichem Maße steigt die Wahrscheinlichkeit eines unvermeidbaren Unfalls, der aufgrund der komplexen Interaktion der Komponenten nicht oder kaum beherrschbar ist. Katastrophen sind also normal, ihnen kann nur versucht werden durch Antizipation der möglichen Folgen in alle Richtungen entgegenzuwirken. Aufgrund der unvorhersehbaren Wechselwirkungen wird man sie aber nie sicher machen können. Wenn Unfälle aber unvermeidbar sind, muß man sich entscheiden bei welchem Nutzen man, welche Risiken, in Kauf nehmen will. (Quelle: Ortwin Renn – Normale Katastrophen nach Perrow, 2001; siehe auch Das Risikoparadox) […]

  8. […] auch die Buchempfehlung – Das Risikoparadox – Warum wir uns vor dem Falschen fürchten. Es stellt sich daher die Frage, wie man diesem Paradox begegnen kann. Eine mögliche Antwort […]

  9. […] – von Ulrich Beck als „Zweite Moderne“ bezeichnet). Viele Aspekte passen auch zum Risikoparadox von Ortwin Renn. Zum anderen haben sich einige Aussagen von damals bereits mehrfach in der […]

  10. […] und die aktuelle Flüchtlingslage, Risk of financial crisis higher than previously estimated, Das Risikoparadox – Warum wir uns vor dem Falschen fürchten, Weltrisikogesellschaft – Auf der Suche nach der verlorenen Sicherheit oder Beyond data […]

  11. […] Das Risikoparadox – Warum wir uns vor dem Falschen fürchten, Risk of financial crisis higher than previously estimated, Unknown Futures – Limits of Our Knowledge […]

  12. […] zeigt dieses Beispiel, dass wir uns vor den falschen Risiken fürchten (siehe das Risikoparadox). Oder kann jemand garantieren, dass ein solches Szenario mitten in Europa nicht möglich ist? […]

  13. Sehr interessanter Beitrag im RiskNet-Newsletter (https://www.risknet.de/themen/risknews/fuerchten-wir-uns-vor-dem-falschen/5cbc5527ef0cdba2b6c3348f30ad5581/)

    Ein Beispiel: Von 100.000 Deutschen sterben aktuellen Statistiken zufolge 26.000 an Krebs. Krebserkrankungen sind damit hierzulande die Todesursache Nummer eins für Menschen bis zum 70. Lebensjahr. Bei 11.000 von den 26.000 Krebstoten waren Auslöser der Erkrankung sehr wahrscheinlich das Rauchen oder eine falsche Ernährung, Stichwort Übergewicht. Aber in nur 26 Fällen (mit einem Konfidenzintervall von rund 0–120) kann der Krebs auf Pestizidrückstände oder chemische Konservierungsmittel in Lebensmitteln zurückgeführt werden, so die allgemeine medizinische Einschätzung. Einige Umweltorganisationen halten diese Angaben für zu niedrig und sprechen von bis zu 240 Fällen pro 100.000 Einwohner.

    Gibt es beispielsweise einen Zusammenhang zwischen der Finanzkrise 2008 und dem Ausbruch der Ebola-Epidemie? Wir können ihn jedenfalls nicht ausschließen, denn mangels attraktiver Anlagealternativen nahm in der Krise die Spekulation mit Nahrungsmitteln rasant zu. Steigende Weltmarktpreise für Reis und Getreide waren die Folge. Daraufhin mussten sich gerade die ärmsten Länder weiter verschulden, um ihre Bevölkerungen zu ernähren. Diese finanzielle Notlage zwang viele Staaten Westafrikas dazu, vorerst auf nahezu alle Investitionen in Infrastrukturprojekte und das Gesundheitswesen zu verzichten. Mit verheerenden Folgen, wie wir heute wissen. Dieses Beispiel macht deutlich: Systemische Risiken sind für einen in unmittelbaren Kausalketten denkenden Laien nicht mehr durchdringbar. Selbst Experten tun sich bislang schwer, systemische Risiken auch nur annähernd präzise zu modellieren und daraus verlässliche Handlungsempfehlungen etwa für das Risikomanagement abzuleiten.

  14. […] Dazu passen wohl nur Der Schwarze Schwan – Konsequenzen aus der Krise, Der Schwarze Schwan – Die Macht höchst unwahrscheinlicher Ereignisse und Das Risikoparadox – Warum wir uns vor dem Falschen fürchten. […]

  15. […] Sie dazu auch Das Risikoparadox – Warum wir uns vor dem Falschen fürchten. […]

  16. […] Daher gilt einmal mehr, wir fürchten uns häufig vor den falschen Dingen … Das Risikoparadox – Warum wir uns vor dem Falschen fürchten. Zum Glück greifen das auch einige Medien bzw. Redakteure aktiv auf, wie etwa Bernd […]

  17. […] hervorzuheben ist der Hinweis des Risikoforschers Ortwin Renn (Das Risikoparadox – Warum wir uns vor dem Falschen fürchten), dass wir für die Energiewende einen Plan B benötigen, den es bisher jedoch nicht gibt […]

  18. […] passend ein Interview mit Ortwin Renn (Das Risikoparadox) […]

Post a Comment