Schweizer-Käse-Modell

Irren ist menschlich, und wir alle machen Fehler. Daher verfügen komplexe Systeme wie Flugzeuge, Kliniken oder Kraftwerke über ein ganzes Arsenal von Schutzmechanismen, Alarmen, Barrieren oder Abschaltvorrichtungen. Diese Vorkehrungen sind in Schichten angelegt, so dass ein Fehler in einer Schicht spätestens von der nächsten aufgefangen wird. Im Jahr 2000 untersuchte der britische Psychologe James Reason eine ganze Reihe von Untersuchungsberichten, zum Atomunfall von Tschernobyl etwa, zur Giftgaskatastrophe von Bhopal oder der Explosion der Raumfähre «Challenger» – und erfand das «Schweizer-Käse-Modell».

«In einer idealen Welt ist jede Verteidigungsschicht intakt», schrieb Reason in seiner Studie. «In der Realität aber sind Sicherheitsmassnahmen eher wie Scheiben eines Schweizer Käses, die viele Löcher haben.» Reasons Metapher leuchtet ein: Jede einzelne Käsescheibe mag zwar da und dort ein Loch haben, aber kaum je an derselben Stelle wie die nächste. Und doch zeigt die Erfahrung, dass irgendwann irgendwo lauter Löcher übereinander zu liegen kommen und ein Fehler bis zur Katastrophe durchrutscht. Und zu verhindern, dass so etwas passiert, greifen Fachleute bei der Risikoanalyse bis heute zum «Schweizer-Käse-Modell». Sie suchen nach Löchern – zum Beispiel zu ähnliche Arzneimittelpackungen in der Spitalapotheke, die, wenn dicht an dicht gelagert, zu Verwechslungen führen können. Eine neue Käsescheibe kann vorsehen, dass die Medikamente anders verpackt und nicht mehr am selben Ort gelagert werden.