Fundierte Fehleranalyse Die interventionelle Neuroradiologie ist eine dynamische Disziplin mit innovativen Lösungen und expandierenden Therapieansätzen. Fehler bei Neurointerventionen sind unvermeidbar und oft schwerwiegend – daher ist eine klare Fehlerdefinition wichtig, um Ursachen zu identifizieren und Massnahmen zu ergreifen.
Dass es bei neuroradiologischen Interventionen zu Fehlern kommt, die oft kritischer Natur sind und somit auch fatale Folgen haben können, ist unausweichlich. Welche Konsequenzen jedoch aus Fehlern gezogen werden sollen, ist oft schwierig einzuschätzen. Die nachträgliche Evaluierung bedarf Transparenz und Vertrauen, die ein Akzeptieren der eigenen Fehlbarkeit voraussetzt. Fehler haben jedoch sehr unterschiedlich Ursachen. Daher ist es sowohl für die neurointerventionellen Einheiten als auch für die einzelnen Ärzte wichtig, dass die Arten der Fehler logisch definiert werden. Nur dann ist es möglich, effektiv Fehlerquellen zu identifizieren und durch Mitigationsstrategien zukünftige Fehler zu vermeiden.
Träger des Fehlers: System, Gruppe, Individuum
Als Fehlerquelle können drei Bereiche unterschieden werden: Der Systemfehler, der Gruppenfehler und der individuelle Fehler.
Systemfehler: Verbesserung versus Akzeptanz
Fallbeispiel: Nach einer komplikationslosen Behandlung einer symptomatischen Karotisstenose mittels Stent kommt es trotz leitlinienkonformer Medikation und Blutdruckkontrolle zu einer Reperfusionsblutung.
Protokolle und Standards verbessern über die Gesamtheit das Outcome, können aber in einzelnen Fällen Komplikationen begünstigen. Die Mitigation besteht in der Verbesserung bestehender oder der Einführung neuer Protokolle. Kein Protokoll wird jedoch für jedes Individuum optimal sein. Es existiert ein Trade-off, der akzeptiert werden muss.
Gruppenfehler: Checkliste und offene Kommunikation
Gruppenentscheidungen können besser oder schlechter sein als Einzelentscheidungen [1, 2]. Ein prominenter Gruppenfehler ist der Fall von Elaine Bromley, die 2005 bei einer Routineoperation starb. Ihr Ehemann, ein Pilot, entwickelte daraufhin mit Medizinern Mitigationsstrategien für Gruppenfehler, wie sie in der Luftfahrt bereits Standard sind [3, 4].
Wenn der Fehler weder systemisch noch durch die Gruppendynamik bedingt ist, bleibt noch der individuelle Fehler als Quelle. Auch hier ist es wichtig, weiter zur differenzieren.
Individueller Fehler: Kompetenz versus Performance
Beim individuellen Fehler kann zwischen Kompetenz-Fehler und Performance-Fehler unterschieden werden. Ein Kompetenz-Fehler tritt ein, wenn der Arzt nicht über ausreichende Kompetenzen verfügt. Ein Performance-Fehler tritt ein, wenn ein kompetenter und erfahrener Arzt in einem bestimmten Fall seine Kompetenzen nicht korrekt abrufen kann [5].
Kompetenzfehler: Fehlende vorhandene versus fehlende unvorhandene Kompetenz
Als klassischer Kompetenz-Fehler gilt, wenn ein noch nicht voll ausgebildeter Arzt eine komplexe Intervention durchführt und es dabei zu Komplikationen kommt.
Auf der anderen Seite gibt es aber auch Kompetenz-Fehler der Art, bei denen selbst die erfahrensten Neurointerventionalistinnen und Neurointerventionalisten aufgrund der Neuartigkeit oder Komplexität des Eingriffs nicht die gesamte Kompetenz haben können.
Dazu folgender Fall: Ein komplexes Aneurysma wird mittels stentgeschütztem Coiling behandelt. Die Patientin wird leitlinienkonform mit doppelter Plättchenhemmung therapiert und die Medikamentenwirkung getestet. Dennoch kommt es Tage nach der Behandlung zur Thrombose des Stents mit resultierendem Hirninfarkt. Wir können daher in diesem Fall sagen, dass es zwar einen Kompetenz-Fehler gab, aber es zu «Fehlern» und Komplikationen kam aufgrund einer unbekannten, noch nicht vorhandenen Kompetenz.
Performance Fehler: Versäumnis-Fehler versus Fehler der Ausübung
Bei einem Versäumnis-Fehler führt der operierende Arzt einen notwendigen Schritt oder eine Handlung nicht aus. Ein Fehler der Ausübung entsteht, wenn ein Arzt einen notwendigen Schritt falsch ausführt. Letztlich gibt es auch sogenannte Kompensationsfehler, die dann entstehen, wenn versucht wird, vorherige Fehler zu beheben [6].
Grundtext
Beispiele für Performance-Fehler sind zahlreich, Mitigationsstrategien jedoch nicht einfach zu identifizieren. Es lassen sich aber mit einfachen Mitteln wie z. B. Pausen bei langen Interventionen und den Einsatz von Teams mit zwei gleichberechtigen Neurointerventionalisten und Neurointerventionalistinnen Performance-Fehler minimieren.
Evaluierungsfehler: Outcome Bias, Hindsight Bias, Base Rate Neglect
Bei einem vollständigen Ansatz zur Fehleranalyse bedarf es auch Fehler in der Evaluierung selbst zu identifizieren [7, 8].
Beim Outcome Bias wird die Handlung nach dem Ergebnis bewertet, egal was auf dem Weg dahin passiert ist («Ende gut, alles gut»). Der Hindsight Bias beschreibt die Neigung, Fehler als vorhersehbar zu betrachten (hätte man wissen müssen). Beides verhindert eine objektive Fehleranalyse [9, 10, 7].
Die Base Rate hingegen beschreibt die Fehlerwahrscheinlichkeit pro spezifischen Eingriff. Ein Arzt, der nur einfache Interventionen durchführt macht weniger Fehler als jemand, der sehr komplexe Interventionen durchführt. Das heisst niedrige Komplikationsraten machen nicht zwangsläufig einen guten Operateur aus.
Wir müssen aus Fehlern lernen, aber bestenfalls nicht nur aus Fehler mit nachweisbaren Folgen. Daher sollten auch die Near-Misses, also Beinaheunfälle eine ähnliche Wertigkeit wie reale Komplikationen haben.
Wir hoffen, dass dieser Artikel zum Nachdenken über die Wertigkeit einer fundierten Fehleranalyse im neuro-interventionellen Kontext, aber auch darüber hinaus anregt und somit zu einem optimalen Umgang mit Fehlern beiträgt.
Für Sie zusammengefasst vom:
SCR-Kongress | 22.-24.06.2023 | Genf
PD Dr. Tilman Schubert
Leitender Arzt für Interventionelle Neuroradiologie am Universitätsspital Zürich. Er interessiert sich für Fehlerprävention in der Interventionellen Neuroradiologie.
PD Dr. Zsolt Kulcsar
Klinikdirektor der Klinik für Neuroradiologie am Universitätsspital Zürich. Er ist zudem Präsident der European Society of Minimally Invasive Neurological Therapy (ESMINT).
Prof. Dr. Philip Ebert
Professor der Philosophie an der Universität Stirling, Schottland. Er forscht zu Themen im Bereich von Rationalität, Entscheidungstheorie und Risiko sowie zu Risikomanagement und Risikokommunikation.
Korrespondenz
Tilman.Schubert[at]usz.ch
Literatur
1 Surowiecki J. The wisdom of crowds: Why the many are smarter than the few. London: Abacus; 2004.
2 Ebert PA, Morreau M. Safety in numbers: how social choice theory can inform avalanche risk management. Journal of Adventure Education and Outdoor Learning. 2023;23:3,340-356.
Reliability Engineering & System Safety. Elsevier; 2000.
7 Fischhoff B. Hindsight is not equal to foresight: The effect of outcome knowledge on judgment under uncertainty. Journal of Experimental Psychology: Human Perception and Performance. 1975;1(3),288–299.
8 Ebert PA, Milne P. Methodological and conceptual challenges in rare and severe event forecast verification, Nat. Hazards Earth Syst. Sci. 2022;22,539–557.
9 Baron J, Hershey JC. Outcome bias in decision evaluation. Journal of Personality and Social Psychology. 1988;54(4),569–579.
10 Arkes HR. The Consequences of the Hindsight Bias in Medical Decision Making. Current Directions in Psychological Science. 2013;22(5),356–360.