Übersichtsarbeit

Review article

Human Factors im Krankenhaus – Konzepte und Konsequenzen

Human Factors in healthcare – concepts and consequences

Hofinger G1
Publiziert am: 25.11.2013  |  Artikel-ID #016
Korrespondierende Autorin: Dr. phil. Gesine Hofinger

1  Team HF – Hofinger Forschung Beratung Training

Zusammenfassung

Human Factors spielen eine wesentliche Rolle bei Ereignissen, bei denen Patienten geschädigt werden, und sind ein zentraler Schlüssel für Patientensicherheit. Diese Erkenntnis hat sich in den letzten Jahren in der Diskussion um Patientensicherheit zunehmend durchgesetzt. Entsprechend häufig wird der Begriff Human Factors in der Literatur und bei Interventionen verwendet. Dabei bleibt aber häufig unklar, was genau mit Human Factors gemeint ist. Insgesamt scheint in der Medizin eine einseitige Betonung von Fehlern und ihrer Vermeidung sowie vom Verhalten Einzelner vorzuherrschen. Dadurch wird das Potenzial der Human-Factors-Erkenntnisse und deren Anwendung in Bezug auf Patientensicherheit nur unzureichend genutzt.

In der Medizin wurde und wird auf Erfahrungen aus anderen Branchen und Erkenntnisse der Sicherheitswissenschaften zurückgegriffen, vorrangig aus dem Bereich der Luftfahrt. Dabei wurden aus der Luftfahrt vor allem Aspekte der Verhaltenssicherheit – Umgang mit Fehlern sowie Verhaltensweisen des Crew-Resource-Managements – übernommen. Aspekte der Systemgestaltung, insbesondere der Gestaltung von Arbeitsmitteln und -plätzen, werden in der Medizin noch wenig beachtet.

Auch wenn es keine einheitliche Definition des Begriffs Human Factors gibt, herrscht Einigkeit, dass damit physische, psychische und soziale Charakteristika des Menschen gemeint sind, insofern sie das Handeln in und mit soziotechnischen Systemen beeinflussen oder von diesen beeinflusst werden. Zugleich sieht man Human Factors als angewandte Technologie, die das Verhältnis zwischen Menschen und ihren Aktivitäten durch die systematische Anwendung der Humanwissenschaften innerhalb des Kontextes der Systemgestaltung zu optimieren sucht. Zielrichtung von Human Factors ist dabei immer Effizienz und Sicherheit von Arbeitssystemen sowie das Wohlergehen und die Gesundheit der darin tätigen Menschen. Human Factors betrachtet verschiedene Systemebenen wie Individuum, Team, Organisation, Arbeitsplatz, Aufgabe, Arbeitsmittel, Technik, Prozesse, Rahmenbedingungen und Umwelt mit ihren jeweiligen Interaktionen.

Die Entstehung und Verhinderung menschlicher Fehler (Human Errors) ist ein wichtiger Teil von Human Factors. Relevant ist hier die Unterscheidung zwischen Fehlern im Umgang mit Patienten, die Zwischenfälle oder Unfälle auslösen (aktive Fehler), und den Vorläufern für solche Fehler, die auf Ebenen von Managemententscheidungen liegen (latente Bedingungen). Fehler können durch Barrieren auf allen Ebenen des Systems verhindert oder abgefangen werden. Daher ist ein Grundanliegen von Human Factors, Arbeitssysteme so zu gestalten, dass viele Fehler gar nicht erst auftreten können (design-out) oder dass Fehler nicht zu Unfällen führen.

Aus dem Human-Factors-Ansatz ergeben sich vielfältige Konsequenzen für Krankenhausleitungen. Durch Managemententscheidungen werden die Arbeitsbedingungen, unter denen Patienten behandelt werden, definiert. Deshalb ist Patientensicherheit zentral auch Aufgabe der Führungspersonen im Krankenhaus, auch in nicht medizinischen Bereichen wie Einkauf oder Personalverwaltung. Relevante Bereiche der Systemgestaltung unter Human-Factors-Aspekten sind zum Beispiel Gerätedesign, Arbeitsplatzgestaltung, Prozessgestaltung sowie Fort- und Weiterbildung.

Schlüsselwörter
Human Factors, Fehlermanagement, Organisationsfaktoren, latente Fehler, Fehler­management, Systemgestaltung, Management

Summary

Human factors are the prime causes of events whereby patients suffer damage or harm, and are therefore key to patient safety. Over the last few years this has become increasingly more acknowledged in discussions related to patient safety. The term Human Factors is accordingly used frequently in specialist literature and in the case of interventions. At the same time, it is often unclear what is exactly meant by Human Factors. In the field of medicine there would appear to be an altogether one-sided emphasis on how errors occur and how to avoid them, with the behaviour of individuals pointed at as being the cause. That is to say: the potential for gaining insight into Human Factors and how they can be applied in the interest of patient safety is not exploited to the full.

In the field of medicine experts have always been inclined to fall back on experience gained in other fields and findings revealed through the safety sciences, primarily from the field of aviation, which has led to the adoption of specific aspects of behavioural safety – coping with errors and adopting behavioural patterns promoted by crew resource management. In the medical field little attention is paid to aspects of system design, in particular the design of equipment and work environments.

Even if there is not one single definition of Human Factors, it is widely agreed that the term refers to the physical, mental and social characteristics of human beings, inasmuch as they impact how people act within and with socio-technical systems, or are influenced by these themselves. At the same time, Human Factors is an applied technology that aims to optimise the relationship between human beings and the activities they perform through the systematic application of human sciences within the context of system design. The objective of Human Factors is to help secure the efficiency and safety of work systems and the health and well-being of the people involved. Human Factors take different aspects into account: individual, team, organisational factors, workplace, task, equipment used, technology, processes, general conditions and environmental issues – and how they interact within the respective context.

The emergence and prevention of human errors is an important part of Human Factors. It is essential to differentiate between errors made in association with patients that give rise to incidents or accidents (active errors) and the circumstances that lead to such errors being made, which are determined by management decisions (latent failures). Effective error management means that barriers can be put in place on all levels of the system to prevent or intercept errors. One of the basic principles of Human Factors is therefore to design work systems in such a way that many errors are designed out or so that errors do not result in accidents.

The Human Factors approach results in a wide range of consequences for clinical leadership. At management level decisions are made which define conditions under which patients are treated. Patient safety is thus one of the central tasks for which hospital managers are accountable, also in non-medical areas such as the purchasing department or in personnel administration. Areas of system design that involve Human Factors aspects are, for example, equipment design, workplace design, process design, continuing professional development and training.

Keywords
Human Factors, Organizational Factors, Latent Failures, Error Management, System Design

Einleitung

Im Sommer 2013 wurde vor dem Landgericht Bielefeld im Berufungsverfahren ein tragischer Unfall verhandelt (Az.: 18 Js 279/11). Ein Medizinstudent injizierte 2011 einem Baby ein zur oralen Verabreichung gedachtes Antibiotikum; das Baby erlitt einen anaphylaktischen Schock und starb wenige Stunden darauf.
Im Fokus der Berichterstattung in den Medien standen der Fehler des jungen Mannes und die Frage, wie es dazu kommen konnte. Der Student war mit der Mutter des Babys allein im Raum und sollte dem Kind Blut abnehmen. Er ging davon aus, dass er das Medikament verabreichen sollte, obwohl er dies noch gar nicht selbstständig hätte tun dürfen. Darauf gründete sich der Strafbefehl. Aber der Fehler war durch Faktoren auf mehreren Ebenen des Krankenhauses begünstigt worden (nach Berichten in Süddeutsche Online 2013; Spiegel Online 2013; Spiegel Online 2013a; ZEIT Online 2013):
Es gab in dem Krankenhaus anscheinend keine schriftliche Einarbeitung für die PJler (Medizinstudenten im Praktischen Jahr) bezüglich der Tätigkeiten, die sie übernehmen dürfen. Eine Pflegekraft hatte eine Spritze mit dem oral zu verabreichenden Medikament gefüllt, aber nicht beschriftet, ans Bett des Kindes gelegt. Auch die Arbeitsgeräte trugen zu dem tödlichen Medikationsfehler bei: Die Spritze, die zum Träufeln in den Mund des Babys gedacht war, passte auf den Perfusor.

Fälle solcher Verwechslungen waren seit mehreren Jahren durch Studien vor allem aus den USA bekannt (The Joint Commission 2006). Nach den Medienberichten führte das Krankenhaus erst am Tag nach dem Unfall in der betreffenden Abteilung unverwechselbare Spritzen ein.
Hinzu kommt die Stellung der PJler: In vielen Krankenhäusern werden sie als Arbeitskräfte eingesetzt, ohne dass sie dabei von einem Supervisor begleitet werden. Es wird stillschweigend vorausgesetzt, dass sie Tätigkeiten wie Blutentnahme oder Medi­kamentengabe selbstständig übernehmen. Dabei sind Studierende oft unsicher, was sie selbstständig tun dürfen und was nicht (Stellungnahme der Münsteraner Medizinstudierenden nach dem Urteil [zitiert nach ZEIT Online 2013]). Trotzdem ist das Nachfragen oder das Ablehnen von Tätigkeiten für Studierende oft schwierig. Singh et al. (2007) zeigten an Daten von Versicherern schon 2007, dass bei Behandlungsfehlern, an denen medizinische Praktikanten und Auszubildende (»medical trainees«) beteiligt waren, bei fast drei Viertel der Fälle Fehler bei der Einschätzung der Situation und mangelnde Supervision zum Behandlungsfehler beitrugen.

Das traurige Beispiel zeigt, dass und wie Patientensicherheit durch das Verhalten mehrerer Einzelner, durch die Organisation der Arbeitsprozesse und die Gestaltung der Arbeitsmittel gefährdet wird. Dabei sind die oben aufgeführten Faktoren nicht auf diesen einen Fall oder ein Krankenhaus beschränkt. Die genannten Faktoren – passende Anschlüsse, unbeschriftete Spritzen, kein Nachfragen angesichts unklarer Aufträge, fehlende Supervision – gehören zu den Human Factors.

Dieser Begriff wird in der Medizin in der Diskussion um Patientensicherheit in den letzten Jahren zunehmend verwendet. Beispielsweise werden in vielen Studien zu Zwischenfällen Human Factors als verursachend in circa 80% der vermeidbaren unerwünschten Ereignisse und der Patientenunfälle angegeben (Überblick in St. Pierre et al. 2011). Dabei bleibt aber häufig unklar, was genau mit Human Factors gemeint ist. Teils wird der Begriff verwendet, um die systemische Verursachung von Fehlern zu kennzeichnen, teils als Synonym für Fehler, teils als Oberbegriff für psychologische Maßnahmen.
Insgesamt scheint in der Medizin eine einseitige Betonung von Fehlern und vom Verhalten Einzelner vorzuherrschen (Catchpole 2013). So wird Human Factors als Ersatz für das Wort »Fehler« verwendet oder positiv gedeutet als Crew-Resource-Management-Verhalten (CRM). Damit wird die Bedeutung der »menschlichen Faktoren« auf falsches Verhalten und dessen Vermeidung reduziert – eine Sichtweise, die vielleicht für Mediziner mit ihrem Fokus auf persönlicher Verantwortung typisch ist.
Human-Factors-Experten begrüßen sehr, dass seit der Jahrtausendwende die Konzepte ihrer Wissenschaften zunehmend Einfluss auf die Bemühungen um Patientensicherheit gewinnen. Catchpole (2013) spricht sogar von: »widespread acknowledgement of the value of human-centred systems thinking in healthcare«. Aber die Verkürzung von Human Factors auf Verhaltensaspekte (Catchpole 2013; Russ et al. 2013) hindert daran, ihr Potenzial in Richtung von Systemveränderungen für mehr Patientensicherheit auszunutzen.

Deshalb soll hier nun der Versuch unternommen werden, zu zeigen, was Human Factors sind, was sie für die Patientensicherheit bedeuten und was daraus für das Krankenhausmanagement folgen könnte. Zunächst wird die Bedeutung der Human Factors als Wissenschaft und Anwendung erläutert. Einige Kernkonzepte der Human-Factors-Forschung werden an Beispielen aus der Medizin erklärt. Abschließend wird nach möglichen Konsequen­zen und Schlussfolgerungen für Führungspersonen und Manager im Krankenhaus gefragt.

Zugänge zu Human Factors in der Medizin

Patienten sollen durch die Behandlung keinen Schaden erleiden – dieser uralte Grundsatz ärztlichen und pflegerischen Handelns ist in den letzten 30 Jahren unter dem Stichwort Patientensicherheit neu und dringlich ins Bewusstsein gerückt worden.
Der Bericht des Institute of Medicine (IOM) »To Err Is Human« (Kohn et al. 1999) löste weltweit eine intensive, auch medial präsente Auseinandersetzung mit Patientensicherheit aus. Mit Erschrecken, teils auch Unglauben, wurden Studien aufgenommen, die zeigen, dass – je nach Land und Studie – bis zu 10% aller Patienten während der Behandlung ein »vermeidbares unerwünschtes Ereignis« erleiden (Aktionsbündnis Patientensicherheit 2008) und dass Fehler in allen Bereichen der Medizin häufig sind (für die Akutmedizin Überblick in St. Pierre et al. 2011). Inzwischen gibt es eine Fülle von Konzepten, Studien, Projekten und Institutionen zum Thema Patientensicherheit. Veränderungen sind auf Systemebenen allerdings noch kaum nachweisbar (Leape & Berwick 2005), wie auch Schwappach & Conen (2012) in dieser Zeitschrift zeigten.

Bereits die ersten Studien zu Zwischenfällen und Fehlern benutzten das Konzept Human Factors, da diese in anderen Bereichen (in Abgrenzung zu technischem Versagen) immer wieder als relevanteste Unfallursache benannt worden waren, zum Beispiel in der Luftfahrt in mehr als 70% der Fälle, in der Raumfahrt in 66% (Giesa & Timpe 2000). Studien in der Medizin fanden ebenfalls, dass 70–80% der untersuchten Zwischenfälle auf die Beteiligung von Human Factors zurückzuführen waren (Cooper et al. 1978; Williamson et al. 1993). Bei der Unterscheidung »menschliche Faktoren« versus »technische Faktoren« wird aber häufig vergessen, dass Maschine, Computer oder Arbeitssysteme immer ein Produkt von Menschen sind. Letztlich können also alle Fehler auf Human Factors zurückgeführt werden (Badke-Schaub et al. 2012a, S. 4–20).

Human-Factors-Fragestellungen in der Medizin – mit oder ohne dieses Label – gibt es schon länger, zum Beispiel zu den Problemlöse- und Entscheidungsprozessen von Ärzten (Gaba 1992a, S. 123–147), Problemlöseprozessen (Buerschaper et al. 2003, S. 208–228), Entscheidungsunterstützung (Jalote-Parmar & Badke Schaub 2008) und zu Teamprozessen (Literaturübersicht in Schmutz & Manser 2013).

Im Zuge der Beschäftigung mit Patientensicherheit wurde und wird auf Erfahrungen aus anderen Branchen und Erkenntnisse der Sicherheitswissenschaften zurückgegriffen. Dabei haben Mediziner vorrangig von der Luftfahrt gelernt (Davies 2001, S. 265–281). Dies wurde begünstigt durch strukturelle Ähnlichkeiten insbesondere der Anästhesie, die in der Patientensicherheit zunächst eine Vorreiterrolle einnahm (Kohn et al. 1999), mit der Arbeit im Cockpit. Eine Rolle mag auch der Status und die Überzeugungskraft der Piloten, die Human Factors lehren, spielen (Buerschaper & Hofinger 2004). Inzwischen ist deutlich geworden, dass Lösungen in der Luftfahrt auf das System Luftfahrt zugeschnitten sind und deshalb nicht 1:1 übertragbar sein können (Gaba 2011; Rogers 2011).

Gelernt wurde aus der Luftfahrt zum Beispiel die systemische Fehlersicht (siehe unten) und die Abkehr von der Suche nach Schuldigen zugunsten der Frage nach der Verursachung von Fehlern auf verschiedenen Ebenen des Systems. Dieses Verständnis ist sogar in den Presseberichten zum einleitenden Fallbeispiel spürbar – den Organisationsproblemen und den Arbeitsmitteln wurde vor Gericht und in der Presse viel Aufmerksamkeit geschenkt.
Zum anderen wurden – ganz dem Beispiel aus der Luftfahrt folgend – interpersonale Verhaltensweisen und kog­ni­­tive Fähigkeiten untersucht, die für sicheres Handeln wichtig sind (Flin et al. 2008; Reader et al. 2006). Kommunikation, Teamarbeit, Führung, Stressmanagement und Aufmerksamkeitssteuerung sind einige dieser Faktoren. Ihre Auswirkungen auf klinische Performanz und damit Patientensicherheit sind inzwischen vielfach belegt (für Teamprozesse Schmutz & Manser 2013).
Ein wichtiger Aspekt in Bezug auf die »non-technical skills« ist das Crew-Resource-Management, das in der Medizin zunächst als Crisis-Resource-Management (Gaba 1992b) in Verbindung mit Simulatortrainings übernommen wurde. Hier liegt der Fokus auf sicherem Verhalten, mit einer Betonung von Zwischenfallsmanagement, Teamarbeit, Führung und Kommunikation.

Wenn CRM-Trainings Human-Factors-Trainings genannt werden, zeigt diese sprachliche Verkürzung eine Einengung des Verständnisses, eine Zentrierung auf den Bereich der »behavioral safety«, also auf Verhalten und Personen an, die zum Beispiel von Catchpole (2013) an prominenter Stelle beklagt wird. Dadurch, dass kaum Human-Factors-Experten in und mit Krankenhäusern arbeiten (Russ et al. 2013), wurde häufig vergessen, dass Crew-Resource-Management-Trainings in der Luftfahrt nur ein Teil der Human-Factors-Trainings sind. Dort gibt es zum Beispiel gesonderte verpflichtende Kurse zu »Human Performance and Limitations«. Zudem sind die Trainings eingebettet in eine technische Arbeitsumgebung, in der seit den 1940er-Jahren Human-Factors-Aspekte Beachtung finden, auch wenn dies den Piloten oft gar nicht mehr bewusst ist.

In der Medizin wurden bislang Aspekte der Systemgestaltung, insbesondere der Gestaltung von Arbeitsmitteln und -plätzen, noch wenig beachtet (Catchpole 2013). Dabei ist es ein zentrales Merkmal von Human-Factors-Wissenschaften und -Anwendungen, das Systemdesign, die Arbeitsmittel und Prozesse so zu gestalten, dass sie Sicher­heit ermöglichen. Im Folgenden soll deshalb Human Factors als Wissenschaft und Anwendungsbereich definiert werden, ehe an Beispielen Anwendungsbereiche in der Medizin gezeigt werden.

Human Factors

Definitionen von Human Factors

Human Factors wird als Begriff auch in der Medizin zunehmend verwendet, ohne dass bislang ein einheitliches Verständnis darüber existiert. Dies ist aber nicht auf die Medizin beschränkt – es fehlt eine allgemein akzeptierte Definition von Zielen, Arbeitsfeldern, Theorien oder Methoden (Badke-Schaub et al. 2012a, S. 4–20). Dies kommt unter anderem daher, dass Human Factors nicht eine Wissenschaft bezeichnen, sondern mehrere Wissenschaften und Traditionen, vor allem aus den Ingenieurwissenschaften, der Arbeitswissenschaft und der Psychologie (Ingenieurpsychologie, Arbeits- und Organisations­psycho­logie) zusammenfassen.

Zudem gibt es sprachliche Begriffsunterschiede: Im amerikanischen Sprachgebrauch ist Ergonomics gleichbedeutend mit Human Factors Engineering. In Europa gibt es verschiedene Begriffsverwendungen, vor allem wird Ergonomie eher als menschengerechte Gestaltung der Arbeitsmittel gesehen, während Human Factors Engineering eher die Systemgestaltung unter Einbeziehung menschlicher Charakteristika meint. Im Deutschen setzt sich in den letzten Jahren auch der Begriff Human-Factors-Psychologie durch (Badke-Schaub et al. 2012b), der menschliches Verhalten in soziotechnischen Systemen betont.

Einigkeit herrscht über Fach- und Sprachgrenzen hinweg über die Grundidee: »Human Factors als interdisziplinäre Wissenschaft beschäftigt sich mit dem Verhältnis von Menschen und Technik unter einer systemischen Perspektive und greift dabei auf verschiedene Basisdisziplinen zu«, mit dem »Ziel des Erkenntnisgewinns über Menschen als Ressource und begrenzenden Faktor im System Mensch und Technik. Zum anderen ist Human Factors eine angewandte Wissenschaft, die Anwendungswissen für Problemlösungen in der Praxis bereitstellt.« (Badke-Schaub et al. 2012a, S. 4–20)

Umgangssprachlich werden »menschliche Faktoren« häufig als Abgrenzung zu »technischen Faktoren« verwendet. Allerdings ist für die Betrachtung der Human Factors gerade die Verknüpfung menschlicher mit technischen und organisationalen Faktoren relevant.
Badke-Schaub et al. (2012a) schlagen deshalb zur Klärung vor: »Die menschlichen Faktoren (Human Factors) sind alle physischen, psychischen und sozialen Charakteristika des Menschen, insofern sie das Handeln in und mit soziotechnischen Systemen beeinflussen oder von diesen beeinflusst werden. Dabei geht es um Individuen, Gruppen und Organisationen.« Zudem werden Human Factors oft verkürzt als Verhinderung von Fehlern, aber Menschen werden in Human Factors nicht nur mit dem Blick auf Fehler als Risikofaktor gesehen, sondern im Hinblick auf ihre Fähigkeiten auch als Sicherheitsressource.

Ziele von Human Factors

Die Untersuchung der Humanfaktoren hat immer konkrete Ziele, da Human Factors anwendungsgetriebene Wissenschaften sind. Deshalb definiert Hawkins (1987) Human Factors als angewandte Technologie, die sich damit beschäftigt, das Verhältnis zwischen Menschen und ihren Aktivitäten durch die systematische Anwendung der Humanwissenschaften innerhalb des Kontextes der Systemgestaltung (»systems engineering«) zu optimieren. Die Optimierung des Verhältnisses von Menschen und Arbeitstätigkeiten hatte dabei seit den Anfängen der Human-Factors-Forschung immer zwei Zielrichtungen: Effizienz und Sicherheit von Arbeitssystemen und das Wohlergehen sowie die Gesundheit der darin tätigen Menschen (so auch Dul et al. 2012).

Die Forschung zu Human Factors in der Medizin befasst sich zumeist mit Patientensicherheit, auch wenn die Arbeitssicherheit für die Beschäftigten ebenfalls ein wichtiges Feld ist: »The goals of human factors in healthcare are twofold: (1) support the cognitive and physical work of healthcare professionals and (2) promote high quality, safe care for patients.« (Russ et al. 2013, S. 1)

Ebenen von Human Factors

Welche Charakteristika von Menschen und welche System­aspekte sind nun gemeint, wenn es um das Verhältnis von Menschen zu ihren Arbeitssystemen geht? Human Factors befasst sich mit physischen Merkmalen von Menschen (zum Beispiel der Auswirkung von Lärm auf die Konzentration), kognitiven Merkmalen (zum Beispiel Informationsverarbeitung), der Interaktion mit anderen Menschen (zum Beispiel Führungsprozesse) und der Gestaltung von Ausrüstung, Arbeitsaufgaben, Arbeitsprozessen und Organisationsstrukturen, sodass diese mensch­lichen Eigenschaften, ihrem Leistungsvermögen und Schwächen angepasst sind. Betrachtungsebenen sind dabei (vgl. Badke-Schaub et al. 2012a):
Individuum | allgemein menschliche Merkmale und die konkrete Person mit ihren Fähigkeiten und Begrenzungen, zum Beispiel Aufmerksamkeitssteuerung, Gedächtnispro­zesse, Wissen, Emotionsregulation, Motivation, …
Team / Gruppe | zum Beispiel Informationsmanagement, Kommunikation, Führung, Teamkoordination, …
Organisation | zum Beispiel Management, Prozesse, Regeln, Personalplanung, …
Technik | zum Beispiel Maschinen, Geräte, Gebäude, …
Die Rahmenbedingungen des Systems | zum Beispiel verfügbares Geld, Ressourcen, Gesetze, kulturelle Faktoren

Um die Fülle der Faktoren zu sortieren, eignet sich das SHELL-Modell von Edwards von 1972 (Hawkins 1987). Dieses Modell betont die Interaktion von Menschen mit verschiedenen Systemelementen – technischen, immateriellen, anderen Menschen sowie der Systemumgebung. Dabei bedeutet SHELL: Software – Hardware – Envi­ronment – Liveware – Liveware. Software ist nicht als Computersoftware gemeint, sondern als Arbeitsprozesse und -regeln; Hardware bezeichnet die physische Arbeits­umgebung und die Arbeitsmittel. Environment steht für die Systemumwelt, im Fall eines Krankenhauses sind das die physische Umwelt, aber auch die Gesetze des Landes, Aus- und Weiterbildungsordnungen – alles was aus dem System Krankenhaus heraus als gegeben angesehen werden muss. Liveware ist zunächst der Mensch, der gerade betrachtet wird mit seinen/ihren Merkmalen, dann aber auch (das zweite L) die Interaktion mit anderen Menschen.

Das SHELL-Modell in einer Fassung von 1988 (Edwards 1988, S. 3–5) und die Entsprechung zu den Ebenen Mensch – Technik – Organisation – Rahmenbedingungen zeigt Abb. 1.
Human Factors beschreibt die einzelnen Systemelemente, fokussiert aber auf die Schnittstellen innerhalb des Systems, zum Beispiel Mensch – Maschine, Mensch – Mensch, Software – Organisation. Beispielsweise ist bei der Einführung neuer Technologien oder Regeln das ganze System betroffen. Ein gutes Beispiel, dass diese Schnittstellenbetrachtung für den Erfolg von Maßnahmen für die Patientensicherheit nötig ist, bietet die Einführung der Prä-OP-Checkliste in Deutschland (Renner et al. 2012). Hier wurde unter anderem festgestellt, dass die Checkliste an die jeweilige Kultur angepasst werden muss, wenn sie im Alltag eingesetzt werden soll, und dass ein Commitment der Führung nötig ist – relevant ist also jeweils die Interaktion von Liveware (Ärzten, Pflegekräften), Software (der Checkliste), der Kultur im deutschen Gesundheitswesen (Environment) und der Organisation (Management).

Abb. 1 Ebenen von Human Factors integriert in das SHELL-Modell
(nach Edwards 1988)

Aus der bisherigen Beschreibung wird ersichtlich, dass Human Factors Berührungspunkte und Überschneidungen mit anderen Wissenschaften hat. Menschliches Handeln eingebettet in den technischen und den Organisationskontext zu betrachten, ist zum Beispiel verwandt mit Change Management und Organisationstheorie, wenn es darum geht, wie Organisationen verändert werden können. Die Frage, welche menschlichen Eigenschaften und Verhaltensweisen veränderbar sind und welche nicht, berührt die Personalwirtschaft (Auswahl, Training). Die Gestaltung von Prozessen wird im Qualitätsmanagement betrachtet.

Besonderheiten von Human Factors in der Medizin

Im Hinblick darauf, wie Human Factors in der Medizin eingesetzt wird, fallen, verglichen mit anderen Branchen, einige Besonderheiten auf. Auch wenn sie nicht auf »die Medizin« oder alle Krankenhäuser zutreffen, sind sie doch bedenkenswert in ihren Konsequenzen für Patientensicherheit:

  • Trotz aller rhetorischen Betonung einer systemischen Sichtweise und Kenntnis der Human-Factors-Literatur scheint es, wie oben angesprochen, eine Zentrierung auf Personen und deren Verhalten zu geben. Dadurch wird die häufig beklagte »Name-blame-shame«-Kultur nur oberflächlich verändert – wenn einzelne Personen Fehler machen, werden sie zwar vielleicht nicht mehr an den Pranger gestellt. Aber wenn die Antwort auf Fehler mehr Schulung, mehr Training und »mehr Anstrengung« heißt, dann werden Mechanismen, die den Fehlern zugrunde liegen, ausgeblendet. Wenn Human Factors mit Fehlern gleichgesetzt werden, dann ist der Begriff nur ein semantisches Surrogat für »blame« (Catchpole 2013).
  • Catchpole argumentiert, dass die Systemsicht für Mediziner schwere Kost sein kann, da es einige ihrer Grundannahmen infrage stellt, beispielsweise die Annahme, dass gute Ergebnisse mit guten Prozessen gleichzusetzen sind, dass Fehler durch Anstrengung oder bessere Ausbildung zu vermeiden sind, oder dass sie als Person für die Ergebnisse ihrer Arbeit verantwortlich sind. »It can be disturbing for a clinical population who base their status, professional confidence and sometimes their business model on their individual abilities to realize how much their own performance is shaped by the equipment, tasks, environment and organization around them.« (Catchpole 2013)
  • In der Medizin scheint es eine Betonung von Sicherheit durch richtiges Verhalten und die Definition von Prozessen zu geben. Im Gegensatz dazu wird der Architektur, der Gestaltung von Arbeitsmitteln, der Anordnung von Geräten und anderen eher auf das Gesamtsystem bezogenen Interventionen weniger Beachtung geschenkt. Ein Grund könnte sein, dass im Gesundheitssystem die Verbindung von Entwicklern, Industrie und Anwendern nicht so eng ist wie beispielsweise in der Luftfahrt oder Kerntechnik. Ein anderer Grund mag sein, dass die Intervention »Training« viel einfacher und billiger ist als die (Um-)Gestaltung von Arbeitssyste­men. Russ et al. (2013) betonen, dass dies natürlich nicht bedeutet, dass Training unnötig wäre – Verhaltenstraining ist aber bezogen auf Sicherheit eine eher schwache Intervention (da nicht alle Teilnehmer das Gelernte bei allen Gelegenheiten umsetzen werden).
  • Human Factors ist üblicherweise sehr auf die Endnutzer eines Systems oder Geräts zentriert. Dies ist im Gesundheitswesen schwerer umzusetzen, da es vielfältige Nutzer von Technologien gibt und die eigentlichen Endnutzer – die Ärzte, Pflegekräfte und Patienten – keine Gesprächspartner der Human-Factors-Spezialisten sind (Carayon et al. 2012, S. 1574–1595). Das mag auch damit zusammenhängen, dass etablierte Prinzipien der Einführung neuer Technologien, Einbindung des Managements, Mitarbeiterbeteiligung, systematisches Training, Schulungen und Projektmanagement in Krankenhäusern selten konsequent umgesetzt werden (Carayon et al. 2012, S. 1586).


Zur Konzeptklärung seien abschließend die von Russ et al. (2013) genannten »facts and fictions« zu Human Factors in der Medizin genannt, die die Notwendigkeit einer umfassenden menschengerechten Systemgestaltung und des Einsatzes von Human-Factors-Expertise in der Medizin pointiert zusammenfassen (Übersetzung der Autorin):

  • Fakt 1: Bei Human Factors geht es um die Gestaltung von Systemen,
    die gegenüber unerwarteten Ereignissen resilient (widerstandsfähig) sind.
    Fiktion:
    Bei Human Factors geht es um die Eliminierung menschlicher Fehler.
  • Fakt 2: Human Factors geht Probleme an, indem das Systemdesign
    so umgestaltet wird, dass Menschen besser unterstützt werden.
    Fiktion: Human Factors geht Probleme an, indem Menschen beigebracht wird,
    ihr Verhalten zu verändern.
  • Fakt 3: Human Factors umfasst die Ebenen vom Individuum bis zur Organisation.
    Fiktion:
    Human Factors fokussiert nur auf Individuen.
  • Fakt 4: Human Factors ist eine Wissenschaftsdisziplin, die mehrjährige Ausbildung verlangt.
    Die meisten Human-Factors-Spezialisten haben einen einschlägigen Studienabschluss.
    Fiktion:
    Human Factors besteht aus einem beschränkten Set von Prinzipien, die in einem
    kurzen Training gelernt werden können.
  • Fakt 5: Human Factors sind verbunden durch ein gemeinsames Ziel, nämlich
    (System-)Gestaltung für die Nutzung durch Menschen zu verbessern, aber sie kommen
    aus verschiedenen Fachgebieten und setzen unterschiedliche Methoden ein.
    Fiktion:
    Human-Factors-Wissenschaftler und -Ingenieu­re haben alle die gleiche Expertise.

 

Human Factors, Fehler und Patientensicherheit

Betrachtet man Arbeitstätigkeiten im Zusammenhang verschiedener Systemelemente und -ebenen, geraten Ursachen von Fehlern und Möglichkeiten, Fehler zu verhindern, in den Blick. Fehler bleiben dabei immer noch falsche Handlungen, aber es wird anerkannt, dass eine falsche Handlung vielfältige Ursachen haben kann und vor allem an vielen Stellen verhindert werden kann. Manche Ursachen für Zwischenfälle und Unfälle liegen zeitlich weit vor dem Ereignis, manche relevanten Entscheidungen werden gar nicht von den mit den Patienten arbeitenden Personen getroffen. Um dies auszudrücken, führte Reason (1990a) die Unterscheidung von »aktiven« Fehlern und ihren »latenten« Ursachen ein.

Aktive Fehler sind Fehler, die Zwischenfälle oder Unfälle auslösen; sie werden von Menschen an der Schnittstelle des Systems nach außen, am »scharfen Ende« der Organisation begangen. In der Medizin sind dies meist Fehler der Ärzte, Pflegekräfte oder Apotheker, wie die falsche Gabe des Medikaments durch den Studenten im Eingangsfallbeispiel. Weil aktive Fehler »sichtbar« sind, werden sie Gegenstand des öffentlichen Interesses und haben oft interne Sanktionierung und juristische Konsequenzen zur Folge (Hofinger 2012, S. 39–60).

Latente Bedingungen sind die Bedingungen, unter denen am »scharfen Ende« gearbeitet wird – sie werden geschaffen durch Entscheidungen am »stumpfen Ende« des Arbeitssystems: im Management, in der Verwaltung, in der Ausbildung etc. Sie können in Strukturen (zum Beispiel baulichen Gegebenheiten) oder Prozessen (zum Beispiel Aus­bildung, Dienstplangestaltung) vorliegen. Die falsche Verabreichung eines Medikaments wie im Eingangsbeispiel könnte ermöglicht werden durch unklare Anleitungen, durch fehlende Beschriftung von Spritzen, durch die Übernahme von Tätigkeiten durch Studierende, für die sie nicht qualifiziert sind. In anderen Fällen falscher Medikamentengabe könnten unleserliche Handschrift auf einem Rezept, das Nebeneinanderstehen ähnlicher Packungen im Medikamentenschrank oder Dienstpläne, die die Medikamentenausgabe durch übernächtigtes und also unaufmerksames Personal nötig machen, latente Bedingungen sein.
Latente Bedingungen sind ebenso ursächlich für Zwischenfälle und Unfälle wie aktive Fehler – sie werden aber erst durch das Zusammentreffen mit solchen Fehlern und besonderen Umständen »wirksam«, eventuell auch erst nach vielen Jahren. Damit ist die Kausalität im Einzelfall schwer nachweisbar. »The difference is that the active failure has an immediate causal impact on the outcome, whereas the latent condition has been a potential cause for an indefinite time.« (Thimbleby 2010a)
Eine Human-Factors-Analyse fragt nun nicht nach dem Nachweis der Kausalität, schon gar nicht nach juristischer Verantwortlichkeit, sondern nach Faktoren, die zu einem Ereignis beigetragen haben oder beigetragen haben könnten – und damit nach Faktoren, die verändert werden müssen, damit so ein Ereignis nicht wieder vorkommt. Reason (1990b) beschreibt dieses Aufeinandertreffen latenter Faktoren und aktiver Fehler anhand des inzwischen klassischen »Käsescheibenmodells« (Abb. 2). Die Entstehung eines Unfalls ist dabei wie die Flugbahn eines Projektils gedacht, das normalerweise durch vielfältige Barrieren davon abgehalten wird, Schaden anzurichten. Latente Bedingungen (»Löcher« in den Barrieren) ermöglichen es, dass aktive Fehler zu Patientenschädigungen führen, wenn sie nicht mehr korrigiert werden können.

Abb. 1 Fehlerkette nach Reason
(1990, Abbildung aus St. Pierre et al. 2011)

Dieses Modell wird häufig als »Fehlerkette« bezeichnet und als Ereigniskette formuliert, zum Beispiel von Vincent et al. (1998): Latente Bedingungen wie Management­entscheidungen beeinflussen die Arbeitsbedingungen (zum Beispiel Arbeitsbelastung, Supervision, Ausrüs­tung, Fortbildungen), die wiederum zu unsicheren Handlungen/aktiven Fehlern führen, die zu vermeidbaren unerwünschten Ereignissen oder Unfällen mit Patienten führen. Genau genommen müsste man aber meis­tens von einem »Fehlernetz« sprechen (Hofinger 2012): Ein Fehler führt nicht geradlinig zum nächsten Fehler, sondern die bei Reason genannten »lokalen Auslöser« und »ungewöhnlichen Umstände« treffen mit Fehlern zusammen und lassen diese durch das Sicherheitsnetz schlüpfen. Ob »Kette« oder »Netz« – ein Zwischenfall oder Unfall ist nur aus der Verknüpfung der einzelnen Fehler und der Randbedingungen möglich. Er ist also nicht durch einen Fehler einer Person verursacht, auch wenn es auf den ersten Blick so aussieht.

Thimbleby (2010a) zeigt die Bandbreite möglicher laten­ter Einflussfaktoren am Beispiel einer tödlichen Überdosierung mit einem Morphin durch falsche Eingabe der Dosis am Gerät durch eine Pflegekraft: Der aktive Fehler wäre hier, die falsche Taste zu drücken und dadurch eine Überdosierung auszulösen. Latente Bedingungen wären hier zum Beispiel fehlende Geräteschulung und fehlende Schulung in der Kontrolle von Eingaben. Auch die Tatsache, dass die Pflegekraft ohne Schulung mit diesem Gerät arbeitet, ist eine latente Bedingung. Die Notwendigkeit gesonderten Gerätetrainings durch die Anschaffung vieler verschiedener Geräte mit unterschiedlichen Bedienkonzepten wäre hier ebenfalls zu nennen.
Weiter entfernt, aber ebenso wirksam ist die Entwicklung des Geräts ohne Beachtung ergonomischer Kriterien, zum Beispiel mit zu kleinen oder eng stehenden Schaltern, die eine falsche Bedienung begünstigen. Der am betreffenden Gerät angebrachte große Vorratsbehälter erlaubt eine tödliche Überdosierung, ein kleiner Behälter würde die falsche Dosierung gar nicht ausgeben können. Mit Blick auf die Verschreibung kann man fragen, ob ein Medikament verordnet werden musste, das bei Überdosierung tödlich ist, oder ob es Alternativen gegeben hätte.

Das Beispiel zeigt die Relevanz von Human-Factors-Wissen und von Denken in Systemen auch für das Management: Die falsche Eingabe und die fehlende Geräteschulung sind offensichtlich. Es sind Faktoren, die zu dieser spezifischen Situation führten und die durch einfache Maßnahmen – Schulung! – leicht zu beheben scheinen. Die Beteiligung anderer Ebenen an dem Unfall, wie beispielsweise des Beschaffungswesens (Gerätebestellung), des Qualitätsmanagements (Rückmeldung an den Gerätehersteller über unergonomische Tasten), der Apotheke (Bereitstellung von Behältern mit potenziell tödlicher Menge) oder anderer Bereiche sind nicht unbedingt naheliegend, da sie nicht nur in dieser Situation wirksam waren. Thimbleby (2010a, S. 122) nennt solche latenten Bedingungen oder Entscheidungen, die nicht spezifisch nur in einer Situation wirken und die auch nicht unmittelbar Ursache des aktiven Fehlers sind, »frame errors«.

Eine wichtige Botschaft des »Käsescheibenmodells«, gerade für die Medizin, lässt sich aus der Umkehrung lesen: Wenn die Löcher in den einzelnen Barriereebenen geflickt werden oder besser die Barrieren keine Löcher haben, können Menschen Fehler machen, ohne dass es zu Unfällen kommt. Das ist das Grundanliegen von Human Factors: Arbeitssysteme so zu gestalten, dass viele Fehler gar nicht erst auftreten können (design-out) oder dass Fehler nicht zu Unfällen führen. In der aktuellen Terminologie der Sicherheitsforschung heißt das, dass Systeme »resilient« (widerstandsfähig) sein sollten (Hollnagel et al. 2006); ähnlich ist die Idee der »Fehlerfreundlichkeit« von Systemen (Wehner 1992).

Systemanalysen, die alle Ebenen von Human Factors berücksichtigen, können latente Bedingungen, insbesondere »frame errors« aufspüren, bevor es zu Unfällen kommt. Dazu ist aber außer Human-Factors-Wissen die genaue Kenntnis des betreffenden Arbeitssystems, also des Krankenhauses mit all seinen Untergliederungen, den vielfältigen Prozessen und Materialien nötig.

Konsequenzen aus dem Human-Factors-Ansatz für Krankenhäuser

Patientensicherheit braucht Management mit Human-Factors-Wissen
Organisationen haben viele Möglichkeiten, Human-Factors-Wissen umzusetzen und die Patientensicherheit und Versorgungsqualität zu verbessern. Im Folgenden werden einige Beispiele dafür genannt. Dabei schafft das Management durch seine Entscheidungen die Arbeitsbedingungen, unter denen Patienten behandelt werden. Patientensicherheit ist deshalb zentral auch Aufgabe der Führungspersonen – und diese brauchen dafür Human-Factors-Wissen!

Human Factors für Patientensicherheit geht auch den Einkauf an
Die Relevanz von Gerätedesign für die Patientensicherheit ist in vielen Studien gezeigt worden, vor allem zu Infusionspumpen (Vincent et al. 2013); für die nutzerzentrierte Gestaltung von Geräten gibt es genug Wissen aus Jahrzehnten der Forschung. Die Gestaltung von Geräten und Bedienkonzepten liegt natürlich außerhalb der direkten Reichweite von Krankenhäusern. Aber durch Einkaufspolitik und durch Kontakt zu Geräteherstellern kann hier Einfluss ausgeübt werden. Insbesondere sollte darauf geachtet werden, dass Geräte tödliche Bedienfehler nicht zulassen (zum Beispiel »safety-locks«, Thimbleby, 2010b). Auch die Einheitlichkeit der Bedienkonzepte in einem Krankenhaus kann hier gesteuert werden (allerdings unter Umständen nur mit kurzfristigen finanziellen Nachteilen), sodass Verwirrung durch verschiedene Geräte entfallen kann.

Alle Berufsgruppen einbinden
Praktiker im Bereich Patientensicherheit, Qualitätsmanagement und klinisches Risikomanagement beklagen, dass das Krankenhauspersonal, vor allem Ärzte und Leitungsebenen der Krankenhäuser, in die Bemühungen um Patientensicherheit nicht ausreichend involviert seien. Dies zeigt sich auch an der Teilnahme an Tagungen zur Patientensicherheit. Schwappach & Conen (2012) bemerken dazu: »Es ist viel leichter, Operateure für ein neues mikroinvasives Gerät oder Innovationen wie die Fast-Track-Chirurgie zu begeistern, als sie für die chirurgische Sicherheitscheckliste, Teamtrainings oder strukturierte Patientenübergaben zu gewinnen.«
Auch Verwaltungspersonal, das nicht direkt an der Behandlung beteiligt ist, aber durch Entscheidungen über Personal, Einkauf etc. Einfluss auf Patientensicherheit hat, ist nach Beobachtung der Autorin noch zu wenig eingebunden.

Arbeitsplätze nach Human-Factors-Gesichtspunkten gestalten
Menschenangepasste Arbeitsplatzgestaltung ist ein Kern­thema der Human-Factors-Forschung. Ein Beispiel im Krankenhaus sind die Anordnung und räumliche Gestaltung der Arbeitsplätze für das Stellen der Medikamente (Licht, Platz, Ruhe, Anordnung der Arbeitsmittel etc.).
Ein anderes Beispiel ist der Einfluss der Platzierung von Spendern für Händedesinfektionsmittel. In einer Studie mit nachgebauten Krankenzimmern konnte gezeigt werden (Birnbach et al. 2010), dass sich die Compliance der Ärzte deutlich erhöhte, wenn die Spender in ihrem Sichtfeld waren (54% versus 12%). Solche Human-Factors-Inter­ventionen sind mächtig, weil sie nicht auf Motivation und Wissen von Einzelnen oder von den Führungsprozessen im Team abhängen, also personenunabhängig wirken. Außerdem müssen solche Maßnahmen nur einmal umgesetzt werden, während Verhaltensänderungen schon aufgrund der Personalfluktuation immer wieder eingeübt werden müssen. Der Einfluss des Verhaltens und der Führung bleibt natürlich trotzdem relevant.

Arbeitsprozesse im Krankenhaus unter Human-Factors-Aspekten gestalten
Arbeitsprozesse im Krankenhaus können bezüglich ihrer zeitlichen Gestaltung, der Arbeitsmittel oder der Prozessstruktur verbessert werden, sodass sie menschlichen Fähigkeiten und Merkmalen möglichst optimal entsprechen. Ein Beispiel für eine solche Prozessgestaltung ist die Vermeidung von Unterbrechungen: Diese können zu Fehlern führen, da man Arbeitsschritte oder Ziele der ers­ten unterbrochenen Aufgabe vergisst. Unter Human-Factors-Gesichtspunkten kann man Arbeitsabläufe so gestalten, dass Unterbrechungen selten werden. Die Bereitschaft zu einer solchen Umorganisation erfordert Wissen über Aufmerksamkeits- und Gedächtnisprozesse. Da wo Unterbrechungen im klinischen Alltag nicht komplett vermeidbar sind, kann man versuchen, ihre Auswirkungen abzufangen. So zeigen Brumby et al. (2013), dass eine Pause von einigen Sekunden (»resumption lag«) nach einer Unterbrechung Fehler bei der ersten, wieder aufgenommenen Aufgabe reduziert, weil man sich dann wieder voll auf die erste Aufgabe konzentriert.
Natürlich können nicht alle Abläufe im Sinne von Human Factors optimiert werden, da die Bedürfnisse der Patienten anders als bei Abläufen in der Industrie zeitlich nicht zu kontrollieren sind. Auch im optimalen Krankenhaus muss zum Beispiel manchmal nachts operiert werden, obwohl die Fehleranfälligkeit nachts (vor allem zwischen 2 und 5 Uhr) deutlich erhöht ist. Aber solche Situationen sollten auf den Notfall beschränkt sein und durch andere Maßnahmen wie optimierte Teamarbeit oder technische Unterstützung abgepuffert werden – eine Ausweitung der OP-Stunden in die Nacht zur besseren Auslastung der OPs mag wirtschaftlich sinnvoll sein, für die Sicherheit der Patienten und die Gesundheit der Mitarbeitenden ist sie es nicht.

Sinnvolle Standards sinnvoll einführen
Standards sind eine Möglichkeit, Gleichförmigkeit des Handelns über Personen und Situationen hinweg zu erreichen. Eine übliche Form sind SOPs (»standard operating procedures/protocols«), die für definierte Situationen Entscheidungen vorwegnehmen. Bekannt geworden ist die Prä-OP-Checkliste der WHO, deren Wirksamkeit in Studien belegt wurde (Haynes et al. 2009; van Klei et al. 2012). Nun könnte man annehmen, dass eine evidenzbasierte, kostengünstige und einfache Methode, Patientensicherheit zu erhöhen (zum Beispiel indem Patientenverwechslungen verhindert werden), sofort überall eingesetzt würde. Die Realität zeigt aber, dass es dagegen teilweise heftige Widerstände gibt oder die Checkliste unvollständig oder falsch angewendet wird.
Das belegt, dass auch sinnvolle neue Prozesse nicht einfach in ein System »hineingeworfen« werden können, sie müssen an die Gegebenheiten vor Ort angepasst werden (»local tailoring«, Renner et al. 2012). Das zeigt, dass Human Factors bedeutet, das ganze System zu betrachten – hier die Kultur, die Kommunikation an Schnittstellen, Status und Hierarchie, aber auch Medienbrüche (Papier/PC), Arbeitsbelastung, Kosten, … Eine SOP erfolgreich einzuführen, verlangt, klare Unterstützung aus der Führungsebene zu zeigen, Ressourcen für die Einführung zur Verfügung zur stellen und vor allem auch, den Widerstand von Mitarbeitern ernst zu nehmen. Widerstand gegen die Prä-OP-Checkliste kann zum Beispiel dadurch entstehen, dass durch ihre Einführung soziale Beziehungen verändert werden und damit Status bedroht wird. Dies wird insbesondere der Fall sein, wenn Pflegekräfte die Verantwortung für das gemeinsame Durchgehen der Checkliste tragen (Dixon-Woods et al. 2011). Ohne Kulturveränderung wird dann die Checkliste – oder jeder andere Standard – vielleicht offiziell eingeführt, aber nicht »gelebt« und somit nicht nützlich sein.

Prozesse an Schnittstellen sorgfältig gestalten
Arbeitsprozesse sind insbesondere an Schnittstellen fehleranfällig durch erhöhten Kommunikationsbedarf und unterschiedliche Annahmen und Wissen der Beteilig­ten. Deshalb muss die Gestaltung der Schnittstellen besondere Sorgfalt erfahren. In der Realität fallen aber gerade diese Prozesse »zwischen« die Zuständigkeiten.
Ein krankenhausinternes Beispiel ist die Patientenübergabe. Studien zur postoperativen Übergabe fanden heraus, dass wichtige Informationen (zum Beispiel bezüglich Komorbiditäten, Allergien, Problemen während der OP, postoperativer Plan) nicht immer übergeben wurden (Manser et al. 2012), deshalb wird in der Lite­ratur eine Standardisierung und Strukturierung der Übergabepraxis gefordert. Die Studie von Manser et al. (2012) zeigt nach meiner Ansicht auch die Wichtigkeit von Anleitung und Supervision bei der Patientenübergabe: Novizen suchen mehr Informationen als Erfahrene, verwenden weniger Zeit für Kommunikation über Planung und Entscheiden. Für sie ist also neben der Standardisierung auch Anleitung bezüglich dieser Punkte wichtig. Diejenigen, die Informationen weitergeben, sollten mehr Zeit für Bewertungen und Rückmeldungen bei der Übergabe haben, da dadurch das gemeinsame Problemverständnis (»shared understanding«) verbessert wird. Das Beispiel zeigt im Übrigen auch, dass Human-Factors-Bereiche nicht streng trennbar sind – Informa­tions­management ist ein Teamprozess, der von Organisationsbedingungen beeinflusst wird.
Die Schnittstellen des Krankenhauses nach außen, bei denen gehäuft Fehler auftreten können, betreffen unter anderem Übergänge im Behandlungssystem und hier beispielsweise die Arzneimittelversorgung. Besonders gefährdet sind ältere und Notfallpatienten. Der systematische Abgleich der Arzneimittelversorgung (»medication reconciliation«) ist ein evidenzbasiertes Mittel dagegen (Fishman et al. 2012). Auch hier ist die eigentliche Maßnahme einfach, muss aber sorgfältig organisationsübergreifend in die Arbeitsprozesse und Computersysteme eingepasst werden.

Trainieren, wo Trainings nützlich sind
In den letzten 15 Jahren wurden, ausgehend von CRM in der Luftfahrt, etliche Trainings der nicht technischen Fertigkeiten in der Medizin entwickelt. Nach bisheriger Datenlage scheinen solche Trainings unter bestimmten Bedingungen wirksam zu sein (Salas et al. 2006; Schmutz & Manser 2013). Dennoch ist es in deutschen Krankenhäusern noch immer nicht normal, dass Ärzte und Pflegekräfte sichere Kommunikation lernen, Zwischenfälle am Simulator trainieren oder relevante Teamverhaltensweisen üben. Dabei sind Verhaltenstrainings gerade in der Medizin wichtig, weil es hier immer Situationen geben wird, in denen Menschen durch gute Teamarbeit ungute Arbeitsbedingungen kompensieren müssen. Ein Programm, das alle relevanten Bereiche der Zusammenarbeit im Team anspricht, ist das frei verfügbare STEPPS (King et al. 2008).

Training nützt generell, um mit neuer Technologie vertraut zu werden, um Verhaltensweisen und Strategien einzuüben, um Routinen für bestimmte Szenarien zu erwerben, um eigenes Verhalten zu reflektieren (Russ et al. 2013). Vor allem Abläufe, die quasi automatisch funktionieren müssen (zum Beispiel Reanimation, Blutabnahme), müssen wieder und wieder geübt werden, ob in formalen Trainings oder unter Supervision während der Arbeit.
Wie schon oben betont, sind Trainings aber kein Allheilmittel. Human Factors im Krankenhaus umfassend zu betrachten und Arbeitsmittel und Prozesse zu verändern, ist mühsamer, als durch einfache Interventionen auf Verhalten abzuzielen, wäre aber effektiver.
Human-Factors-Trainings müssen auch respektieren, dass nicht alle menschlichen Merkmale (gezielt) veränderbar sind. Aufmerksamkeit kann zum Beispiel nicht beliebig lange aufrechterhalten werden; dies ist auch durch Training und Anstrengung nicht grundlegend veränderbar. »Die sollen das nächste Mal besser aufpassen« ist also keine Lösung für Fehler, die durch Ablenkungen, Unterbrechungen, Müdigkeit etc. verursacht wurden. Da selbst hoch motivierte und erfahrene Personen schwerwiegende Fehler begehen können (Amalberti & Mosneron-Dupin 1997), ist eine Design-out-Lösung, die das Arbeitssystem an Menschen anpasst, einem Training vorzuziehen, das Menschen an die Arbeitsbedingungen anpassen soll. Wo neues Verhalten geübt werden soll, wie zum Beispiel Führung, Kommunikation etc., muss darauf geachtet werden, dass das Gelernte in der Organisation auch umgesetzt werden kann; Training ohne Interventionen in der Organisation ist also wenig sinnvoll.

Human-Factors-Wissen konsequent nutzen
Human-Factors-Wissen wird, nicht nur in der Medizin, häufig zur Verbesserung genutzt, nachdem Fehler passiert sind, anstatt das System von Anfang an sinnvoll zu gestalten. Wesentliche Entscheidungen, zum Beispiel über Architektur oder Geräteanschaffungen, sind dann schon getroffen (Dul et al. 2012).
Wenn Human-Factors-Wissen in Krankenhäusern nützen soll, muss Expertise intern entwickelt oder extern eingebunden werden. Vor allem müssen die Human-Factors-Experten früh und kontinuierlich in die Prozessgestaltung einbezogen werden.

Aus dem Human-Factors-Ansatz ergeben sich somit vielfältige Konsequenzen für Krankenhausleitungen. Durch Managemententscheidungen werden die Arbeitsbedingungen, unter denen Patienten behandelt werden, definiert. Deshalb ist Patientensicherheit zentral auch Aufgabe der Führungspersonen im Krankenhaus, auch in nicht medizinischen Bereichen wie Einkauf oder Personalverwaltung. Relevante Bereiche der Systemgestaltung unter Human-Factors-Aspekten sind zum Beispiel Gerätedesign, Arbeits­platzgestaltung, Prozessgestaltung, Fort- und Weiterbildung.

Literaturverzeichnis

Aktionsbündnis Patientensicherheit (2008). Agenda Pati­entensicherheit. 2008. Quelle: http://www.aps-ev.de/fileadmin/fuerRedakteur/PDFs/Agenda_Patientensicherheit/Agenda_2008.pdf (letzte Einsicht: 12.09.2013)

Amalberti R, Mosneron-Dupin F (1997). Facteurs Humains et Fiabilité. Quelles démarches pratiques? 1997. Octares

Badke-Schaub P, Hofinger G, Lauche K (2012a). Human Factors. In: Human Factors. Psychologie sicheren Handelns in Risikobranchen. Badke-Schaub P, Hofinger G, Lauche K (Hrsg.). 2012. Springer-Verlag

Badke-Schaub P, Hofinger G, Lauche K (2012b). Human Factors. Psychologie sicheren Handelns in Risikobranchen. 2012 (2. Auflage). Springer-Verlag

Birnbach DJ, Nevo I, Scheinman SR, Fitzpatrick M, Shekhter I, Lombard JL (2010). Patient safety begins with proper planning: a quantitative method to improve hospital design. Qual Saf Health Care. 2010; 19 (5): 462–465. PubMed-ID: 20584700

Brumby DP, Cox AL, Back J, Gould SJ (2013). Recovering from an interruption: Investigating speed-accuracy trade-offs in task resumption behavior. J Exp Psychol Appl. 2013; 19 (2): 95–107. PubMed-ID: 23795978

Buerschaper C, Hofinger G (2004). Grenzen und Potenzial des Konzepttransfers zwischen Luftfahrt und Medizin. In: Referateband der 11. Jahrestagung der Gesellschaft für Qualitätsmanagement in der Gesundheitsversorgung e.V. Marburger UQM-Kongress Patientensicherheit & Risi­komanagement. Eigendruck

Buerschaper C, Hofinger G, Harms H (2003). Problemlösefähigkeiten in der Anästhesie – Anforderungen und Trainingsziele. In: Komplexes Handeln in der Anästhesie. Manser T (Hrsg.). 2003. Pabst Science Publishers

Carayon P, Alyousef B, Xie A (2012). Human Factors and Ergonomics in Health Care. In: Handbook of human factors and ergonomics. Salvendy G (Hrsg.). 2012 (4th edition). John Wiley & Sons, Inc.

Catchpole K (2013). Spreading human factors expertise in healthcare: Untangling the knots in people and systems. BMJ Qual Saf. 2013; Apr 16. 22 (10): 793–797. PubMed-ID: 23592761

Cooper JB, Newbower RS, Long CD, McPeek B (1978). Preventable anesthesia mishaps: a study of human factors. Anesthesiology. 1978; 49 (6): 399–406. PubMed-ID: 727541

Davies JM (2001). Medical Applications of Crew Resource Management. In: Improving Teamwork in Ogranizations. Application of Resource Management Training. Salas E, Bowers CA, Edens E (Hrsg.). 2001. Lawrence Erlbaum Assoc Inc

Dixon-Woods M, Bosk CL, Aveling EL, Goeschel CA, Pronovost PJ (2011). Explaining Michigan: Developing an Ex Post Theory of a Quality Improvement Program. Milbank Q. 2011; 89 (2): 167–205. PubMed-ID: 21676020

Dul J, Bruder R, Buckle P, Carayon P, Falzon P, Marras WS, Wilson JR, van der Doelen B (2012). A strategy for human factors/ergonomics: developing the discipline and profession. Ergonomics. 2012; 55 (4): 377–395. PubMed-ID: 22332611

Edwards E (1988). Introductory Overview. In: Human Factors in Aviation. Wiener EL, Nagel DC (Hrsg.). 1988. Academic Press

Fishman L, Renner D, Thomeczek C (2012). Sicherstellen der richtigen Medikation bei Übergängen im Behandlungsprozess. Krankenhauspharmazie. 2012; 33 (12): 514–518

Flin R, O’Connor P, Crichton M (2008). Safety at the sharp end. A Guide to Non-Technical Skills. 2008. Ashgate Publishing

Gaba DM (1992a). Dynamic Decision-Making in Anesthesiology: Cognitive Models and Training Approaches. In: Advanced Models of Cognition for Medical Training and Practice. Evans DA, Patel VL (Hrsg.). 1992. Springer-Verlag

Gaba DM (1992b). Improving anesthesiologists‘ performance by simulating reality. Anesthesiology. 1992; 76 (4): 491–494. PubMed-ID: 1550272

Gaba DM (2011). Have we gone too far in translating ideas from aviation to patient safety? No. BMJ. 2011; 342: c7310

Giesa HG, Timpe KP (2000). Technisches Versagen und menschliche Zuverlässigkeit: Bewertung der Zuverlässigkeit in Mensch-Maschine-Systemen. In: Mensch-Maschine-Systematik. Timpe KP, Jürgensohn T, Kolrep H (Hrsg.).2000. Symposion Publishing

Hawkins FH (1987). Human Factors in Flight. Ashgate Publishing

Haynes AB, Weiser TG, Berry WR, Lipsitz SR, Breizat AH, Dellinger EP, Herbosa T, Joseph S, Kibatala PL, Lapitan MC, Merry AF, Moorthy K, Reznick RK, Taylor B, Gawan­de AA, Safer Surgery Saves Lives Study Group (2009). A surgical safety checklist to reduce morbidity and mortality in a global population. N Engl J Med. 2009; 360 (5): 491–499. PubMed-ID: 19144931

Hofinger G (2012). Fehler und Unfälle. In: Human Factors. Psychologie sicheren Handelns in Risikobranchen. Badke-Schaub P, Hofinger G, Lauche K (Hrsg.). 2012 (2. Auflage). Springer-Verlag

Hollnagel E, Woods D, Leveson N (2006). Resilience Engineering. Concepts and Precepts. 2006. Ashgate Publishing

Jalote-Parmar A, Badke-Schaub P (2008). Critical Factors Influencing Intra-operative Surgical Decision-making. Referat anlässlich der IEEE International Conference on Systems, Man and Cybernetics (SMC 2008)

King HB, Battles J, Baker DP, Alonso A, Salas E, Webster J, Toomey L, Salisbury M (2008). TeamSTEPPS: Team Strategies and Tools to Enhance Performance and Patient Safety. In: Advances in Patient Safety: New Directions and Alternative Approaches. Henriksen K, Battles JB, Keyes MA, Grady ML (Hrsg.). 2008. Agency for Healthcare Research and Quality

Kohn L, Corrigan JM, Donaldson MS (1999). To Err Is Human: Building a Safer Health System. Committee on Quality of Health Care in America. Institute of Medicine. 1999. National Academy Press

Leape LL, Berwick DM (2005). Five Years After To Err Is Human: what have we learned? JAMA. 2005; 293 (19): 2384–2390. PubMed-ID: 15900009

Manser T, Foster S, Flin R, Patey R (2013). Team Communication During Patient Handover From the Operating Room: More Than Facts and Figures. Hum Factors. 2013; 55 (1): 138–156. PubMed-ID: 23516799

Reader T, Flin R, Lauche K, Cuthbertson BH (2006). Non-technical skills in the intensive care unit. Br J Anaesth. 2006; 96(5): 551–559. PubMed-ID: 16567346

Reason J (1990a). The contribution of latent human failures to the breakdown of complex systems. Philos Trans R Soc Lond B Biol Sci. 1990; 327 (1241): 475–484. PubMed-ID: 1970893

Reason J (1990b). Human Error. 1990. Cambridge University Press

Renner D, Fishman L, Lessing C (2012). Patientensicherheit: Das Verwechslungsrisiko bei Eingriffen verringern. Dtsch Arztebl. 2012; 109 (20), A 1016–1018

Rogers J (2011). Have we gone too far in translating ideas from aviation to patient safety? Yes. BMJ. 2011; 342: c7309

Russ AL, Fairbanks RJ, Karsh BT, Militello LG, Saleem JJ, Wears RL (2013). The science of human factors: Separating facts from fiction. BMJ Qual Saf. 2013; Jun 21. 22 (10): 802–808. PubMed-ID: 23592760

Salas E, Wilson KA, Burke CS, Wightman DC (2006). Does Crew Resource Management Training Work? An Update, an Extension, and Some Critical Needs. Hum Factors. 2006; 48 (2): 392–412. PubMed-ID: 16884057

Schmutz J, Manser T (2013). Do team processes really have an effect on clinical performance? A systematic literature review. Br J Anaesth. 2013; 110 (4): 529–544. PubMed-ID: 23454826

Schwappach DLB, Conen D (2012). Patientensicherheit – wen kümmert es? Interdisciplinary Contributions to Hospital Management: Medicine, Patient Safety and Economics. Quelle: http://www.clinotel-journal.de/article-id-006.html (letzte Einsicht: 12.09.2013)

Singh H, Thomas EJ, Petersen LA, Studdert DM (2007). Medical errors involving trainees: a study of closed malpractice claims from 5 insurers. Arch Intern Med. 2007; 167(19): 2030–2036. PubMed-ID: 17954795

Spiegel Online (2013). Fehler im Praktischen Jahr: Medizinstudent wegen Babytod verurteilt. Quelle: http://www.spiegel.de/unispiegel/studium/junger-arzt-wegen-tod-von-baby-verurteilt-a-914839.html (letzte Einsicht: 24.09.2013)

Spiegel Online (2013a). Wenn Studenten spritzen dürfen. Quelle: http://www.spiegel.de/karriere/berufsstart/medizinstudium-und-klinikalltag-was-darf-man-in-pj-und-famulatur-a-916421.html (letzte Einsicht: 24.09.2013)

St. Pierre M, Hofinger G, Buerschaper C (2011). Notfallmanagement. Human Factors in der Akutmedizin. 2001 (2. Auflage). Springer Medizin Verlag

Süddeutsche Online (2013). Baby starb nach falscher Spritze. Quelle: http://www.sueddeutsche.de/panorama/verurteilung-eines-arztes-baby-starb-nach-falscher-spritze-1.1746739 (letzte Einsicht: 24.09.2013)

The Joint Commission (2006). Sentinel Event Alert: Tubing misconnections
– a persistent and potentially deadly occurrence. Quelle: http://www.jointcommission.org/assets/1/18/SEA_36.PDF (letzte Einsicht: 12.09.2013)

Thimbleby H (2010a). Avoiding latent design conditions using UI discovery tools. International Journal of Human-Computer Interaction. 2010; 26 (2-3): 120–131

Thimbleby H (2010b). Think! Interactive Systems Need Safety Locks. Journal of Computing and Information Technology. 2010; 4 (18): 349–360

van Klei W, Hoff RG, van Aarnhem EE, Simmermacher RK, Regli LP, Kappen TH, van Wolfswinkel L, Kalkman CJ, Buhre WF, Peelen LM (2012). Effects of the Introduction of the WHO »Surgical Safety Checklist« on in-hospital mortality: a cohort study. Ann Surg. 2012; 255 (1): 44–49. PubMed-ID: 22123159

Vincent C, Taylor-Adams S, Stanhope N (1998). Framework for analysing risk and safety in clinical medicine. BMJ. 1998; 316 (7138): 1154–1157. PubMed-ID: 9552960

Vincent CJ, Li Y, Blandford A (2013). Integration of human factors and ergonomics during medical device design and development: it’s all about communication. Appl Ergon. 2013; Jun 15. PubMed-ID: 23778022

Wehner T (1992). Sicherheit als Fehlerfreundlichkeit. Arbeits- und Sozialpsychologische Befunde für eine kritische Technikbewertung. 1992. Westdeutscher Verlag

Williamson JA, Webb RK, Sellen A, Runciman WB, Van der Walt JH (1993). The Australian Incident Monitoring Study. Human failure: an analysis of 2000 incident reports. Anaesth Intensive Care. 1993; 21 (5): 678–683. PubMed-ID: 8273898

Zeit Online (2013). Die falsche Spritze. Quelle: http://www.zeit.de/2013/06/Medizinstudent-Verantwortung
(letzte Einsicht: 24.09.2013)

Manuskriptdaten

Interessenkonflikt
Die Autorin erklärt, dass kein Interessenkonflikt besteht.
Dr. Gesine Hofinger, Diplom-Psychologin, ist Leiterin des Team HF – Hofinger Forschung Beratung Training sowie Mitarbeiterin der Universität Jena. Sie berät und forscht zu Human Factors, Sicherheit und Handeln in kritischen Situationen.

Bearbeitung
Eingereicht am 12.09.2013,
überarbeitete Fassung angenommen am 27.09.2013

Zitierung
Hofinger G. Human Factors im Krankenhaus – Konzepte und Konsequenzen. Interdisciplinary Contributions to Hospital Management: Medicine, Patient Safety and Economics.
25.11.2013 #016. http://www.clinotel-journal.de/article-id-016.html

Autoren

Dr. phil. Gesine Hofinger
Team HF – Hofinger Forschung Beratung Training
Hohenheimer Straße 104
71686 Remseck
www.team-hf.de