Startseite » Sicherheit » Arbeitsschutzorganisation »

Human Factor Analysen

Human Factor Analysen
Der blinde Fleck – Menschen in sicherheitskritischen Systemen

Tatulinski_AdobeStock_263823875_(1).jpg
Menschen handeln manchmal fehlerhaft, was sich in kritischen Bereichen negativ auswirken kann. Foto: © FERNANDONASCIMENTO – stock.adobe.com
Anzeige
In ver­schiede­nen Reg­u­lar­ien wird die ver­stärk­te Berück­sich­ti­gung von men­schlichen Fehlern durch die Anwen­dung von Human Fac­tor Analy­sen gefordert. Diese Forderun­gen wer­den zurzeit jedoch nicht durch konkrete Inhalte, Detail­grade sowie Ziel­stel­lun­gen und Min­destkri­te­rien für die Analy­sen unter­mauert. Im Fol­gen­den wird die Human Reli­a­bil­i­ty Analy­sis (HRA) vorgestellt, die den men­schlichen Beitrag in einem soziotech­nis­chen Sys­tem erfasst und mod­el­liert und so die Ein­bindung des men­schlichen Fehlers in struk­turi­ert­er Weise ermöglicht.

Im Bere­ich der Sicher­heit­stech­nik stellen wir uns von der ein­fachen Arbeit­splatzge­fährdungs­analyse bis hin zur funk­tionalen Sicher­heit immer wieder die Frage, wie wahrschein­lich es ist, dass ein men­schlich­er Fehler auftritt. Es fällt uns schw­er, die Wahrschein­lichkeit für ein men­schlich­es Fehlver­hal­ten einzu­gren­zen, geschweige denn zu quan­tifizieren. Augen­schein­lich ist das men­schliche Ver­hal­ten von (zu) vie­len Para­me­tern abhängig. Fängt man an, die Wahrschein­lichkeit­en genauer zu analysieren, müssen Wahrnehmung, Stress, Kom­plex­ität der Auf­gabe, Erfahrun­gen und Train­ing sowie Emo­tio­nen und das generelle Umfeld berück­sichtigt wer­den. Das Sys­tem Men­sch scheint dabei sehr kom­plex und eine ver­lässliche Prog­nose zu einem vertret­baren Aufwand nahezu unmöglich.

Um umfassende Analy­sen der Arbeitsvorgänge zu ver­mei­den, wer­den in der Prax­is häu­fig gen­er­al­isierte Mit­tel­w­erte genutzt, um den men­schlichen Fehler abzu­bilden und im Rah­men der Sicher­heit­stech­nik zu bew­erten. Dies ist jedoch eine grobe Vere­in­fachung und erlaubt keine Unter­schei­dung der tat­säch­lichen Risiken unter Beach­tung der spez­i­fis­chen Gegebenheiten.

Eine genauere Analyse kön­nte jedoch sin­nvoll sein, sind die Auswirkun­gen von men­schlichen Fehlern mitunter schw­er­wiegend, wie die Betra­ch­tun­gen von fol­gen­re­ichen Stör­fällen wie zum Beispiel Three Mile Island, Tsch­er­nobyl und Bhopal zeigen. Nicht nur bei diesen kom­plex­en Großereignis­sen, son­dern auch bei den meis­ten anderen Zwis­chen­fällen haben men­schliche Fehler entschei­den­den Ein­fluss auf die Vorgänge bzw. die Abwe­ichun­gen vom Sol­lzu­s­tand des Sys­tems. So wird beispiel­sweise angenom­men, dass etwa 75 Prozent aller Unfälle im Straßen­verkehr auf men­schliche Fehler zurück­zuführen sind.

In jüng­ster Zeit hat sich die Sichtweise auf men­schliche Fehler, von ein­er sit­u­a­tiv­en Beurteilung, hin zu ein­er sys­temis­chen Sicht verän­dert. Bei der neueren sys­temis­chen Sicht wird stärk­er berück­sichtigt, welche Ein­schätzung und Hand­lung in ein­er bes­timmten Sit­u­a­tion zu einem Fehler führen kann. Eine struk­turi­erte Analyse löst dieses Span­nungs­feld auf und ermöglicht eine prak­tik­able sowie detail­lierte Berück­sich­ti­gung des men­schlichen Fehlers mit vertret­barem Aufwand.

Menschliche Fehler in komplexen Systemen

Um die Auswirkun­gen von men­schlichen Fehlern in kom­plex­en Sys­te­men zu reduzieren, müssen die Zusam­men­hänge zwis­chen tech­nis­chen, betrieblichen und organ­isatorischen Aspek­ten analysiert, ver­standen und kon­struk­tiv bee­in­flusst wer­den. Die Entwick­lung dieser Kom­plex­ität ist dabei in den let­zten Jahren stark steigend. Die sozio-tech­nis­chen Sys­teme sind dadurch eben­falls kom­plex­er gewor­den und bieten mehr Möglichkeit­en für Fehlentschei­dun­gen durch die beteiligten Menschen.

Die Rolle des Men­schen in der Arbeitswelt hat sich durch verbesserte Erken­nungssys­teme, durch die Nutzung von Dig­i­tal­isierung und fortschrit­tlichen Soft­ware-Algo­rith­men verän­dert. Jedoch wird der men­schliche Fak­tor weit­er­hin ein inte­graler Bestandteil der Indus­trie bleiben. Dieser Umstand ist erkan­nt und es wur­den in vie­len Branchen zur Analyse des „Human Fac­tor“ spezielle Risiko­analy­sen und andere Instru­mente entwickelt.

Das men­schliche Ele­ment wird dabei als wesentlich­er Bestandteil des unternehmensweit­en Risiko­man­age­ments betra­chtet. Neben den Risiken wer­den auch Chan­cen des men­schlichen Ele­ments betra­chtet. Durch das men­schliche Ele­ment kann beispiel­sweise die Zuver­läs­sigkeit des Gesamt­sys­tems deut­lich erhöht werden.

Neben der nach innen gerichteten Analyse gilt es auch das Umfeld zu betra­cht­en. Der Markt fordert von der Indus­trie und den darin täti­gen Men­schen immer agilere Lösun­gen. Dabei muss die Indus­trie zeigen, wie auch nicht­tech­nis­che Ele­mente, vom Entwurf bis zum täglichen Betrieb, kon­trol­liert wer­den kön­nen. Der Beitrag des men­schlichen Ver­hal­tens zum Risiko, von der Einzelper­son bis hin zur gesamten Organ­i­sa­tion, ist dabei rel­e­vant. Es han­delt sich dabei nicht um ein sta­tis­ches Sys­tem, son­dern vielmehr um ein Sys­tem, das eine Dynamik und Kom­plex­ität bein­hal­tet, auf die sich die Men­schen, die in diesem Sys­tem arbeit­en, immer wieder neu ein­stellen müssen. Die damit ver­bun­dene Betra­ch­tung des men­schlichen Fak­tors muss diese Dynamik und Kom­plex­ität berücksichtigen.

Die Dig­i­tal­isierung ist ein treiben­der Fak­tor bei der Entwick­lung zunehmend kom­plex­er Tech­nolo­gien, die wiederum zu gesteigertem Ver­wal­tungsaufwand, erhöhter Infor­ma­tion­s­menge und höher­er Geschwindigkeit bei Prozess­abläufen führen. Der Men­sch kann hier zum „Schwäch­sten Glied der Kette“ wer­den, sodass eine Betra­ch­tung des men­schlichen Fak­tors mehr und mehr an Bedeu­tung gewinnt.

Vorschriften und Regularien mit Human Factor Analysen

Der men­schliche Fehler und seine Ver­mei­dung hat Ein­gang gefun­den in unter­schiedliche Vorschriften und Reg­u­lar­ien. Ange­fan­gen mit der wohl berühmtesten Norm, der ISO 9001, in der „Maß­nah­men zur Ver­hin­derung men­schlich­er Fehler“ gefordert wer­den. In vie­len anderen Reg­u­lar­ien, wie z. B. in jenen der Kom­mis­sion für Anla­gen­sicher­heit (KAS), dem BSI-Stan­dard oder ver­schiedene VDI und VDE Reg­u­lar­ien wird die Berück­sich­ti­gung von men­schlichen Fehlern gefordert.

Die Vor­gabe, eine Human Fac­tor Analyse durchzuführen, ist dort all­ge­gen­wär­tig, eine genaue Vorge­hensweise, Ziel­stel­lun­gen oder Min­destkri­te­rien sind es aber nicht.

Human Reliability Analysis (HRA)

Wie soll also vorge­gan­gen wer­den? Welch­er ist der richtige Weg? Wie kön­nen Unternehmen sich­er­stellen, dass die kor­rek­ten, vor­sor­glichen Maß­nah­men getrof­fen wer­den? Und welche Meth­ode ist für mein Sys­tem mit vertret­barem Aufwand prak­tik­a­bel umset­zbar und liefert prax­is­rel­e­vante Ergeb­nisse? Es bietet sich an, eine struk­turi­erte und skalier­bare Meth­ode zu wählen, sodass stets die Ori­en­tierung sowie ein gle­ich­bleiben­der Fokus gewahrt wird, aber die Meth­ode an die spez­i­fis­chen Gegeben­heit­en angepasst wer­den kann.

Im Fol­gen­den wird die Human Reli­a­bil­i­ty Analy­sis (HRA) vorgestellt, die diese Kri­te­rien erfüllt. Die HRA erfasst den men­schlichen Beitrag in einem Sys­tem und mod­el­liert diesen. Somit wird die Ver­lässlichkeit des men­schlichen Han­delns bew­ertet. Dazu wird die men­schliche Zuver­läs­sigkeit quan­tifiziert und eine Schätzung für die Wahrschein­lichkeit eines oder mehrerer men­schlich­er Fehler erzeugt.

Die HRA wird zunehmend unter den Risiko­analyse- und Man­age­ment-Tools berück­sichtigt. Im generellen Ablauf dieser Risiko­analy­sen wer­den Grund­la­gen der prob­a­bilis­tis­chen Analy­sen genutzt, wodurch HRA eine Schnittstelle zu üblichen Ansätzen bietet und die gle­ichen Basis­mod­elle ver­wen­det. Mehrere HRA-Meth­o­d­en ermöglichen es, men­schliche Fehler zu analysieren, zum Beispiel:

  • SHERPA Sys­tem­at­ic Human Error Reduc­tion and Pre­dic­tion Approach
  • HEART Human Error Assess­ment and Reduc­tion Technique
  • SPAR‑H Stan­dard­ized Plant Analy­sis Risk – Human Reli­a­bil­i­ty Analysis
  • Petro HRA

Zum einen gibt es Analy­se­tools zur Betra­ch­tung von men­schlichen Fehlern bei Zwis­chen­fällen. In dieser Sit­u­a­tion ist der Fehler bere­its aufge­treten und das Geschehene wird ret­ro­spek­tiv auf­bere­it­et. Dieses Vorge­hen ist natür­lich reak­tiv und in Hoch-Sicher­heits­bere­ichen nur bed­ingt anwend­bar. Zum anderen wer­den aber auch vorauss­chauende und stärk­er proak­tive Sys­teme genutzt, um mögliche Fehler bere­its vor ihrem Auftreten zu erken­nen und zu vermeiden.

Die Prob­lematik eines vorauss­chauen­den Sys­tems ist immer die Unsicher­heit der Zukun­ft. Diese auf die Zukun­ft gerichteten Analysemeth­o­d­en erfordern einen kreativ­en, Annah­men tre­f­fend­en und auf Experten­schätzun­gen basieren­den Anteil. Diese Sys­teme stützen sich auf Erfahrun­gen und Werte aus der Ver­gan­gen­heit und bieten somit die Möglichkeit, das men­schliche Han­deln zu prognostizieren.

Schrittweise Darstellung der Petro-HRA Methode

Petro HRA ist eine HRA-Meth­ode, die als gemein­sames Indus­triepro­jekt ins Leben gerufen wurde, um eine HRA-Meth­ode für die Erdölin­dus­trie zu entwick­eln. Die Vorge­hensweise ist jedoch flex­i­bel und anpass­bar, sodass sie auch in anderen Bere­ichen angewen­det wer­den kann. Die Methodik basiert auf der etablierten HRA-Meth­ode der Nuk­lear-Indus­trie (SPAR‑H). Petro HRA stellt eine gründliche Analyse des men­schlichen Han­delns in Risikosi­t­u­a­tio­nen dar und kann auch zur Analyse der Auswirkung von frühen Desig­nentschei­dun­gen ver­wen­det werden.

Men­schliche Fehler wer­den in der Petro HRA als Human Fail­ure Events (HFE) beze­ich­net und deren Ein­trittswahrschein­lichkeit als Human Error Prob­a­bil­i­ty (HEP). Die gewonnenen Erken­nt­nisse kön­nen in Desig­nentschei­dun­gen, Entschei­dun­gen über Optio­nen, Anforderun­gen an den Betrieb, Fak­toren zur Reduzierung von men­schlichen Fehlern und ein­er all­ge­meinen Risikobe­w­er­tung ver­wen­det wer­den. Somit ist eine Schnittstelle zu diversen Meth­o­d­en in einem Risiko-Port­fo­lio gegeben.

Im ersten Schritt wird durch die Def­i­n­i­tion des Szenar­ios der Umfang sowie die Gren­zen der Analyse fest­gelegt und deren qual­i­ta­tive und quan­ti­ta­tive Vor­gaben umris­sen. Bei der Def­i­n­i­tion des Szenar­ios wird das beste­hende Risiko-Port­fo­lio berück­sichtigt und eine detail­lierte Beschrei­bung des Szenar­ios angestrebt. In der fol­gen­den qual­i­ta­tiv­en Daten­er­he­bung wer­den die Basis­dat­en für das zuvor definierte Szenario erfasst. Diese Dat­en kön­nen durch vor Ort Bege­hun­gen, Inter­views, Gespräche sowie durch Doku­men­ta­tion­sprü­fung zusam­menge­tra­gen wer­den. Diese Dat­en enthal­ten Fak­toren, die die men­schliche Leis­tung und das Ergeb­nis des Szenar­ios bee­in­flussen können.

In der Task Analyse wer­den die einzel­nen Hand­lungss­chritte (ins­beson­dere die des men­schlichen Han­delns), die im Rah­men der Szenar­ien durchge­führt wer­den, erfasst. Dies bietet den Rah­men, um die gesam­melten Infor­ma­tio­nen entsprechend zu organ­isieren und in einem notwendi­gen Detail­lierungs­grad darzustellen.

In der Iden­ti­fizierung men­schlich­er Fehler wer­den poten­zielle Fehler, die mit den Hand­lungss­chrit­ten der Task Analyse ver­bun­den sind, beschrieben. Die möglichen Fol­gen eines Fehlers wer­den iden­ti­fiziert sowie die Möglichkeit der Wieder­her­stel­lung des Sys­tems im Fehler­fall fest­gelegt. Der Auf­bau der Analyse bietet hier­bei die Schnittstelle zu tech­nis­chen Risiko­analyse-Meth­o­d­en wie zum Beispiel Haz­ard Iden­ti­fi­ca­tion Study (HAZID), Haz­ard and Oper­abil­i­ty Study (HAZOP) und der Fail­ure Mode Effects and Crit­i­cal­i­ty Study (FMECA). Somit ist eine ein­heitliche Meth­o­d­en­land­schaft mit entsprechen­den Übergän­gen zwis­chen den Meth­o­d­en gewährleistet.

In der Mod­el­lierung von men­schlichen Fehlern geht es darum, die Hand­lungss­chritte so zu mod­el­lieren, dass die Zusam­men­hänge zwis­chen den Fehlern, den Auf­gaben und den Fak­toren, die die Fehler­wahrschein­lichkeit bee­in­flussen, gek­lärt wer­den. Dies ermöglicht einen Überblick über die Auf­gabe und ist ein Mit­tel zur Quan­tifizierung von Fehlern. Eine Diskus­sion über all­ge­meine Fra­gen der Mod­el­lierung men­schlich­er Hand­lun­gen kann an dieser Stelle den Ana­lysten helfen, Verbesserungs­maß­nah­men zu identifizieren.

Die Quan­tifizierung des men­schlichen Fehlers berück­sichtigt die nominelle Wahrschein­lichkeit für einen men­schlichen Fehler. Die Hauptele­mente für diese Quan­tifizierung sind zum einen die nom­i­nale men­schliche Fehler­wahrschein­lichkeit (Nom­i­nal Human Error Prob­a­bil­i­ty / NHEP) und zum anderen die neun leis­tungs­bes­tim­menden Fak­toren (Per­for­mance Shap­ing Fac­tor / PSF):

  • Zeit
  • Stress
  • Auf­gabenkom­plex­ität
  • Erfahrung/Ausbildung
  • Vorhan­dene Verfahren
  • Men­sch-Mas­chine-Schnittstelle
  • Ein­stel­lung zu Sicher­heit, Arbeit und Managementunterstützung
  • Tea­mar­beit und
  • Physikalis­che Arbeitsumgebung.

Die leis­tungs­bes­tim­menden Fak­toren wer­den über stan­dar­d­isierte Werte dem Hand­lungss­chritt zuge­ord­net und bee­in­flussen mul­ti­p­lika­tiv die zugrunde liegende nom­i­nale Fehler­wahrschein­lichkeit. Diese leis­tungs­bes­tim­menden Fak­toren wer­den in der all­ge­meinen psy­chol­o­gis­chen Lit­er­atur und in anderen HRA-Meth­o­d­en (zum Beispiel bei der Durch­führung von Analy­sen von Kon­troll­räu­men) als erhe­bliche Ein­flussfak­toren auf die men­schliche Leis­tungs­fähigkeit iden­ti­fiziert. Unter Berück­sich­ti­gung der zuvor genan­nten Fak­toren wird anschließend die men­schliche Fehler­wahrschein­lichkeit (Human Error Prob­a­bil­i­ty / HEP) berechnet.

Im let­zten Schritt wer­den Maß­nah­men zur Reduzierung von men­schlichen Fehlern entwick­elt. Diese Verbesserun­gen zie­len darauf ab, das Auftreten von men­schlichen Fehlern zu ver­hin­dern und / oder deren Fol­gen abzumildern.

Durch diese prak­tis­che, skalier­bare und sys­tem­a­tis­che Herange­hensweise kön­nen die beitra­gen­den Fak­toren zu men­schlichen Fehlver­hal­ten erfasst, bew­ertet und reduziert wer­den. Durch die quan­ti­ta­tive Analyse kön­nen Tasks iden­ti­fiziert wer­den, die am empfind­lich­sten auf men­schliche Fehler reagieren. Leis­tungs­bes­tim­mende Fak­toren, die den größten Ein­fluss auf die Fehler­wahrschein­lichkeit haben, kön­nen dadurch iden­ti­fiziert, fokussiert, kom­mu­niziert und gezielt reduziert wer­den. Ins­ge­samt kön­nen men­schliche Fehler in ein­er Gesamtrisikobe­w­er­tung mit anderen Fehlerquellen und Ereignis­sen ver­glichen wer­den. Dadurch ist eine Pri­or­isierung von Risiken und der risiko-reduzieren­den Maß­nah­men möglich.

Diese Meth­ode bietet neben der eigen­ständi­gen Opti­mierung von Arbeitsabläufen auch opti­male Schnittstellen für eine quan­ti­ta­tive Gesamtrisiko­analyse oder eine Analyse im Bere­ich der funk­tionalen Sicher­heit, wie etwa der „Lay­er of pro­tec­tion analy­ses (LOPA)“.

Ausblick in die Zukunft

Grund­la­gen der Analyse von men­schlichen Fehlern und des men­schlichen Han­delns sind und bleiben die Mod­elle und The­o­rien der Psy­cholo­gie, die die Basis der beste­hen­den Human Fac­tor Meth­o­d­en sind. Die zukün­ftige Entwick­lung der Analyse von men­schlichen Fehlern wird voraus­sichtlich stärk­er Meth­o­d­en der Kün­stlichen Intel­li­genz, ver­bun­den mit Big Data, bei der Auswer­tung berück­sichti­gen. Dies wird die Analyse unter­stützen, ver­lässlich­er und voraus­sichtlich auch noch ein­fach­er machen.

Der ver­stärk­te Trans­fer von vor Ort Aktiv­itäten hin zu Remoteak­tiv­itäten find­et auch bei der HRA zunehmend Berück­sich­ti­gung. Dadurch kann eine HRA schneller, kostengün­stiger und effek­tiv­er umge­set­zt wer­den. So ste­hen auch in Zukun­ft effizient anwend­bare und gut skalier­bare Werkzeuge zur Analyse von poten­ziellen men­schlichen Fehlern zur Ver­fü­gung. Sicher­heit­stech­nik und Arbeitssicher­heit kön­nen damit genauere Ergeb­nisse liefern, die sich nicht auf gen­er­al­isierte Annah­men stützten, son­dern die spez­i­fis­chen Gegeben­heit­en berücksichtigen.


Foto: Tatulinski
Foto: Tat­ulin­s­ki

Dipl.-Wi.-Ing.,
B.Sc. Psychologie
Mar­cus Tatulinski

Senior Con­sul­tant, Risk Man­age­ment Advisory

DNV GL, Hamburg

E‑Mail: marcus.tatulinski@dnvgl.com


Foto: Weid

Dipl.-Ing.
Carsten Weid

Head of Section,
Risk Man­age­ment Advi­so­ry; DNV GL, Berlin

E‑Mail: carsten.weid@dnvgl.com

Vorge­hensweise bei der Petro HRA
Grafik: Tatulinski
Vorge­hensweise bei der Petro HRA
Grafik: Tatulinski
Anzeige
Gewinnspiel

Newsletter

Jet­zt unseren Newslet­ter abonnieren

Meistgelesen

Jobs
Sicherheitsbeauftragter
Titelbild Sicherheitsbeauftragter 4
Ausgabe
4.2021
ABO
Sicherheitsingenieur
Titelbild Sicherheitsingenieur 4
Ausgabe
4.2021
ABO
Anzeige
Anzeige

Industrie.de Infoservice
Vielen Dank für Ihre Bestellung!
Sie erhalten in Kürze eine Bestätigung per E-Mail.
Von Ihnen ausgesucht:
Weitere Informationen gewünscht?
Einfach neue Dokumente auswählen
und zuletzt Adresse eingeben.
Wie funktioniert der Industrie.de Infoservice?
Zur Hilfeseite »
Ihre Adresse:














Die Konradin Verlag Robert Kohlhammer GmbH erhebt, verarbeitet und nutzt die Daten, die der Nutzer bei der Registrierung zum Industrie.de Infoservice freiwillig zur Verfügung stellt, zum Zwecke der Erfüllung dieses Nutzungsverhältnisses. Der Nutzer erhält damit Zugang zu den Dokumenten des Industrie.de Infoservice.
AGB
datenschutz-online@konradin.de