16
XXXIX naučno stručni skup ODRŽAVANJE MAŠINA I OPREME *Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected] 1 LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE HUMAN ERROR: ANALYSIS AND CLASSIFICATION SYSTEM Dragana Makajić-Nikolić, docent, Mina Vuković, Ana Belić, Mirko Vujošević, red. prof Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 Rezime: Predmet ovog rada je analiza rizika sa aspekta ljudske greške, njenog uzroka i mogućih posledica događaja koji greška izaziva. Polazi se od stava da ključne uticaje na performanse sistema u svim fazama njegovog životnog ciklusa, od projektovanja i izgradnje, do eksploatacije, upravljanja, održavanja i unapređivanja imaju odluke i ponašanje čoveka. Iskustvo pokazuje da je neodgovarajuće ponašanje čoveka najčešći uzrok neželjenih događaja. Zato se u analizi rizika, kao obaveznom delu savremenog upravljanja projektima i procesima, sve veća pažnja poklanja upravo proučavanju pouzdanosti čoveka i ljudskoj grešci. Ljudska greška se posmatra kao svako delovanje van tolerancije ili odstupanje od norme, pri čemu je nivo prihvatljivosti unapred, formalno ili neformalno, definisan sistemom. Pored prikaza različitih pristupa za analizu ljudske greške, detaljno će biti predstavljena metoda “Analiza i sistem klasifikacije ljudskih grešaka” (Human Factors Analysis and Classification System – HFACS). Ova, relativno nova, metoda za analizu uzroka ljudskih grešaka biće ilustrovana konkretnom primenom na primeru iz prakse. Ključne reči: ljudska greška, pouzdanost, rizik, HFACS metoda Summary: The subject of this paper is to analyze the risk in terms of human error, its causes, and possible consequences of events caused by the error. It starts from the premise that human decisions and behavior have a major influence on the system performance at all stages of its life cycle: design, construction, operation, management, maintenance and improvement. Experience shows that improper human behavior is the most common cause of undesired events. Therefore, the risk analysis, as important part of the modern project and processes management, focus increasing attention to the study of human reliability and human error. Human error is considered as any activity outside the tolerance limits which are predefined by the system, formally or informally. Besides a review of different approaches and methods for human errors analysis, the Human Factors Analysis and Classification System (HFACS) method will be presented in detail. This relatively new method for the analysis of human errors causes will be illustrated using a real life example. Keywords: human error, reliability, risk, HFACS method UVOD Errare humanum est, sed perseverare diabolicum. (Lucius Anneus Seneca) Nesreće poput nuklearne katastrofe na ostrvu Tri milje 1979. godine, eksplozije šatlova Čelindžer (1986. godie) i Kolumbija (2003.), katastrofe u hemijskom postrojenju Bhopal u Indiji (1984.), prevrtanja trajekta Herald of Free (1987.), sudara na železničkoj stanici Clapham Junction (1988.), eksplozije reaktora u Černobilju (1986.), vazdušnog sudara iznad Nemačke (2002.), padova aviona Korean Air 801 (1997.) i Asiana Flight 214 (2013.), prevrtanja kruzera Costa Concordia (2012.) itd, imaju jednu zajedničku karakteristiku: u zvaničnim izveštajima komisija koje su ispitivale njihove uzroke je kao direktni ili indirektni uzrok navedena ljudska greška [5,15,36]. Čak se i u zaključku izveštaja nezavisne komisije za ispitivanje nuklearnog akcidenta u Fokušimi, najveće katastrofe novije istorije, navodi da je u pitanju „manmade disaster“, iako je sama nesreća direktno izazvana dvema prirodnim pojavama: zemljotres i prateći cunami [22]. Po ovoj teoriji do akcidenta je došlo iz administrativnih i upravljačkih razloga zato što je postojala pogrešna slika o tome kako sistem funkcioniše, što je u kritičnom trenutku dovelo do kolapsa pravila o upravljanju hazardom [15]. Dakle, ponovo ljudska greška. Pored zvaničnih izveštaja, u različitim naučnim publikacijama se često mogu naći statistički podaci o ljudskoj grešci kao uzroku nesreća: u 70%-90% nesreća u drumskom saobraćaju; u preko 73% avionskih nesreća; u oko 80% nesreća u vodenom saobraćaju; u oko 55% nesreća izazvanih pogrešnim upravljanjem skretnica u železničkom saobraćaju; u 40 do 65% grešaka u poslovima održavanja u

LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

  • Upload
    others

  • View
    9

  • Download
    0

Embed Size (px)

Citation preview

Page 1: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

1

LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

HUMAN ERROR: ANALYSIS AND CLASSIFICATION SYSTEM

Dragana Makajić-Nikolić, docent, Mina Vuković, Ana Belić, Mirko Vujošević, red. prof Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154

Rezime: Predmet ovog rada je analiza rizika sa aspekta ljudske greške, njenog uzroka i mogućih posledica događaja koji greška izaziva. Polazi se od stava da ključne uticaje na performanse sistema u svim fazama njegovog životnog ciklusa, od projektovanja i izgradnje, do eksploatacije, upravljanja, održavanja i unapređivanja imaju odluke i ponašanje čoveka. Iskustvo pokazuje da je neodgovarajuće ponašanje čoveka najčešći uzrok neželjenih događaja. Zato se u analizi rizika, kao obaveznom delu savremenog upravljanja projektima i procesima, sve veća pažnja poklanja upravo proučavanju pouzdanosti čoveka i ljudskoj grešci. Ljudska greška se posmatra kao svako delovanje van tolerancije ili odstupanje od norme, pri čemu je nivo prihvatljivosti unapred, formalno ili neformalno, definisan sistemom. Pored prikaza različitih pristupa za analizu ljudske greške, detaljno će biti predstavljena metoda “Analiza i sistem klasifikacije ljudskih grešaka” (Human Factors Analysis and Classification System – HFACS). Ova, relativno nova, metoda za analizu uzroka ljudskih grešaka biće ilustrovana konkretnom primenom na primeru iz prakse.

Ključne reči: ljudska greška, pouzdanost, rizik, HFACS metoda

Summary: The subject of this paper is to analyze the risk in terms of human error, its causes, and possible consequences of events caused by the error. It starts from the premise that human decisions and behavior have a major influence on the system performance at all stages of its life cycle: design, construction, operation, management, maintenance and improvement. Experience shows that improper human behavior is the most common cause of undesired events. Therefore, the risk analysis, as important part of the modern project and processes management, focus increasing attention to the study of human reliability and human error. Human error is considered as any activity outside the tolerance limits which are predefined by the system, formally or informally. Besides a review of different approaches and methods for human errors analysis, the Human Factors Analysis and Classification System (HFACS) method will be presented in detail. This relatively new method for the analysis of human errors causes will be illustrated using a real life example.

Keywords: human error, reliability, risk, HFACS method

UVOD

Errare humanum est, sed perseverare diabolicum. (Lucius Anneus Seneca)

Nesreće poput nuklearne katastrofe na ostrvu Tri milje 1979. godine, eksplozije šatlova Čelindžer (1986. godie) i Kolumbija (2003.), katastrofe u hemijskom postrojenju Bhopal u Indiji (1984.), prevrtanja trajekta Herald of Free (1987.), sudara na železničkoj stanici Clapham Junction (1988.), eksplozije reaktora u Černobilju (1986.), vazdušnog sudara iznad Nemačke (2002.), padova aviona Korean Air 801 (1997.) i Asiana Flight 214 (2013.), prevrtanja kruzera Costa Concordia (2012.) itd, imaju jednu zajedničku karakteristiku: u zvaničnim izveštajima komisija koje su ispitivale njihove uzroke je kao direktni ili indirektni uzrok navedena ljudska greška [5,15,36]. Čak se i u zaključku izveštaja nezavisne komisije za ispitivanje nuklearnog akcidenta u Fokušimi, najveće katastrofe novije istorije, navodi da je u pitanju „manmade disaster“, iako je sama nesreća direktno izazvana dvema prirodnim pojavama: zemljotres i prateći cunami [22]. Po ovoj teoriji do akcidenta je došlo iz administrativnih i upravljačkih razloga zato što je postojala pogrešna slika o tome kako sistem funkcioniše, što je u kritičnom trenutku dovelo do kolapsa pravila o upravljanju hazardom [15]. Dakle, ponovo ljudska greška. Pored zvaničnih izveštaja, u različitim naučnim publikacijama se često mogu naći statistički podaci o ljudskoj grešci kao uzroku nesreća: u 70%-90% nesreća u drumskom saobraćaju; u preko 73% avionskih nesreća; u oko 80% nesreća u vodenom saobraćaju; u oko 55% nesreća izazvanih pogrešnim upravljanjem skretnica u železničkom saobraćaju; u 40 do 65% grešaka u poslovima održavanja u

Page 2: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

2

različitim industrijama; u do 90% nesreća vezanih za medicinske uređaje; u 70% incidenata vezanih za anesteziju u operacionim salama; u 63% slučajeva u fabrikama hemijske industrije itd. [15,17,40]. Sve ovo ukazuje na veliki značaj pravilnog definisanja ljudske greške i obezbeđivanja okvira za njenu identifikaciju, procenu, predviđanje i, ako je moguće, sprečavanje ili bar ublažavanje njenih posledica.

Razmatranje ljudske greške u inženjerskim sistemima datira iz 1958. godine kada je H. L. Williams u članku “Reliability evaluation of the human component in man-machine systems” u časopisu Electrical Manufacturing prvi istakao da ljudski element mora biti uključen u predviđanje pouzdanosti tehničkih sistema [17]. Od tada je razvijen veliki broj teorija o uzrocima, tipovima i prirodi ljudske greške u tehničkim i organizacionim sistemima.

Dva, međusobno isključiva, gledišta su često uzrok kontroverza i zabluda u vezi ljudske greške. Jedno gledište je da su ljudi skloni greškama i da, kao takvi, predstavljaju uzrok nesreća i degradiraju sistem koji je u osnovi ispravan i bezbedan. Da bi se objasnio neuspeh, moraju se tražiti: greške, nepažnja, slaba motivacija, nemarnost, nesmotrenost, kršenja pravila, nesposobnost, netačne procene, pogrešne odluke, itd. Povećanje pouzdanosti sistema se postiže uvođenjem mera za smanjenje neželjene varijabilnosti u ljudskom ponašanju. Uticaj i učešće čoveka u sistemu treba ograničiti procedurama, nadzorom i automatizacijom da bi se sistem zaštitio od (nepouzdanih) ljudi. Ovakav pogled na ljudsku grešku se u literaturi naziva Staro gledište (Old View) ili Teorija trule jabuke (Bad Apple Theory) [14] ili karakteriše kao Ptolomejev pogled na svet: sunce kruži oko Zemlje [15]. Drugo gledište, koje se pojavilo početkom osamdesetih godina u radovima Rasmunsena [43], je da ljudi konstantno doprinose bezbednosti sistema a da je ljudska greška najčešće efekat, ili simptom, dubljeg problema u sistemu. Sam sistem nije a priori ispravan i bezbedan jer predstavlja kompromis između više nepomirljivih kritetrijuma (pouzdanost, efikasnost, troškovi itd.). Da bi se objasnio neuspeh, ne treba tražiti greške i kršenja pravila već treba istražiti zašto i u kojim okolnostima je delovalo ispravno postupiti na način za koji se ispostavilo da je pogrešan. Povećanje pouzdanosti proizilazi upravo iz nastojanja ljudi da obezbede sigurnost na svim nivoima organizacije. Ovakav pogled na ljudsku grešku se u literaturi naziva Novo gledište (New View, New Look) [14] ili karakteriše kao Kopernikov pogled na svet: Zemlja kruži oko sunca [15].

Postoji i treće gledište koje čine malobrojni autori koji izražavaju sumnju u vezi podataka o ljudskim greškama. Oni navode da se u ispitivanju uzroka nesreće termin “ljudska greška” često upotrebljava onda kada su sve ostale mogućnosti iscrpljene: “Nismo mogli da nađemo mehanički uzrok, dakle mora biti ljudska greška”. Međutim, to što mehanički uzrok nije otkriven, ne znači i da ga nema [49].

Danas je dominantno Novo gledište čija je osnovna paradigma da, kada se u istraživanju uzroka nekog problema dođe do ljudske greške, to ne treba da bude kraj već početna tačka daljeg istraživanja. Krajnji cilj svakog istraživanja treba da bude poboljšanje sistema a ne utvrđivanje krivca. Pored toga, perspektive iz koje se gleda na nesreću koja se dogodila zbog ljudske greške su spolja i unazad: poznat je tok događaja i njihov ishod. Međutim, u momentu nastajanja uzroka nesreće, učesnici imaju samo ograničenu perspektivu iznutra. Zbog toga je potrebno posmatrati događaje iz svih tih perspektiva: spolja i unazad da bi se utvrdila greška a iznutra da bi se razumelo zašto je do nje došlo.

Predmet ovog rada je ljudska greška, pojam, taksonomija, metode za njenu analizu i procenu pouzdanosti čoveka. Posebna pažnja će biti posvećena uzrocima ljudske greške i relativno novoj metodi za analizu i klasifikaciju ljudske greške (Human Factors Analysis and Classification System – HFACS). Rad se sastoji iz četiri dela. Prvi deo se bavi pojmom ljudske greške i njenim vrstama. Drugi deo je posvećen analizi ljudske greške i metodama koje se koriste u toj analizi. U trećem delu će biti prikazana HFACS metoda. Prvo će se prikazati Rizonov model uzroka nesreće na kome se HFACS zasniva, zatim sama metoda i na kraju njene primene u realnim sistemima. Četvrti deo rada se odnosi na zaključke i dalje pravce istraživanja.

1. LJUDSKA GREŠKA: POJAM I TAKSONOMIJA

Pojam „ljudska greška“ treba razlikovati od pojma „ljudski faktor“ koji se ne odnosi samo na greške već na sveobuhvatno ljudsko ponašanje. Ljudski faktor je predmet proučavanja mnogih nauka i naučnih disciplina: psihologije, teorije upravljanja i organizacije, ergonomije, ekonomije, sociologije, antropologije,

Page 3: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

3

andragogije, medicine rada, prava itd. Identifikacija i analiza ljudskih faktora sa aspekata svih ovih nauka i disciplina je značajna za analizu ljudskih grešaka i pouzdanosti čoveka i predstavlja jednu od njihovih polaznih tačaka. U tome su posebno značajni rezultati ergonomije koja se bavi interakcijom čoveka i tehničkih i organizacionih sistema [32]. Standard ISO 6385:2004 definiše studiju ljudskog faktora (ergomoniju) kao naučnu disciplinu koja se bavi razumevanjem interakcije između čoveka i drugih elemenata sistema; profesija koja primenjuje teoriju, principe, podatke i metode u dizajnu kako bi optimizovala dobrobit čoveka i ukupne performanse sistema [26].

Termin ljudska greška je široka kategorija koja podrazumeva greške koje su veoma česte i koje je moguće jasno identifikovati, lako dijagnostikovati, koje su, uglavnom, razumljive i naizgled oprostive. Ljudska greška se često pojmovno odvaja od otkaza ili neispravnog ponašanja čoveka (human fault) i ljudskog neuspeha (human failure). Neispravno ponašanja čoveka ima pravnu konotaciju koja uključuje pojmove „kriv“ i „kažnjivo“ i podrazumeva se da je prouzrokovana šteta rezultat nesavesnog ponašanja ili namerne greške. Ljudski neuspeh podrazumeva veoma značajne greške koje su posledica ljudskih mana koje se ne mogu tolerisati i koje imaju moralne posledice koje se mogu smatrati neoprostivim [40].

Treba napomenuti da postoje i autori koji izbegavaju korišćenje termina „ljudska greška“ i koristite neutralnije izraze poput „pogrešna akcija“ (action error) ili „pogrešno delovanje“ (erroneous action) [45].

Definicija ljudske greške, koja se najčešće navodi u literaturi i smatra klasičnom, je definicija koju je dao Rizon: Ljudska greška može da se definiše kao neuspeh aktivnosti, planiranih za postizanje željenih ciljeva, do koga je došlo bez uplitanja nekih spoljnih nepredvidivih događaja [46].

Kao zvanična definicija u literaturi se često navodi definicija Nuklearne regulatorne komisije SAD (U.S. Nuclear Regulatory Commission - NUREG) u kojoj se definiše da su ljudska greška akcije izvan tolerancije ili odstupanje od norme, pri čemu su granice prihvatljivosti definisane unutar sistema. Ovakve situacije mogu da proizilaze iz problema u: redosledu izvršenja operacija, vremenu, znanju, procedurama i drugim izvorima [37].

Ljudska greška se obično vezuje za specifirani zadatak, odnosno skup akcija koje treba preduzeti da bi se dostigao postavljeni cilj ili stanje [45]. U izvršavanju tog zadatka, ljudska greška je nenamerna (nenameravana) akcija koja utiče da performance sistema budu izvan predefinisanih granica tolerancije [38]. Najčešći pojavni oblici ljudske greške su: donošenje nepravilne odluke u vezi nastalog problema; neblagovremena i neadekvatna reakcija na nepredviđene situacije; neuspešno izvršavanje zahtevane funkcije; neprepoznavanje opasne situacije i izvršavanje zadatka koji nije smeo da se obavi [18].

Kada se posmatra neki hazardni događaj, ljudska greška se može javiti u svakom njegovom segmentu [45]:

1. može da doprinese uzroku kroz grešku u dizajnu, održavanju, testiranju, podešavanjima itd, 2. može da bude direktno povezana za hazardnim događajem tako što ga je pokrenula, 3. može da bude povezana sa posledicama hazardnog događaja tako što, na primer, nije pokrenut

sigurnosni sistem koji bi ih sprečio.

Česta klasifikacija ljudske greške u inženjerstvu je upravo vezana za vreme i mesto nastajanja greške i obuhvata greške u: dizajnu, održavanju, montaži, rukovanju, greške operatera, greške u inspekciji, i dodatne greške [16].

Pored pomenute, postoji veliki broj taksonomija ljudske greške. Još uvek se ni jedna od njih nije izdvojila kao jedinstvena i opšteprihvaćena. Međutim, tri koje se najčešće navode su:

Majsterova taksonomija, jedna od najstarijih po kojoj ljudska greška može biti [35]: 1. propust da se obavi potrebna akcija - greška propusta (an error of omission); 2. sprovođenje akcije na pogrešan način - greška pogrešne akcije (an error of commission); 3. sprovođenje ispravnih akcija u pogrešnom redosledu ili u pogrešnom trenutku.

SKR (Skill-Rule-Knowledge) taksonomija, koja razlikuje ponašanje zasnovano na veštinama, pravilima i znanju a time i greške koje su njihova posledica [44]:

Page 4: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

4

1. Ponašanje zasnovano na veštinama: greške ovog tipa se uglavnom odnose na greške nastale u izvođenju rutinskih aktivnosti u poznatim okolnostima;

2. Ponašanje zasnovano na pravilima: greške se uglavnom javljaju zbog pogrešne ili neodgovarajuće primene pravila za rešavanje problema;

3. Ponašanje zasnovano na znanju: greške nastaju kada treba razumeti novonastalu situaciju i interpretirati informacije ili doneti tešku odluku.

SLMV (Slips, Lapse, Mistakes, Violations) taksonomija, koja ljudske greške deli u četiri kategorije [46]: 1. Omaške: akcije koja se sprovode sa namerom da budu ispravne ali se izvrše neispravno;

neplanirana akcija koja obično ne predstavlja opasan događaj; 2. Lapsusi: greške nastale kao posledica dekoncentracije ili spoljnog ometanja; 3. Nesporazumi: pravilno izvršene pogrešne akcije. Ne postoji namera da se napravi greška već je ona

posledica neznanja, loše obuke itd; 4. Kršenja: namerno sprovođenje pogrešne akcije.

2. ANALIZA LJUDSKE GREŠKE

Oblast u okviru Teorije pouzdanosti koja se bavi ljudskim greškama se naziva Analiza pouzdanosti čoveka (Human Reliability Analysis - HRA). HRA je sistematski pristup koji se koristi za identifikaciju i evaluaciju grešaka koje u nekom sistemu može napraviti čovek. U širem smislu, proces analize pouzdanosti čoveka može da uključi [31]:

1. Analizu zadatka (šta operater treba da radi); 2. Identifikaciju grešaka (na koje sve načine mogu da se jave); 3. Prezentaciju (određivanje uzročno-posledičnih veza između događaja vezanih za: čoveka, hardver,

softver, okruženje itd., na logičan i merljiv način); 4. Kvantifikaciju (procena izvesnosti greške); 5. Redukciju greške preventivnim akcijama (njenog efekta ili verovatnoće pojavljivanja); 6. Osiguranje kvaliteta i dokumentacija (verifikacija da su procene validne i da mogu da se koriste kao

izvor informacija za budući dizajn ili u druge svrhe).

HRA obuhvata veliki broj metoda i tehnika koje podržavaju opisani proces ili neke njegove delove. Obavezna i veoma značajana faza u ovom procesu je identifikacija ljudskih grešaka. Koliko je ova faza složena i važna govori i postojanje velikog broja baza podataka o ljudskim greškama, koje su razvijene kao podrška i pomoć u njihovoj analizi. Većina baza se odnosi na specifične oblasti a najčešći izvori u njihovom formiranju su: evidencije grešaka u postrojenjima i izveštaji inspekcijskih timova, rezultati simulacija i programa obuke, rezultati eksperimentalnih istraživanja u laboratorijama i podaci o greškama u drugim oblastima [23]. Najpoznatije baze podataka o ljudskim greškama su [30, 45]:

CORE-DATA (Computerized Operator Reliability and Error Database) – formirana na Univerzitetu u Birmingemu na osnovu podataka iz nuklearnih, hemijskih i naftnih postrojenja i sadrži kvantitativne podatke kao i izvore za procenu verovatnoća ljudskih grešaka [30].

HERA (Human Event Repository Analysis) –formirana u saradnji Nacionalne laboratorije Ajdaha i NUREG-a i sadrži podatke o uticaju ljudskih grešaka na performanse u nuklearnim elektranama [24].

HPES (Human Performance Evaluation System) - formirana na INPO u Atlanti i sadrži podatke o ljudskim greškama u industriji nuklearne energije. Pristup je omogućen samo sa plaćenim članstvom [45].

HFIS (Human Factors Information System) - baza podataka koju je formirala NUREG i koja obuhvata podatke o ljudskim performansama prikupljene u fabrikama u SAD [25].

CAHR (Connectionism Assessment of Human Reliability) - sadržii podatke o verovatnoćama ljudskih grešaka nastalim u reaktorima u Nemačkoj [7].

SACADA (Scenario Authoring, Characterization, and Debriefing Application) - razvijena u saradnji NUREG-a i STPNOC-a (South Texas Project Nuclear Operating Company) na osnovu podataka iz programa obuke i treninga zaposlenih i sadrži podtake o greškama, vremenu odziva, efektima i verovatnoćama grešaka. [9]

Page 5: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

5

OPERA (Operator PErformance and Reliability Analysis) – razvijena na Korejskom institutu za istraživanje atomske energije na osnovu programa obuke i sadrži podatke o vremenima izvođenja operacija, uzrocima grešaka i neodgovarajućim ponašanjima operatera [30].

Posmatrajući rezultate koje daju, metode i tehnike za HRA mogu biti kvalitativne i/ili kvantitativne. Kada su kvantitativne, njihov glavni zadatak je određivanje verovatnoće ljudske greške. Ova verovatnoća omogućava poređenje različitih ljudskih grešaka i predstavlja ulaz u sveobihvatnu procenu rizika.

Verovatnoća ljudske greške (Human Error Probability - HEP) je verovatnoća da će doći do greške u obavljanju postavljenog zadatka. Najčešće se pretpostavlja da su greške u obavljanju zadatka međusobno nezavisne i sa konstantnom verovatnoćom. Pod tim pretpostavkama, HEP može da se proceni kao [45]:

broj grešaka

broj prilika da se napravi greškaHEP

Ovakva procena verovatnoće nije uvek moguća pošto je često teško utvrditi koliko je bilo prilika da se napravi greška. U tom slučaju je prikladnije koristiti subjektivnu procenu verovatnoće na osnovu mišljenja eksperata ili istorijskih podataka.

U okviru HRA se razmatra i pouzdanost čoveka (Human Reliability - HR), koja predstavlja suprotnu verovatnoću HEP, odnosno HEP+HR=1). Pozdanost čoveka je verovatnoća da će osoba (i) korektno obavljati neku zahtevanu aktivnost u zahtevanom vremenskom periodu i (ii) neće obavljati nikakvu neodgovarajuću aktivnost koja može da degradira sistem [45]. I u ovom slučaju je, iz istih razloga, teško proceniti verovatnoću.

Posmatrajući namenu, metode i tehnike za HRA mogu biti retrospektivne (post-incident), ako se primenjuju da bi se utvrdilo da li su i koje ljudske greške uzroci konkretne nesreće koja se dogodila, i prediktivne, ako im je cilj da predvide moguće ljudske greške u nekom sistemu. [18].

Jedno od otvorenih pitanja prediktivne primene HRA je da li je moguće predvideti ljudske greške i, ako jeste, koje su to greške predvidive. Rizon izdvaja varijabilnost kao karakteristiku ljudske greške koja je ključna za mogućnost predviđanja [46]. Svoje tvrđenje ilustruje primerom sa dva strelca koji pucaju u metu. Na Slici 1 su prikazane dve mete sa po deset rupa od metaka: leva - rezultat pucanja strelca A i desna - rezultat pucanja strelca B.

Slika 1. Mete na koje su 2 strelca ispalila po 10 hitaca [46]

Strelac A je pucao oko centra, ali je rasipanje pogodaka veliko. Sa druge strane, strelac B je koncentrisano pogađao metu, ali na izvesnoj udaljenosti od centra. Strelac A pravi malu ali veoma promenljivu grešku dok strelac B ima veliku stalnu grešku, ali zanemarljivu promenljivu grešku. Ako bi se zaključivalo samo na osnovu osvojenih poena, strelac A je bolji, jer je osvojio 88 a strelac B 61 poen. Međutim, ako bi se ponovilo još 10 gađanja, može se predvideti da bi strelac B i dalje ciljao ka centru mete i pogađao metu, dok je kod strelca A predviđanje rezultata skoro nemoguće. Može se čak pretpostaviti, zbog konstantne prirode njegove greške, da je B odličan strelac sa neadekvatnim nišanom. U slučaju strelca A, koji verovatno ima dobar nišan ali je neprecizan, nije moguće precizno predvideti gde će pogadati metu. Može se predvideti loše grupisanje pogodataka, ali to je sve.

Ovde je moguće napraviti jasnu analogiju sa tehničkim i drugim sistemima: konstantne (istog tipa) ljudske greške se mogu predvideti i preduprediti. Pored toga, postojanje konstantnih ljudskih greškaka ukazuje na postojanje neke dublje sistemske greške koja je njihov uzrok.

Page 6: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

6

2.1. Metode za analizu ljudske greške

Često se za procenu ljudske greške u inženjerstvu koriste opšte tehnike i metode koje se koriste u proceni pouzdanosti i rizika tehničkih sistema: Analiza načina i efekata otkaza (FMEA) ili njena adaptacija AEMA (Action Error Mode Analysis), Analiza korenskog uzroka (RCA), Išikava diagram, Analiza stabla neispravnosti (FTA), Analiza stabla događaja (ETA), HAZOP i njena adaptacija Human HAZOP itd. [16, 50]. Međutim, vremenom je razvijen veliki broj kvalitativnih i kvantitativnih metoda specijalizovanih za analizu ljudske greške i procenu pouzdanosti čoveka. U [3] su identifikovane 72 različite metode za procenu pouzdanosti čoveka od kojih je 17 izdvojeno kao metode koje mogu da se koriste u industrijama visokog rizika.

Kod mnogih autora se može naći, ne uvek dosledna, podela ovih metoda na metode prve i druge generacije [3,6,45]. Pored hronološke podele, pre i posle devedesetih godina prošlog veka, ove dve grupe metoda se razlikuju u svom odnosu prema ljudskim greškama. Metode prve generacije podržavaju Staro gledište i skoro potpuno zanemaruju kontekst u kome dolazi do ljudske greške, dok metode druge generacije razmatraju uticaj konteksta na pojavu ljudske greške i time u potpunosti omogućavaju primenu Novog gledišta na ljudsku grešku. Pored toga, metode prve generacije fokus stavljaju na greške propusta (errors of ommision) dok metode gruge generacije u analizu uključuju i greške pogrešnih akcija (errors of commision). Metode druge generacije su uglavnom jednostavnije i lakše za korišćenje od metoda prve generacije što je rezultiralo u njihovoj mnogo široj primeni i većem razvoju [6].

1. Metode prve generacije

- THERP (Technique for Human Error Rate Prediction) je razvijena osamdesetih godina prošlog veka i prva je metoda za procenu pouzdanosti čoveka koja je široko primenjena u praksi [3, 18]. THERP je zaokružena metodologija koja obuhvata: analizu zadataka, identifikaciju ljudskih grešaka i kvatnifikovanje njihove verovatnoće. Sprovodi se tako što se svaki zadatak dekomponuje na elemente, procenjuje verovatnoća i efekti ljudske greške za svaki od elemenata, modelira stablo događaja koji se odnose na ljudske greške i na kraju određuje verovatnoća ljudske greške u posmatranom zadatku. Metoda je primenjivana u različitim oblastima ali najviše u nuklearnoj industriji.

- SPAR-H (Standardized Plant Analysis Risk–Human Reliability Analysis) je prediktivna i retrospektivna metoda koja je razvijena devedesetih godina u Idaho National Laboratory [18, 37]. Metoda polazi od podele zadataka na akcije i dijagnostičke zadatke, i utvrđuje verovatnoće ljudskih grešaka u izvršavanju ovih zadataka. U određivanju ovih verovatnoća koristi sledećih osam faktora: raspoloživo vreme, stres i uzroci stresa, iskustvo i obučenost, složenost, ergonomija, procedure, spremnost za obavljenje zadatka i procesi rada. Analiza neizvesnosti vrši se na osnovu beta raspodele. Sama metoda se sprovodi na radnom listu. Primenjivana je u različitim oblastima ali najviše u nuklearnoj industriji.

- HEART (Human Error Assessment and Reduction Technique) je razvijena osamdesetih godina u nuklearnoj industriji Velike Britanije [18]. Osnovna premisa metode je da pouzdanost čoveka zavisi od prirode zadatka koji obavlja i da ta pouzdanost u savršenim uslovima teži da dostigne stabilnu vrednost koja je u prihvatljivim granicama. Međutim, kako savršeni uslovi uglavnom ne postoje, može se očekivati da predviđena pouzdanost čoveka opada. Metoda definiše devet opštih tipova ljudskih grešaka sa verovatnoćama njihovog pojavljivanja i 38 uslova koji mogu uticati na pojavu greške sa množiteljima koji pokazuju koliko određeni uslovi mogu povećati verovatnoću greške. Za svaku identifikovanu grešku se dobija ocena verovatnoće množenjem verovatnoće tipa kome ta greška pripada sa množiteljem uslova u kome je nastala. Na taj način se određuje mogućnost nastanka gljudske greške za svaki zadatak. Metoda je opšta i zbog toga je primenjivana u različitim oblastima.

2. Metode druge generacije

- ATHEANA (A Technique for Human Event Analysis) je retrospektivna metoda koju je razvila NUREG devedesetih godina prošlog veka [11, 18]. Ova metoda identifikuje događaje vezane za ljudsku grešku i kategoriše ih u bezbedne i nebezbedne akcije a zatim detaljno analizira ove druge. Po originalnom konceptu metode, verovatnoća odigravanja ljudske greške je jednaka proizvodu verovatnoće scenarija (konteksta) koji vodi ka grešci i verovatnoće nebezbedne akcije. U daljim verzijama metode, faktori koji

Page 7: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

7

utiču na ovu verovatnoću su prošireni, tako da je verovatnoća ljudske greške (Phfe) jednaka: Phfe = Pefe·Pusa·Pnp, gde je: Pefe verovatnoća konteksta koji može dovesti do ljudske greške, Pusa verovatnoća nebezbedne akcije u datom kontekstu i Pnp verovatnoća nepostojanja adekvatne reakcije na nebezbednu akciju. Cilj metode je da obezbedi smernice u određivanju mehanizama ljudske greške i određivanju najznačajnijih nebezbednih akcija. Primenjivana je u različitim oblastima ali najviše u nuklearnoj industriji.

- CREAM (Cognitive Reliability and Error Analysis Method) je razvijena devedesetih godina prošlog veka a može da se koristi i kao prediktivna i kao retrospektivna metoda [18, 21]. Metoda se zasniva na klasifikacionim šemama (genotipima): grešaka, čovekovog ponašanja, tehnologije i organizacije. Greške su klasifikovane u četiri grupe, kao akcija koja se izvršava: u pogrešno vreme, na pogrešan način, nad pogrešnim objektom i na pogrešnom mestu; ponašanje čoveka je klasifikovano na osnovu kognitivnih aktivnosti: planiranje, zapažanje, izvršavanje i interpretacija; tehnologija na: opremu, procedure i interfejs; a organizacija na: komunikaciju, obuku, radne i druge uslove. Za konkretnu situaciju se određuju direktne i indirektne veze prethodnika i sledbenika između pojedinih elemenata ove četiri klasifikacione šeme. Na taj način se obezbeđuje konciznost i sistematičnost u utvrđivanju uzroka nastalog problema. CREAM je primenjivana je u različitim oblastima ali najviše u nuklearnoj industriji.

- HRMS (Human Reliability Management System) je razvijena krajem osamdesetih godina prošlog veka u BNFL THORP (British Nuclear Fuels Ltd., Thermal Oxide Reprocessing Plant) [31]. Namera je bila da se razvije metoda koja će moći da podrži svih šest faza u procesu analize pouzdanosti čoveka: analizu zadatka, analizu greške, prezentaciju, kvantifikaciju, osiguranje kvaliteta i dokumentaciju. HRMS sadrži module koji obavljaju ove faze, pri čemu se u velikoj meri oslanja na primenu drugih tehnika i metoda za analizu ljudske greške. Za sada je primenjena samo u nuklearnoj industriji.

3. ANALIZA I SISTEM KLASIFIKACIJE LJUDSKIH GREŠAKA

Analiza i sistem klasifikacije ljudskih grešaka (Human Factors Analysis and Classification System – HFACS) je opšti okvir za identifikaciju uzroka ljudske greške, koji je originalno razvijen i testiran u Američkoj vojsci kao sredstvo za istragu i analizu uzroka vazduhoplovnih nesreca do kojih su dovele ljudske greške. Generalno posmatrano, uzroci ljudskih grešaka mogu biti interni, koji vode ka tzv. endogenim greškama, i eksterni, koji vode ka tzv. egzogenim greškama. Endogene greške proističu iz kognitivnih procesa i njima se bave psihologija i neurologija. Egzogene greške su uzrokovane ili povezane sa kontekstom u kome se obavlja ljudska aktivnost. Iako je kognitivni proces prisutan i kod ovih grešaka, dominantna je uloga okruženja i situacije u kojoj se čovek nalazi. Iako ova razlika između endogene i egzogene greške može izgledati veštačka, ipak je važna za razumevanje prirode ljudske greške. To je važno jer se verovatnoća pojavljivanja egzogenih grešaka može smanjiti kroz promene u sistemu, dok kod endogenih grešaka to nije moguće. Ako su egzogene greške uzrokovane neadekvatnom uređenošću sistema, nazivaju se sistemski indukovane ili sistemske greške [50]. HFACS se prvenstveno bavi uzrocima egzogenih grešaka a teorijska osnova metode je Rizonov model uzroka nesreće.

3.1. Rizonov model uzroka nesreće

Pored ranije pomenute Man-made disaster teorije i Modela sekvenci događaja (The sequence-of-events model) poznatog i kao Domino teorija, Rizonov model spada u najpoznatije i najnavođenije modele uzroka nesreće. Prvobitno razvijen za potrebe nuklearne industrije, Rizonov pristup uzrocima nesreće se zasniva na pretpostavci da u svakom sistemu postoje slojevi (komponente) koji moraju da rade skladno, kako bi operacije bile efikasne i bezbedne [53]. Ukoliko postoje i deluju zajedno, ovi slojevi obezbeđuju postojanje "produktivnog sistema" (Slika 2).

Pre nego što se dođe do proizvodnih ativnosti (prvi sloj), neophodno je da budu ispunjeni određeni preduslovi (drugi sloj), kao što je posedovanje pouzdane opreme i adekvatno obučene i motivisane radne snage. Podrška tim preduslovima obezbeđuje se procedurama, održavanjem, obukama itd (treći sloj). Da bi

Page 8: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

8

ceo sistem funkcionisao, neophodno je vršiti efikasno upravljanje i nadzor, za šta su odgovorni donosioci odluka (četvrti sloj) koji, uz to, postavljaju ciljeve i upravljaju raspoloživim resursima imajući u vidu društvene, ekonomske i druge aspekte poslovanja.

Donosioci odluka

korporativnoupravljanje

Linijski menadžeri

operacije

održavanje

obuke

Preduslovi

pouzdana oprema

motivisanizaposleni

Proizvodne aktivnosti

Integracija ljudskih i mašinskih elemenata

povratne sprege

Ulazi (društveni, ekonomski,

politički)

Slika 2. Komponente produktivnog sistema [53]

Prema Rizonu, svaki od pomenutih slojeva predstavlja barijeru koja sprečava da se u sistemu desi nesreća. Nesrece se dešavaju kada postoje otkazi u interakciji između četiri pomenuta sloja. Otkazi u interakciji se mogu predstaviti kao "rupe" u okviru različitih slojeva sistema i mogu se shvatiti kao “rupe” u odbrani sistema od nastanka nesreće (Slika 3). S obzirom da slika ovog modela podseća na isečen švajcarski sir, ova Rizonova teorija se često naziva "Švajcarski sir" model ("Swiss cheeese") uzroka nesreće. U literaturi se mogu naći različite adaptacije Rizonovog modela. Ovde je prikazana ona na kojoj se zasniva metoda HFASC.

Organizacioni uticaji

Nebezbedan nadzor

Preduslovi za nebezbedna dela Nebezbedna

dela

Otkazi ili nedostaci odbrane

Latentni otkazi

Latentni otkazi

Latentni i/iliaktivni otkazi

Aktivni otkazi

Nesreća

Slika 3. Rizonov model uzroka nesreće [53]

Rizon razlikuje dve vrste otkaza: aktivne i latentne, i zbog toga se ovaj model u literaturi može naći i pod nazivom Model latentnih grešaka.

Aktivni otkazi su nebezbedna dela počinjena od strane ljudi koji su u direktnom kontaktu sa sistemom i čije su posledice vidljive odmah ili za vrlo kratko vreme. Oni su povezani sa ljudima na “oštrom kraju” procesa, odnosno sa operativnim radnicima koji su direktno uključeni i utiču na proizvodni ili drugi process [15]. Aktivni otkazi mogu imati različite oblike: omaške, propusti, greške, nespretnost, proceduralni prekršaji, i imaju direktan uticaj na integritet odbrane. U Černobilju, na primer, operateri su prekršili procedure postrojenja i isključili sigurnosne sisteme, čime se stvorio povod za katastrofalnu eksploziju u jezgru. Sledbenici pristupa koji u osnovi ima čoveka često ne gledaju dalje na uzroke nepovoljnog događaja nakon što su identifikovali ova nebezbedna dela. Međutim, aktivni otkazi imaju uzročnu istoriju koja se proteže unazad u vremenu i kroz sve nivoe sistema [46].

Latentni otkazi su pogrešne odluke ili drugi problemi čije negativne posledice mogu dugo da postoje sakrivene u okviru sistema i koje postaju očigledne tek kada u kombinaciji sa drugim faktorima dovedu do proboja odbrane sistema. Oni nastaju iz odluka koje donose projektanti, graditelji, kreatori procedura, služba održavanja i najviši nivo rukovodstva – ljudi koji su daleko u vremenu i prostoru od samog događaja koji je doveo do nesreće [15]. Efekti ili posledice latentnih otkaza se manifestuju tek kada postoji neki pokretač, početni događaj koji izaziva ili omogućava nesreću. Pored toga, latentni otkazi mogu stvoriti dugotrajne rupe ili slabosti u odbrani sistema (nepouzdani alarmi i indikatori, neizvodljive procedure, nedostaci u projektovanju i izgradnji, itd). Za razliku od aktivnih otkaza, čiji se specifični oblici teško mogu predvideti, latentni otkazi mogu biti identifikovani i otklonjeni pre nego što se desi neželjeni događaj [46].

Page 9: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

9

Rizonov model uzroka nesreće ukazuje na to koji su činioci odgovorni: organizaconi uticaji, nebezbedan nadzor, preduslovi za nebezbedna dela i sama nebezbedna dela. Međutim, on ne identifikuje prirodu “rupa u siru”, niti detaljno objašnjava tipove organizacionih i nadzornih grešaka, nebezbednih dela i njihovih preduslova. Time što ovi neuspesi sistema, ili “rupe” nisu definisani, nemoguće ih je identifikovati u toku istrage nesreće, ili, još bolje, pre nego što do nesreće dođe. Analiza i sistem klasifikacije ljudskih faktora – HFACS predstavlja nadgradnju Rizonovog modela koja prevazilazi ove njegove nedostatke i dopunjuje ga preciznim definisanjem aktivnih i latentnih otkaza.

3.2. Elementi metode HFACS

Osnovna uloga HFACS metode je da omogući detaljan uvid u uzroke ljudskih grešaka i nivoe poslovanja u kojima se one javljaju. Analizom zastupljenosti pojedinačih uzroka se ukazuje na delove sistema čijim popravljanjem se mogu ukloniti potencijani uzroci budućih ljudskih grešaka [48]. HFACS opisuje četiri nivoa otkaza, od kojih svaki odgovara jednom od četiri sloja u okviru Rizonovog modela: nebezbedna dela, preduslovi za nedezbedna dela, nebezbedan nadzor i organizacioni uticaji (Slike 4-7).

1. Nebezbedna dela su prvi nivo otkaza, to su aktivni otkazi koje čine operativni radnici. Kategorisana su u greške i prekršaje (Slika 4).

Nebezbedna dela

Greške Prekršaji

Rutinski VanredniGreške u

veštinamaOpažajne

greškeGreške u

odlučivanju

Slika 4. Kategorije nebezbednih dela [53]

Greške predstavljaju mentalne ili fizičke aktivnosti pojedinaca koje ne uspevaju da ostvare nameravane ishode. Dešavaju se nenamerno i javljaju se unutar pravila i propisa organizacije.

Greške u veštinama su greške do kojih najčešće dolazi zbog nedostatka pažnje usled izvođenja automatizovanih i rutinskih radnji: loše postavljanje prioriteta, nepažljivo korišćenje opreme, izostavljanje koraka iz procedure, ignorisanje tačaka kontrolne liste, neadekvatno procenjena situacija;

Greške u odlučivanju predstavljaju ponašanje u kome se postupa kao što je planirano, ali sam plan je neadekvatan ili neprikladan. Njih čine: proceduralne greške, loši izbori i greške u rešavanju problema. Ove greške se nazivaju i "poštene greške," jer su one dela pojedinaca koji su verovatno imali najbolje namere, ali nisu posedovali odgovarajuće znanje ili su njihovi izbori bili neadekvatni;

Opažajne greške nastaju kada je senzorni ulaz degradiran, kao što je slučaj sa vizuelnim iluzijama i prostornom dezorijentacijom.

Prekršaji predstavljaju namerno nepoštovanje pravila i propisa.

Rutinski prekršaji su obično loše navike koje se često tolerišu zato što se zna da njihove posledice neće biti veće nego što bi bile da nisu počinjene (npr. postoje ljudi koji uvek voze 5km/h iznad ograničenja i za njih se može reći da rutinski krše ograničenje brzine, odnosno da je to njihova navika).

Vanredni prekršaji nisu pokazatelji tipičnog ponašanja pojedinca i nisu tolerisani od strane rukovodstva. Značajno je napomenuti da, iako je većina vanrednih prekršaja ozbiljna, oni se ne smatraju "vanrednim" zbog svoje ekstremne prirode, već zato što nisu tipični za pojedinca, niti kao takvi mogu biti tolerisani. Ono što vanredne prekršaje čini izuzetno opasnim jeste to što se oni ne mogu predvideti i sigurno je da su njihove posledice drastično teže.

2. Preduslovi za nebezbedna dela najčešće predstavljaju latentne otkaze ali i oni sami mogu biti pokretači nesreće. Čine ih: faktori okoline, stanje operativnih radnika i faktori osoblja (Slika 5).

Page 10: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

10

Preduslovi za nebezbedna dela

Stanje operateraFaktori osoblja

Upravljanje zaposlenima

Lična spremnost

Neželjena mentalna

stanja

Fizička/mentalna

ograničenja

Neželjena fiziološka

stanja

Faktori okoline

Fizičko okruženje

Tehnološko okruženje

Slika 5. Kategorije preduslova za nebezbednih dela [53]

Faktori okoline mogu da utiču napovoljno na stanje operativnih radnika a time i na nebezbedna dela. Najšire, oni se mogu kategorisati na faktore okruženja i tehnološko okruženje.

Fizičko okruženje se odnosi kako na operativno okruženje koje podrazumeva vreme, nadmorsku visinu i teren, tako i na sredinu koja uključuje toplotu, vibracije, osvetljenje, postojanje toksina u vazduhu itd.

Tehnološko okruženje obuhvata niz potencijalnih problema, uključujuci projektovanje opreme i kontrolnih tabli, karakteristike ekrana, izgleda kontrolnih lista itd.

Stanje operativnih radnika može uticati na učinak u poslu, bilo da je u pitanju let aviona, operacija pacijenta, ili nešto drugo. Na žalost, ova kritična karika u lancu događaja koji dovode do nezgoda često prolazi neprimeceno od strane istraživača.

Neželjena mentalna stanja su ona mentalna stanja koja negativno utiču na performanse pojedinaca: gubitak svesti, ometanje i mentalni umor zbog neispavanosti ili iz drugih razloga, preterano ili premalo samopouzdanje, nedostatak motivacije, frustracija.

Neželjena fiziološka stanja se odnose na one medicinske ili fiziološke uslove koji mogu da utiču nabezbednost poslovanja: vizuelne iluzije, prostorna dezorijentacija, fizički umor, bolest, dejtvo lekova ili narkotika itd.

Fizička/mentalna ograničenja se odnose na one slučajeve kada operativni zahtevi prevazilaze fizičke i mentalne mogucnosti pojedinca.

Faktori osoblja se odnose na interakciju osoblja, koje nije direktno zaduženo za izvršavanje određene operacije, sa operativnim radnikom i na uticaj koji to osoblje može da ima na njegova nebezbedna dela.

Upravljanje zaposlenima podrazumeva komunikaciju i protok informacija koji, ukoliko su neadekvatni, mogu da dovedu do nebezbednih dela. Latentni otkazi ove vrste su: nedostatak ili neadekvatna komunikacija, nedostatak timskog rada, nedostatak izveštavanja itd. Ovi otkazi se mogu pojaviti i kao aktivni uzroci nesreća ako se manifestuju kao: propust u prenošenju informacija, nekorišćenje svih raspoloživih resursa, konfuzni ili konfliktni zahtevi i direktive itd.

Lična spremnost su prekršaji koji utiču na ličnu mentalnu i fizičku spremnost osoblja ali se ne smatraju nebezbednim delima, jer se ne odnose na operativnog radnika niti nužno dovode do njegovih grešaka.

3. Nebezbedan nadzor predstavljaju latentne otkaze koje pravi srednji nivo menadžmenta (linijski menadžeri) u organizaciji (Slika 6).

Nebezbedan nadzor

Neprikladno isplanirani poslovi

Prekršaji u nadzoruNeadekvatan nadzorPropusti u rešavanju poznatog problema

Slika 6. Kategorije nebezbednog nadzora [53]

Neadekvatan nadzor predstavlja otkaze koji se odnose na obaveze linijskih menadžera koje je potrebno da obavljaju da bi se obezbedilo da se posao sigurno i efikasno obavlja. Do otkaza može doći u

Page 11: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

11

operativnom vođenju i nadzoru poslova, u obezbeđivanju: smernica za rad, procedura, obuke, odmora, podsticaja za zaposlene itd.

Neprikladno isplanirani poslovi mogu da uslove operativni tempo i raspored zaposlenih kojim se pojedinci izlažu neprihvatljivom riziku. Takvi poslovi, mada verovatno neizbežni u vanrednim situacijama, se inače smatraju neprihvatljivim.

Propusti u rešavanju poznatih problema se odnose na one slučajeve kada su nedostaci pojedinaca poznati supervizorima, ali oni ne preduzimaju akcije poput: dopunske obuke, promene zaduženja ili radnog mesta, primene sankcija itd.

Prekršaji u nadzoru nastaju kada linijski menadžeri namerno zanemaruju postojeca pravila i propise ili ne pokreću akcije poput: ispravljanje grešaka u dokumentima, prijavljivanje nebezbednih uslova, pokretanje korektivnih mera itd.

4. Organizacioni uticaji se odnose na latentne otkaze najvišeg nivoa menadžmenta čije odluke direktno utiču na nadzornu praksu, uslove i postupke operativnih radnika. Ove greške često prolaze nezapaženo od strane za stručnjaka za bezbednost, u velikoj meri zahvaljujuci nedostatku jasnog okvira za istraživanje.

Organizacioni uticaji

Organizaciona klimaUpravljanje resursima Organizacioni procesi

Slika 7. Kategorije organizacionih uticaja [53]

Upravljanje resursima obuhvata područje korporativnog odlučivanja u vezi sa raspodelom i održavanjem organizacionih sredstava: osoblja, novčanih sredstava, opreme i objekata. U odlučivanju, u kome su uvek prisutna dva suprotstavljena cilja: bezbednost i trošak, najviši nivo menadžmenta može da načini latentne otkaze koji mogu imati nesagledive posledice.

Organizaciona klima se odnosi na široku klasu promenljivih koje utiču na performanse radnika a najjednostavnije može da se definiše kao radna atmosfera unutar organizacije. Najbitniji elementi organizacione klime su: lanac komandovanja, delegiranje vlasti, komunikacioni kanali, formalna odgovornost za obavljanje poslova, kultura i politika organizacije.

Organizacioni procesi su korporativne odluke i pravila koji regulišu svakodnevne aktivnosti u okviru organizacije. Oni uključuju uspostavljanje i korišcenje standardnih operativnih procedura i formalnih metoda za održavanje kontrole i ravnoteže između radne snage i menadžmenta, upravljanje rizikom i uspostavljanje adekvatnog bezbednosnog programa.

3.3. Pregled primena metode HFACS

HFACS može da se koristi u oba smera analize ljudske greške: kao retrospektivna i kao prediktivna metoda. Primena HFACS kao retrospektivne metode se ređe može naći u literaturi. Neke od primena su analiza uzroka eksplozije kotla na teretnom brodu Shirane u Novom Južnom Velsu 2. aprila 2007. godine [8] i analiza uzroka ispadanja ljudi sa broda Saga Sapphire tokom vežbe spasavanja u luci Sautempton u Engleskoj 29. marta 2012. godine [1]. Mnogo je veći broj primena HFACS kao prediktivne metode.

Najčešći način na koji se HFACS koristi kao prediktivna metoda je da se, na osnovu istorijskih podataka o ljudskim greškama u različitim tipovima nesreća, ukazuje na slabosti u posmatranom sistemu a time i na greške koje se mogu očekivati u budućnosti. Prva istraživanja, koja su objavljena početkom ovog veka, su obuhvatila 119 nesreća komercijalnih aviona u periodu od januara 1990. do decembra 1996. godine u SAD u kojima je identifikovano 319 uzročnih faktora. HFACS je pokazala da su najveći broj uzroka činile greške zasnovane na veštinama pilota [51. 52]. U Tabeli 1 je prikazan pregled još nekih istraživanja ove vrste. U prvoj koloni je prikazana godina u kojoj je istraživanje objavljieno i poziv na referncu iz spiska literature na kraju ovog rada; druga kolona se odnosi na oblast primene (A – avionske, N – nuklearne, Ž – železničke nesreće, B – nesreće vezane za brodove, R – nesreće u rudnicima i M – incidenti u medicini); u trećoj koloni

Page 12: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

12

je prikazan obim istraživanja a u četvrtoj rezultati koji se odnose na glavne uzročne faktore ljudskih grešaka koji su dobijeni HFACS metodom.

Tabela 1. Prediktivna primena HFACS

Godina [ref] Oblast Obim istraživanja Uzroci

2006 [12] A 2004 avionskih nesreća registrovanih u Nemačkoj

greške pilota (84%): greške zasnovane na veštinama i greške zasnovane na percepciji

2008 [33] A 41 avionska nesreća od 1999. do 2006. godine u Kini,

greške na operativnom nivou

2010 [42] A 800 udesa helikoptera u Australiji, Kanadi, SAD, Belikoj Britaniji i na Novom Zelandu

greške na organizacionom nivou i individualne greške u održavanju

2014 [13] A 45 avionskih nesreća u Nigeriji u od 1985. do 2010. godine

greške zasnovane na veštinama pilota, fizičkim okruženjem i neadekvatnim nadzorom

2014 [29] N 38 nuklearnih incidenata u Južnoj Koreji od 2000. do 2011. godine

greške zasnovane na veštinama

2008 [2] Ž 40 železničkih nesreća u Australiji od 1998. do 2006. godine

greške zasnovane na veštinama

2013 [10] B 27 nesreća u Kanadi i Velikoj Britaniji od 1998. do 2012. godine

greške odluke na sva četiri nivoa

2015 [34] B 115 brodova koji su se nasukali na Finskoj i obali Velike Britanije

greške operatera i neodgovarajuća komunikacija

2010 [39] R 508 incidenata u rudnicima Australije od 2004. do 2008. godine

uslovi sredine i greške zasnovane na veštinama

2013 [19] M 105 uzastopnih incidenata od jula 2011. do novembra 2012. godine

nebezbedna dela i greške u odlučivanju

2013 [47] M 1,334 incidenta u operacionim salama komunikacija, koordinacija i planiranje; kršenje; greške zasnovane na veštinama

2014 [28] M 236 grešaka u toku 2012. godine greške u nadzoru

Pored istorijskih podataka o ljudskim greškma, HFACS može da se bazira na mišljenjima eksperata ili intervjuima. Na taj način, na osnovu intervjua sa lekarima i tehničarima Mejo klinike u SAD, je korišćena za analizu uzroka grešaka u operacionoj sali [20].

3.4. Primena metode HFACS u upravljanju medicinskim otpadom

U nastavku će biti prikazana primena HFACS metode u utvrđivanju uzroka ljudskih grešaka u upravljanju medicinskim otpadom u kliničkom centru, ustanovi tercijalne zdravstvene zaštite u Republici Srbiji. Medicinski otpad se definiše kao: „sav otpad, opasan ili neopasan, koji se generiše pri pružanju zdravstvenih usluga (dijagnostika, prevencija, lečenje i istraživanja u oblasti humane i veterinarske medicine)" [4]. On nastaje u medicinskim ustanovama, medicinskim istraživačkim centrima ili laboratorijama a predstavlja heterogenu mešavinu otpada u kome 10–25% čini opasan otpad rizičan po zdravlje ljudi i životnu sredinu. Analiza uzroka ljudskih grešaka je izvršena za infektivni otpad jer je to otpad sa najvećim životnim ciklusom koji sa sobom nosi veliki rizik od nastanka infekcije. Infektivni otpad čine: kulture i materijal iz laboratorija koji sadrži infektivne agense; oprema, materijal i pribor koji je bio u kontaktu s krvlju, derivatima krvi, telesnim tečnostima; izlučevine od klinički potvrđenih inficiranih pacijenata, uključujući hirurške zahvate i obdukcije; otpad iz odeljenja za patologiju i izolaciju infektivnih pacijenata; otpad od dijalize, infuzije i sličnih zahvata, uključujući sav pribor i materijal za jednokratnu upotrebu; zarazni otpad koji je bio u dodiru sa inficiranim pacijentima kao i visoko infektivan otpad iz medicinskih laboratorija [4].

Analiza uzroka ljudskih grešaka je izvršena na osnovu: pravilnika o upravljanju medicinskim otpadom [41], interne dokumentacije kliničkog centra o procedurama u upravljanju medicinskim otpadom i mišljenja zaposlenih zaduženih za transport i obradu medicinskog otpada u kliničkom centru. Mogućnost infekcije, kao posledica ljudskih grešaka u upravljanju medicinskim otpadom unutar kliničkog centra, je izabrana za rizični događaj za koji su analizirani mogući uzroci grešaka. Zbog nepostojanja detaljne evidencije o greškama, izvršena je preliminarna analiza, odnosno evidentirano je samo koje se greške mogu pojaviti i na kom od četiri nivoa (Slika 8).

Page 13: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

13

9%

8%

3%

5%

7%

32%

3%

1%

7%

3%

4%

4%

4%

26%

7%

4%

4%

5%

20%

9%

5%

7%

22%

0% 5% 10% 15% 20% 25% 30% 35%

Greške u veštinama

Greške u odlučivanju

Opažajne greške

Rutinski prekršaji

Vanredni prekršaji

Nebezbedna dela

Fizičko okruženje

Tehnološko okruženje

Neželjena mentalna stanja

Neželjena fiziološka stanja

Fizička / mentalna ograničenja

Komunikacija i protok informacija

Lična spremnost

Preduslovi za nebezbedna dela

Neadekvatan nadzor

Neprikladno isplanirani poslovi

Propusti u rešavanju poznatih problema

Prekršaji u nadzoru

Nebezbedan nadzor

Upravljanje resursima

Organizaciona klima

Organizacioni procesi

Organizacioni uticaji

Slika 8. Zbirni rezultati svrstani u kategorije: organizacioni uticaji, nebezbedan nadzor, preduslovi za nebezbedna dela i

nebezbedna dela

Sa grafika se uočava da se najveći broj različitih uzroka ljudskih grešaka javlja u kategoriji nebezbednih dela (32% od ukupnog broja grešaka). Među njima su najzastupljenije greške u veštinama (neadekvatna tehnika punjenja ili vezivanja ambalaže za infektivni otpad, loša procena nivoa napunjenosti ambalaže, nepažljivo stavljanje zaštitnih rukavica itd), greške u odlučivanju (korišćenje neadekvatne ambalaže u nedostatku predviđene, neadekvatna reakcija u slučaju pucanja amabaže itd.) i vanredne greške. U velikom procentu se javljaju i greške u upravljanju resursima u okviru kategorije organizacionih uticaja (9%).

Dobijeni rezultat predstavlja okvir za dalju analizu koja bi sadržala informacije o broju grešaka određenog tipa. Tek tada bi se dobila prava slika o zastupljenosti uzroka ljudskih grešaka koja bi ukazala na slabe tačke u sistemu upravljanja infektivnim medicinskim otpadom.

4. ZAKLJUČAK

Kontruktivan pristup ljudskoj grešci podrazumeva da se ona ne posmatra kao uzrok već kao simptom. U tom smislu, greška može da se posmatra kao dodatna informacija o funkcionisanju sistema. Cilj ovakvog pristupa je da se na osnovu ljudskih grešaka uči o tome kako da se poboljša sistem. Sama ljudska greška ukazuje na dublje probleme u sistemu i zbog toga je treba koristiti kao polaznu tačku za dalje traženje sistemskih grešaka. HFACS je jedna od metoda koja u potpunosti podržava ovakav pristup. Razdvajanjem grešaka na aktivne i latentne i postavljnjem njihovih uzroka u odgovarajući nivo u organizaciji, HFACS omogućava sagledavanje slabih tačaka sistema. Njene najčešće primene u su u avionskoj industriji i medicini, dve oblasti u kojima posledice ljudskih grešaka mogu biti katastrofalne.

Primena HFACS metode u analizi uzroka ljudskih grešaka u upravljanju infektivnim otpadom je omogućila stvaranje okvira za dalju anallizu. U ovom trenutku se ima uvid u to koliko vrsta grešaka može da se pojavi na svakom od nivoa sistema. S obzirom na nedostatak odgovarajuće evidencije, sledeći korak bi bio

Page 14: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

14

prikupljanje infromacija, kroz intervjue i ankete nad relevantnim uzorkom, o broju grešaka svake identifikovane vrste. Time bi se identifikovale slabe tačke sistema upravljanja infektivnim medicinskim otpadom i ukazalo na ljudske greške koje je moguće sprečiti u budućnosti.

LITERATURA

[1] Akyuz, E., & Celik, M. (2014). Utilisation of cognitive map in modelling human error in marine accident analysis and prevention. Safety science, 70, 19-28.

[2] Baysari, M. T., McIntosh, A. S., & Wilson, J. R. (2008). Understanding the human factors contribution to railway accidents and incidents in Australia. Accident Analysis & Prevention, 40(5), 1750-1757.

[3] Bell, J., & Holroyd, J. (2009). Review of human reliability assessment methods. Norwich: Health & Safety Laboratory.

[4] Bezbedno upravljanje medicinskim otpadom - Nacionalni vodič za bezbedno upravljanje medicinskim otpadom (2008) Ministarstvo zdravlja Republike Srbije. www.komorabiohemsrbije.org.rs/ pdf/vodic_medicinski_otpad,.pdf, 15.10.2014.

[5] Blackman, H. S., Boring, R., Marble, J. L., Mosleh, A., & Meshkati, N. (2014). Panel Discussion New Directions in Human Reliability Analysis for Oil & Gas, Cybersecurity, Nuclear, and Aviation. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting 58(1), 601-603).

[6] Boring, R. L. (2007). Dynamic human reliability analysis: Benefits and challenges of simulating human performance. Risk, Reliability and Societal Safety, 2, 1043-1049.

[7] CAHR - Connectionism Assessment of Human Reliability (2015) http://www.cahr.de/tools/CAHR.htm, 10.2.2015.

[8] Celik, M., & Cebi, S. (2009). Analytical HFACS for investigating human errors in shipping accidents. Accident Analysis & Prevention, 41(1), 66-75.

[9] Chang, Y. J., Bley, D., Criscione, L., Kirwan, B., Mosleh, A., Madary, T., & Zoulis, A. (2014). The SACADA database for human reliability and human performance. Reliability Engineering & System Safety, 125, 117-133.

[10] Chauvin, C., Lardjane, S., Morel, G., Clostermann, J. P., & Langard, B. (2013). Human and organisational factors in maritime accidents: Analysis of collisions at sea using the HFACS. Accident Analysis & Prevention, 59, 26-37.

[11] Cooper, S. E., Ramey-Smith, A. M., Wreathall, J., & Parry, G. W. (1996). A technique for human error analysis (ATHEANA). Washington, DC: Nuclear Regulatory Commission, Div. of Systems Technology.

[12] Dambier, M., & Hinkelbein, J. (2006). Analysis of 2004 German general aviation aircraft accidents according to the HFACS model. Air medical journal, 25(6), 265-269.

[13] Daramola, A. Y. (2014). An investigation of air accidents in Nigeria using the Human Factors Analysis and Classification System (HFACS) framework. Journal of Air Transport Management, 35, 39-50.

[14] Dekker, S. (2006). The field guide to understanding human error, Bedford: Ashgate Publishing, Ltd. [15] Dekker, S., Cook, R. I., Johannesen, L., Sarter, N., & Woods, D. D. (2010). Behind Human Error. Farnham:

Ashgate Publishing, Ltd. [16] Dhillon, B. S. (2010). Human reliability, error, and human factors in engineering maintenance: with

reference to aviation and power generation. Boca Raton: CRC Press, Taylor & Francis Group. [17] Dhillon, B. S. (2012). Safety and human error in engineering systems, Boca Raton: CRC Press, Taylor &

Francis Group. [18] Dhillon, B. S. (2014). Human Reliability, Error, and Human Factors in Power Generation. London:

Springer. [19] Diller, T., Helmrich, G., Dunning, S., Cox, S., Buchanan, A., & Shappell, S. (2014). The human factors

analysis classification system (HFACS) applied to health care. American Journal of Medical Quality, 29(3), 181-190.

[20] ElBardissi, A. W., Wiegmann, D. A., Dearani, J. A., Daly, R. C., & Sundt, T. M. (2007). Application of the human factors analysis and classification system methodology to the cardiovascular surgery operating room. The Annals of Thoracic Surgery, 83(4), 1412-1419.

[21] Erik, H. (1998). Cognitive reliability and error analysis method. UK Oxford: Elsevier Science Ltd.

Page 15: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

15

[22] FNAIIC - Fukushima Nuclear Accident Independent Investigation Commission (FNAIIC). (2012). The Official Report of the FNAIIC: Executive Summary. National Diet of Japan. http://warp.da.ndl.go.jp/info:ndljp/pid/3751543/naiic.go.jp/en/report/, 25.1.2015.

[23] Hallbert, B., Gertman, D., Lois, E., Marble, J., Blackman, H., & Byers, J. (2004). The use of empirical data sources in HRA. Reliability Engineering & System Safety, 83(2), 139-143.

[24] HERA - Human Event Repository Analysis (2015) http://www.nrc.gov/reading-rm/doc-collections/nuregs/ contract/cr6903/v2/, 8.2.2015.

[25] HFIS - Human Factors Information System (2015) http://www.nrc.gov/reading-rm/doc-collections/human-factors/, 15.1.2015.

[26] ISO 6385:2004, https://www.iso.org/obp/ui/#iso:std:iso:6385:ed-2:v1:en, 23.3.2015. [27] Jambrek, I., & Penić, I. I. (2008). Upravljanje ljudskim potencijalima u poduzećima–ljudski faktor,

motivacija zaposlenika kao najvažniji čimbenici uspješnosti poslovanja poduzeća. Zbornik Pravnog fakulteta Sveučilišta u Rijeci, 29(2), 1181-1206.

[28] Johnson, N. A., & Lenz, R. (2014). To Err Is Human-Using a Systems-centered Approach to Minimize Environment of Care Errors During Construction and Renovation. American Journal of Infection Control, 42(6), S16-S17.

[29] Kim, S. K., Lee, Y. H., Jang, T. I., Oh, Y. J., & Shin, K. H. (2014). An investigation on unintended reactor trip events in terms of human error hazards of Korean nuclear power plants. Annals of Nuclear Energy, 65, 223-231.

[30] Kim, Y., Park, J., & Jung, W. (2014). A Survey of Data-based Human Reliability Analysis Approaches. In The 1st Asian Conference on Ergonomics and Design (ACED 2014).

[31] Kirwan, B. (1997). The development of a nuclear chemical plant human reliability management approach: HRMS and JHEDI. Reliability Engineering & System Safety, 56(2), 107-133.

[32] Korolija, N., & Lundberg, J. (2010). Speaking of human factors: Emergent meanings in interviews with professional accident investigators. Safety science, 48(2), 157-165.

[33] Li, W. C., Harris, D., & Yu, C. S. (2008). Routes to failure: analysis of 41 civil aviation accidents from the Republic of China using the human factors analysis and classification system. Accident Analysis & Prevention, 40(2), 426-434.

[34] Mazaheri, A., Montewka, J., Nisula, J., & Kujala, P. (2015). Usability of accident and incident reports for evidence-based risk modeling–A case study on ship grounding reports. Safety science, 76, 202-214.

[35] Meister, D. (1971) Human Factors: Theory and Practice, New York: John Wiley &Sons. [36] Mileski, J. P., Wang, G., & Beacham, L. L. (2014). Understanding the causes of recent cruise ship

mishaps and disasters. Research in Transportation Business & Management, 13, 65-70. [37] NUREG/CR-6883 (2005). The SPAR-H Human Reliability Analysis Method. Washington, DC: U.S. Nuclear

Regulatory Commission. [38] Park, K. S. (1987). Human reliability: analysis, prediction, and prevention of human errors. Amsterdam:

Elsevier. [39] Patterson, J. M., & Shappell, S. A. (2010). Operator error and system deficiencies: analysis of 508

mining incidents and accidents from Queensland, Australia using HFACS. Accident Analysis & Prevention, 42(4), 1379-1385.

[40] Peters, G. A., & Peters, B. J. (2006). Human error: Causes and control, Boca Raton: CRC Press, Taylor & Francis Group.

[41] Pravilnik o upravljanju medicinskim otpadom (2010). Sl. glasnik RS, br. 78/2010. http://www.paragraf.rs/propisi/pravilnik_o_upravljanju_medicinskim_otpadom.html, 2.9.2014.

[42] Rashid, H. S. J., Place, C. S., & Braithwaite, G. R. (2010). Helicopter maintenance error analysis: beyond the third order of the HFACS-ME. International Journal of Industrial Ergonomics, 40(6), 636-647.

[43] Rasmussen, J. (1982). Human errors. A taxonomy for describing human malfunction in industrial installations. Journal of occupational accidents, 4(2), 311-333.

[44] Rasmussen, J. (1983). Skills, rules, and knowledge; signals, signs, and symbols, and other distinctions in human performance models. Systems, Man and Cybernetics, IEEE Transactions on, 3, 257-266.

[45] Rausand, M. (2013). Risk assessment: Theory, methods, and applications, New Jersey: John Wiley & Sons.

Page 16: LJUDSKA GREŠKA: ANALIZA I SISTEM KLASIFIKACIJE

XXXIX naučno stručni skup

ODRŽAVANJE MAŠINA I OPREME

*Univerzitet u Beogradu, Fakultet organizacionih nauka, Jove Ilića 154 [email protected]

16

[46] Reason, J. (1990). Human error, Cambridge: Cambridge university press. [47] Shappell, S., Boquet, A., Cabrera, J., Cohen, T., Crowe, O., Welsh, K. (2013). Optimizing Performance In

The Cardiovascular Operating Room, White Paper, Embry-Riddle Aeronautical University, http://scahqgive.org/core-ops-optimizing-performance-cardiovascular-operating-room/, 3.11.2014.

[48] Shappell, S., Weigmann, D. (2013). Human Factors Investigation and Analysis of Accidents and Incidents: Encyclopedia of Forensic Sciences (2 ed.), 440-449.

[49] Wallace, B., & Ross, A. (2006). Beyond human error: taxonomies and safety science, Boca Raton: CRC Press, Taylor & Francis Group.

[50] Whittingham, R. B. (2004). The blame machine: Why human error causes accidents. Burlington: Elsevier Butterworth-Heinemann.

[51] Wiegmann, D. A., & Shappell, S. A. (2001). Applying the human factors analysis and classification system (HFACS) to the analysis of commercial aviation accident data. In 11th international symposium on aviation psychology. https://www.hf.faa.gov/hfacs/Default.aspx?tabid=34, 22.9.2014.

[52] Wiegmann, D. A., & Shappell, S. A. (2001). Human error analysis of commercial aviation accidents: Application of the Human Factors Analysis and Classification System (HFACS). Aviation, space, and environmental medicine, 72(11), 1006-1016.

[53] Wiegmann, D. A., & Shappell, S. A. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system. Aldershot: Ashgate Publishing, Ltd..