Људска поузданост

Људска поузданост се односи на област људског фактора и ергономију, а односи се на поузданост људи у областима као што су производња, превоз, војне или медицине. Људски учинак може утицати многим факторима као што су доб, стање ума, физичко здравље, став, емоције, склоности за одређене заједничке грешке, грешке и когнитивних предрасуде, итд

Људска поузданост је врло важно због доприноса људи на отпорност система и на могуће негативне посљедице људске грешке или пропуста, посебно када људски је кључни дио великог социо-техничких система као што је заједничка данас. Усер-центеред десигн и погрешке-толерантни дизајна су само два од многих појмова који се користе за описивање напоре како би технологију боље одговара за рад од стране људи.`

Анализе техника уреди

Постоје Постоје различите методе за анализу људских поузданости.[1][2] Два опће класе метода су оне засноване на пробабилистичке процјене ризика ( ПРА ) и оних који се базирају на когнитивне теорије контроле

Технике ПРА уреди

Једна од метода за анализу људских поузданости је једноставно проширење пробабилистичке процјене ризика (ПРА): на исти начин на који опрема може пропасти у електрани, тако да се људско оператера почини грешке. У оба случаја, анализа (функционалне декомпозиције за опрему и анализу задатака за људе) би артикулирати ниво детаља за које квара или грешке вјеројатности може бити додијељен. Ова основна идеја је иза техника за предиви]ање стопе људске грешке (ТХЕРП).[3] ТХЕРП је намијењен за генерирање вјеројатности људске грешке које ће бити укључене у ПРА. У програму за процену редоследа незгода (АСЕП) поступак људских поузданост је поједностављен облик ТХЕРП; Асоцирани рачунарски алат је поједностављен Анализа Хуман Еррор Цоде (СХЕАН).[4] Недавно је Нуклеарна регулаторна комисија САД је објавила Стандардизовану анализу ризика постројења, анализу људске поузданост (СПАР-Х), метода којим се узема у обзир потенцијал за људско грешке.[5][6]

Технике когнитивне контроле уреди

Ерик Холлнагел је развио ову линију размишљања у свом раду на контекстуално Цонтрол Модел ( ЦОЦОМ ) [ 7 ] и когнитивне Поузданост и анализа Еррор Метход ( КРЕМА ). [ 8 ] ЦОЦОМ модели људских перформанси као скуп контроле приказа - стратешке ( на основу дугорочно планирање ), тактичка ( на основу процедуре ), опортунистички ( засновано на овом контексту ), и кодиран ( рандом ) - и предлаже модел како доћи до прелаза између ових контролу приказа. Овај модел контроле транзиције режим се састоји од низа фактора, укључујући и процјену људских оператера о исходу акције ( успјех или неуспјех ), времена преостало да оствари акцију ( адекватно или неадекватно ), а број истовремених циљева људских оператера у то вријеме. Крема је поузданост метода за људска анализа која се темељи на ЦОЦОМ .

Референце уреди

  1. ^ Кирwан & Аинсwортх 1992
  2. ^ Кирwан 1994
  3. ^ Сwаин & Гуттманн, 1983
  4. ^ Симплифиед Хуман Еррор Аналyсис Цоде (Wилсон, 1993)
  5. ^ СПАР-Х
  6. ^ Гертман ет ал., 2005

Литература уреди

  • Гертман, D. L.; Блацкман, Х. С. (2001). Хуман релиабилитy анд сафетy аналyсис дата хандбоок. Wилеy. 
  • Гертман, D.; Блацкман, Х.; Марбле, Ј.; Бyерс, Ј.; Смитх, C. (2005). Тхе СПАР-Х хуман релиабилитy аналyсис метход. НУРЕГ/ЦР-6883. Идахо Натионал Лабораторy, препаред фор У. С. Нуцлеар Регулаторy Цоммиссион. [1]
  • M. Цаппелли; А.M.Гадомски; M.Сепиелли (2011). Хуман Фацторс ин Нуцлеар Поwер Плант Сафетy Манагемент: А Социо-Цогнитиве Моделинг Аппроацх усинг ТОГА Мета-Тхеорy. Процеедингс оф Интернатионал Цонгресс он Адванцес ин Нуцлеар Поwер Плантс. Нице (ФР). СФЕН (Социéтé Франçаисе д'Енергие Нуцлéаире). 
  • Холлнагел, Е. (1993). Хуман релиабилитy аналyсис: Цонтеxт анд цонтрол. Ацадемиц Пресс. 
  • Холлнагел, Е. (1998). Цогнитиве релиабилитy анд еррор аналyсис метход: ЦРЕАМ. Елсевиер. 
  • Холлнагел, Е.; Амалберти, Р. (2001). Тхе Емперор'с Неw Цлотхес, ор wхатевер хаппенед то "хуман еррор"? Инвитед кеyноте пресентатион ат 4тх Интернатионал Wорксхоп он Хуман Еррор, Сафетy анд Сyстем Девелопмент. Линкöпинг, Јуне 11–12, 2001. 
  • Холлнагел, Е.; Wоодс, D. D., ур. (2006). Ресилиенце енгинееринг: Цонцептс анд прецептс. Асхгате. 
  • Јонес, П. M. (1999). Хуман еррор анд итс амелиоратион. Ин Хандбоок оф Сyстемс Енгинееринг анд Манагемент (А. П. Саге анд W. Б. Роусе, едс.), 687-702. Wилеy. 
  • Кирwан, Б. (1994). А Гуиде то Працтицал Хуман Релиабилитy Ассессмент. Таyлор & Францис. 
  • Кирwан, Б.; Аинсwортх, L. (, ур. (1992). А гуиде то таск аналyсис. Таyлор & Францис. 
  • Норман, D. (1988). Тхе псyцхологy оф еверyдаy тхингс. Басиц Боокс. 
  • Реасон, Ј. (1990). Хуман еррор. Цамбридге Университy Пресс. 
  • Ротх, Е.; et al. (1994). Ан емпирицал инвестигатион оф оператор перформанце ин цогнитиве демандинг симулатед емергенциес. НУРЕГ/ЦР-6208, Wестингхоусе Сциенце анд Тецхнологy Центер. Репорт препаред фор Нуцлеар Регулаторy Цоммиссион. 
  • Саге, А. П. (1992). Сyстемс енгинееринг. Wилеy. 
  • Сендерс, Ј.; Мораy, Н. (1991). Хуман еррор: Цаусе, предицтион, анд редуцтион. Лаwренце Ерлбаум Ассоциатес. 
  • Схаппелл, С.; Wиегманн, D. (2000). Тхе хуман фацторс аналyсис анд цлассифицатион сyстем - ХФАЦС. ДОТ/ФАА/АМ-00/7, Оффице оф Авиатион Медицине, Федерал Авиатион Администратион, Департмент оф Транспортатион. [2]
  • Сwаин, А. D.; Гуттман, Х. Е. (1983). Хандбоок оф хуман релиабилитy аналyсис wитх емпхасис он нуцлеар поwер плант апплицатионс. НУРЕГ/ЦР-1278 (Wасхингтон D.C.). 
  • Wаллаце, Б.; Росс, А. (2006). Беyонд хуман еррор. ЦРЦ Пресс. 
  • Wиегманн, D.; Схаппелл, С. (2003). А хуман еррор аппроацх то авиатион аццидент аналyсис: Тхе хуман фацторс аналyсис анд цлассифицатион сyстем. Асхгате. 
  • Wилсон, Ј.Р. (1993). СХЕАН (Симплифиед Хуман Еррор Аналyсис цоде) анд аутоматед ТХЕРП. Унитед Статес Департмент оф Енергy Тецхницал Репорт Нумбер WИНЦО--11908.  [3]
  • Wоодс, D. D. (1990). Моделинг анд предицтинг хуман еррор. Ин Ј. Елкинд, С. Цард, Ј. Хоцхберг, анд Б. Хуеy (Едс.), Хуман перформанце моделс фор цомпутер-аидед енгинееринг (248-274). Ацадемиц Пресс. 
  • Федерал Авиатион Администратион. 2009 елецтрониц цоде оф регулатионс. Ретриевед Септембер 25, 2009, фром https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf
  • Autrey, T.D. (2015). 6-Hour Safety Culture: How to Sustainably Reduce Human Error and Risk (and do what training alone can't possibly do). Human Performance Association. Архивирано из оригинала 11. 04. 2021. г. Приступљено 10. 11. 2022. 
  • Davies, J.B.; Ross, A.; Wallace, B.; Wright, L. (2003). Safety Management: a Qualitative Systems Approach. Taylor and Francis. 
  • Dekker, S.W.A. (2005). Ten Questions About Human Error: a new view of human factors and systems safety. Lawrence Erlbaum Associates. Архивирано из оригинала 11. 12. 2012. г. Приступљено 10. 11. 2022. 
  • Dekker, S.W.A. (2006). The Field Guide to Understanding Human Error. Ashgate. Архивирано из оригинала 06. 03. 2012. г. Приступљено 10. 11. 2022. 
  • Dekker, S.W.A. (2007). Just Culture: Balancing Safety and Accountability. Ashgate. Архивирано из оригинала 06. 03. 2012. г. Приступљено 10. 11. 2022. 
  • Dismukes, R. K.; Berman, B. A.; Loukopoulos, L. D. (2007). The limits of expertise: Rethinking pilot error and the causes of airline accidents. Ashgate. 
  • Forester, J.; Kolaczkowski, A.; Lois, E.; Kelly, D. (2006). Evaluation of human reliability analysis methods against good practices. NUREG-1842 Final Report. U. S. Nuclear Regulatory Commission.  [4]
  • Goodstein, L. P.; Andersen, H. B.; Olsen, S. E. (1988). Tasks, errors, and mental models. Taylor and Francis. 
  • Grabowski, M.; Roberts, K. H. (1996). „Human and organizational error in large scale systems”. IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans. 26: 2—16. doi:10.1109/3468.477856. 
  • Greenbaum, J.; Kyng, M. (1991). Design at work: Cooperative design of computer systems. Lawrence Erlbaum Associates. 
  • Harrison, M. (2004). Human error analysis and reliability assessment. Workshop on Human Computer Interaction and Dependability, 46th IFIP Working Group 10.4 Meeting, Siena, Italy, July 3–7, 2004.  [5]
  • Hollnagel, E. (1991). The phenotype of erroneous actions: Implications for HCI design. In G. W. R. Weir and J. L. Alty (Eds.), Human-computer interaction and complex systems. Academic Press. 
  • Hutchins, E. (1995). Cognition in the wild. MIT Press. 
  • Kahneman, D.; Slovic, P.; Tversky, A. (Eds.) (1982). „Judgment under uncertainty: Heuristics and biases”. Science. Cambridge University Press. 185 (4157): 1124—31. PMID 17835457. S2CID 143452957. doi:10.1126/science.185.4157.1124. 
  • Leveson, N. (1995). Safeware: System safety and computers. Addison-Wesley. 
  • Morgan, G. (1986). Images of Organization. Sage. 
  • Mura, S. S. (1983). Licensing violations: Legitimate violations of Grice's conversational principle. In R. Craig and K. Tracy (Eds.), Conversational coherence: Form, structure, and strategy (101-115). Sage. 
  • Perrow, C. (1984). Normal accidents: Living with high-risk technologies . Basic Books. ISBN 9780465051441. 
  • Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols and other distinctions in human performance models. IEEE Transactions on Systems, Man, and Cybernetics, SMC-13, 257-267. 
  • Rasmussen, J. (1986). Information processing and human-machine interaction: An approach to cognitive engineering. Wiley. 
  • Silverman, B. (1992). Critiquing human error: A knowledge-based human-computer collaboration approach. Academic Press. 
  • Swets, J. (1996). Signal detection theory and ROC analysis in psychology and diagnostics: Collected papers. Lawrence Erlbaum Associates. 
  • Tversky, A.; Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124-1131. 
  • Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture, and deviance at NASA . University of Chicago Press. ISBN 9780226851761. 
  • Woods, D. D.; Johannesen, L.; Cook, R.; Sarter, Nadine (1994). Behind human error: Cognitive systems, computers, and hindsight. CSERIAC SOAR Report 94-01. Crew Systems Ergonomics Information Analysis Center, Wright-Patterson Air Force Base, Ohio. 
  • Wu, S.; Hrudey, S.; French, S.; Bedford, T.; Soane, E.; Pollard, S. (2009). „A role for human reliability analysis (HRA) in preventing drinking water incidents and securing safe drinking water” (PDF). Water Research. 43 (13): 3227—3238. PMID 19493557. doi:10.1016/j.watres.2009.04.040. 
  • CCPS, Guidelines for Preventing Human Error. This book explains about qualitative and quantitative methodology for predicting human error. Qualitative methodology called SPEAR: Systems for Predicting Human Error and Recovery, and quantitative methodology also includes THERP, etc.

Spoljašnje veze уреди