Надежность человека - Human reliability

Человеческая надежность (также известная как работоспособности человека или HU ) относятся к области человеческого фактора и эргономики , и относится к надежности от людей в областях , включая производство , медицину и ядерную энергетику . На производительность человека могут влиять многие факторы, такие как возраст , душевное состояние, физическое здоровье , отношение , эмоции , склонность к определенным типичным ошибкам, ошибкам и когнитивным искажениям и т. Д.

Человеческая надежность очень важна из-за вклада людей в устойчивость систем и возможных неблагоприятных последствий человеческих ошибок или упущений, особенно когда человек является важной частью больших социотехнических систем, как это принято сегодня. Ориентированный на пользователя дизайн и устойчива к ошибкам дизайн только два из многих терминов , используемых для описания усилий , чтобы сделать технологию лучше подходит для эксплуатации человеком.

Распространенные ловушки человеческой природы

Люди склонны переоценивать свою способность сохранять контроль над работой. Общие характеристики человеческой натуры, о которых говорится ниже, особенно подчеркиваются, когда работа выполняется в сложной рабочей среде.

Стресс Проблема со стрессом заключается в том, что он может накапливаться и подавлять человека, что отрицательно сказывается на его производительности.

Избегание психического перенапряжения Люди не хотят заниматься длительным сосредоточенным мышлением, так как это требует высокого уровня внимания в течение продолжительных периодов времени.

Психологические предубеждения или ярлыки, часто используемые для уменьшения умственных усилий и ускорения принятия решений, включают:

  • Предположения - условие, принимаемое как должное или принимаемое как истинное без проверки фактов.
  • Привычка - бессознательная модель поведения, приобретенная в результате частого повторения.
  • Предвзятость подтверждения - нежелание отказаться от текущего решения.
  • Предвзятость подобия - тенденция вспоминать решения из ситуаций, которые кажутся похожими.
  • Смещение частоты - риск, что часто используемое решение сработает.
  • Предвзятость в отношении доступности - тенденция останавливаться на решениях или способах действий, которые сразу приходят в голову.

Ограниченная рабочая память . Кратковременная память ума - это «верстак» для решения проблем и принятия решений.

Ограниченные ресурсы для внимания . Ограниченная способность сосредоточиться на двух или более видах деятельности затрудняет обработку информации, необходимой для решения проблем.

Мышление Люди склонны больше сосредотачиваться на том, чего они хотят достичь (цели), и меньше на том, чего следует избегать, потому что люди по своей природе в первую очередь ориентированы на достижение цели. Таким образом, люди склонны «видеть» только то, что разум ожидает или хочет видеть.

Трудности видеть собственную ошибку - люди, особенно работая в одиночку, особенно подвержены пропускам ошибок.

Ограниченная перспектива - люди не могут видеть все, что можно увидеть. Неспособность человеческого разума воспринимать все факты, относящиеся к решению проблем, затрудняет решение проблем.

Восприимчивость к эмоциональным / социальным факторам - гнев и смущение отрицательно влияют на командную и индивидуальную производительность.

Усталость - Люди устают. Физическая, эмоциональная и умственная усталость может привести к ошибкам и неверным суждениям.

Презентеизм - Некоторые сотрудники будут присутствовать в необходимости принадлежать к рабочему месту , несмотря на уменьшенную способность выполнять свою работу из - за болезнь или травму.

Методы анализа

Существует множество методов анализа надежности человека (HRA). Два общих класса методов - методы, основанные на вероятностной оценке риска (PRA), и методы, основанные на когнитивной теории контроля .

Методы на основе PRA

Один из методов анализа надежности человека - это прямое расширение вероятностной оценки риска (PRA): точно так же, как оборудование может выйти из строя на электростанции, человек-оператор может совершить ошибки. В обоих случаях анализ ( функциональная декомпозиция оборудования и анализ задач для людей) должен сформулировать уровень детализации, для которого могут быть назначены вероятности отказа или ошибки. Эта основная идея лежит в основе метода прогнозирования частоты ошибок человека (THERP). THERP предназначен для определения вероятностей человеческой ошибки, которые будут включены в АФР. Процедура обеспечения надежности человека в рамках Программы оценки последовательности аварий (ASEP) является упрощенной формой THERP; связанный с ним вычислительный инструмент - это упрощенный код анализа ошибок человека (SHEAN). Совсем недавно Комиссия по ядерному регулированию США опубликовала метод стандартизированного анализа рисков предприятия - анализ надежности человека (SPAR-H), чтобы учесть возможность человеческой ошибки.

Техники, основанные на когнитивном контроле

Эрик Холлнагель развил эту мысль в своей работе над моделью контекстного управления (COCOM) и методом анализа когнитивной надежности и ошибок (CREAM). COCOM моделирует деятельность человека как набор режимов управления - стратегический (на основе долгосрочного планирования), тактический (на основе процедур), оппортунистический (на основе текущего контекста) и скремблированный (случайный) - и предлагает модель того, как происходит переход между эти режимы управления встречаются. Эта модель перехода режима управления состоит из ряда факторов, в том числе оценки человеком-оператором результата действия (успех или неудача), времени, оставшегося для выполнения действия (адекватного или неадекватного), и количества одновременных целей. человек-оператор в то время. CREAM - это метод анализа надежности человека, основанный на COCOM.

Связанные методы

Связанные методы проектирования безопасности и надежности включают в себя анализ видов отказов и их последствий , опасность , дерево отказов и SAPHIRE (программы системного анализа для практических комплексных оценок надежности).

Система анализа и классификации человеческого фактора (HFACS)

Система анализа и классификации человеческого фактора (HFACS) изначально была разработана как основа для понимания роли «человеческой ошибки» в авиационных происшествиях. Он основан на швейцарской модели Джеймса Ризона человеческой ошибки в сложных системах. HFACS различает «активные отказы» от небезопасных действий и «скрытые отказы» от предпосылок для небезопасных действий, небезопасного надзора и организационных влияний. Эти категории были разработаны эмпирически на основе многих отчетов об авиационных происшествиях.

«Небезопасные действия» совершаются человеком-оператором «на передовой» (например, пилотом, авиадиспетчером, водителем). Небезопасные действия могут быть либо ошибками (в восприятии, принятии решений или производительности на основе навыков), либо нарушениями (обычными или исключительными). Ошибки здесь аналогичны рассмотренным выше. Нарушения - это умышленное пренебрежение правилами и процедурами. Как следует из названия, обычные нарушения - это те, которые происходят обычно и обычно допускаются организацией или властью. Исключительные нарушения необычны и часто крайне серьезны. Например, движение со скоростью 60 миль в час в зоне ограничения скорости 55 миль в час является обычным нарушением, но движение со скоростью 130 миль в час в той же зоне является исключением.

Есть два типа предпосылок для небезопасных действий: те, которые связаны с внутренним состоянием человека-оператора, и те, которые относятся к практике или способам работы человека-оператора. Неблагоприятные внутренние состояния включают состояния, связанные с физиологией (например, болезнь) и психическим состоянием (например, умственное утомление, рассеянность). Третий аспект «внутреннего состояния» - это действительно несоответствие между способностями оператора и требованиями задачи; например, оператор может быть не в состоянии делать визуальные суждения или реагировать достаточно быстро, чтобы справиться с поставленной задачей. Плохая работа оператора - еще одна предпосылка для небезопасных действий. К ним относятся плохое управление ресурсами экипажа (такие как руководство и коммуникация) и плохая практика личной готовности (например, нарушение требований к отдыху экипажа в авиации).

Четыре типа небезопасного надзора: неадекватный надзор; запланированные несоответствующие операции; неспособность исправить известную проблему; и надзорные нарушения.

Организационные влияния включают те, которые связаны с управлением ресурсами (например, неадекватные человеческие или финансовые ресурсы), организационным климатом (структурами, политиками и культурой) и организационными процессами (такими как процедуры, графики, надзор).

Смотрите также

Сноски

Рекомендации

  • Гертман, ДЛ; Блэкман, HS (2001). Справочник данных по анализу надежности и безопасности человека . Вайли.
  • Гертман Д., Блэкман Х., Марбл Дж., Байерс Дж. И Смит К. (2005). Метод анализа надежности человека в SPAR-H. NUREG / CR-6883. Национальная лаборатория Айдахо, подготовленная для Комиссии по ядерному регулированию США .CS1 maint: несколько имен: список авторов ( ссылка )[1]
  • М. Каппелли, А.М. Гадомский, М. Сепиелли (2011). Человеческий фактор в управлении безопасностью атомных электростанций: подход к социально-когнитивному моделированию с использованием мета-теории TOGA. Труды Международного конгресса по достижениям в атомных электростанциях. Ницца (FR) . SFEN ( Société Française d'Energie Nucléaire ).CS1 maint: несколько имен: список авторов ( ссылка )
  • Холлнагель, Э. (1993). Анализ надежности человека: контекст и контроль . Академическая пресса.
  • Холлнагель, Э. (1998). Когнитивная надежность и метод анализа ошибок: CREAM . Эльзевир.
  • Hollnagel, E .; Амальберти, Р. (2001). Новая одежда императора, или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м международном семинаре по человеческим ошибкам, безопасности и развитию систем . Линчёпинг, 11–12 июня 2001 г.
  • Холлнагель, Э., Вудс, Д.Д., и Левесон, Н. (ред.) (2006). Инженерия устойчивости: концепции и предписания . Ashgate.CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: дополнительный текст: список авторов ( ссылка )
  • Джонс, PM (1999). Человеческая ошибка и ее исправление. В Справочнике по системной инженерии и менеджменту (AP Sage и WB Rouse, ред.), 687-702 . Вайли.
  • Кирван, Б. (1994). Руководство по практической оценке надежности человека . Тейлор и Фрэнсис.
  • Кирван, Б. и Эйнсворт, Л. (ред.) (1992). Руководство по анализу задач . Тейлор и Фрэнсис.CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: дополнительный текст: список авторов ( ссылка )
  • Норман Д. (1988). Психология повседневных вещей . Основные книги.
  • Причина, Дж. (1990). Человеческая ошибка . Издательство Кембриджского университета.
  • Roth, E .; и другие. (1994). Эмпирическое исследование работы оператора в смоделированных когнитивных ситуациях. NUREG / CR-6208, Научно-технический центр Westinghouse . Отчет подготовлен для Комиссии по ядерному регулированию.
  • Мудрец, AP (1992). Системная инженерия . Вайли.
  • Отправители, J .; Морей, Н. (1991). Человеческая ошибка: причина, прогноз и уменьшение . Лоуренс Эрлбаум Ассошиэйтс.
  • Shappell, S .; Вигманн, Д. (2000). Система анализа и классификации человеческого фактора - HFACS. DOT / FAA / AM-00/7, Управление авиационной медицины, Федеральное управление гражданской авиации, Министерство транспорта .[2]
  • Суэйн, AD, и Guttman, HE (1983). Справочник по анализу надежности человека с акцентом на приложениях для атомных электростанций . NUREG / CR-1278 (Вашингтон, округ Колумбия).CS1 maint: несколько имен: список авторов ( ссылка )
  • Уоллес, В .; Росс, А. (2006). Помимо человеческой ошибки . CRC Press.
  • Wiegmann, D .; Шаппелл, С. (2003). Подход, основанный на человеческой ошибке, к анализу авиационных происшествий: система анализа и классификации человеческого фактора . Ashgate.
  • Уилсон, младший (1993). SHEAN (упрощенный код анализа человеческих ошибок) и автоматизированный THERP . Номер технического отчета Министерства энергетики США WINCO - 11908. [3]
  • Вудс, Д. Д. (1990). Моделирование и прогнозирование человеческих ошибок. В книге Дж. Элкинд, С. Кард, Дж. Хохберг и Б. Хьюи (ред.), « Человеческие модели деятельности для компьютерной инженерии» (248–274) . Академическая пресса.
  • Федеральная авиационная администрация. Электронный свод правил 2009 года. Получено 25 сентября 2009 г. с https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a/

дальнейшее чтение

  • Отри, Т. Д. (2015). 6-часовая культура безопасности: как постоянно снижать человеческие ошибки и риски (и делать то, что невозможно сделать в одиночку) . Ассоциация человеческих достижений.
  • Дэвис, Дж. Б., Росс, А., Уоллес, Б. и Райт, Л. (2003). Управление безопасностью: качественный системный подход . Тейлор и Фрэнсис.CS1 maint: несколько имен: список авторов ( ссылка )
  • Деккер, SWA (2005). Десять вопросов о человеческой ошибке: новый взгляд на человеческий фактор и безопасность систем . Лоуренс Эрлбаум Ассошиэйтс.
  • Деккер, SWA (2006). Полевое руководство по пониманию человеческой ошибки . Ashgate.
  • Деккер, SWA (2007). Справедливая культура: баланс между безопасностью и подотчетностью . Ashgate.
  • Дисмукес, Р.К., Берман, Б.А., и Лукопулос, Л.Д. (2007). Пределы знаний: переосмысление ошибки пилота и причин авиационных происшествий . Ashgate.CS1 maint: несколько имен: список авторов ( ссылка )
  • Forester, J., Kolaczkowski, A., Lois, E., and Kelly, D. (2006). Оценка методов анализа надежности человека в сравнении с передовой практикой. Заключительный отчет NUREG-1842 . Комиссия по ядерному регулированию США.CS1 maint: несколько имен: список авторов ( ссылка ) [4]
  • Гудштейн, Л.П., Андерсен, Н.Б., и Олсен, С.Е. (редакторы) (1988). Задачи, ошибки и ментальные модели . Тейлор и Фрэнсис.CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: дополнительный текст: список авторов ( ссылка )
  • Грабовский, М .; Робертс, К. Х. (1996). «Человеческая и организационная ошибка в крупномасштабных системах». Транзакции IEEE по системам, человеку и кибернетике - Часть A: Системы и люди . 26 : 2–16. DOI : 10.1109 / 3468.477856 .
  • Гринбаум, Дж. И Кинг, М. (ред.) (1991). Дизайн в действии: Совместное проектирование компьютерных систем . Лоуренс Эрлбаум Ассошиэйтс.CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: дополнительный текст: список авторов ( ссылка )
  • Харрисон, М. (2004). Анализ человеческих ошибок и оценка надежности . Семинар по взаимодействию человека с компьютером и надежности, 46-е заседание Рабочей группы 10.4 IFIP, Сиена, Италия, 3–7 июля 2004 г. [5]
  • Холльнагель, Э. (1991). Фенотип ошибочных действий: последствия для дизайна HCI. В GWR Weir и JL Alty (Eds.), Человеко-компьютерное взаимодействие и сложные системы. Академическая пресса.
  • Хатчинс, Э. (1995). Познание в дикой природе . MIT Press.
  • Канеман Д., Слович П. и Тверски А. (ред.) (1982). «Суждение в условиях неопределенности: эвристика и предубеждения». Наука . Издательство Кембриджского университета. 185 (4157): 1124–31. DOI : 10.1126 / science.185.4157.1124 . PMID  17835457 .CS1 maint: несколько имен: список авторов ( ссылка ) CS1 maint: дополнительный текст: список авторов ( ссылка )
  • Левесон, Н. (1995). Безопасность: Системная безопасность и компьютеры . Эддисон-Уэсли.
  • Морган, Г. (1986). Образы организации . Мудрец.
  • Мура, СС (1983). Нарушения лицензирования: законные нарушения разговорного принципа Грайса. В Р. Крейг и К. Трейси (ред.), Связность в разговоре: форма, структура и стратегия (101-115) . Мудрец.
  • Перроу, К. (1984). Обычные несчастные случаи: жизнь с технологиями высокого риска . Основные книги.
  • Расмуссен, Дж. (1983). Навыки, правила и знания: сигналы, знаки, символы и другие различия в моделях действий человека. IEEE Transactions on Systems, Man, and Cybernetics , SMC-13, 257-267 .
  • Расмуссен, Дж. (1986). Обработка информации и взаимодействие человека с машиной: подход к когнитивной инженерии . Вайли.
  • Сильверман, Б. (1992). Критика человеческой ошибки: подход к сотрудничеству человека и компьютера, основанный на знаниях . Академическая пресса.
  • Светс, Дж. (1996). Теория обнаружения сигналов и ROC-анализ в психологии и диагностике: Сборник статей . Лоуренс Эрлбаум Ассошиэйтс.
  • Тверски, А .; Канеман, Д. (1974). Суждение в условиях неопределенности: эвристика и предубеждения. Science , 185, 1124–1131 .
  • Воан, Д. (1996). Решение о запуске Challenger: рискованные технологии, культура и отклонения в НАСА . Издательство Чикагского университета.
  • Вудс Д.Д., Йоханнесен Л., Кук Р. и Сартер Н. (1994). За человеческой ошибкой: когнитивные системы, компьютеры и ретроспективный взгляд. Отчет CSERIAC SOAR 94-01 . Центр анализа информации по эргономике систем экипажа, база ВВС Райт-Паттерсон, Огайо.CS1 maint: несколько имен: список авторов ( ссылка )
  • Ву, С., Хруди, С., Френч, С., Бедфорд, Т., Соан, Э. и Поллард, С. (2009). «Роль анализа надежности человека (HRA) в предотвращении инцидентов с питьевой водой и обеспечении безопасной питьевой воды» (PDF) . Водные исследования . 43 (13): 3227–3238. DOI : 10.1016 / j.watres.2009.04.040 . PMID  19493557 .CS1 maint: несколько имен: список авторов ( ссылка )
  • CCPS, Руководство по предотвращению человеческих ошибок. В этой книге рассказывается о качественной и количественной методологии прогнозирования человеческих ошибок. Качественная методология называется SPEAR: системы прогнозирования человеческих ошибок и восстановления, а количественная методология также включает THERP и т. Д.

Внешние ссылки

Стандарты и руководящие документы

Инструменты

Исследовательские лаборатории

Освещение в СМИ

Сети