Человеческая надежность
В области человеческого фактора и эргономики надежность человека (также известная как работоспособность человека или HU ) — это вероятность того, что человек выполнит задачу в соответствии с достаточным стандартом. [1] На надежность людей возраст могут влиять многие факторы, такие как , физическое здоровье , психическое состояние , отношение , эмоции , личная склонность к определенным ошибкам и когнитивные предубеждения .
Надежность человека важна для устойчивости социотехнических систем и имеет значение для таких областей, как производство , медицина и ядерная энергетика . Попытки уменьшить количество человеческих ошибок и повысить надежность взаимодействия человека с технологиями включают в себя проектирование, ориентированное на пользователя, и устойчивое к ошибкам проектирование .
Факторы, влияющие на производительность человека
[ редактировать ]Человеческие ошибки , человеческая деятельность и человеческая надежность особенно важно учитывать, когда работа выполняется в сложной среде с высоким риском. [2]
Стратегии борьбы с факторами, влияющими на производительность, такими как психологический стресс , когнитивная нагрузка , усталость, включают эвристики и предвзятости, такие как предвзятость подтверждения , эвристика доступности и частотная предвзятость .
Методы анализа
[ редактировать ]Существует множество методов анализа надежности человека (HRA). [3] [4] Два общих класса методов — это методы, основанные на вероятностной оценке риска (PRA), и методы, основанные на когнитивной теории контроля .
Методы на основе PRA
[ редактировать ]Одним из методов анализа надежности человека является прямое расширение вероятностной оценки риска (PRA): точно так же, как оборудование на электростанции может выйти из строя , так и человек-оператор может совершать ошибки. В обоих случаях анализ ( функциональная декомпозиция для оборудования и анализ задач для людей) определит уровень детализации, для которого можно определить вероятность отказа или ошибки. Эта основная идея лежит в основе метода прогнозирования частоты ошибок человека (THERP). [5] THERP предназначен для определения вероятностей человеческих ошибок, которые будут включены в PRA. Процедура надежности человека в рамках Программы оценки последовательности аварий (ASEP) представляет собой упрощенную форму THERP; сопутствующим вычислительным инструментом является упрощенный код анализа человеческих ошибок (SHEAN). [6] Совсем недавно Комиссия по ядерному регулированию США опубликовала метод «Стандартизированный анализ рисков электростанций – анализ человеческой надежности» (SPAR-H), учитывающий возможность человеческой ошибки. [7] [8]
Методы когнитивного контроля
[ редактировать ]Эрик Холлнагель развил эту мысль в своей работе над моделью контекстного управления (COCOM). [9] и метод когнитивной надежности и анализа ошибок (CREAM). [10] COCOM моделирует деятельность человека как набор режимов управления — стратегический (основанный на долгосрочном планировании), тактический (основанный на процедурах), оппортунистический (основанный на текущем контексте) и смешанный (случайный) — и предлагает модель того, как переходы между возникают такие режимы управления. Данная модель перехода режима управления состоит из ряда факторов, включая оценку человеком-оператором результата действия (успех или неудача), время, оставшееся для выполнения действия (адекватное или неадекватное), а также количество одновременно решаемых задач. человек-оператор того времени. CREAM — это метод анализа надежности человека, основанный на COCOM.
Связанные методы
[ редактировать ]Связанные методы в области проектирования безопасности и обеспечения надежности включают анализ видов и последствий отказов , опасность , дерево отказов и SAPHIRE (программы системного анализа для практической комплексной оценки надежности).
Система анализа и классификации человеческого фактора (HFACS)
[ редактировать ]Система анализа и классификации человеческого фактора (HFACS) изначально была разработана как основа для понимания роли человеческой ошибки в авиационных происшествиях . [11] [12] Он основан на модели швейцарского сыра Джеймса Ризона , основанной на человеческой ошибке в сложных системах. HFACS различает «активные отказы» небезопасных действий и «скрытые отказы» предварительных условий небезопасных действий, небезопасного надзора и организационного влияния. Эти категории были разработаны эмпирически на основе многочисленных сообщений об авиационных происшествиях.
«Опасные действия» совершаются человеком-оператором «на передовой» (например, пилотом , авиадиспетчером или водителем). Небезопасные действия могут быть либо ошибками (в восприятии, принятии решений или действиях, основанных на навыках), либо нарушениями. Нарушения или умышленное игнорирование правил и процедур могут быть обычными или исключительными. Регулярные нарушения происходят регулярно и обычно терпимо со стороны организации или органа власти. Исключительные нарушения необычны и часто являются серьёзными. Например, движение со скоростью 60 миль в час в зоне ограничения скорости в 55 миль в час является обычным нарушением, а движение со скоростью 130 миль в час в той же зоне является исключением.
Существует два типа предварительных условий для небезопасных действий: те, которые относятся к внутреннему состоянию человека-оператора, и те, которые относятся к практике или способам работы человека-оператора. Неблагоприятные внутренние состояния включают состояния, связанные с физиологией (например, болезнь) и психическим состоянием (например, умственное утомление, рассеянность). Третий аспект «внутреннего состояния» на самом деле представляет собой несоответствие между способностями оператора и требованиями задачи. Четыре типа небезопасного надзора: неадекватный надзор; запланированные ненадлежащие операции; неспособность исправить известную проблему; и надзорные нарушения.
Организационные влияния включают влияния, связанные с управлением ресурсами (например, неадекватность человеческих или финансовых ресурсов), организационным климатом (структуры, политика и культура ) и организационными процессами (такими как процедуры , графики , надзор).
См. также
[ редактировать ]- Суждение с абсолютной вероятностью - метод, используемый в области оценки надежности человека.
- АТЕАНА – Методика, используемая в области оценки надежности человека (Методика анализа человеческих событий)
- Техника оценки и уменьшения человеческих ошибок ( HEART ) — метод оценки человеческой надежности и выявления ошибок. , метод, используемый в области человеческой надежности.
- Подход к диаграммам влияния
- Скрытая человеческая ошибка - термин, используемый в сфере безопасности труда и предотвращения несчастных случаев.
- Ошибка команды – Тип ошибки
- TESEO - метод в области оценки надежности человека. (Tecnica Empirica Stima Errori Operatingi)
- Яма для инцидентов , концептуальная модель дайвинга для объяснения развития инцидентов и восстановления.
- Метод индекса вероятности успеха
Сноски
[ редактировать ]- ^ Каликсто, Эдуардо (01 января 2016 г.), Каликсто, Эдуардо (редактор), «Глава 5 - Анализ надежности человека» , Инженерия надежности газа и нефти (второе издание) , Бостон: Gulf Professional Publishing, стр. 471–552, ISBN 978-0-12-805427-7 , получено 18 декабря 2023 г.
- ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file DOE-HDBK-1028-2009.
- ^ Кирван и Эйнсворт, 1992 г.
- ^ Кирван, 1994 г.
- ^ Суэйн и Гуттманн, 1983
- ^ Упрощенный код анализа человеческих ошибок (Уилсон, 1993)
- ^ СПАР-Х
- ^ Гертман и др., 2005.
- ^ (Холлнагель, 1993)
- ^ (Холлнагель, 1998)
- ^ Шаппель и Вигманн, 2000 г.
- ^ Вигманн и Шаппель, 2003 г.
Ссылки
[ редактировать ]- Гертман, Д.Л.; Блэкман, HS (2001). Справочник по данным анализа надежности и безопасности человека . Уайли.
- Гертман Д., Блэкман Х., Марбл Дж., Байерс Дж. и Смит К. (2005). Метод анализа надежности человека SPAR-H. НУРЕГ/CR-6883. Национальная лаборатория Айдахо, подготовленная для Комиссии по ядерному регулированию США .
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) [1] - М. Каппелли, А.М. Гадомский, М. Сепьелли (2011). Человеческий фактор в управлении безопасностью атомных электростанций: подход социально-когнитивного моделирования с использованием метатеории TOGA. Материалы Международного конгресса по достижениям в области атомных электростанций. Ницца (Франция) . SFEN ( Французское общество ядерной энергетики ).
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Холлнагель, Э. (1993). Анализ человеческой надежности: контекст и контроль . Академическая пресса.
- Холлнагель, Э. (1998). Когнитивная надежность и метод анализа ошибок: CREAM . Эльзевир.
- Холлнагель, Э.; Амальберти, Р. (2001). Новое платье императора или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м Международном семинаре по человеческим ошибкам, безопасности и развитию систем . Линчёпинг, 11–12 июня 2001 г.
- Холлнагель Э., Вудс Д.Д. и Левесон Н. (ред.) (2006). Проектирование устойчивости: концепции и принципы . Эшгейт.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Джонс, премьер-министр (1999). Человеческая ошибка и ее исправление. В Справочнике системной инженерии и управления (AP Sage и WB Rouse, ред.), 687-702 . Уайли.
- Кирван, Б. (1994). Руководство по практической оценке надежности человека . Тейлор и Фрэнсис.
- Кирван Б. и Эйнсворт Л. (ред.) (1992). Руководство по анализу задач . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Норман, Д. (1988). Психология повседневных вещей . Основные книги.
- Причина, Дж. (1990). Человеческая ошибка . Издательство Кембриджского университета.
- Рот, Э.; и др. (1994). Эмпирическое исследование производительности операторов в моделируемых чрезвычайных ситуациях, требующих когнитивных функций. NUREG/CR-6208, Научно-технологический центр Вестингауз . Отчет подготовлен для Комиссии по ядерному регулированию.
- Сейдж, AP (1992). Системная инженерия . Уайли.
- Сендерс, Дж.; Морей, Н. (1991). Человеческая ошибка: причина, прогноз и уменьшение . Лоуренс Эрлбаум Ассошиэйтс.
- Шаппелл, С.; Вигманн, Д. (2000). Система анализа и классификации человеческого фактора – HFACS. DOT/FAA/AM-00/7, Управление авиационной медицины, Федеральное управление гражданской авиации, Министерство транспорта . [2]
- Суэйн, А.Д., и Гуттман, Х.Э. (1983). Справочник по анализу человеческой надежности с упором на применение на атомных электростанциях . НУРЭГ/CR-1278 (Вашингтон, округ Колумбия).
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Уоллес, Б.; Росс, А. (2006). За пределами человеческой ошибки . ЦРК Пресс.
- Вигманн, Д.; Шаппелл, С. (2003). Подход к анализу авиационных происшествий с учетом человеческих ошибок: система анализа и классификации человеческого фактора . Эшгейт.
- Уилсон, младший (1993). SHEAN (упрощенный код анализа человеческих ошибок) и автоматизированный THERP . Номер технического отчета Министерства энергетики США WINCO--11908. [3]
- Вудс, Д.Д. (1990). Моделирование и прогнозирование человеческих ошибок. В Дж. Элкинде, С. Карде, Дж. Хохберге и Б. Хьюи (ред.), Модели деятельности человека для автоматизированного проектирования (248-274) . Академическая пресса.
- Федеральное управление гражданской авиации. Электронный свод правил 2009 года. Получено 25 сентября 2009 г. с https://web.archive.org/web/20120206214308/http://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf .
Дальнейшее чтение
[ редактировать ]- Отри, ТД (2015). 6-часовая культура безопасности: как устойчиво снизить человеческие ошибки и риски (и сделать то, чего само по себе обучение невозможно сделать) . Ассоциация человеческой деятельности. Архивировано из оригинала 11 апреля 2021 г. Проверено 21 августа 2020 г.
- Дэвис Дж. Б., Росс А., Уоллес Б. и Райт Л. (2003). Управление безопасностью: качественный системный подход . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Деккер, SWA (2005). Десять вопросов о человеческих ошибках: новый взгляд на человеческий фактор и безопасность систем . Лоуренс Эрлбаум Ассошиэйтс. Архивировано из оригинала 11 декабря 2012 г. Проверено 24 мая 2010 г.
- Деккер, SWA (2006). Полевое руководство по пониманию человеческих ошибок . Эшгейт. Архивировано из оригинала 06 марта 2012 г. Проверено 24 мая 2010 г.
- Деккер, SWA (2007). Культура справедливости: баланс безопасности и ответственности . Эшгейт. Архивировано из оригинала 06 марта 2012 г. Проверено 24 мая 2010 г.
- Дисмукес Р.К., Берман Б.А. и Лукопулос Л.Д. (2007). Пределы экспертизы: Переосмысление ошибок пилотов и причин авиакатастроф . Эшгейт.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Форестер Дж., Колачковски А., Лоис Э. и Келли Д. (2006). Оценка методов анализа человеческой надежности в сравнении с передовой практикой. Итоговый отчет НУРЭГ-1842 . Комиссия по ядерному регулированию США.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) [4] - Гудстейн, Л.П., Андерсен, Х.Б. и Олсен, С.Е. (ред.) (1988). Задачи, ошибки и ментальные модели . Тейлор и Фрэнсис.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Грабовский, М.; Робертс, К.Х. (1996). «Человеческие и организационные ошибки в крупномасштабных системах». Транзакции IEEE о системах, человеке и кибернетике. Часть A: Системы и люди . 26 : 2–16. дои : 10.1109/3468.477856 .
- Гринбаум Дж. и Кинг М. (ред.) (1991). Проектирование в действии: Совместное проектирование компьютерных систем . Лоуренс Эрлбаум Ассошиэйтс.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Харрисон, М. (2004). Анализ человеческих ошибок и оценка надежности . Семинар по взаимодействию человека с компьютером и надежности, 46-е заседание Рабочей группы 10.4 ИФИП, Сиена, Италия, 3–7 июля 2004 г. [5]
- Холлнагель, Э. (1991). Фенотип ошибочных действий: последствия для проектирования HCI. В GWR Weir и JL Alty (ред.), Взаимодействие человека и компьютера и сложные системы . Академическая пресса.
- Хатчинс, Э. (1995). Познание в дикой природе . МТИ Пресс.
- Канеман Д., Слович П. и Тверски А. (ред.) (1982). «Суждение в условиях неопределенности: эвристика и предвзятость». Наука . 185 (4157). Издательство Кембриджского университета: 1124–31. дои : 10.1126/science.185.4157.1124 . ПМИД 17835457 . S2CID 143452957 .
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Левесон, Н. (1995). Safeware: Безопасность системы и компьютеров . Аддисон-Уэсли.
- Морган, Г. (1986). Изображения организации . Мудрец.
- Мура, СС (1983). Нарушения лицензирования: законные нарушения разговорного принципа Грайса. В Р. Крейге и К. Трейси (ред.), Разговорная связность: форма, структура и стратегия (101-115) . Мудрец.
- Перроу, К. (1984). Обычные несчастные случаи: жизнь с технологиями высокого риска . Основные книги. ISBN 9780465051441 .
- Расмуссен, Дж. (1983). Навыки, правила и знания: сигналы, знаки, символы и другие различия в моделях деятельности человека. Транзакции IEEE по системам, человеку и кибернетике , SMC-13, 257-267 .
- Расмуссен, Дж. (1986). Обработка информации и взаимодействие человека и машины: подход к когнитивной инженерии . Уайли.
- Сильверман, Б. (1992). Критика человеческой ошибки: основанный на знаниях подход к сотрудничеству человека и компьютера . Академическая пресса.
- Светс, Дж. (1996). Теория обнаружения сигналов и ROC-анализ в психологии и диагностике: Сборник статей . Лоуренс Эрлбаум Ассошиэйтс.
- Тверский, А.; Канеман, Д. (1974). Суждение в условиях неопределенности: эвристика и предвзятость. Наука , 185, 1124–1131 .
- Воган, Д. (1996). Решение о запуске «Челленджера»: рискованные технологии, культура и отклонения в НАСА . Издательство Чикагского университета. ISBN 9780226851761 .
- Вудс Д.Д., Йоханнесен Л., Кук Р. и Сартер Н. (1994). За человеческой ошибкой: когнитивные системы, компьютеры и ретроспективный взгляд. Отчет CSERIAC SOAR 94-01 . Центр информационного анализа эргономики экипажных систем, база ВВС Райт-Паттерсон, Огайо.
{{cite book}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - Ву С., Хруди С., Френч С., Бедфорд Т., Соун Э. и Поллард С. (2009). «Роль анализа надежности человека (HRA) в предотвращении инцидентов с питьевой водой и обеспечении безопасной питьевой воды» (PDF) . Исследования воды . 43 (13): 3227–3238. Бибкод : 2009WatRe..43.3227W . дои : 10.1016/j.watres.2009.04.040 . ПМИД 19493557 .
{{cite journal}}
: CS1 maint: несколько имен: список авторов ( ссылка ) - CCPS, Рекомендации по предотвращению человеческих ошибок. В этой книге рассказывается о качественной и количественной методологии прогнозирования человеческих ошибок. Качественная методология под названием SPEAR: Системы прогнозирования человеческих ошибок и восстановления, а количественная методология также включает THERP и т. д.
Внешние ссылки
[ редактировать ]Стандарты и руководящие документы
[ редактировать ]- Стандарт IEEE 1082 (1997): Руководство IEEE по внедрению анализа надежности действий человека для атомных электростанций.
- Стандарт Министерства энергетики DOE-HDBK-1028-2009: Справочник по повышению эффективности деятельности человека
Инструменты
[ редактировать ]- Калькулятор EPRI HRA
- Инструменты Eurocontrol для устранения человеческих ошибок
- Программное обеспечение RiskSpectrum HRA
- Упрощенный код анализа человеческих ошибок
Исследовательские лаборатории
[ редактировать ]- Эрик Холлнагель из Центра исследований кризисов и рисков MINES ParisTech
- Анализ надежности человека. Архивировано 15 октября 2011 г. в Wayback Machine в Национальных лабораториях Сандии в США.
- Центр исследований надежности человека в США Национальной лаборатории Ок-Ридж
- полетного познания Лаборатория Исследовательского центра Эймса НАСА
- Дэвид Вудс в Лаборатории когнитивной системной инженерии Университета штата Огайо
- Лаборатория сложности и системного мышления Леонардо да Винчи Сидни Деккера, Лундский университет, Швеция
Освещение в СМИ
[ редактировать ]- «Как избежать человеческих ошибок в ИТ». Архивировано 4 марта 2016 г. в Wayback Machine.
- «Человеческая надежность. Мы ломаемся, как машины» Промышленный инженер – ноябрь 2004, 36(11): 66