Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Человеческая ошибка относится к тому, что было сделано, что «не было намерено действующим лицом; нежелательно для набора правил или внешнего наблюдателя; или что привело задачу или систему за пределы допустимых пределов». [1] Человеческая ошибка была названа основной причиной бедствий и аварий в таких различных отраслях, как ядерная энергетика (например, авария на Три-Майл-Айленде ), авиация (см. Ошибка пилота ), исследование космоса (например, космический челнок Претендент бедствия и Спейс Шаттл Колумбия бедствие ) и медицина (см медицинской ошибки ). Предотвращение человеческих ошибок обычно рассматривается как один из основных факторов надежности и безопасности.(сложных) систем. Человеческая ошибка - одна из многих причин возникновения рискованных событий.

Определение [ править ]

Человеческая ошибка относится к тому, что было сделано, что «не было намерено действующим лицом; нежелательно для набора правил или внешнего наблюдателя; или что привело задачу или систему за пределы допустимых пределов». [1] Короче говоря, это отклонение от намерения, ожидания или желательности. [1] Логично, что человеческие действия могут не достичь своей цели двумя разными способами: действия могут идти по плану, но план может быть неадекватным (приводящим к ошибкам); или план может быть удовлетворительным, но производительность может быть недостаточной (что приводит к ошибкам и ошибкам ). [2] [3] Однако простая неудача не является ошибкой, если не было плана выполнить что-то конкретное. [1]

Производительность [ править ]

Человеческая ошибка и производительность - две стороны одной медали: механизмы «человеческой ошибки» такие же, как механизмы «человеческой деятельности»; производительность, позже классифицированная как «ошибка», делается в ретроспективе: [3] [4] поэтому действия, позже названные «человеческой ошибкой», на самом деле являются частью обычного спектра человеческого поведения. Изучение рассеянности в повседневной жизни обеспечивает обширную документацию и категоризацию таких аспектов поведения. Хотя человеческая ошибка прочно укоренилась в классических подходах к расследованию аварий и оценке рисков, она не играет никакой роли в более новых подходах, таких как инженерия устойчивости. [5]

Категории [ править ]

Есть много способов классифицировать человеческую ошибку: [6] [7]

  • экзогенная ошибка в сравнении с эндогенной (т. е. возникающая извне, а не внутри человека) [8]
  • оценка ситуации по сравнению с планированием реагирования [9] и соответствующие различия в
    • ошибка в обнаружении проблемы (см. также теорию обнаружения сигнала )
    • ошибка в диагностике проблемы (см. также решение проблемы )
    • ошибка в планировании и выполнении действий [10] (например: промахи или ошибки выполнения по сравнению с ошибками или ошибками намерения [11] [3] )
  • по уровню анализа; например, восприятие (например, оптические иллюзии ) против когнитивного против коммуникации против организационного
  • ошибка физической манипуляции [12]
    • "промахи", возникающие, когда физическим действием не удается достичь ближайшей цели
    • "промахи" связаны с нарушением памяти или припоминания
  • активная ошибка - наблюдаемое физическое действие, которое изменяет состояние оборудования, системы или объекта и приводит к немедленным нежелательным последствиям.
  • скрытая человеческая ошибка, приводящая к скрытым недостаткам, связанным с организацией, или недостаткам оборудования, которые не используются; такие ошибки могут оставаться незамеченными в момент их возникновения и не иметь немедленного видимого результата.
  • ошибка зависимости оборудования - отсутствие бдительности из-за предположения, что средства управления оборудованием или устройства физической безопасности будут работать всегда
  • командная ошибка - отсутствие бдительности, вызванное социальным (межличностным) взаимодействием между двумя или более людьми, работающими вместе
  • ошибка личных зависимостей - небезопасное отношение и ловушки человеческой натуры, ведущие к самоуспокоенности и самоуверенности

Источники [ править ]

Познавательное исследование человеческой ошибки очень активных исследований, в том числе работы , связанные с пределами памяти и внимания , а также принятия решений стратегии , такие как наличие эвристического и других когнитивных предубеждений . Такие эвристики и предвзятости являются полезными и часто правильными стратегиями, но могут приводить к систематическим ошибкам.

Непонимание как тема человеческого общения изучается при анализе разговора , например, при изучении нарушений принципа сотрудничества и максим Грайса .

Организационные исследования ошибок или дисфункций включали исследования культуры безопасности . Одним из методов анализа сбоев сложных систем, который включает в себя организационный анализ, является анализ дерева рисков надзора со стороны руководства (MORT). [13] [14] [15]

Споры [ править ]

Некоторые исследователи утверждают , что дихотомия человеческих действий , как «правильно» или «неправильно» является вредным упрощением из сложного явления . [16] [17] Сосредоточение внимания на вариативности действий человека и на том, как люди-операторы (и организации) могут управлять этой изменчивостью, может быть более плодотворным подходом. Новые подходы, такие как упомянутая выше инженерия устойчивости, подчеркивают положительную роль, которую люди могут играть в сложных системах. В инженерии устойчивости успехи (вещи, которые идут правильно) и неудачи (вещи, которые идут не так) рассматриваются как имеющие одну и ту же основу, а именно изменчивость действий человека. Конкретным объяснением этого является принцип компромисса между эффективностью и тщательностью (принцип ETTO) [18]. которые можно найти на всех уровнях человеческой деятельности, как на индивидуальной, так и на коллективной.

См. Также [ править ]

  • Ограничение, определяющее поведение
  • Устойчивый к ошибкам дизайн
  • Человеческая надежность
  • Пока-иго
  • Ошибка пользователя
  • Методика прогнозирования частоты ошибок человека
  • Заблуждение
  • Человеку свойственно ошибаться
  • Отри, Т. Д. (2015). 6-часовая культура безопасности: как постоянно снижать человеческие ошибки и риски (и делать то, что невозможно сделать в одиночку) . Ассоциация человеческих достижений.

Ссылки [ править ]

  1. ^ a b c d Отправители, Дж. У. и Морей, Н. П. (1991) Человеческая ошибка: причина, прогноз и сокращение . Лоуренс Эрлбаум Ассошиэйтс, стр.25. ISBN 0-89859-598-3 . 
  2. ^ Hollnagel, E. (1993) Контекст анализа надежности человека и контроль . Академик Пресс Лимитед. ISBN 0-12-352658-2 . 
  3. ^ a b c Причина, Джеймс (1990) Человеческая ошибка . Издательство Кембриджского университета. ISBN 0-521-31419-4 . 
  4. ^ Вудс, 1990
  5. ^ Hollnagel Е., Woods, DD & Leveson, NG (2006). Инженерия устойчивости: концепции и предписания. Олдершот, Великобритания: Ashgate
  6. ^ Джонс, 1999
  7. ^ Уоллес и Росс, 2006
  8. ^ Отправители и Мурена, 1991
  9. ^ Рот и др., 1994
  10. Sage, 1992.
  11. ^ Норман, 1988
  12. ^ DOE HDBK-1028-2009 ( https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@images/file )
  13. ^ Йенс Расмуссен , Аннелизе М. Pejtersen, LPGoodstein (1994). Когнитивная системная инженерия . Джон Вили и сыновья. ISBN 0471011983.CS1 maint: multiple names: authors list (link)
  14. ^ «Управленческий надзор и дерево рисков (MORT)» . Международная ассоциация антикризисного управления. Архивировано из оригинального 27 сентября 2014 года . Проверено 1 октября 2014 года .
  15. ^ Запись для MORT на верстаке FAA Human Factors Workbench
  16. ^ Hollnagel, E. (1983). «Человеческая ошибка. (Документ с изложением позиции для Конференции НАТО по человеческим ошибкам, август 1983 г., Белладжио, Италия») . Cite journal requires |journal= (help)
  17. ^ Hollnagel, Е. и Amalberti, Р. (2001). Новая одежда императора, или что случилось с «человеческой ошибкой»? Приглашенный основной доклад на 4-м международном семинаре по человеческим ошибкам, безопасности и развитию систем. Линчёпинг, 11–12 июня 2001 г.
  18. ^ Hollnagel, Эрик (2009). Принцип ETTO: компромисс между эффективностью и тщательностью: почему то, что идет хорошо, иногда идет не так . Фарнхем, Англия Берлингтон, VT: Ashgate. ISBN 978-0-7546-7678-2. OCLC  432428967 .