Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Предвзятость автоматизации - это склонность людей отдавать предпочтение предложениям автоматизированных систем принятия решений и игнорировать противоречивую информацию, полученную без автоматизации, даже если она верна. [1] Предвзятость автоматизации проистекает из литературы по социальной психологии, которая обнаружила предвзятость в человеческом взаимодействии, которая показала, что люди дают более положительную оценку решениям, принятым людьми, чем нейтральному объекту. [2] Такой же тип предвзятости положительности был обнаружен для взаимодействия человека и автоматизации, [3] где автоматизированные решения оцениваются более положительно, чем нейтрально. [4] Это становится растущей проблемой для принятия решений в отделениях интенсивной терапии ,атомные электростанции и кабины самолетов все чаще интегрируются компьютеризированные системные мониторы и средства принятия решений, чтобы в основном исключить возможные человеческие ошибки. Ошибки, связанные с автоматизацией, обычно возникают, когда принятие решений зависит от компьютеров или других автоматизированных средств, а человек выполняет роль наблюдателя, но может принимать решения. Примеры предвзятости автоматизации варьируются от срочных вопросов, таких как управление самолетом на автопилоте, до таких обыденных вопросов, как использование программ проверки орфографии . [5]

Неиспользование и злоупотребление [ править ]

Доверие оператора к системе также может привести к различным взаимодействиям с системой, включая использование системы, неправильное использование, неиспользование и злоупотребления. [6] [ расплывчато ]

Тенденция к чрезмерной зависимости от автоматизированных средств известна как «злоупотребление автоматизацией». [6] [7] Неправильное использование автоматизации может быть замечено, когда пользователь не может должным образом контролировать автоматизированную систему, или когда автоматизированная система используется, когда этого не должно быть. Это контрастирует с неиспользованием, когда пользователь неправильно использует автоматизацию, выключая или игнорируя ее. Как неправильное использование, так и неиспользование могут быть проблематичными, но предвзятость автоматизации напрямую связана с неправильным использованием автоматизации из-за слишком большого доверия к возможностям системы или отказа от использования эвристики. Неправильное использование может привести к отсутствию мониторинга автоматизированной системы или слепому согласию с предложением автоматизации, которое подразделяется на два типа ошибок, ошибки бездействия и ошибки совершения, соответственно. [8][9] [6]

Использование и неиспользование автоматизации также может влиять на этапы обработки информации: сбор информации, анализ информации, принятие решений и выбор действий , а также выполнение действий. [10] [ необходима страница ]

Например, получение информации, первый шаг в обработке информации, - это процесс, с помощью которого пользователь регистрирует ввод через органы чувств. [10] [ необходима страница ]Автоматический датчик двигателя может помочь пользователю в сборе информации с помощью простых функций интерфейса, таких как выделение изменений в производительности двигателя, тем самым направляя выборочное внимание пользователя. Столкнувшись с проблемами, возникающими в самолете, пилоты могут не доверять датчикам двигателя самолета, упуская из виду другие возможные неисправности, не связанные с двигателем. Такое отношение является формой самоуспокоенности и злоупотребления автоматизацией. Если, однако, пилот посвящает время интерпретации датчика двигателя и соответствующим образом манипулирует самолетом, только чтобы обнаружить, что турбулентность полета не изменилась, пилот может быть склонен игнорировать будущие рекомендации по ошибкам, передаваемые датчиком двигателя - форма самоуспокоенность автоматизации, ведущая к неиспользованию.

Ошибки совершения и упущения [ править ]

Предвзятость автоматизации может принимать форму комиссионных ошибок, которые возникают, когда пользователи следуют автоматизированной директиве без учета других источников информации. И наоборот, пропуски ошибок возникают, когда автоматические устройства не могут обнаружить или указать на проблемы, и пользователь этого не замечает, потому что они не контролируют систему должным образом. [11]

Было показано, что ошибки бездействия являются результатом снижения когнитивной бдительности, в то время как ошибки совершения являются результатом сочетания неспособности принять во внимание информацию и чрезмерного доверия к надежности автоматизированных средств. [5] Ошибки совершения действий происходят по трем причинам: (1) явное отвлечение внимания от автоматизированного средства; (2) снижение внимания к помощи; (3) активное игнорирование информации, противоречащей рекомендациям помощи. [12] Ошибки упущения возникают, когда человек, принимающий решения, не замечает отказ автоматизации либо из-за низкой бдительности, либо из-за чрезмерного доверия к системе. [5]Например, программа проверки орфографии, неправильно пометившая слово как написанное с ошибкой и предложившая альтернативу, будет ошибкой совершения, а программа проверки орфографии, не заметившая слово с ошибкой, будет ошибкой упущения. В этих случаях систематическая ошибка автоматизации может наблюдаться из-за того, что пользователь принимает альтернативное слово, не обращаясь к словарю, или пользователь не замечает неправильно написанное слово и предполагает, что все слова верны, не просматривая слова.

Было показано, что обучение, направленное на снижение систематической ошибки автоматизации и связанных с этим проблем, снижает частоту комиссионных ошибок, но не пропусков. [5]

Факторы [ править ]

Наличие автоматических средств, как выразился один источник, «снижает вероятность того, что лица, принимающие решения, либо приложат когнитивные усилия для поиска другой диагностической информации, либо обработают всю доступную информацию когнитивно сложными способами». Это также повышает вероятность того, что пользователи завершат свою оценку ситуации слишком поспешно после того, как автоматические средства подсказки предложат им предпринять определенные действия. [7]

Согласно одному источнику, есть три основных фактора, которые приводят к предвзятости автоматизации. Во-первых, человеческая склонность выбирать наименее когнитивный подход к принятию решений, которая называется гипотезой когнитивного скупца . Во-вторых, люди склонны рассматривать автоматизированные вспомогательные средства как обладающие аналитическими способностями, превосходящими их собственные. В-третьих, склонность людей сокращать свои собственные усилия при разделении задач либо с другим человеком, либо с помощью автоматизированных средств. [12]

Другие факторы, ведущие к чрезмерной зависимости от автоматизации и, следовательно, к предвзятости автоматизации, включают неопытность в выполнении задачи (хотя неопытные пользователи, как правило, больше всего выигрывают от автоматизированных систем поддержки принятия решений), неуверенность в собственных силах, отсутствие легкодоступной альтернативы. информации или желание сэкономить время и силы при выполнении сложных задач или высоких нагрузок. [13] [14] [15] [8] Было показано, что люди, которые больше уверены в своих способностях принимать решения, как правило, меньше полагаются на внешнюю автоматизированную поддержку, в то время как те, кто больше доверяет системам поддержки принятия решений (DSS ) больше зависели от него. [13]

Дизайн экрана [ править ]

Одно исследование, опубликованное в Журнале Американской ассоциации медицинской информатики , показало, что расположение и видимость совета на экране может повлиять на вероятность систематической ошибки автоматизации, при этом заметный совет, правильный или нет, с большей вероятностью будет соблюдаться; Однако другое исследование, похоже, не учитывало важность этого фактора. [13] Согласно другому исследованию, большее количество деталей на экране может сделать пользователей менее «консервативными» и, таким образом, увеличить вероятность ошибки автоматизации. [13] Одно исследование показало, что привлечение людей к ответственности за свою работу или точность своих решений снижает предвзятость автоматизации. [5]

Доступность [ править ]

«Доступность автоматизированных средств принятия решений, - говорится в одном исследовании Линды Скитка , - иногда может способствовать общей склонности человека идти по пути наименьших когнитивных усилий». [5]

Осведомленность о процессе [ править ]

Одно исследование также показало, что когда пользователи осведомлены о процессе рассуждений, используемом системой поддержки принятия решений, они, вероятно, соответствующим образом скорректируют свою зависимость, тем самым уменьшив предвзятость автоматизации. [13]

Команда против индивидуума [ править ]

Выполнение работ бригадами, а не отдельными лицами, не обязательно устраняет предвзятость автоматизации. [16] [11] Одно исследование показало, что, когда автоматические устройства не могли обнаружить системные нарушения, команды не более успешны, чем индивидуальные исполнители, в реагировании на эти нарушения. [5]

Обучение [ править ]

Обучение, ориентированное на предвзятость автоматизации в авиации, позволило сократить количество ошибок, допущенных пилотами-студентами. [16] [11]

Сбой автоматизации и «наученная невнимательность» [ править ]

Было показано, что отказ автоматизации сопровождается падением доверия операторов, которое, в свою очередь, сменяется медленным восстановлением доверия. Падение доверия после первоначального отказа автоматизации было описано как эффект первого отказа. [12] Точно так же, если автоматизированные средства окажутся высоконадежными с течением времени, результатом, вероятно, будет повышенный уровень предвзятости автоматизации. Это называется «приобретенная небрежность». [12]

Предоставление информации о доверии к системе [ править ]

В случаях, когда пользователям предоставляется достоверная информация о системе, эта информация сама по себе может стать фактором предвзятости автоматизации. [12]

Внешнее давление [ править ]

Исследования показали, что чем больше внешнего давления оказывается на когнитивные способности человека, тем больше он или она может полагаться на внешнюю поддержку. [13]

Проблемы определения [ править ]

Несмотря на то, что предвзятость автоматизации была предметом многих исследований, продолжают поступать жалобы на то, что предвзятость автоматизации остается недостаточно определенной и что отчетность об инцидентах, связанных с предвзятостью автоматизации, является несистематической. [13] [8]

Обзор различных исследований предвзятости автоматизации классифицировал различные типы задач, в которых использовались автоматизированные средства, а также функции, которые они выполняли. Задачи, в которых использовались автоматизированные средства, были разделены на задачи мониторинга, задачи диагностики или задачи лечения. Типы автоматизированной помощи были перечислены как автоматизация оповещений, которая отслеживает важные изменения и предупреждает пользователя, автоматизация поддержки принятия решений, которая может предоставлять диагностику или рекомендацию, или автоматизация внедрения, когда автоматизированная помощь выполняет указанную задачу. [8]

Самоуспокоение, вызванное автоматизацией [ править ]

Концепция предвзятости автоматизации рассматривается как пересекающаяся с самоуспокоенностью, вызванной автоматизацией, также известной как самоуспокоенность автоматизации. Подобно предвзятости автоматизации, это следствие неправильного использования автоматизации и связано с проблемами внимания. В то время как предвзятость автоматизации включает в себя тенденцию доверять системам поддержки принятия решений, самоуспокоенность автоматизации предполагает недостаточное внимание и мониторинг результатов автоматизации, обычно потому, что эти результаты считаются надежными. [13]«Хотя концепции самоуспокоенности и предвзятости автоматизации обсуждались отдельно, как если бы они были независимыми, - пишет один эксперт, - у них есть несколько общих черт, предполагая, что они отражают разные аспекты одного и того же неправильного использования автоматизации». Действительно, было предложено объединить концепции самоуспокоенности и предвзятости автоматизации в единую «интегративную концепцию», потому что эти две концепции «могут представлять разные проявления перекрывающихся явлений, вызванных автоматизацией» и потому что «самоуспокоенность, вызванная автоматизацией, и предвзятость автоматизации. представляют собой тесно связанные теоретические концепции, которые в значительной степени пересекаются по отношению к лежащим в основе процессам ". [12]

Самоуспокоение автоматизации было определено как «более слабое обнаружение сбоев системы при автоматизации по сравнению с ручным управлением». Система отчетности НАСА по безопасности полетов(ASRS) определяет самоуспокоенность как «самоудовлетворение, которое может привести к отсутствию бдительности на основании необоснованного предположения об удовлетворительном состоянии системы». Несколько исследований показали, что это чаще всего происходит, когда операторы одновременно выполняют как ручные, так и автоматизированные задачи. В свою очередь, восприятие операторами надежности автоматизированной системы может повлиять на способ взаимодействия оператора с системой. Эндсли (2017) описывает, как высокая надежность системы может привести к тому, что пользователи отключаются от систем мониторинга, тем самым увеличивая количество ошибок мониторинга, снижая ситуационную осведомленность и препятствуя способности оператора повторно взять на себя управление системой в случае превышения ограничений производительности при событии. [17]Это самоуспокоенность может быть резко уменьшено, если надежность автоматизации меняется с течением времени, а не остается постоянной, но не уменьшается с опытом и практикой. И опытные, и неопытные участники могут демонстрировать предвзятость автоматизации, а также самоуспокоенность автоматизации. Ни одна из этих проблем не может быть легко преодолена тренировкой. [12]

Термин «автоматическая самоуспокоенность» впервые был использован в связи с авиационными происшествиями или инцидентами, в которых пилоты , авиадиспетчеры или другие работники не смогли должным образом проверить системы, предполагая, что все было в порядке, когда на самом деле авария вот-вот должна была произойти. . Самоуспокоенность оператора, связанная с автоматизацией или не связанная с ней, давно признана ведущим фактором авиационных происшествий. [12]

Таким образом, представление о надежности, как правило, может привести к некоторой иронии с автоматизацией, при которой большая автоматизация может снизить когнитивную нагрузку, но увеличить возможность отслеживания ошибок. Напротив, низкая автоматизация может увеличить рабочую нагрузку, но уменьшить возможность отслеживания ошибок. [18]Возьмем, к примеру, пилота, летящего в ненастную погоду, когда непрерывный гром мешает пилоту понимать информацию, передаваемую авиадиспетчером (УВД). Несмотря на то, сколько усилий уделяется пониманию информации, передаваемой УВД, производительность пилота ограничена источником информации, необходимой для выполнения задачи. Поэтому пилот должен полагаться на автоматические приборы в кабине, чтобы понимать информацию о траектории полета. Если пилот считает, что автоматические датчики являются высоконадежными, количество усилий, необходимых для понимания УВД и автоматических датчиков, может уменьшиться. Более того, если автоматические приборы считаются высоконадежными, пилот может игнорировать эти приборы, чтобы выделить умственные ресурсы на расшифровку информации, передаваемой УВД. При этом, пилот становится самодовольным наблюдателем, тем самым рискуя упустить важную информацию, передаваемую автоматическими датчиками. Если, однако, пилот считает, что автоматические приборы ненадежны, ему теперь придется интерпретировать информацию от УВД и автоматических приборов одновременно. Это создает сценарии, в которых оператор может расходовать ненужные когнитивные ресурсы, когда автоматизация на самом деле надежна, но также увеличивает шансы выявления потенциальных ошибок в метеометрах, если они произойдут. Чтобы откалибровать представление пилота о надежности, автоматизация должна быть спроектирована так, чтобы поддерживать рабочую нагрузку на соответствующем уровне, а также обеспечивать, чтобы оператор продолжал выполнять задачи по мониторингу. У оператора должна быть меньше шансов отвлечься от мониторинга, когда система[19]

В некоторой степени самоуспокоенность пользователя сводит на нет преимущества автоматизации, и когда уровень надежности автоматизированной системы падает ниже определенного уровня, автоматизация больше не будет чистым активом. Одно исследование 2007 года показало, что эта автоматизация происходит, когда уровень надежности достигает примерно 70%. Другие исследования показали, что автоматизация с уровнем надежности ниже 70% может быть полезна лицам, имеющим доступ к необработанным источникам информации, которые можно комбинировать с результатами автоматизации для повышения производительности. [12]

Секторы [ править ]

Систематическая ошибка автоматизации изучалась во многих областях исследований. [13] Это может быть особенно серьезной проблемой в авиации, медицине , управлении технологическими процессами и военными операциями по управлению и контролю . [12]

Авиация [ править ]

Сначала обсуждение предвзятости автоматизации было сосредоточено в основном на авиации. Автоматические средства помощи играют все более важную роль в кабинах пилотов, принимая все более важную роль в управлении такими полетными задачами, как определение наиболее экономичных маршрутов, навигация, а также обнаружение и диагностика неисправностей систем. Однако использование этих средств может привести к менее внимательному и менее бдительному поиску и обработке информации со стороны людей. В некоторых случаях люди могут больше доверять дезинформации, предоставляемой бортовыми компьютерами, чем своим собственным навыкам. [7]

Важным фактором в предвзятости автоматизации, связанной с авиацией, является степень, в которой пилоты считают себя ответственными за задачи, выполняемые автоматизированными средствами. Одно исследование пилотов показало, что присутствие второго члена экипажа в кабине не повлияло на смещение автоматики. В исследовании 1994 года сравнивалось влияние низкого и высокого уровней автоматизации (LOA) на характеристики пилота, и был сделан вывод, что пилоты, работающие с высоким LOA, тратили меньше времени на самостоятельное размышление о решениях о полете. [12]

В другом исследовании все пилоты давали ложные автоматические предупреждения, в которых им предлагалось выключить двигатель, и это сделали, даже несмотря на то, что те же самые пилоты настаивали в интервью, что они не будут реагировать на такое предупреждение выключением двигателя, а вместо этого снизили мощность до холостого хода. Одно исследование 1998 года показало, что пилоты с примерно 440 часами полета выявляли больше отказов автоматики, чем непилоты, хотя обе группы демонстрировали эффект самоуспокоенности. Исследование, проведенное в 2001 году пилотами, использующими систему автоматизации кабины, систему индикации двигателя и оповещения экипажа (EICAS), показало свидетельство самоуспокоенности. При использовании системы пилоты выявляли меньше неисправностей двигателя, чем при выполнении задачи вручную. [12]

В исследовании 2005 года опытные авиадиспетчеры использовали высокоточное моделирование сценария УВД (свободный полет), который включал обнаружение конфликтов между «самоотделяющимися» самолетами. У них был доступ к автоматизированному устройству, которое выявляло потенциальные конфликты на несколько минут раньше времени. Когда устройство выходит из строя ближе к концу процесса моделирования, значительно меньше контроллеров обнаруживают конфликт, чем когда ситуация обрабатывалась вручную. Другие исследования дали аналогичные результаты. [12]

Два исследования систематической ошибки автоматизации в авиации выявили более высокий уровень комиссионных ошибок, чем пропуски ошибок, в то время как другое авиационное исследование показало, что процент пропусков составляет 55%, а комиссионные - 0%. [13] Ошибки, связанные с упущениями, связанными с автоматизацией, особенно распространены на этапе крейсерского полета. Когда рейс China Airlines потерял мощность в одном двигателе, автопилот попытался исправить эту проблему, опустив левое крыло, действие, которое скрыло проблему от экипажа. Когда автопилот был отключен, самолет покатился вправо и резко снизился, что привело к значительным повреждениям. Сбитие в 1983 г. самолета Боинг-747 Korean Airlines над советскимвоздушное пространство произошло потому, что корейский экипаж «полагался на автоматику, которая была настроена неправильно, и они никогда не проверяли свой прогресс вручную». [7]

Здравоохранение [ править ]

Системы поддержки клинических решений (CDSS) предназначены для помощи в принятии клинических решений. Они обладают потенциалом для значительного улучшения в этом отношении и улучшения результатов лечения пациентов. Тем не менее, хотя CDSS при правильном использовании приводит к общему повышению производительности, они также вызывают ошибки, которые могут быть не распознаны из-за предвзятости автоматизации. Одна из опасностей заключается в том, что неверный совет, данный этими системами, может заставить пользователей изменить правильное решение, которое они приняли самостоятельно. Учитывая очень серьезный характер некоторых потенциальных последствий АБ в области здравоохранения, особенно важно знать об этой проблеме, когда она возникает в клинических условиях. [13]

Иногда предвзятость автоматизации в клинических условиях является серьезной проблемой, которая в конечном итоге делает CDSS контрпродуктивными; иногда это небольшая проблема, выгода от которой перевешивает нанесенный ущерб. Одно исследование выявило большую предвзятость к автоматизации среди пожилых пользователей, но было отмечено, что это может быть результатом не возраста, а опыта. Исследования действительно показывают, что знакомство с CDSS часто приводит к эффектам десенсибилизации и привыкания. Хотя предвзятость автоматизации чаще встречается среди людей, неопытных в данной задаче, неопытные пользователи демонстрируют наибольшее улучшение производительности при использовании CDSS. В одном исследовании использование CDSS улучшило ответы врачей на 21%, с 29% до 50%, при этом 7% правильных ответов без CDSS были изменены неправильно. [13]

Исследование 2005 года показало, что, когда врачи первичной медико-санитарной помощи использовали электронные источники, такие как PubMed , Medline и Google , количество правильных ответов увеличивалось от "небольшого до среднего", в то время как в столь же небольшом проценте случаев врачи были введены в заблуждение их использованием. этих источников и заменил правильные ответы на неправильные. [12]

Исследования, проведенные в 2004 и 2008 годах, которые касались влияния автоматизированных средств на диагностику рака груди, обнаружили явные доказательства предвзятости автоматизации, связанной с ошибками упущения. Раковые заболевания, диагностированные в 46% случаев без использования автоматизированных средств, были обнаружены только в 21% случаев с использованием автоматических средств, которые не смогли идентифицировать рак. [12]

Военные [ править ]

Предвзятость автоматизации может быть решающим фактором при использовании интеллектуальных систем поддержки принятия решений для командования и управления войсками. Одно исследование 2004 года показало, что эффекты предвзятости автоматизации способствовали ряду фатальных военных решений, включая убийства дружественным огнем во время войны в Ираке . Исследователи стремились определить правильный LOA для систем поддержки принятия решений в этой области. [12]

Автомобильная промышленность [ править ]

Самоуспокоение, связанное с автоматизацией, также является проблемой для автоматизированных систем вождения, в которых человеку нужно только контролировать систему или действовать как резервный драйвер. Это, например, обсуждается в отчете Национального совета по безопасности на транспорте о несчастном случае со смертельным исходом между испытательным автомобилем UBER и пешеходом Элейн Херцберг . [20]

Исправление предвзятости [ править ]

Предвзятость автоматизации может быть уменьшена за счет разработки автоматизированных систем, таких как уменьшение заметности дисплея, уменьшение детализации или сложности отображаемой информации или использование автоматизированной помощи в качестве вспомогательной информации, а не в виде директив или команд. [13] Обучение работе с автоматизированной системой, которое включает внесение преднамеренных ошибок, оказалось значительно более эффективным в снижении предвзятости автоматизации, чем просто информирование пользователей о возможных ошибках. [21]Однако чрезмерная проверка и опрос автоматизированной помощи может увеличить нехватку времени и сложность задач, уменьшая таким образом преимущества автоматизированной помощи, поэтому разработка автоматизированной системы поддержки принятия решений может уравновесить положительные и отрицательные эффекты, а не пытаться устранить отрицательные эффекты. [14]

См. Также [ править ]

  • Алгоритмическая предвзятость
  • Список когнитивных предубеждений
  • Автоматизация

Ссылки [ править ]

  1. ^ Каммингс, Мэри (2004). «Автоматизация смещения в интеллектуальных системах поддержки принятия важных решений» (PDF) . 1-я техническая конференция по интеллектуальным системам AIAA (PDF) . DOI : 10.2514 / 6.2004-6313 . ISBN 978-1-62410-080-2. Архивировано 01 ноября 2014 года.CS1 maint: bot: исходный статус URL неизвестен ( ссылка )
  2. ^ Брунер, JS, и Tagiuri, Р. 1954. "Восприятие людей". В Г. Линдзи (ред.), Справочник по социальной психологии (том 2) : 634-654. Ридинг, Массачусетс: Эддисон-Уэсли.
  3. ^ Мадхаван, P .; Вигманн, Д.А. (01.07.2007). «Сходства и различия между доверием человек – человек и человек – автоматизация: комплексный обзор». Теоретические вопросы эргономики . 8 (4): 277–301. DOI : 10.1080 / 14639220500337708 . S2CID 39064140 . 
  4. ^ Дзиндолет, Мэри Т .; Петерсон, Скотт А .; Помранки, Регина А .; Пирс, Линда Дж .; Бек, Холл П. (2003). «Роль доверия в автоматизации опоры». Международный журнал человеко-компьютерных исследований . 58 (6): 697–718. DOI : 10.1016 / S1071-5819 (03) 00038-7 .
  5. ^ a b c d e f g Скитка, Линда. «Автоматизация» . Университет Иллинойса . Иллинойсский университет в Чикаго . Проверено 16 января 2017 года .
  6. ^ a b c Парашураман, Раджа; Райли, Виктор (1997). «Люди и автоматизация: использование, неправильное использование, неиспользование, злоупотребление». Человеческий фактор: журнал Общества человеческого фактора и эргономики . 39 (2): 230–253. DOI : 10.1518 / 001872097778543886 .
  7. ^ a b c d Мозье, Кэтлин; Скитка, Линда; Хирс, Сьюзен; Бёрдик, Марк (1997). «Автоматизация смещения: принятие решений и производительность в высокотехнологичных кабинах» . Международный журнал авиационной психологии . 8 (1): 47–63. DOI : 10,1207 / s15327108ijap0801_3 . PMID 11540946 . 
  8. ^ a b c d Лайель, Дэвид; Койера, Энрико (август 2016 г.). «Автоматизация смещения и сложности проверки: систематический обзор» . Журнал Американской ассоциации медицинской информатики . 24 (2): 424–431. DOI : 10.1093 / Jamia / ocw105 . PMID 27516495 . 
  9. ^ Тверски, А .; Канеман, Д. (1974). «Суждение в условиях неопределенности: эвристика и предубеждения». Наука . 185 (4157): 1124–1131. Bibcode : 1974Sci ... 185.1124T . DOI : 10.1126 / science.185.4157.1124 . PMID 17835457 . 
  10. ^ a b Wickens, Christopher D .; Холландс, Джастин Дж .; Банбери, Саймон; Парашураман, Раджа (2015). Инженерная психология и деятельность человека (4-е изд.). Психология Press. ISBN 9781317351320.
  11. ^ a b c Mosier, Kathleen L .; Данбар, Мелиса; Макдоннелл, Лори; Скитка, Линда Дж .; Бёрдик, Марк; Розенблатт, Бонни (1998). «Предвзятость и ошибки автоматизации: команды лучше, чем отдельные лица?». Материалы ежегодного собрания Общества по человеческому фактору и эргономике . 42 (3): 201–205. DOI : 10.1177 / 154193129804200304 .
  12. ^ Б с д е е г ч я J к л м п о р Parasuraman, Раджа; Манзи, Дитрих (июнь 2010 г.). «Самодовольство и предвзятость в использовании человеком автоматизации: внимательная интеграция» . Журнал Общества Человеческого Фактора и Эргономики . 52 (3): 381–410. DOI : 10.1177 / 0018720810376055 . PMID 21077562 . Проверено 17 января 2017 года . 
  13. ^ a b c d e f g h i j k l m Goddard, K .; Roudsari, A .; Wyatt, JC (2012). «Автоматизация предвзятости: систематический обзор частоты, посредников эффекта и смягчителей» . Журнал Американской ассоциации медицинской информатики . 19 (1): 121–127. DOI : 10.1136 / amiajnl-2011-000089 . PMC 3240751 . PMID 21685142 .  
  14. ^ а б Альберди, Эухенио; Стригини, Лоренцо; Повякало, Андрей А .; Эйтон, Питер (2009). «Почему решения людей иногда ухудшаются при компьютерной поддержке?» (PDF) . Компьютерная безопасность, надежность и безопасность . Конспект лекций по информатике. 5775 . Springer Berlin Heidelberg. С. 18–31. DOI : 10.1007 / 978-3-642-04468-7_3 . ISBN  978-3-642-04467-0.
  15. ^ Годдард, Кейт; Роудсари, Абдул; Вятт, Джереми С. (2014). «Автоматизация смещения: эмпирические результаты оценки влияющих факторов». Международный журнал медицинской информатики . 83 (5): 368–375. DOI : 10.1016 / j.ijmedinf.2014.01.001 . PMID 24581700 . 
  16. ^ a b Мосье, Кэтлин; Скитка, Линда; Данбар, Мелиса; Макдоннелл, Лори (13 ноября 2009 г.). «Экипажи и автоматизация: преимущества совместной работы?». Международный журнал авиационной психологии . 11 (1): 1–14. DOI : 10.1207 / S15327108IJAP1101_1 . S2CID 4132245 . 
  17. ^ Эндсли, слюда (2017). «Отсюда к урокам автономии, извлеченным из исследований в области автоматизации и человека». Человеческий фактор . 59 (1): 5–27. DOI : 10.1177 / 0018720816681350 . PMID 28146676 . 
  18. ^ Bainbridge, Lisanne (1983). «Иронии автоматизации» (PDF) . Automatica . 19 (6): 775–779. DOI : 10.1016 / 0005-1098 (83) 90046-8 .
  19. ^ Parasuraman Раджа; Моллой, Роберт; Сингх, Индрамани Л. (1993). «Последствия производительности« самоуспокоенности », вызванной автоматизацией ». Международный журнал авиационной психологии . 3 : 1–23. DOI : 10,1207 / s15327108ijap0301_1 .
  20. ^ «Столкновение между транспортным средством, управляемым автоматизированной системой вождения, и пешеходом» . www.ntsb.gov . Проверено 19 декабря 2019 года .
  21. ^ Банер, Дж. Элин; Хюпер, Анке-Доротея; Манзи, Дитрих (2008). «Неправильное использование автоматизированных средств принятия решений: самоуверенность, предвзятость автоматизации и влияние опыта обучения». Международный журнал человеко-компьютерных исследований . 66 (9): 688–699. DOI : 10.1016 / j.ijhcs.2008.06.001 .

Дальнейшее чтение [ править ]

  • Годдард, К; Роудсари, А; Wyatt, JC (2011). «Предвзятость автоматизации - скрытая проблема для использования системы поддержки принятия клинических решений» . Международные перспективы информатики здравоохранения . Исследования в области технологий здравоохранения и информатики. 164 . С. 17–22. ISBN 978-1-60750-708-6. PMID  21335682 .

Внешние ссылки [ править ]

  • 175 причин, почему вы не думаете ясно