Предвзятость автоматизации
Часть серии о |
Автоматизация |
---|
![]() |
Автоматизация в целом |
Робототехника и роботы |
Влияние автоматизации |
Выставки и награды |
Предвзятость автоматизации — это склонность людей отдавать предпочтение предложениям автоматизированных систем принятия решений и игнорировать противоречивую информацию, полученную без автоматизации, даже если она верна. [1] Предвзятость автоматизации проистекает из литературы по социальной психологии , которая обнаружила предвзятость во взаимодействии между людьми и показала, что люди дают более положительные оценки решениям, принятым людьми, чем нейтральному объекту. [2] Тот же тип позитивной предвзятости был обнаружен для взаимодействия человека и автоматизации. [3] где автоматизированные решения оцениваются скорее положительно, чем нейтрально. [4] Это становится растущей проблемой для принятия решений, поскольку отделения интенсивной терапии , атомные электростанции и кабины самолетов все чаще интегрируют компьютеризированные системные мониторы и средства принятия решений, которые в основном учитывают возможные человеческие ошибки. Ошибки, связанные с автоматизацией, обычно возникают, когда принятие решений зависит от компьютеров или других автоматизированных средств, а человек выполняет роль наблюдателя, но способен принимать решения. Примеры предвзятости автоматизации варьируются от срочных вопросов, таких как управление самолетом на автопилоте, до таких обыденных вопросов, как использование программ проверки орфографии . [5]
Неиспользование и неправильное использование
[ редактировать ]Доверие оператора к системе также может привести к различным взаимодействиям с системой, включая использование системы, неправильное использование, неиспользование и злоупотребление. [6] [ нечеткий ]
Тенденция к чрезмерному использованию автоматизированных средств известна как «неправильное использование автоматизации». [6] [7] Неправильное использование автоматизации можно увидеть, когда пользователь не может должным образом контролировать автоматизированную систему или когда автоматизированная система используется там, где этого делать не следует. В отличие от неиспользования, когда пользователь не использует автоматизацию должным образом, либо отключая ее, либо игнорируя ее. Как неправильное, так и неиспользование может быть проблематичным, но предвзятость автоматизации напрямую связана со злоупотреблением автоматизацией либо из-за слишком большого доверия к возможностям системы, либо из-за невыполнения обязательств по использованию эвристики. Неправильное использование может привести к отсутствию контроля над автоматизированной системой или слепому согласию с предложением по автоматизации, которое классифицируется по двум типам ошибок: ошибки бездействия и ошибки совершения соответственно. [8] [9] [6]
Использование и неиспользование автоматизации также может влиять на этапы обработки информации: сбор информации, ее анализ, принятие решений и выбор действий , а также реализацию действий. [10]
Например, сбор информации, первый шаг в обработке информации, представляет собой процесс, посредством которого пользователь регистрирует входные данные через органы чувств. [10] Автоматический датчик двигателя может помочь пользователю в сборе информации с помощью простых функций интерфейса, таких как выделение изменений в работе двигателя, тем самым направляя избирательное внимание пользователя. Столкнувшись с проблемами, возникающими в самолете, пилоты могут склонны слишком доверять показаниям приборов двигателя самолета, упуская из виду другие возможные неисправности, не связанные с двигателем. Такое отношение является формой самоуспокоенности и неправильного использования автоматизации. Однако, если пилот потратит время на интерпретацию показаний двигателя и соответствующим образом манипулирует самолетом только для того, чтобы обнаружить, что турбулентность полета не изменилась, пилот может быть склонен игнорировать будущие рекомендации по ошибкам, передаваемые датчиком двигателя - форма самоуспокоенность в области автоматизации, приводящая к ее неиспользованию.
Ошибки совершения и бездействия
[ редактировать ]Предвзятость автоматизации может принимать форму комиссионных ошибок, которые возникают, когда пользователи следуют автоматическим директивам, не принимая во внимание другие источники информации. И наоборот, ошибки упущения возникают, когда автоматизированные устройства не могут обнаружить или указать на проблемы, а пользователь не замечает этого, поскольку они не контролируют систему должным образом. [11]
Было показано, что ошибки упущения являются результатом снижения когнитивной бдительности, тогда как ошибки совершения являются результатом сочетания неспособности принять информацию во внимание и чрезмерного доверия к надежности автоматизированных средств. [5] Ошибки совершения происходят по трем причинам: (1) явное перенаправление внимания от автоматизированного средства; (2) снижение внимания к помощи; (3) активное игнорирование информации, противоречащей рекомендациям помощи. [12] Ошибки упущения возникают, когда человек, принимающий решения, не замечает сбоя автоматизации либо из-за низкой бдительности, либо из-за чрезмерного доверия к системе. [5] Например, программа проверки орфографии, неправильно отмечающая слово как написанное с ошибкой и предлагающая альтернативу, будет ошибкой комиссии, а программа проверки орфографии, не замечающей слово с ошибкой, будет ошибкой пропуска. В этих случаях систематическая ошибка автоматизации может наблюдаться, когда пользователь принимает альтернативное слово, не сверяясь со словарем, или пользователь не замечает неправильно написанное слово и предполагает, что все слова верны, не проверяя слова.
Было показано, что обучение, направленное на снижение предвзятости автоматизации и связанных с ней проблем, снижает уровень комиссионных ошибок, но не ошибок упущения. [5]
Факторы
[ редактировать ]Наличие автоматических средств, как утверждает один источник, «уменьшает вероятность того, что лица, принимающие решения, либо предпримут когнитивные усилия для поиска другой диагностической информации, либо будут обрабатывать всю доступную информацию когнитивно сложными способами». Это также повышает вероятность того, что пользователи будут слишком поспешно завершать оценку ситуации после того, как автоматическая помощь предложит им предпринять определенный курс действий. [7]
Согласно одному источнику, существует три основных фактора, которые приводят к предвзятости в области автоматизации. Во-первых, человеческая тенденция выбирать наименее когнитивный подход к принятию решений, которая называется гипотезой когнитивного скупца . Во-вторых, это тенденция людей рассматривать автоматизированные средства как обладающие аналитическими способностями, превосходящими их собственные. В-третьих, тенденция людей сокращать свои усилия при разделении задач либо с другим человеком, либо с помощью автоматизированного помощника. [12]
Другие факторы, приводящие к чрезмерной зависимости от автоматизации и, следовательно, к предвзятости автоматизации, включают неопытность в решении задачи (хотя неопытные пользователи, как правило, получают наибольшую выгоду от автоматизированных систем поддержки принятия решений), неуверенность в своих силах, отсутствие легкодоступной альтернативы. информации или желание сэкономить время и силы на сложных задачах или высоких нагрузках. [13] [14] [15] [8] Было показано, что люди, которые больше уверены в своих способностях принятия решений, как правило, меньше полагаются на внешнюю автоматизированную поддержку, в то время как те, кто больше доверяет системам поддержки принятия решений (DSS), больше зависели от нее. [13]
Дизайн экрана
[ редактировать ]Одно исследование, опубликованное в Журнале Американской ассоциации медицинской информатики , показало, что положение и известность советов на экране могут повлиять на вероятность предвзятости автоматизации: если советы, отображаемые на видном месте, правильные или нет, с большей вероятностью будут следовать; однако другое исследование, похоже, не придало значения этому фактору. [13] Согласно другому исследованию, большее количество деталей на экране может сделать пользователей менее «консервативными» и, таким образом, увеличить вероятность предвзятости автоматизации. [13] Одно исследование показало, что привлечение людей к ответственности за свою работу или точность своих решений снижает предвзятость автоматизации. [5]
Доступность
[ редактировать ]«Наличие автоматизированных средств принятия решений, — говорится в одном исследовании Линды Скитки , — иногда может способствовать общей человеческой склонности идти по пути наименьшего когнитивного усилия». [5]
Осведомленность о процессе
[ редактировать ]Одно исследование также показало, что, когда пользователи осведомлены о процессе рассуждения, используемом системой поддержки принятия решений, они, вероятно, соответствующим образом скорректируют свою зависимость, тем самым уменьшая предвзятость автоматизации. [13]
Команда против индивидуального
[ редактировать ]Выполнение работы бригадами, а не отдельными людьми, действующими в одиночку, не обязательно устраняет предвзятость автоматизации. [16] [11] Одно исследование показало, что, когда автоматизированные устройства не могли обнаружить нарушения в системе, команды реагировали на эти нарушения не более успешно, чем одиночные исполнители. [5]
Обучение
[ редактировать ]Обучение, ориентированное на предвзятость автоматизации в авиации, позволило сократить количество ошибок, допускаемых пилотами-студентами. [16] [11]
Сбой в автоматизации и «выученная невнимательность»
[ редактировать ]Было показано, что за сбоем автоматизации следует падение доверия к операторам, за которым, в свою очередь, следует медленное восстановление доверия. Снижение доверия после первоначального сбоя в автоматизации называют эффектом первой неудачи. [12] Точно так же, если автоматизированные средства со временем окажутся очень надежными, результатом, вероятно, станет повышенный уровень предвзятости автоматизации. Это называется «выученная невнимательность». [12]
Предоставление информации о конфиденциальности системы
[ редактировать ]В тех случаях, когда пользователям предоставляется информация о достоверности системы, сама эта информация может стать фактором предвзятости автоматизации. [12]
Внешнее давление
[ редактировать ]Исследования показали, что чем больше внешнего давления оказывается на когнитивные способности человека, тем больше он или она может полагаться на внешнюю поддержку. [13]
Проблемы с определениями
[ редактировать ]Хотя предвзятость автоматизации была предметом многих исследований, продолжают поступать жалобы на то, что предвзятость автоматизации остается нечеткой и что отчетность об инцидентах, связанных с предвзятостью автоматизации, носит бессистемный характер. [13] [8]
В обзоре различных исследований ошибок автоматизации были классифицированы различные типы задач, в которых использовались автоматизированные средства, а также то, какие функции они выполняли. Задачи, в которых использовались автоматизированные средства, были разделены на задачи мониторинга, задачи диагностики или задачи лечения. Типы автоматизированной помощи были перечислены как автоматизация оповещений, которая отслеживает важные изменения и предупреждает пользователя, автоматизация поддержки принятия решений, которая может предоставить диагноз или рекомендацию, или автоматизация внедрения, когда автоматизированная помощь выполняет определенную задачу. [8]
Самоуспокоенность, вызванная автоматизацией
[ редактировать ]Концепция предвзятости автоматизации рассматривается как пересекающаяся с самоуспокоенностью, вызванной автоматизацией, также известной как самоуспокоенность, вызванная автоматизацией. Как и предвзятость автоматизации, это следствие неправильного использования автоматизации и связано с проблемами внимания. В то время как предвзятость к автоматизации предполагает склонность доверять системам поддержки принятия решений, самоуспокоенность в области автоматизации предполагает недостаточное внимание и мониторинг результатов автоматизации, обычно потому, что эти результаты считаются надежными. [13] «Хотя концепции самоуспокоенности и предвзятости автоматизации обсуждались отдельно, как если бы они были независимыми, — пишет один эксперт, — они имеют несколько общих черт, что позволяет предположить, что они отражают разные аспекты одного и того же вида злоупотребления автоматизацией». Действительно, было предложено объединить концепции самоуспокоенности и предвзятости автоматизации в единую «интегративную концепцию», поскольку эти две концепции «могут представлять собой разные проявления перекрывающихся явлений, вызванных автоматизацией» и потому что «самоуспокоенность, вызванная автоматизацией, и предвзятость автоматизации» представляют собой тесно связанные теоретические концепции, которые демонстрируют значительное совпадение в отношении лежащих в их основе процессов». [12]
Самоуспокоенность в области автоматизации определяется как «худшее обнаружение неисправностей системы при автоматизации по сравнению с ручным управлением». НАСА Система отчетности по авиационной безопасности (ASRS) определяет самоуспокоенность как «самоудовлетворение, которое может привести к потере бдительности, основанной на необоснованном предположении об удовлетворительном состоянии системы». Несколько исследований показали, что чаще всего это происходит, когда операторы одновременно выполняют как ручные, так и автоматизированные задачи. В свою очередь, восприятие операторами надежности автоматизированной системы может влиять на способ взаимодействия оператора с системой. Эндсли (2017) описывает, как высокая надежность системы может привести к тому, что пользователи отключатся от систем мониторинга, тем самым увеличивая ошибки мониторинга, снижая ситуационную осведомленность и мешая оператору снова взять на себя управление системой в случае превышения ограничений производительности. [17] Эту самоуспокоенность можно резко уменьшить, если надежность автоматизации меняется со временем, а не остается постоянной, но не снижается с опытом и практикой. Как эксперты, так и неопытные участники могут проявлять предвзятость к автоматизации, а также самоуспокоенность в области автоматизации. Ни одну из этих проблем нельзя легко решить с помощью тренировок. [12]
Термин «самоуспокоенность в области автоматизации» впервые был использован в связи с авиационными происшествиями или инцидентами, в которых пилоты , авиадиспетчеры или другие работники не смогли в достаточной степени проверить системы, предполагая, что все в порядке, тогда как на самом деле авария вот-вот должна была произойти. . Самоуспокоенность операторов, независимо от того, связана ли она с автоматизацией или нет, уже давно признана ведущим фактором авиационных происшествий. [12]
Таким образом, восприятие надежности в целом может привести к некоторой иронии автоматизации , при которой дополнительная автоматизация может снизить когнитивную нагрузку, но увеличить возможность отслеживания ошибок. Напротив, низкий уровень автоматизации может увеличить рабочую нагрузку, но уменьшить возможность отслеживания ошибок. [18] Возьмем, к примеру, пилота, летящего в ненастную погоду, когда непрерывный гром мешает пилоту понять информацию, передаваемую диспетчером воздушного движения (УВД). Несмотря на то, сколько усилий затрачивается на понимание информации, передаваемой УВД, эффективность пилота ограничена источником информации, необходимой для выполнения задачи. Поэтому пилоту приходится полагаться на автоматические приборы в кабине, чтобы понять информацию о траектории полета. Если пилот считает автоматические датчики очень надежными, объем усилий, необходимых для понимания УВД и автоматических датчиков, может уменьшиться. Более того, если автоматические датчики считаются высоконадежными, пилот может игнорировать их, чтобы направить умственные ресурсы на расшифровку информации, передаваемой УВД. При этом пилот становится самодовольным наблюдателем, тем самым рискуя пропустить важную информацию, передаваемую автоматическими датчиками. Однако, если пилот посчитает, что автоматические датчики ненадежны, ему теперь придется интерпретировать информацию от УВД и автоматических датчиков одновременно. Это создает сценарии, в которых оператор может тратить ненужные когнитивные ресурсы, хотя автоматизация на самом деле надежна, но также увеличивает вероятность выявления потенциальных ошибок в датчиках погоды, если они возникнут. Чтобы откалибровать восприятие пилотом надежности, автоматизация должна быть спроектирована таким образом, чтобы поддерживать рабочую нагрузку на соответствующем уровне, а также обеспечивать, чтобы оператор продолжал заниматься задачами мониторинга. У оператора должна быть меньше шансов отказаться от мониторинга, когда надежность системы может измениться, по сравнению с системой, которая имеет постоянную надежность (Parasuraman, 1993). [19]
В некоторой степени самоуспокоенность пользователей сводит на нет преимущества автоматизации, и когда уровень надежности автоматизированной системы падает ниже определенного уровня, автоматизация больше не будет чистым активом. Одно исследование 2007 года показало, что такая автоматизация происходит, когда уровень надежности достигает примерно 70%. Другие исследования показали, что автоматизация с уровнем надежности ниже 70% может быть полезна людям, имеющим доступ к источникам необработанной информации, которые можно объединить с результатами автоматизации для повышения производительности. [12]
Смерть от GPS , когда смерть людей частично вызвана следованием неточным указаниям GPS, является еще одним примером самоуспокоенности автоматизации.
Секторы
[ редактировать ]Предвзятость автоматизации изучалась во многих областях исследований. [13] Это может быть особенно серьезной проблемой в авиации, медицине , управлении технологическими процессами и операциях военного управления . [12]
Авиация
[ редактировать ]Поначалу обсуждение предвзятости автоматизации в основном касалось авиации. Автоматизированные средства играют все большую роль в кабинах пилотов, играя все большую роль в управлении такими полетными задачами, как определение наиболее экономичных маршрутов, навигация, а также обнаружение и диагностика неисправностей систем. Однако использование этих средств может привести к менее внимательному и бдительному поиску и обработке информации со стороны людей. В некоторых случаях люди могут больше доверять дезинформации, предоставляемой бортовыми компьютерами, чем своим собственным навыкам. [7]
Важным фактором предвзятости автоматизации, связанной с авиацией, является степень, в которой пилоты считают себя ответственными за задачи, выполняемые автоматизированными средствами. Одно исследование пилотов показало, что присутствие второго члена экипажа в кабине не влияет на погрешность автоматизации. Исследование 1994 года сравнило влияние низкого и высокого уровня автоматизации (LOA) на эффективность пилотов и пришло к выводу, что пилоты, работающие с высоким уровнем автоматизации, тратят меньше времени на независимое размышление над полетными решениями. [12]
В другом исследовании все пилоты, получившие ложные автоматические оповещения с указанием выключить двигатель, сделали это, хотя те же самые пилоты в интервью настаивали, что они не будут реагировать на такое оповещение выключением двигателя, а вместо этого будут снизил мощность до холостого хода. Одно исследование 1998 года показало, что пилоты с примерно 440-часовым опытом полетов обнаружили больше сбоев в автоматизации, чем непилоты, хотя в обеих группах наблюдался эффект самоуспокоенности. Исследование, проведенное в 2001 году пилотами, использующими систему автоматизации кабины, систему индикации двигателя и оповещения экипажа (EICAS), продемонстрировало свидетельства самоуспокоенности. При использовании системы пилоты выявили меньше неисправностей двигателей, чем при выполнении задачи вручную. [12]
В исследовании 2005 года опытные авиадиспетчеры использовали высокоточное моделирование сценария УВД (свободный полет), который включал обнаружение конфликтов между «самоотделяющимися» самолетами. У них был доступ к автоматизированному устройству, которое выявляло потенциальные конфликты на несколько минут раньше времени. Когда устройство вышло из строя ближе к концу процесса моделирования, конфликт обнаружило значительно меньше контроллеров, чем когда ситуация обрабатывалась вручную. Другие исследования дали аналогичные результаты. [12]
Два исследования систематической ошибки автоматизации в авиации выявили более высокий уровень комиссионных ошибок, чем ошибок упущения, в то время как другое авиационное исследование выявило 55% коэффициентов упущений и 0% комиссионных. [13] Ошибки, связанные с автоматизацией, особенно распространены на этапе круиза. Когда у самолета China Airlines отключилась мощность одного двигателя, автопилот попытался исправить эту проблему, опустив левое крыло, что скрыло проблему от экипажа. Когда автопилот был отключен, самолет перевернулся вправо и круто снизился, причинив серьезные повреждения. Сбитие Боинга 747 Корейских авиалиний в 1983 году над советским воздушным пространством произошло потому, что корейский экипаж «полагался на неправильно настроенную автоматику и никогда не проверял свое продвижение вручную». [7]
Здравоохранение
[ редактировать ]Системы поддержки клинических решений (CDSS) предназначены для помощи в принятии клинических решений. Они обладают потенциалом добиться значительного улучшения в этом отношении и привести к улучшению результатов лечения пациентов. Тем не менее, хотя CDSS при правильном использовании приводит к общему улучшению производительности, он также вызывает ошибки, которые могут быть не распознаны из-за предвзятости автоматизации. Одна из опасностей заключается в том, что неверные советы, данные этими системами, могут заставить пользователей изменить правильное решение, которое они приняли самостоятельно. Учитывая весьма серьезный характер некоторых потенциальных последствий предвзятости автоматизации в сфере здравоохранения, особенно важно осознавать эту проблему, когда она возникает в клинических условиях. [13]
Иногда предвзятость к автоматизации в клинических условиях является серьезной проблемой, которая в конечном итоге делает CDSS контрпродуктивным; иногда это незначительная проблема, польза от которой перевешивает нанесенный ущерб. Одно исследование выявило большую предвзятость к автоматизации среди пожилых пользователей, но было отмечено, что это может быть результатом не возраста, а опыта. Исследования действительно показывают, что знакомство с CDSS часто приводит к эффектам десенсибилизации и привыкания. Хотя предвзятость к автоматизации чаще встречается среди людей, не имеющих опыта выполнения конкретной задачи, неопытные пользователи демонстрируют наибольшее улучшение производительности при использовании CDSS. В одном исследовании использование CDSS улучшило ответы врачей на 21%, с 29% до 50%, при этом 7% правильных ответов, не связанных с CDSS, были изменены неправильно. [13]
Исследование 2005 года показало, что, когда врачи первичной медико-санитарной помощи использовали электронные источники, такие как PubMed , Medline и Google , наблюдалось «небольшое или среднее» увеличение количества правильных ответов, в то время как в столь же небольшом проценте случаев врачи вводились в заблуждение их использованием. этих источников и заменил правильные ответы на неправильные. [12]
Исследования 2004 и 2008 годов, изучавшие влияние автоматизированных средств на диагностику рака молочной железы , обнаружили явные доказательства систематической ошибки автоматизации, связанной с ошибками упущения. Рак, диагностированный в 46% случаев без автоматизированных средств, был обнаружен только в 21% случаев с помощью автоматизированных средств, которые не смогли идентифицировать рак. [12]
Военный
[ редактировать ]Предвзятость к автоматизации может стать решающим фактором в использовании интеллектуальных систем поддержки принятия решений для операций военного управления. Одно исследование 2004 года показало, что эффекты предвзятости автоматизации способствовали ряду фатальных военных решений, включая с помощью дружественного огня убийства во время войны в Ираке . Исследователи стремились определить надлежащий уровень автоматизации систем поддержки принятия решений в этой области. [12]
Автомобильная промышленность
[ редактировать ]Самоуспокоенность в области автоматизации также является проблемой для автоматизированных систем вождения, в которых человеку приходится только контролировать систему или действовать в качестве запасного водителя. Это, например, обсуждается в отчете Национального совета по безопасности на транспорте о несчастном случае со смертельным исходом между испытательным автомобилем UBER и пешеходом Элейн Херцберг . [20]
Коррекция
[ редактировать ]Предвзятость автоматизации можно смягчить путем перепроектирования автоматизированных систем, чтобы уменьшить заметность дисплея, уменьшить сложность информации или использовать помощь на диване как вспомогательную, а не директивную информацию. [13] Обучение пользователей работе с автоматизированными системами, которые допускают преднамеренные ошибки, более эффективно снижает предвзятость автоматизации, чем простое сообщение им об ошибках. [21] Чрезмерная проверка и допрос автоматизированной помощи может увеличить нехватку времени и сложность задач, тем самым снижая выгоду, поэтому некоторые автоматизированные системы поддержки принятия решений уравновешивают положительные и отрицательные эффекты, а не пытаются устранить отрицательные эффекты. [14]
См. также
[ редактировать ]- Алгоритмическое смещение
- Автоматизация
- Интеллектуальная автоматизация
- Список когнитивных предубеждений
- Проблема с производительностью вне цикла
Ссылки
[ редактировать ]- ^ Каммингс, Мэри (2004). «Смещение автоматизации в интеллектуальных системах поддержки принятия критических по времени решений» (PDF) . 1-я техническая конференция AIAA по интеллектуальным системам (PDF) . дои : 10.2514/6.2004-6313 . ISBN 978-1-62410-080-2 . S2CID 10328335 . Архивировано из оригинала 1 ноября 2014 г.
{{cite book}}
: CS1 maint: bot: исходный статус URL неизвестен ( ссылка ) - ^ Брунер, Дж. С., и Тагиури, Р. 1954. «Восприятие людей». В Г. Линдзи (ред.), Справочник по социальной психологии (том 2) : 634–654. Ридинг, Массачусетс: Аддисон-Уэсли.
- ^ Мадхаван, П.; Вигманн, Д.А. (1 июля 2007 г.). «Сходства и различия между доверием человек-человек и человек-автоматизация: интегративный обзор». Теоретические вопросы эргономики . 8 (4): 277–301. дои : 10.1080/14639220500337708 . S2CID 39064140 .
- ^ Дзиндолет, Мэри Т.; Петерсон, Скотт А.; Помранки, Регина А.; Пирс, Линда Г.; Бек, Холл П. (2003). «Роль доверия в надежности автоматизации». Международный журнал человеко-компьютерных исследований . 58 (6): 697–718. дои : 10.1016/S1071-5819(03)00038-7 .
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г Скитка, Линда. «Автоматизация» . Университет Иллинойса . Университет Иллинойса в Чикаго . Проверено 16 января 2017 г.
- ↑ Перейти обратно: Перейти обратно: а б с Парасураман, Раджа; Райли, Виктор (1997). «Люди и автоматизация: использование, неправильное использование, неиспользование, злоупотребление». Человеческий фактор: Журнал Общества человеческого фактора и эргономики . 39 (2): 230–253. дои : 10.1518/001872097778543886 . S2CID 41149078 .
- ↑ Перейти обратно: Перейти обратно: а б с д Мозье, Кэтлин; Скитка, Линда; Хирс, Сьюзен; Бердик, Марк (1997). «Предвзятость автоматизации: принятие решений и производительность в высокотехнологичных кабинах» . Международный журнал авиационной психологии . 8 (1): 47–63. дои : 10.1207/s15327108ijap0801_3 . ПМИД 11540946 .
- ↑ Перейти обратно: Перейти обратно: а б с д Лайель, Дэвид; Койера, Энрико (август 2016 г.). «Предвзятость автоматизации и сложность проверки: систематический обзор» . Журнал Американской ассоциации медицинской информатики . 24 (2): 424–431. дои : 10.1093/jamia/ocw105 . ПМЦ 7651899 . ПМИД 27516495 .
- ^ Тверский, А.; Канеман, Д. (1974). «Суждение в условиях неопределенности: эвристика и предубеждения». Наука . 185 (4157): 1124–1131. Бибкод : 1974Sci...185.1124T . дои : 10.1126/science.185.4157.1124 . ПМИД 17835457 . S2CID 143452957 .
- ↑ Перейти обратно: Перейти обратно: а б Викенс, Кристофер Д.; Холландс, Джастин Г.; Банбери, Саймон; Парасураман, Раджа (2015). Инженерная психология и деятельность человека (4-е изд.). Психология Пресс. стр. 335–338. ISBN 9781317351320 .
- ↑ Перейти обратно: Перейти обратно: а б с Мозье, Кэтлин Л.; Данбар, Мелиса; Макдоннелл, Лори; Скитка, Линда Дж.; Бердик, Марк; Розенблатт, Бонни (1998). «Предвзятость и ошибки автоматизации: команды лучше, чем отдельные люди?». Материалы ежегодного собрания Общества человеческого фактора и эргономики . 42 (3): 201–205. дои : 10.1177/154193129804200304 . S2CID 62603631 .
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г час я дж к л м н тот п Парасураман, Раджа; Манзи, Дитрих (июнь 2010 г.). «Самодовольство и предвзятость в использовании человеком автоматизации: интеграция внимания» . Журнал Общества человеческого фактора и эргономики . 52 (3): 381–410. дои : 10.1177/0018720810376055 . ПМИД 21077562 . S2CID 2279803 . Проверено 17 января 2017 г.
- ↑ Перейти обратно: Перейти обратно: а б с д и ж г час я дж к л м Годдард, К .; Рудсари, А.; Вятт, Джей Си (2012). «Предвзятость автоматизации: систематический обзор частоты, медиаторов эффекта и средств смягчения» . Журнал Американской ассоциации медицинской информатики . 19 (1): 121–127. дои : 10.1136/amiajnl-2011-000089 . ПМК 3240751 . ПМИД 21685142 .
- ↑ Перейти обратно: Перейти обратно: а б Альберди, Эухенио; Стригини, Лоренцо; Повякало, Андрей А.; Эйтон, Питер (2009). «Почему решения людей иногда ухудшаются при компьютерной поддержке?» (PDF) . Компьютерная безопасность, надежность и защищенность . Конспекты лекций по информатике. Том. 5775. Шпрингер Берлин Гейдельберг. стр. 18–31. дои : 10.1007/978-3-642-04468-7_3 . ISBN 978-3-642-04467-0 .
- ^ Годдард, Кейт; Рудсари, Абдул; Вятт, Джереми К. (2014). «Предвзятость автоматизации: эмпирические результаты оценки влияющих факторов». Международный журнал медицинской информатики . 83 (5): 368–375. doi : 10.1016/j.ijmedinf.2014.01.001 . ПМИД 24581700 .
- ↑ Перейти обратно: Перейти обратно: а б Мозье, Кэтлин; Скитка, Линда; Данбар, Мелиса; Макдоннелл, Лори (13 ноября 2009 г.). «Экипажи и предвзятость к автоматизации: преимущества командной работы?». Международный журнал авиационной психологии . 11 (1): 1–14. дои : 10.1207/S15327108IJAP1101_1 . S2CID 4132245 .
- ^ Эндсли, Мика (2017). «Отсюда к урокам автономии, извлеченным из исследований в области автоматизации человека» . Человеческий фактор . 59 (1): 5–27. дои : 10.1177/0018720816681350 . ПМИД 28146676 . S2CID 3771328 .
- ^ Бейнбридж, Лисанн (1983). «Ирония автоматизации» (PDF) . Автоматика . 19 (6): 775–779. дои : 10.1016/0005-1098(83)90046-8 . S2CID 12667742 . Архивировано из оригинала (PDF) 13 сентября 2020 г. Проверено 7 декабря 2019 г.
- ^ Парасураман, Раджа; Моллой, Роберт; Сингх, Индрамани Л. (1993). «Последствия самоуспокоенности, вызванной автоматизацией», для производительности . Международный журнал авиационной психологии . 3 : 1–23. дои : 10.1207/s15327108ijap0301_1 .
- ^ «Столкновение транспортного средства, управляемого усовершенствованной автоматизированной системой вождения, и пешехода» . www.ntsb.gov . Проверено 19 декабря 2019 г.
- ^ Банер, Дж. Элин; Хюпер, Анке-Доротея; Манзи, Дитрих (2008). «Неправильное использование автоматизированных средств принятия решений: самоуспокоенность, предвзятость автоматизации и влияние опыта обучения». Международный журнал человеко-компьютерных исследований . 66 (9): 688–699. дои : 10.1016/j.ijhcs.2008.06.001 .
Дальнейшее чтение
[ редактировать ]- Годдард, К ; Рудсари, А; Вятт, Джей Си (2011). «Предвзятость автоматизации – скрытая проблема использования системы поддержки принятия клинических решений» . Международные перспективы медицинской информатики . Исследования в области медицинских технологий и информатики. Том. 164. стр. 17–22. ISBN 978-1-60750-708-6 . ПМИД 21335682 .