Jump to content

Автоматизированное принятие решений

(Перенаправлено с «Автоматическое решение» )

Автоматизированное принятие решений ( ADM ) предполагает использование данных, машин и алгоритмов для принятия решений в различных контекстах, включая государственное управление , бизнес, здравоохранение, образование, право, занятость, транспорт, средства массовой информации и развлечения, с различной степенью человеческого участия. надзор или вмешательство. ADM включает в себя крупномасштабные данные из различных источников, таких как базы данных, текст, социальные сети, датчики, изображения или речь, которые обрабатываются с использованием различных технологий, включая компьютерное программное обеспечение, алгоритмы, машинное обучение , обработку естественного языка , искусственный интеллект , дополненную реальность. интеллект и робототехника . Растущее использование автоматизированных систем принятия решений (ADMS) в различных контекстах представляет множество преимуществ и проблем для человеческого общества, требуя рассмотрения технических, юридических, этических, социальных, образовательных, экономических и медицинских последствий. [1] [2] [3]

Существуют разные определения ADM в зависимости от уровня автоматизации. Некоторые определения предполагают, что ADM предполагает решения, принимаемые чисто технологическими средствами без участия человека. [4] ЕС например, Общий регламент по защите данных (статья 22). Тем не менее, технологии и приложения ADM могут принимать разные формы, начиная от систем поддержки принятия решений , которые дают рекомендации людям, принимающим решения, по которым следует действовать, что иногда называют расширенным интеллектом. [5] или «совместное принятие решений», [2] к полностью автоматизированным процессам принятия решений, которые принимают решения от имени отдельных лиц или организаций без участия человека. [6] Модели, используемые в автоматизированных системах принятия решений, могут быть как простыми, от контрольных списков и деревьев решений, так и до искусственного интеллекта и глубоких нейронных сетей (DNN).

С 1950-х годов компьютеры прошли путь от базовой обработки до способности выполнять сложные, неоднозначные и высококвалифицированные задачи, такие как распознавание изображений и речи, игровой процесс, научный и медицинский анализ и выводы из нескольких источников данных. ADM в настоящее время все чаще применяется во всех секторах общества и во многих различных областях, от развлечений до транспорта.

Система ADM (ADMS) может включать в себя несколько точек принятия решений, наборов данных и технологий (ADMT) и может находиться в более крупной административной или технической системе, такой как система уголовного правосудия или бизнес-процесс.

Автоматизированное принятие решений предполагает использование данных в качестве входных данных для анализа в рамках процесса, модели или алгоритма или для обучения и создания новых моделей. [7] Системы ADM могут использовать и подключать широкий спектр типов и источников данных в зависимости от целей и контекста системы, например, данные датчиков для беспилотных автомобилей и робототехники, идентификационные данные для систем безопасности, демографические и финансовые данные для государственного управления. , медицинские справки по здоровью, судимости по закону. Иногда для этого могут потребоваться огромные объемы данных и вычислительные мощности.

Качество данных

[ редактировать ]

Качество доступных данных и их возможность использования в системах ADM имеют основополагающее значение для результатов. Зачастую это весьма проблематично по многим причинам. Наборы данных часто сильно варьируются; корпорации или правительства могут контролировать крупномасштабные данные, ограниченные по соображениям конфиденциальности или безопасности, неполные, предвзятые, ограниченные по времени или охвату, измеряющие и описывающие термины по-разному, а также многие другие проблемы.

Чтобы машины могли учиться на данных, часто требуются большие корпуса, получить или вычислить которые может быть сложно; однако там, где они были доступны, они обеспечили значительные прорывы, например, в диагностике рентгенологического исследования грудной клетки. [8]

АДМ Технологии

[ редактировать ]

Технологии автоматизированного принятия решений (ADMT) — это цифровые инструменты с программным кодированием, которые автоматизируют преобразование входных данных в выходные данные, внося свой вклад в работу автоматизированных систем принятия решений. [7] В приложениях и системах ADM используется широкий спектр технологий.

ADMT, включающие базовые вычислительные операции

  • Поиск (включает 1-2-1, 1-2-множество, сопоставление/объединение данных)
  • Соответствие (две разные вещи)
  • Математический расчет (формула)

ADMT для оценки и группировки:

ADMT, относящиеся к пространству и потокам:

ADMT для обработки сложных форматов данных

Другой АДМТ

Машинное обучение

[ редактировать ]

Машинное обучение (МО) включает в себя обучение компьютерных программ с помощью больших наборов данных и примеров, позволяющих учиться на собственном опыте и решать проблемы. [2] Машинное обучение может использоваться для генерации и анализа данных, а также для выполнения алгоритмических вычислений и применяется для распознавания изображений и речи, перевода, текста, данных и моделирования. Хотя машинное обучение существует уже некоторое время, оно становится все более мощным благодаря недавним достижениям в обучении глубоких нейронных сетей (DNN), а также резкому увеличению емкости хранения данных и вычислительной мощности с помощью сопроцессоров графического процессора и облачных вычислений. [2]

Системы машинного обучения, основанные на базовых моделях, работают на глубоких нейронных сетях и используют сопоставление с образцом для обучения одной огромной системы на больших объемах общих данных, таких как текст и изображения. Ранние модели, как правило, начинались с нуля для каждой новой проблемы, однако с начала 2020-х годов многие из них можно адаптировать к новым проблемам. [9] Примеры этих технологий включают компании Open AI DALL-E (программу создания изображений) и различные языковые модели GPT , а также программу языковых моделей Google PaLM.

Приложения

[ редактировать ]

ADM используется для замены или расширения человеческого процесса принятия решений как государственными, так и частными организациями по ряду причин, в том числе для повышения согласованности, повышения эффективности, снижения затрат и предоставления новых решений сложных проблем. [10]

В настоящее время ведутся исследования и разработки в области использования технологий для оценки качества аргументации. [11] [12] [13] оценивать аргументированные эссе [14] [15] и судить дебаты. [16] [17] [18] [19] Потенциальные применения этих технологий аргументации охватывают образование и общество. Сценарии, которые следует учитывать в этом отношении, включают в себя оценку и оценку разговорной , математической , научной , интерпретационной , юридической и политической аргументации и дебатов.

В правовых системах по всему миру алгоритмические инструменты, такие как инструменты оценки рисков (RAI), используются для дополнения или замены человеческих суждений судей, государственных служащих и полицейских во многих контекстах. [20] В Соединенных Штатах RAI используется для получения оценок, позволяющих прогнозировать риск рецидива при предварительном заключении и вынесении приговоров. [21] оценить условно-досрочное освобождение заключенных и спрогнозировать «горячие точки» будущей преступности. [22] [23] [24] Эти оценки могут привести к автоматическим последствиям или могут использоваться для обоснования решений, принимаемых должностными лицами системы правосудия. [20] В Канаде ADM используется с 2014 года для автоматизации определенных действий, проводимых сотрудниками иммиграционной службы, а также для поддержки оценки некоторых заявлений иммигрантов и посетителей. [25]

Экономика

[ редактировать ]

Автоматизированные системы принятия решений используются в определенных компьютерных программах для создания заказов на покупку и продажу, связанных с конкретными финансовыми операциями, и автоматического представления заказов на международных рынках. Компьютерные программы могут автоматически генерировать заказы на основе заранее определенного набора правил, используя торговые стратегии, основанные на техническом анализе, сложных статистических и математических вычислениях или входных данных из других электронных источников.

Непрерывный аудит

[ редактировать ]

Непрерывный аудит использует передовые аналитические инструменты для автоматизации процессов аудита . Он может использоваться в частном секторе коммерческими предприятиями и в государственном секторе государственными организациями и муниципалитетами. [26] Поскольку искусственный интеллект и машинное обучение продолжают развиваться, бухгалтеры и аудиторы могут использовать все более сложные алгоритмы, которые принимают решения, например, о том, что является аномальным, следует ли уведомлять персонал и как расставлять приоритеты в задачах, возложенных на персонал.

СМИ и развлечения

[ редактировать ]

Цифровые СМИ, развлекательные платформы и информационные службы все чаще предоставляют контент аудитории через автоматизированные рекомендательные системы на основе демографической информации, предыдущего выбора, совместной фильтрации или фильтрации на основе контента. [27] Сюда входят музыкальные и видеоплатформы, издательское дело, медицинская информация, базы данных продуктов и поисковые системы. Многие рекомендательные системы также предоставляют пользователям некоторую свободу действий при принятии рекомендаций и включают управляемые данными алгоритмические циклы обратной связи, основанные на действиях пользователя системы. [6]

Крупномасштабные языковые модели машинного обучения и программы создания изображений, разрабатываемые такими компаниями, как OpenAI и Google, в 2020-х годах имеют ограниченный доступ, однако они, вероятно, найдут широкое применение в таких областях, как реклама, копирайтинг , стоковые изображения и графический дизайн, а также другие области, такие как журналистика и право. [9]

Интернет-реклама тесно интегрирована со многими цифровыми медиа-платформами, веб-сайтами и поисковыми системами и часто предполагает автоматическую доставку рекламных объявлений в различных форматах. «Программатическая» онлайн-реклама предполагает автоматизацию продажи и доставки цифровой рекламы на веб-сайтах и ​​платформах с помощью программного обеспечения, а не прямого принятия решений человеком. [27] Иногда ее называют водопадной моделью, которая включает в себя последовательность шагов в различных системах и игроках: издателях и платформах управления данными, пользовательских данных, рекламных серверах и данных об их доставке, системах управления запасами, рекламных трейдерах и рекламных биржах. [27] В этой системе есть различные проблемы, включая отсутствие прозрачности для рекламодателей, непроверяемые показатели, отсутствие контроля над рекламными площадками, отслеживание аудитории и проблемы конфиденциальности. [27] Интернет-пользователи, которым не нравится реклама, приняли контрмеры, такие как технологии блокировки рекламы , которые позволяют пользователям автоматически фильтровать нежелательную рекламу с веб-сайтов и некоторых интернет-приложений. В 2017 году 24% австралийских интернет-пользователей имели блокировщики рекламы. [28]

Здоровье

[ редактировать ]

Модели изображений искусственного интеллекта с глубоким обучением используются для анализа рентгеновских снимков и выявления дегенерации желтого пятна при состоянии глаз.

Социальные услуги

[ редактировать ]

Правительства внедряют цифровые технологии для обеспечения более эффективного управления и социальных услуг с начала 2000-х годов, которые часто называют электронным правительством . Многие правительства во всем мире в настоящее время используют автоматизированные, алгоритмические системы для профилирования и таргетирования политики и услуг, включая алгоритмическую полицейскую деятельность, основанную на рисках, слежку за сортировкой людей, такую ​​​​как проверка в аэропортах, предоставление услуг на основе профилей риска в области защиты детей, предоставление услуг по трудоустройству и государственному управлению. безработные. [29] Значительное применение ADM в социальных службах связано с использованием прогнозной аналитики – например, прогнозирование рисков для детей от жестокого обращения/пренебрежения в сфере защиты детей , прогнозирование рецидивизма или преступлений в полиции и уголовном правосудии, прогнозирование мошенничества с социальным обеспечением/налогами в системах соблюдения требований. , прогнозы долгосрочной безработицы в службах занятости. Исторически эти системы основывались на стандартном статистическом анализе, однако с начала 2000-х годов машинное обучение получило все большее развитие и внедрение. Ключевые проблемы, связанные с использованием ADM в социальных службах, включают предвзятость, справедливость, подотчетность и объяснимость, что относится к прозрачности причин решения и способности объяснить основу, на которой машина приняла решение. [29] Например, федеральное агентство социального обеспечения Австралии Centrelink разработало и внедрило автоматизированные процессы обнаружения и взыскания долгов, что привело ко многим случаям неправомерного взыскания долгов в рамках так называемой схемы RoboDebt . [30]

Транспорт и мобильность

[ редактировать ]

Подключенная и автоматизированная мобильность (CAM) включает в себя автономные транспортные средства, такие как беспилотные автомобили и другие виды транспорта, которые используют автоматизированные системы принятия решений для замены различных аспектов управления транспортным средством человеком. [31] Уровень может варьироваться от уровня 0 (полное вождение человека) до уровня 5 (полная автономия). [2] На уровне 5 машина способна принимать решения по управлению транспортным средством на основе моделей данных и геопространственных карт, а также датчиков реального времени и обработки окружающей среды. Автомобили с уровнями от 1 до 3 уже доступны на рынке в 2021 году. В 2016 году правительство Германии учредило «Комиссию по этике автоматизированного и подключенного вождения», которая рекомендовала разрабатывать подключенные и автоматизированные транспортные средства (CAV), если эти системы вызывают меньше аварий, чем люди. драйверы (положительный баланс рисков). Он также предоставил 20 этических правил для адаптации автоматизированного и подключенного вождения. [32] В 2020 году стратегия Европейской комиссии по CAM рекомендовала принять их в Европе для снижения смертности на дорогах и снижения выбросов, однако беспилотные автомобили также вызывают множество политических, безопасности и юридических вопросов с точки зрения ответственности и принятия этических решений в случае аварий. , а также вопросы конфиденциальности. [31] Вопросы доверия к автономным транспортным средствам и обеспокоенность сообщества по поводу их безопасности являются ключевыми факторами, которые необходимо решить, если беспилотные автомобили получат широкое распространение. [33]

Наблюдение

[ редактировать ]

Автоматизированный сбор цифровых данных с помощью датчиков, камер, онлайн-транзакций и социальных сетей значительно расширил масштабы и цели методов и учреждений наблюдения в государственном и коммерческом секторах. [34] В результате произошел серьезный переход от целевого наблюдения за подозреваемыми к возможности контролировать все население. [35] Уровень наблюдения, который теперь возможен в результате автоматизированного сбора данных, был описан как капитализм наблюдения или экономика наблюдения, чтобы указать, что цифровые медиа включают крупномасштабное отслеживание и накопление данных при каждом взаимодействии.

[ редактировать ]

Автоматизированные системы принятия решений имеют множество социальных, этических и юридических последствий. Высказанные опасения включают отсутствие прозрачности и оспариваемости решений, посягательство на частную жизнь и наблюдение, усиление системной предвзятости и неравенства из-за предвзятости данных и алгоритмов , права интеллектуальной собственности, распространение дезинформации через медиа-платформы, административную дискриминацию, риск и ответственность, безработицу и многие другие. [36] [37] Поскольку ADM становится все более повсеместным, возрастает необходимость решения этических проблем для обеспечения надлежащего управления в информационных обществах. [38]

Системы ADM часто основаны на машинном обучении и алгоритмах, которые нелегко просмотреть или проанализировать, что приводит к опасениям, что они представляют собой системы «черного ящика», которые не являются прозрачными и подотчетными. [2]

В отчете лаборатории Citizen в Канаде содержится призыв к критическому анализу применения ADM в различных областях с точки зрения прав человека, чтобы гарантировать, что использование автоматизированного принятия решений не приводит к нарушениям прав, включая права на равенство и недискриминацию; свобода передвижения, выражения мнений, религии и ассоциаций; права на неприкосновенность частной жизни и права на жизнь, свободу и безопасность личности. [25]

Законодательные меры реагирования на ADM включают:

Предвзятость

[ редактировать ]

ADM может включать в себя алгоритмическую предвзятость, возникающую из-за:

  • Источники данных, в которых входные данные являются предвзятыми при их сборе или выборе. [37]
  • Технический дизайн алгоритма, например, когда были сделаны предположения о том, как будет вести себя человек. [44]
  • Возникающая предвзятость, когда применение ADM в непредвиденных обстоятельствах приводит к предвзятому результату. [44]

Объясняемость

[ редактировать ]

Вопросы предвзятых или неверных данных или алгоритмов, а также опасения, что некоторые ADM представляют собой технологии «черного ящика», закрытые для человеческого контроля или допроса, привели к тому, что называется проблемой объяснимости или права на объяснение автоматических решений и ИИ. Это также известно как объяснимый ИИ (XAI) или интерпретируемый ИИ, при котором результаты решения могут быть проанализированы и поняты людьми. Считается, что алгоритмы XAI следуют трем принципам: прозрачность, интерпретируемость и объяснимость.

Информационная асимметрия

[ редактировать ]

Автоматизированное принятие решений может увеличить информационную асимметрию между людьми, чьи данные поступают в систему, и платформами и системами принятия решений, способными выводить информацию из этих данных. С другой стороны, было замечено, что в финансовой торговле асимметрия информации между двумя агентами с искусственным интеллектом может быть намного меньше, чем между двумя агентами-людьми или между агентами-человеком и машиной. [45]

Области исследований

[ редактировать ]

Многие академические дисциплины и области все чаще обращают свое внимание на разработку, применение и последствия ADM, включая бизнес, информатику, взаимодействие человека с компьютером (HCI), право, государственное управление, а также средства массовой информации и коммуникации. Автоматизация медиаконтента и алгоритмически управляемых новостей, видео и другого контента через поисковые системы и платформы является основным направлением академических исследований в области медиаисследований. [27]

Конференция ACM по справедливости, подотчетности и прозрачности (ACM FAccT) была создана в 2018 году для изучения прозрачности и объяснимости в контексте социотехнических систем, многие из которых включают ADM и ИИ.

Ключевые исследовательские центры, исследующие ADM, включают:

См. также

[ редактировать ]
  1. ^ Марабелли, Марко; Ньюэлл, Сью; Хандунге, Валери (2021). «Жизненный цикл алгоритмических систем принятия решений: организационный выбор и этические проблемы» . Журнал стратегических информационных систем . 30 (1): 101683. doi : 10.1016/j.jsis.2021.101683 . Проверено 1 ноября 2022 г.
  2. ^ Jump up to: а б с д и ж Ларус, Джеймс; Хэнкин, Крис; Карсон, Сири Гранум; Кристен, Маркус; Крафа, Сильвия; Грау, Оливер; Киршнер, Клод; Ноулз, Бран; МакГеттрик, Эндрю; Тамбурри, Дамиан Эндрю; Вертнер, Ханнес (2018). Когда решают компьютеры: Европейские рекомендации по автоматизированному принятию решений с помощью машинного обучения . Нью-Йорк: Ассоциация вычислительной техники. дои : 10.1145/3185595 .
  3. ^ Мёкандер, Якоб; Морли, Джессика; Таддео, Мариаросария; Флориди, Лучано (06 июля 2021 г.). «Этический аудит автоматизированных систем принятия решений: характер, масштабы и ограничения» . Наука и инженерная этика . 27 (4): 44. arXiv : 2110.10980 . дои : 10.1007/s11948-021-00319-4 . ISSN   1471-5546 . ПМК   8260507 . ПМИД   34231029 .
  4. ^ Офис комиссара по информации Великобритании (24 сентября 2021 г.). Руководство по Общему регламенту защиты данных Великобритании (GDPR) (Отчет). Офис комиссара по информации Великобритании. Архивировано из оригинала 21 декабря 2018 г. Проверено 05 октября 2021 г.
  5. ^ Криггер, Э.; Хури, К. (01 февраля 2019 г.). «Разработка политики в области дополненного интеллекта в здравоохранении» . Журнал этики АМА . 21 (2): E188–191. дои : 10.1001/amajethics.2019.188 . ISSN   2376-6980 . ПМИД   30794129 . S2CID   73490120 .
  6. ^ Jump up to: а б Араужо, Тео; Хельбергер, Натали; Круикемайер, Санне; де Врез, Клаас Х. (01 сентября 2020 г.). «Мы доверяем искусственному интеллекту? Представления об автоматизированном принятии решений с помощью искусственного интеллекта» (PDF) . ИИ и общество . 35 (3): 611–623. дои : 10.1007/s00146-019-00931-w . hdl : 11245.1/b73d4d3f-8ab9-4b63-b8a8-99fb749ab2c5 . ISSN   1435-5655 . S2CID   209523258 .
  7. ^ Jump up to: а б Алгоритм Watch (2020). Общество автоматизации 2019 . Алгоритм наблюдения (отчет) . Проверено 28 февраля 2022 г.
  8. ^ Си, Джаррел Сай; Тан, Сирил Х.М.; Бухлак, Куинлан Д; Холт, Ксавье Дж; Уордман, Джеффри Б; Аймолдин, Ануар; Эсмаили, Назанин; Ахмад, Хасан; Фам, Хунг; Ламберт, Джон Ф; Хачи, Бен (август 2021 г.). «Влияние комплексной модели глубокого обучения на точность интерпретации рентгенограмм грудной клетки рентгенологами: ретроспективное исследование с участием нескольких читателей» . Ланцет «Цифровое здоровье» . 3 (8): е496–е506. дои : 10.1016/s2589-7500(21)00106-0 . ISSN   2589-7500 . ПМИД   34219054 . S2CID   235735320 .
  9. ^ Jump up to: а б Сносуэлл, Аарон Дж.; Хантер, Дэн (13 апреля 2022 г.). «Роботы создают образы и рассказывают анекдоты. 5 вещей, которые нужно знать о фундаментальных моделях и следующем поколении ИИ» . Разговор . Проверено 21 апреля 2022 г.
  10. ^ Таддео, Мариаросария; Флориди, Лучано (24 августа 2018 г.). «Как ИИ может быть силой добра» . Наука . 361 (6404): 751–752. Бибкод : 2018Sci...361..751T . дои : 10.1126/science.aat5991 . ISSN   0036-8075 . ПМИД   30139858 . S2CID   52075037 .
  11. ^ Ваксмут, Хеннинг; Надери, Нона; Хоу, Юфан; Билу, Йонатан; Прабхакаран, Винодкумар; Тайм, Тим; Херст, Грэма; Штейн, Бенно (2017). «Вычислительная оценка качества аргументации на естественном языке» (PDF) . Материалы 15-й конференции Европейского отделения Ассоциации компьютерной лингвистики . стр. 176–187.
  12. ^ Ваксмут, Хеннинг; Надери, Нона; Хаберналь, Иван; Хоу, Юфан; Херст, Грэм; Гуревич Ирина; Штейн, Бенно (2017). «Оценка качества аргументации: теория против практики» (PDF) . Материалы 55-го ежегодного собрания Ассоциации компьютерной лингвистики . стр. 250–255.
  13. ^ Гретц, Шай; Фридман, Рони; Коэн-Карлик, Эдо; Толедо, Асаф; Лахав, Дэн; Ааронов, Ранит; Слоним, Ноам (2020). «Крупномасштабный набор данных для ранжирования качества аргументов: построение и анализ» . Материалы конференции AAAI по искусственному интеллекту . Том. 34. С. 7805–7813.
  14. ^ Грин, Нэнси (2013). «На пути к автоматизированному анализу студенческих аргументов» . Международная конференция по искусственному интеллекту в образовании . Спрингер. стр. 591–594. дои : 10.1007/978-3-642-39112-5_66 .
  15. ^ Персинг, Исаак; Нг, Винсент (2015). «Моделирование силы аргументов в студенческих эссе» (PDF) . Материалы 53-го ежегодного собрания Ассоциации компьютерной лингвистики и 7-й Международной совместной конференции по обработке естественного языка . стр. 543–552.
  16. ^ Брильман, Мартен; Шерер, Стефан (2015). «Мультимодальная прогнозирующая модель успешных дебатёров, или как я научился влиять на голоса» . Материалы 23-й международной конференции ACM по мультимедиа . стр. 149–158. дои : 10.1145/2733373.2806245 .
  17. ^ Поташ, Питер; Румшиский, Анна (2017). «На пути к автоматизации дебатов: повторяющаяся модель прогнозирования победителей дебатов» (PDF) . Материалы конференции 2017 года по эмпирическим методам обработки естественного языка . стр. 2465–2475.
  18. ^ Сантос, Педро; Гуревич, Ирина (2018). «Мультимодальное предсказание впечатления аудитории в политических дебатах» . Материалы 20-й Международной конференции по мультимодальному взаимодействию . стр. 1–6. дои : 10.1145/3281151.3281157 .
  19. ^ Ван, Лу; Бошан, Ник; Шугарс, Сара; Цинь, Кечен (2017). «Победа по существу: совместное влияние содержания и стиля на результаты дебатов» . Труды Ассоциации компьютерной лингвистики . 5 . Массачусетский технологический институт Пресс: 219–232. arXiv : 1705.05040 . дои : 10.1162/tacl_a_00057 . S2CID   27803846 .
  20. ^ Jump up to: а б Чохлас-Вуд, Алекс (2020). Понимание инструментов оценки рисков в уголовном правосудии . Брукингский институт.
  21. ^ Ангвин, Джулия ; Ларсон, Джефф; Матту, Сурья (23 мая 2016 г.). «Машинный уклон» . ПроПублика . Архивировано из оригинала 04 октября 2021 г. Проверено 4 октября 2021 г.
  22. ^ Ниссан, Ефрем (01 августа 2017 г.). «Настоящее и прогнозируемое влияние цифровых технологий и искусственного интеллекта на адвокатуру, судейство, полицейскую деятельность и правоохранительную деятельность». ИИ и общество . 32 (3): 441–464. дои : 10.1007/s00146-015-0596-5 . ISSN   1435-5655 . S2CID   21115049 .
  23. ^ Дрессел, Джулия; Фарид, Хани (2018). «Точность, справедливость и пределы прогнозирования рецидивизма» . Достижения науки . 4 (1): eaao5580. Бибкод : 2018SciA....4.5580D . дои : 10.1126/sciadv.aao5580 . ПМЦ   5777393 . ПМИД   29376122 .
  24. ^ Фергюсон, Эндрю Гатри (2017). Рост полицейской деятельности, связанной с большими данными: наблюдение, гонка и будущее правоохранительных органов . Нью-Йорк: Нью-Йоркский университет Пресс. ISBN  9781479869978 .
  25. ^ Jump up to: а б Мольнар, Петра; Гилл, Лекс (2018). Боты у ворот: анализ прав человека автоматизированного принятия решений в канадской системе иммиграции и беженцев . Citizen Lab и Международная программа по правам человека (юридический факультет Университета Торонто).
  26. ^ Эззамури, Науаль; Хулстейн, Йорис (2018). «Постоянный мониторинг и аудит в муниципалитетах». Материалы 19-й ежегодной международной конференции по исследованиям цифрового правительства: управление в эпоху данных . стр. 1–10. дои : 10.1145/3209281.3209301 .
  27. ^ Jump up to: а б с д и Томас, Джулиан (2018). «Программирование, фильтрация, блокировка рекламы: автоматизация рекламы и СМИ» . Медиа Интернэшнл Австралия . 166 (1): 34–43. дои : 10.1177/1329878X17738787 . ISSN   1329-878X . S2CID   149139944 . Q110607881.
  28. ^ Ньюман, Н.; Флетчер, Р; Калогеропулос, А (2017). Отчет о цифровых новостях Института Рейтер (Отчет). Институт исследования журналистики Reuters. Архивировано из оригинала 17 августа 2013 г. Проверено 19 января 2022 г.
  29. ^ Jump up to: а б Хенман, Пол (2 января 2019 г.). «Об алгоритмах, приложениях и советах: цифровая социальная политика и предоставление услуг» . Журнал азиатской государственной политики . 12 (1): 71–89. дои : 10.1080/17516234.2018.1495885 . ISSN   1751-6234 . S2CID   158229201 .
  30. ^ Хенман, Пол (2017). «Компьютер говорит «долг»: к критической социологии алгоритмов и алгоритмическому управлению» . Данные для политики 2017: Правительство по алгоритму? Конференция, Лондон . дои : 10.5281/ZENODO.884116 . S2CID   158228131 .
  31. ^ Jump up to: а б Генеральный директорат ЕС по исследованиям и инновациям (2020 г.). Этика подключенных и автоматизированных транспортных средств: рекомендации по безопасности дорожного движения, конфиденциальности, справедливости, объяснимости и ответственности . LU: Издательское бюро Европейского Союза. дои : 10.2777/035239 . ISBN  978-92-76-17867-5 .
  32. ^ Федеральное министерство транспорта и цифровых инфраструктур. Полный отчет Комиссии по этике об автоматизированном и подключенном вождении . www.bmvi.de (Отчет). Правительство Германии. Архивировано из оригинала 4 сентября 2017 г. Проверено 23 ноября 2021 г.
  33. ^ Раатс, Каспар; Форс, Вайке; Пинк, Сара (01 сентября 2020 г.). «Доверие к беспилотным транспортным средствам: междисциплинарный подход» . Междисциплинарные перспективы транспортных исследований . 7 : 100201. doi : 10.1016/j.trip.2020.100201 . ISSN   2590-1982 . S2CID   225261480 .
  34. ^ Андреевич, Марк (2021). «Автоматизированное наблюдение». Справочник Routledge по цифровым медиа и коммуникациям . Лия А. Ливроу, Брайан Лоудер. Абингдон, Оксон: Тейлор и Фрэнсис. ISBN  978-1-315-61655-1 . OCLC   1198978596 .
  35. ^ Паскуале, Франк (2016). Общество черного ящика: секретные алгоритмы, управляющие деньгами и информацией . Кембридж, Массачусетс: Издательство Гарвардского университета. ISBN  978-0-674-97084-7 . OCLC   946975299 .
  36. ^ Юбэнкс, Вирджиния (2018). Автоматизация неравенства: как высокотехнологичные инструменты определяют, контролируют и наказывают бедных (Первое изд.). Нью-Йорк, штат Нью-Йорк. ISBN  978-1-250-07431-7 . OCLC   1013516195 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  37. ^ Jump up to: а б Сафия Ноубл (2018), Алгоритмы угнетения: как поисковые системы усиливают расизм , New York University Press , OL   19734838W , Wikidata   Q48816548
  38. ^ Кэт, Коринн (28 ноября 2018 г.). «Управление искусственным интеллектом: этические, юридические и технические возможности и проблемы» . Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180080. Бибкод : 2018RSPTA.37680080C . дои : 10.1098/rsta.2018.0080 . ПМК   6191666 . ПМИД   30322996 .
  39. ^ «ЕВР-Лекс-32016R0679-RU-ЕВР-Лекс» . eur-lex.europa.eu . Проверено 13 сентября 2021 г.
  40. ^ Бркан, Майя (12 июня 2017 г.). «Принятие решений с помощью искусственного интеллекта в соответствии с общими правилами защиты данных». Материалы 16-й Международной конференции по искусственному интеллекту и праву . ИКАИЛ '17. Лондон, Великобритания: Ассоциация вычислительной техники. стр. 3–8. дои : 10.1145/3086512.3086513 . ISBN  978-1-4503-4891-1 . S2CID   23933541 .
  41. ^ Суд Европейского Союза. «Запрос на предварительное решение Verwaltungsgericht Wien (Австрия), поданный 16 марта 2022 года – CK (Дело C-203/22)» .
  42. ^ Jump up to: а б Эдвардс, Лилиан; Вил, Майкл (май 2018 г.). «Порабощение алгоритма: от «права на объяснение» к «праву на лучшие решения»?» . Безопасность и конфиденциальность IEEE . 16 (3): 46–54. arXiv : 1803.07540 . дои : 10.1109/MSP.2018.2701152 . ISSN   1540-7993 . S2CID   4049746 .
  43. ^ Биннс, Рубен; Вил, Майкл (20 декабря 2021 г.). «Это ваше окончательное решение? Многоэтапное профилирование, выборочное воздействие и статья 22 GDPR» . Международный закон о конфиденциальности данных . 11 (4): 320. doi : 10.1093/idpl/ipab020 . ISSN   2044-3994 .
  44. ^ Jump up to: а б Фридман, Батя; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах» . Транзакции ACM в информационных системах . 14 (3): 330–347. дои : 10.1145/230538.230561 . ISSN   1046-8188 . S2CID   207195759 .
  45. ^ Марвала, Чилидзи (2017). Искусственный интеллект и экономическая теория: Скайнет на рынке . Эван Гурвиц. Чам. ISBN  978-3-319-66104-9 . OCLC   1004620876 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 150cb5d1820f7ab13ec337f152806ffd__1715616540
URL1:https://arc.ask3.ru/arc/aa/15/fd/150cb5d1820f7ab13ec337f152806ffd.html
Заголовок, (Title) документа по адресу, URL1:
Automated decision-making - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)