Jump to content

Алгоритмическое смещение

Это хорошая статья. Нажмите здесь для получения дополнительной информации.
(Перенаправлено с предвзятости ИИ )

Блок-схема, показывающая решения, принимаемые механизмом рекомендаций , c. 2001 г. [1]

Алгоритмическая предвзятость описывает систематические и повторяющиеся ошибки в компьютерной системе , которые приводят к « несправедливым » результатам, таким как «привилегия» одной категории над другой способами, отличными от предполагаемой функции алгоритма.

Предвзятость может возникнуть из-за многих факторов, включая, помимо прочего, конструкцию алгоритма или непреднамеренное или непредвиденное использование или решения, касающиеся способа кодирования, сбора, отбора или использования данных для обучения алгоритма. Например, алгоритмическая предвзятость наблюдалась в результатах поисковых систем и социальных сетях . Эта предвзятость может иметь самые разные последствия: от непреднамеренного нарушения конфиденциальности до усиления социальных предубеждений по признаку расы, пола, сексуальности и этнической принадлежности. Изучение алгоритмической предвзятости больше всего касается алгоритмов, отражающих «систематическую и несправедливую» дискриминацию. [2] Эта предвзятость лишь недавно была устранена в правовых рамках, таких как Общий регламент Европейского Союза по защите данных (предложен в 2018 году) и Закон об искусственном интеллекте (предложен в 2021 году, одобрен в 2024 году).

По мере того, как алгоритмы расширяют свои возможности по организации общества, политики, институтов и поведения, социологи стали беспокоиться о том, как непредвиденный результат и манипулирование данными могут повлиять на физический мир. Поскольку алгоритмы часто считаются нейтральными и беспристрастными, они могут ошибочно демонстрировать больший авторитет, чем человеческий опыт (отчасти из-за психологического феномена предвзятости автоматизации ), а в некоторых случаях зависимость от алгоритмов может заменить человеческую ответственность за их результаты. Предвзятость может проникнуть в алгоритмические системы в результате ранее существовавших культурных, социальных или институциональных ожиданий; по тому, как выбираются функции и метки; из-за технических ограничений их конструкции; или из-за использования в непредвиденных контекстах или аудиторией, которая не учитывалась при первоначальном дизайне программного обеспечения. [3]

Алгоритмическая предвзятость упоминалась в самых разных случаях — от результатов выборов до распространения разжигания ненависти в Интернете . Оно также возникло в сфере уголовного правосудия, здравоохранения и найма, усугубляя существующие расовые, социально-экономические и гендерные предубеждения. Относительная неспособность технологии распознавания лиц точно идентифицировать темнокожие лица была связана с многочисленными неправомерными арестами чернокожих мужчин, проблема, возникающая из-за несбалансированных наборов данных. Проблемы с пониманием, исследованием и обнаружением алгоритмической предвзятости сохраняются из-за запатентованного характера алгоритмов, которые обычно рассматриваются как коммерческая тайна. Даже когда обеспечивается полная прозрачность, сложность некоторых алгоритмов создает барьер для понимания их функционирования. Более того, алгоритмы могут изменяться или реагировать на ввод или вывод способами, которые невозможно предвидеть или легко воспроизвести для анализа. Во многих случаях, даже внутри одного веб-сайта или приложения, существует не один «алгоритм», который нужно исследовать, а сеть из множества взаимосвязанных программ и входных данных, даже между пользователями одной и той же службы.

Определения

[ редактировать ]
Диаграмма 1969 года, показывающая, как простая компьютерная программа принимает решения, иллюстрирующая очень простой алгоритм.

Алгоритмы сложно определить , [4] но в целом их можно понимать как списки инструкций, которые определяют, как программы читают, собирают, обрабатывают и анализируют данные для генерации выходных данных. [5] : 13  Подробное техническое введение см. в разделе «Алгоритмы» . Достижения в области компьютерного оборудования привели к расширению возможностей обработки, хранения и передачи данных. Это, в свою очередь, способствовало разработке и внедрению таких технологий, как машинное обучение и искусственный интеллект . [6] : 14–15  Алгоритмы, анализирующие и обрабатывающие данные, являются основой поисковых систем. [7] сайты социальных сетей, [8] рекомендательные механизмы, [9] интернет-торговля, [10] интернет-реклама, [11] и многое другое. [12]

Современные социологи обеспокоены алгоритмическими процессами, встроенными в аппаратные и программные приложения, из-за их политического и социального воздействия и ставят под сомнение основные предположения о нейтральности алгоритмов. [13] : 2  [14] : 563  [15] : 294  [16] Термин «алгоритмическая предвзятость» описывает систематические и повторяющиеся ошибки, которые создают несправедливые результаты, например, предоставление привилегий одной произвольной группе пользователей перед другими. Например, алгоритм кредитного рейтинга может отказать в выдаче кредита, не будучи несправедливым, если он последовательно взвешивает соответствующие финансовые критерии. Если алгоритм рекомендует кредиты одной группе пользователей, но отказывает в кредите другой группе почти идентичных пользователей на основании несвязанных критериев, и если такое поведение может повторяться в нескольких случаях, алгоритм можно назвать предвзятым . [17] : 332  Эта предвзятость может быть преднамеренной или непреднамеренной (например, она может возникать из-за необъективных данных, полученных от работника, который ранее выполнял работу, которую алгоритм будет выполнять в дальнейшем).

Смещение можно внести в алгоритм несколькими способами. Во время сборки набора данных данные могут быть собраны, оцифрованы, адаптированы и введены в базу данных разработанными человеком в соответствии с критериями каталогизации, . [18] : 3  Затем программисты назначают приоритеты или иерархии того, как программа оценивает и сортирует эти данные. Это требует человеческих решений о том, как данные классифицируются и какие данные включаются или отбрасываются. [18] : 4  Некоторые алгоритмы собирают собственные данные на основе критериев, выбранных человеком, что также может отражать предвзятость дизайнеров-людей. [18] : 8  Другие алгоритмы могут усиливать стереотипы и предпочтения при обработке и отображении «релевантных» данных для пользователей-людей, например, путем выбора информации на основе предыдущего выбора аналогичного пользователя или группы пользователей. [18] : 6 

Помимо сбора и обработки данных, предвзятость может возникнуть в результате замысла. [19] Например, алгоритмы, которые определяют распределение ресурсов или проверку (например, определение места в школе), могут непреднамеренно дискриминировать категорию при определении риска на основе схожих пользователей (как в случае с кредитными рейтингами). [20] : 36  Между тем, системы рекомендаций, которые связывают пользователей с похожими пользователями или используют предполагаемые маркетинговые характеристики, могут полагаться на неточные ассоциации, отражающие широкие этнические, гендерные, социально-экономические или расовые стереотипы. Другой пример связан с определением критериев того, что включено и исключено из результатов. Эти критерии могут привести к непредвиденным результатам для результатов поиска, например, с помощью программного обеспечения для рекомендаций рейсов, которое пропускает рейсы, не соответствующие маршрутам полета авиакомпании-спонсора. [19] Алгоритмы также могут отображать смещение неопределенности , предлагая более уверенные оценки при больших наборов данных наличии . Это может исказить алгоритмические процессы в сторону результатов, которые более точно соответствуют более крупным выборкам, что может привести к игнорированию данных недостаточно представленных групп населения. [21] : 4 

Ранняя критика

[ редактировать ]
Эта карта использовалась для загрузки программного обеспечения в старый мейнфрейм. Каждый байт (например, буква «А») вводится путем пробивания отверстий. Хотя современные компьютеры более сложны, они отражают человеческий процесс принятия решений при сборе и обработке данных. [22] : 70  [23] : 16 

Самые ранние компьютерные программы были разработаны для имитации человеческих рассуждений и выводов и считались работоспособными, если они успешно и последовательно воспроизводили человеческую логику. В своей книге 1976 года « Мощность компьютера и человеческий разум » искусственного интеллекта пионер Джозеф Вайценбаум предположил, что предвзятость может возникать как из-за данных, используемых в программе, так и из-за способа ее кодирования. [22] : 149 

Вейценбаум писал, что программы — это последовательность правил, созданных людьми, которым должен следовать компьютер. Последовательно следуя этим правилам, такие программы «воплощают в себе закон». [22] : 40  то есть применять определенный способ решения проблем. Правила, которым следует компьютер, основаны на предположениях программиста о том, как можно решить эти проблемы. Это означает, что код может включать в себя воображение программиста о том, как устроен мир, включая его предубеждения и ожидания. [22] : 109  Хотя компьютерная программа может таким образом включать предвзятость, Вайценбаум также отметил, что любые данные, подаваемые в машину, дополнительно отражают «человеческие процессы принятия решений» во время отбора данных. [22] : 70, 105 

Наконец, он отметил, что машины также могут передавать достоверную информацию с непредвиденными последствиями , если пользователи не понимают, как интерпретировать результаты. [22] : 65  Вайценбаум предостерег от доверия решениям, принимаемым компьютерными программами, которые пользователь не понимает, сравнив такую ​​веру с туристом, который может найти дорогу в номер отеля, исключительно повернув налево или направо, подбросив монету. Важно отметить, что у туриста нет основы для понимания того, как и почему он прибыл в пункт назначения, и успешное прибытие не означает, что процесс является точным или надежным. [22] : 226 

Первый пример алгоритмической предвзятости привел к тому, что с 1982 по 1986 год около 60 женщинам и представителям этнических меньшинств отказывали в поступлении в медицинскую школу больницы Святого Георгия в год с 1982 по 1986 год на основании внедрения новой системы оценки с компьютерным управлением, которая запрещала прием женщинам и мужчинам. с «иностранными именами», основанными на исторических тенденциях приема. [24] Хотя многие школы в то время использовали аналогичные предубеждения в процессе отбора, Сент-Джордж был наиболее известен тем, что автоматизировал эту предвзятость с помощью алгоритма, тем самым привлекая внимание людей в гораздо более широком масштабе.

В последние годы, когда все больше алгоритмов начали использовать методы машинного обучения для обработки реальных данных, алгоритмическую предвзятость можно обнаружить чаще из-за предвзятости, существующей в данных.

Современная критика и ответы

[ редактировать ]

Хотя хорошо продуманные алгоритмы часто определяют результаты, которые столь же (или более) справедливы, чем решения людей, случаи предвзятости все еще случаются, и их трудно предсказать и проанализировать. [25] Сложность анализа алгоритмической предвзятости выросла вместе со сложностью программ и их дизайна. Решения, принятые одним дизайнером или командой дизайнеров, могут быть скрыты среди множества фрагментов кода, созданных для одной программы; со временем эти решения и их коллективное влияние на результаты программы могут быть забыты. [26] : 115  Теоретически, эти предубеждения могут создавать новые модели поведения или «сценарии» в отношении конкретных технологий, когда код взаимодействует с другими элементами общества. [27] Предвзятости также могут влиять на то, как общество формирует себя вокруг данных , которые требуются алгоритмам. Например, если данные показывают большое количество арестов в определенном районе, алгоритм может назначить в этот район больше полицейских патрулей, что может привести к большему количеству арестов. [28] : 180 

Решения алгоритмических программ можно рассматривать как более авторитетные, чем решения людей, которым они призваны помогать. [29] : 15  процесс, описанный автором Клэем Ширки как «алгоритмический авторитет». [30] Ширки использует этот термин для описания «решения считать авторитетным неуправляемый процесс извлечения ценности из разнообразных, ненадежных источников», таких как результаты поиска. [30] Эта нейтральность также может быть искажена языком, используемым экспертами и средствами массовой информации, когда результаты представляются общественности. Например, список новостей, выбранных и представленных как «трендовые» или «популярные», может быть создан на основе значительно более широких критериев, чем просто их популярность. [18] : 14 

Из-за их удобства и авторитета алгоритмы рассматриваются как средство делегирования ответственности от людей. [29] : 16  [31] : 6  Это может привести к сокращению альтернативных вариантов, компромиссов или гибкости. [29] : 16  Социолог Скотт Лэш раскритиковал алгоритмы как новую форму «производительной силы», поскольку они являются виртуальными средствами достижения реальных целей. Если раньше человеческое поведение генерировало данные, которые нужно было собирать и изучать, то мощные алгоритмы все чаще могут формировать и определять человеческое поведение. [32] : 71 

Обеспокоенность по поводу влияния алгоритмов на общество привела к созданию рабочих групп в таких организациях, как Google и Microsoft , которые совместно создали рабочую группу под названием «Справедливость, подотчетность, ответственность».и прозрачность в машинном обучении. [33] : 115  Идеи Google включают группы сообщества, которые контролируют результаты работы алгоритмов и голосуют за контроль или ограничение результатов, которые, по их мнению, имеют негативные последствия. [33] : 117  В последние годы исследования справедливости, подотчетности,а прозрачность (FAT) алгоритмов стала отдельной междисциплинарной областью исследований благодаря ежегодной конференции под названием FAccT. [34] Критики предполагают, что инициативы FAT не могут эффективно служить независимыми наблюдателями, поскольку многие из них финансируются корпорациями, создающими изучаемые системы. [35]

Ранее существовавшие

[ редактировать ]

Ранее существовавшая предвзятость в алгоритме является следствием лежащих в его основе социальных и институциональных идеологий . Такие идеи могут влиять или создавать личные предубеждения среди отдельных дизайнеров или программистов. Такие предрассудки могут быть явными и сознательными или неявными и бессознательными. [17] : 334  [15] : 294  Плохо выбранные входные данные или просто данные из предвзятого источника будут влиять на результаты, создаваемые машинами. [23] : 17  Кодирование ранее существовавшей предвзятости в программное обеспечение может сохранить социальную и институциональную предвзятость и без исправления может быть воспроизведено при всех будущих применениях этого алгоритма. [26] : 116  [31] : 8 

Примером такой формы предвзятости является Программа Закона о британском гражданстве, разработанная для автоматизации оценки новых британских граждан после принятия Закона о британском гражданстве 1981 года . [17] : 341  Программа точно отражала положения закона, который гласил, что «мужчина является отцом только своих законных детей, тогда как женщина является матерью всех своих детей, законных или нет». [17] : 341  [36] : 375  Пытаясь перенести конкретную логику в алгоритмический процесс, BNAP вписал в свой алгоритм логику Закона о британском гражданстве, что увековечило бы его, даже если бы закон в конечном итоге был отменен. [17] : 342 

Еще один источник предвзятости, получивший название «предвзятость выбора лейбла», [37] возникает, когда прокси-меры используются для обучения алгоритмов, которые создают предвзятость в отношении определенных групп. Например, широко используемый алгоритм прогнозировал затраты на здравоохранение как показатель потребностей в медицинской помощи и использовал прогнозы для распределения ресурсов для помощи пациентам со сложными медицинскими потребностями. Это внесло предвзятость, поскольку чернокожие пациенты имеют более низкие затраты, даже если они столь же нездоровы, как и белые пациенты. [38] Решения «предвзятости выбора метки» направлены на то, чтобы более точно сопоставить фактическую цель (то, что предсказывает алгоритм) с идеальной целью (то, что исследователи хотят, чтобы алгоритм предсказал), поэтому в предыдущем примере вместо прогнозирования затрат исследователи будут Сосредоточьтесь на переменной потребностей в здравоохранении, которая гораздо более значима. Изменение цели привело к почти удвоению числа чернокожих пациентов, отобранных для участия в программе. [37]

Предвзятость машинного обучения

[ редактировать ]

Предвзятость машинного обучения означает систематические и несправедливые различия в результатах алгоритмов машинного обучения. Эти предвзятости могут проявляться по-разному и часто являются отражением данных, используемых для обучения этих алгоритмов. Вот некоторые ключевые аспекты:

Языковая предвзятость

[ редактировать ]

Языковая предвзятость — это тип статистической систематической ошибки выборки, связанной с языком запроса, которая приводит к «систематическому отклонению в выборочной информации, которое не позволяет ей точно отражать истинное освещение тем и мнений, доступных в их репозитории». [39] Работа Луо и др. [39] показывает, что современные большие языковые модели, поскольку они преимущественно обучены на англоязычных данных, часто представляют англо-американские взгляды как истину, в то же время систематически преуменьшая неанглоязычные точки зрения как неуместные, неправильные или бесполезные. Когда его спрашивают о политических идеологиях, таких как «Что такое либерализм?», ChatGPT, поскольку он был обучен на англоориентированных данных, описывает либерализм с англо-американской точки зрения, подчеркивая аспекты прав человека и равенства, в то время как столь же важные аспекты, такие как «противостоят государству». вмешательство в личную и экономическую жизнь» с доминирующей вьетнамской точки зрения и «ограничение государственной власти» с преобладающей китайской точки зрения отсутствуют. [39]

Гендерная предвзятость

[ редактировать ]

Гендерная предвзятость означает тенденцию этих моделей давать результаты, которые несправедливо предвзято относятся к одному полу по сравнению с другим. Эта предвзятость обычно возникает из-за данных, на которых обучаются эти модели. Например, большие языковые модели часто назначают роли и характеристики на основе традиционных гендерных норм; оно может ассоциировать медсестер или секретарей преимущественно с женщинами, а инженеров или руководителей — с мужчинами. [40] [41]

Стереотипирование

[ редактировать ]

Помимо пола и расы, эти модели могут усиливать широкий спектр стереотипов, в том числе основанных на возрасте, национальности, религии или профессии. Это может привести к результатам, которые несправедливо обобщают или карикатурно изображают группы людей, иногда вредными или уничижительными способами. [42]

В последнее время основное внимание в исследованиях уделяется сложному взаимодействию между грамматическими свойствами языка и реальными предубеждениями, которые могут быть встроены в системы искусственного интеллекта, потенциально закрепляя вредные стереотипы и предположения. Исследование гендерной предвзятости в языковых моделях, обученных на исландском языке, языке с высокой грамматической гендерностью, показало, что модели демонстрируют значительную предрасположенность к мужскому грамматическому роду при упоминании профессиональных терминов, даже для профессий, в которых доминируют женщины. [43] Это говорит о том, что модели усилили социальные гендерные предубеждения, присутствующие в данных обучения.

Политическая предвзятость

[ редактировать ]

Политическая предвзятость означает тенденцию алгоритмов систематически отдавать предпочтение определенным политическим точкам зрения, идеологиям или результатам над другими. Языковые модели могут также проявлять политическую предвзятость. Поскольку данные обучения включают в себя широкий спектр политических взглядов и охвата, модели могут генерировать ответы, склоняющиеся к конкретным политическим идеологиям или точкам зрения, в зависимости от преобладания этих взглядов в данных. [44]

Технический

[ редактировать ]
Было обнаружено, что программное обеспечение для распознавания лиц, используемое в сочетании с камерами наблюдения, демонстрирует предвзятость при распознавании азиатских и черных лиц по сравнению с белыми лицами. [28] : 191 

Техническая предвзятость возникает из-за ограничений программы, вычислительной мощности, ее конструкции или других ограничений системы. [17] : 332  Подобная предвзятость также может быть ограничением дизайна: например, поисковая система, которая показывает три результата на экране, может считаться отдающей верхним трем результатам немного больше преимуществ, чем следующим трем, как в случае с отображением цен авиакомпаний. [17] : 336  Другой случай — программное обеспечение, которое полагается на случайность для справедливого распределения результатов. Если механизм генерации случайных чисел не является действительно случайным, он может привести к смещению, например, за счет смещения выбора в сторону элементов в конце или начале списка. [17] : 332 

Деконтекстуализированный алгоритм использует несвязанную информацию для сортировки результатов, например, алгоритм ценообразования на авиабилеты, который сортирует результаты в алфавитном порядке, будет смещен в пользу American Airlines, а не United Airlines. [17] : 332  Может применяться и обратное, когда результаты оцениваются в контексте, отличном от того, в котором они собираются. Данные могут быть собраны без важного внешнего контекста: например, когда программное обеспечение для распознавания лиц используется камерами наблюдения, но оценивается удаленным персоналом в другой стране или регионе или оценивается нечеловеческими алгоритмами, не имеющими представления о том, что происходит за пределами камеры. поле зрения . Это может привести к неполному пониманию места преступления, например, из-за потенциального принятия прохожих за тех, кто совершил преступление. [14] : 574 

Наконец, техническая предвзятость может быть создана попытками формализовать решения в виде конкретных шагов, исходя из предположения, что человеческое поведение работает таким же образом. Например, программное обеспечение взвешивает данные, чтобы определить, следует ли обвиняемому согласиться на сделку о признании вины, игнорируя при этом влияние эмоций на присяжных. [17] : 332  Еще один непреднамеренный результат этой формы предвзятости был обнаружен в программном обеспечении для обнаружения плагиата Turnitin , которое сравнивает тексты, написанные студентами, с информацией, найденной в Интернете, и возвращает оценку вероятности того, что работа студента будет скопирована. Поскольку программное обеспечение сравнивает длинные строки текста, оно с большей вероятностью идентифицирует носителей английского языка, чем носителей языка, поскольку последняя группа может лучше изменять отдельные слова, разбивать строки заимствованного текста или скрывать скопированные отрывки. синонимы. Поскольку носителям языка легче избежать обнаружения из-за технических ограничений программного обеспечения, это создает сценарий, в котором Turnitin идентифицирует иностранцев, говорящих на английском языке, на предмет плагиата, в то же время позволяя большему количеству носителей языка уклоняться от обнаружения. [29] : 21–22 

Чрезвычайный

[ редактировать ]

Возникающая предвзятость — это результат использования и зависимости от алгоритмов в новых или непредвиденных контекстах. [17] : 334  Алгоритмы, возможно, не были адаптированы для учета новых форм знаний, таких как новые лекарства или открытия в области медицины, новые законы, бизнес-модели или изменение культурных норм. [17] : 334, 336  Это может привести к исключению групп с помощью технологий без предоставления четких схем, позволяющих понять, кто несет ответственность за их исключение. [28] : 179  [15] : 294  Аналогично, проблемы могут возникнуть, когда данные обучения (выборки, «подаваемые» в машину, с помощью которой она моделирует определенные выводы) не совпадают с контекстами, с которыми алгоритм сталкивается в реальном мире. [45]

В 1990 году пример возникающей предвзятости был обнаружен в программе National Residency Match Program (NRMP), используемой для размещения американских студентов-медиков в резидентурах. [17] : 338  Алгоритм был разработан в то время, когда лишь немногие супружеские пары искали совместное место жительства. Чем больше женщин поступает в медицинские школы, тем больше студентов, вероятно, будут просить ординатуру вместе со своими партнерами. Процесс требовал от каждого заявителя предоставить список предпочтений для размещения в США, который затем сортировался и распределялся, когда больница и заявитель соглашались на совпадение. В случае супружеских пар, где оба искали место жительства, алгоритм сначала взвешивал выбор места партнера с более высоким рейтингом. Результатом стало частое назначение школ с высоким предпочтением первому партнеру и школ с меньшим предпочтением второму партнеру, вместо того, чтобы искать компромиссы в предпочтениях при размещении. [17] : 338  [46]

Дополнительные возникающие предубеждения включают в себя:

Корреляции

[ редактировать ]

Непредсказуемые корреляции могут возникнуть при сравнении больших наборов данных друг с другом. Например, данные, собранные о шаблонах просмотра веб-страниц, могут совпадать с сигналами, обозначающими конфиденциальные данные (такие как раса или сексуальная ориентация). При выборе в соответствии с определенным поведением или моделями просмотра конечный эффект будет почти идентичен дискриминации посредством использования прямых данных о расовой принадлежности или сексуальной ориентации. [21] : 6  В других случаях алгоритм делает выводы на основе корреляций, не имея возможности понять эти корреляции. Например, в одной программе сортировки астматикам с пневмонией был отдан меньший приоритет, чем астматикам, у которых пневмонии не было. Алгоритм программы сделал это, потому что просто сравнивал показатели выживаемости: астматики с пневмонией находятся в группе наибольшего риска. Исторически сложилось так, что по этой же причине больницы обычно оказывают таким астматикам самую лучшую и неотложную помощь. [47] [ нужны разъяснения ]

Непредвиденное использование

[ редактировать ]

Возникающая предвзятость может возникнуть, когда алгоритм используется неожиданной аудиторией. Например, машины могут требовать, чтобы пользователи могли читать, писать или понимать числа или относиться к интерфейсу, используя метафоры, которые они не понимают. [17] : 334  Эти исключения могут усугубляться по мере того, как предвзятые или исключающие технологии все глубже интегрируются в общество. [28] : 179 

Помимо исключения, непредвиденное использование может возникнуть в результате того, что конечный пользователь полагается на программное обеспечение, а не на свои собственные знания. В одном из примеров непредвиденная группа пользователей привела к алгоритмической предвзятости в Великобритании, когда Программа Британского национального закона была создана в качестве доказательства концепции учеными-компьютерщиками и иммиграционными юристами для оценки пригодности для получения британского гражданства . Разработчики имели доступ к юридическим знаниям помимо конечных пользователей в иммиграционных офисах, чье понимание как программного обеспечения, так и иммиграционного законодательства, вероятно, было бы неглубоким. Агенты, задававшие вопросы, полностью полагались на программное обеспечение, которое исключало альтернативные пути получения гражданства, и использовали его даже после того, как новое прецедентное право и юридические интерпретации привели к тому, что алгоритм устарел. В результате разработки алгоритма для пользователей, которые считались юридически разбирающимися в иммиграционном законодательстве, алгоритм программного обеспечения косвенно привел к смещению в пользу заявителей, которые соответствуют очень узкому набору юридических критериев, установленных алгоритмом, а не более широким критериям. британского иммиграционного законодательства. [17] : 342 

Петли обратной связи

[ редактировать ]

Возникающая предвзятость также может создать петлю обратной связи или рекурсию, если данные, собранные для алгоритма, приводят к реальным ответам, которые передаются обратно в алгоритм. [48] [49] Например, моделирование программного обеспечения для прогнозирования полицейской деятельности (PredPol), развернутого в Окленде, штат Калифорния, на основании данных о преступности, сообщаемых общественностью, позволило предположить увеличение присутствия полиции в черных кварталах. [50] Моделирование показало, что общественность сообщала о преступлениях, глядя на полицейские машины, независимо от того, чем занималась полиция. Моделирование интерпретировало наблюдения полицейских машин при моделировании прогнозов преступности и, в свою очередь, предполагало еще большее увеличение присутствия полиции в этих районах. [48] [51] [52] Группа анализа данных по правам человека , которая проводила моделирование, предупредила, что в местах, где расовая дискриминация является фактором арестов, такие петли обратной связи могут усилить и увековечить расовую дискриминацию в работе полиции. [49] Другим хорошо известным примером такого алгоритма, демонстрирующего такое поведение, является COMPAS , программное обеспечение, которое определяет вероятность того, что человек станет преступником. Программу часто критикуют за то, что она гораздо чаще называет чернокожих преступниками, чем других, а затем возвращает данные обратно в себя в случае, если люди становятся зарегистрированными преступниками, что еще больше усиливает предвзятость, созданную набором данных, на котором действует алгоритм.

Рекомендательные системы, например те, которые используются для рекомендации онлайн-видео или новостных статей, могут создавать петли обратной связи. [53] Когда пользователи нажимают на контент, предложенный алгоритмами, это влияет на следующий набор предложений. [54] Со временем это может привести к тому, что пользователи попадут в пузырек фильтров и не будут знать о важном или полезном контенте. [55] [56]

Коммерческие влияния

[ редактировать ]

Корпоративные алгоритмы могут быть искажены, чтобы незаметно отдавать предпочтение финансовым соглашениям или соглашениям между компаниями без ведома пользователя, который может ошибочно принять алгоритм за беспристрастность. Например, компания American Airlines создала алгоритм поиска рейсов в 1980-х годах. Программное обеспечение представляло клиентам ряд рейсов различных авиакомпаний, но взвешивало факторы, которые увеличили количество собственных рейсов, независимо от цены или удобства. Выступая перед Конгрессом США , президент авиакомпании прямо заявил, что система была создана с намерением получить конкурентное преимущество за счет преференций. [57] : 2  [17] : 331 

В статье 1998 года, описывающей Google , основатели компании приняли политику прозрачности результатов поиска в отношении платного размещения, утверждая, что «поисковые системы, финансируемые за счет рекламы, по своей сути будут предвзяты к рекламодателям и в сторону от потребностей потребителей». [58] Эта предвзятость будет «невидимой» манипуляцией пользователя. [57] : 3 

Поведение при голосовании

[ редактировать ]

Серия исследований неопределившихся избирателей в США и Индии показала, что результаты поисковых систем могут изменить результаты голосования примерно на 20%. Исследователи пришли к выводу, что у кандидатов «нет средств для конкуренции», если алгоритм, намеренно или нет, увеличил количество страниц в списках конкурирующего кандидата. [59] Пользователи Facebook, которые видели сообщения, связанные с голосованием, голосовали с большей вероятностью. пользователей Facebook в 2010 году Рандомизированное исследование показало увеличение на 20% (340 000 голосов) среди пользователей, которые видели сообщения, призывающие голосовать, а также изображения своих друзей, которые проголосовали. [60] Ученый-правовед Джонатан Зиттрейн предупредил, что это может создать эффект «цифрового джерримандеринга» на выборах, «выборочного представления информации посредником для удовлетворения своей повестки дня, а не для обслуживания своих пользователей», если им намеренно манипулируют. [61] : 335 

Гендерная дискриминация

[ редактировать ]

В 2016 году было обнаружено, что профессиональный сетевой сайт LinkedIn рекомендует мужские варианты женских имен в ответ на поисковые запросы. Сайт не давал подобных рекомендаций при поиске мужских имен. Например, по запросу «Андреа» выводится подсказка с вопросом, имели ли пользователи в виду «Андрей», но запросы «Андрей» не спрашивали, собираются ли пользователи найти «Андреа». В компании заявили, что это стало результатом анализа взаимодействия пользователей с сайтом. [62]

В 2012 году франшиза универмагов Target была упомянута за сбор данных, позволяющих сделать вывод о том, что покупатели-женщины были беременны, даже если они не объявили об этом, а затем поделилась этой информацией с маркетинговыми партнерами. [63] : 94  [64] Поскольку данные были предсказаны, а не наблюдались или сообщались напрямую, у компании не было юридических обязательств защищать конфиденциальность этих клиентов. [63] : 98 

Алгоритмы веб-поиска также обвиняют в предвзятости. Результаты Google могут отдавать приоритет порнографическому контенту в поисковых запросах, связанных с сексуальностью, например «лесбиянка». Эта предвзятость распространяется и на то, что поисковая система показывает популярный, но сексуальный контент в нейтральных поисковых запросах. Например, статьи «25 самых сексуальных спортсменок» отображаются на первой странице результатов поиска по запросу «женщины-спортсменки». [65] : 31  В 2017 году Google скорректировал эти результаты вместе с другими, которые выявили группы ненависти , расистские взгляды, жестокое обращение с детьми и порнографию, а также другой оскорбительный и оскорбительный контент. [66] Другие примеры включают показ высокооплачиваемых вакансий соискателям-мужчинам на сайтах поиска работы. [67] Исследователи также обнаружили, что машинный перевод демонстрирует сильную тенденцию к мужским ошибкам. [68] В частности, это наблюдается в сферах, связанных с несбалансированным гендерным распределением, включая STEM . профессии [69] Фактически, современные системы машинного перевода не могут воспроизвести реальное распределение работающих женщин. [70]

В 2015 году Amazon.com отключил разработанную им систему искусственного интеллекта для проверки заявлений о приеме на работу, когда понял, что она предвзято относится к женщинам. [71] Инструмент набора персонала исключал кандидатов, посещавших женские колледжи, и резюме, в которых содержалось слово «женские». [72] Аналогичная проблема возникла и с сервисами потоковой передачи музыки: в 2019 году было обнаружено, что алгоритм рекомендательной системы, используемый Spotify, предвзято относится к женщинам-исполнителям. [73] Рекомендации Spotify по песням предлагали больше исполнителей-мужчин, чем исполнителей-женщин.

Расовая и этническая дискриминация

[ редактировать ]

Алгоритмы подвергались критике как метод сокрытия расовых предрассудков при принятии решений. [74] [75] [76] : 158  Из-за того, как в прошлом относились к определенным расам и этническим группам, данные часто могут содержать скрытую предвзятость. [77] Например, чернокожие люди, скорее всего, получат более длительные сроки тюремного заключения, чем белые, совершившие то же преступление. [78] [79] Потенциально это может означать, что система усиливает первоначальные отклонения в данных.

В 2015 году Google извинилась, когда чернокожие пользователи пожаловались, что алгоритм идентификации изображений в приложении «Фото» определил их как горилл . [80] В 2010 году камеры Nikon подверглись критике, когда алгоритмы распознавания изображений постоянно спрашивали пользователей из Азии, моргают ли они. [81] Такие примеры являются результатом предвзятости в наборах биометрических данных . [80] Биометрические данные собираются на основе различных аспектов тела, включая наблюдаемые или предполагаемые расовые особенности, которые затем можно перенести в точки данных. [76] : 154  Технология распознавания речи может иметь разную точность в зависимости от акцента пользователя. Это может быть вызвано отсутствием данных по обучению носителей этого акцента. [82]

Биометрические данные о расе также можно скорее предполагать, чем наблюдать. Например, исследование 2012 года показало, что имена, обычно ассоциирующиеся с чернокожими, с большей вероятностью дают результаты поиска, подразумевающие записи об арестах, независимо от того, есть ли какие-либо полицейские записи об имени этого человека. [83] Исследование 2015 года также показало, что у чернокожих и азиатов легкие функционируют хуже из-за того, что данные о расовом и профессиональном воздействии не включены в модель функции легких алгоритма прогнозирования. [84] [85]

В 2019 году исследование показало, что алгоритм здравоохранения, продаваемый Optum, отдает предпочтение белым пациентам, а не более больным чернокожим пациентам. Алгоритм предсказывает, во сколько пациенты будут стоить системе здравоохранения в будущем. Однако стоимость не является нейтральной с расовой точки зрения, поскольку чернокожие пациенты тратят примерно на 1800 долларов меньше на медицинские расходы в год, чем белые пациенты с таким же количеством хронических заболеваний, что привело к тому, что алгоритм оценил белых пациентов как одинаково подверженных риску будущих проблем со здоровьем, как и чернокожих. пациентов, которые страдали от значительно большего числа заболеваний. [86]

Исследование, проведенное исследователями из Калифорнийского университета в Беркли в ноябре 2019 года, показало, что алгоритмы ипотеки являются дискриминационными по отношению к латиноамериканцам и афроамериканцам, дискриминируя меньшинства на основе «кредитоспособности», которая уходит корнями в закон США о справедливом кредитовании, который позволяет кредиторам использовать меры идентификации. определить, достоин ли человек получения кредита. Эти конкретные алгоритмы присутствовали в финтех-компаниях и, как было показано, дискриминировали меньшинства. [87] [ нужен неосновной источник ]

[ редактировать ]

Алгоритмы уже имеют многочисленные применения в правовых системах. Примером этого является COMPAS , коммерческая программа, широко используемая судами США для оценки вероятности того, что обвиняемый станет рецидивистом . ProPublica утверждает, что средний уровень риска рецидива, назначенный COMPAS для чернокожих обвиняемых, значительно выше, чем средний уровень риска, назначенный COMPAS для белых обвиняемых, и что чернокожим обвиняемым в два раза чаще ошибочно присваивается ярлык «высокого риска», чем белым. ответчики. [88] [89]

Одним из примеров является использование оценок риска при вынесении уголовных приговоров в США и слушаниях по условно-досрочному освобождению . Судьям была представлена ​​алгоритмически сгенерированная оценка, предназначенная для отражения риска того, что заключенный повторит преступление. [90] За период времени, начиная с 1920 года и заканчивая 1970 годом, национальность отца преступника учитывалась при оценке риска. [91] : 4  Сегодня эти оценки передаются судьям в Аризоне, Колорадо, Делавэре, Кентукки, Луизиане, Оклахоме, Вирджинии, Вашингтоне и Висконсине. Независимое расследование, проведенное ProPublica, показало, что оценки были неточными в 80% случаев и непропорционально искажены, что позволяет предположить, что чернокожие подвержены риску рецидива, на 77% чаще, чем белые. [90]

В одном исследовании, целью которого было изучить тему «Риск, раса и рецидивизм: прогнозируемая предвзятость и несопоставимое влияние», утверждается, что вероятность того, что чернокожие обвиняемые по сравнению с европеоидами будут ошибочно классифицированы как представляющие более высокий риск, в два раза выше (45 процентов против 23 процентов). несмотря на то, что за двухлетний период наблюдения у него объективно не было документально подтвержденного рецидива. [92]

В контексте предварительного заключения в обзорной статье закона утверждается, что алгоритмические оценки риска нарушают по признаку расы, предусмотренные 14-й поправкой права на равную защиту , поскольку алгоритмы считаются дискриминационными по лицу, приводят к несопоставимому обращению и не являются узкоспециализированными. [93]

Разжигание ненависти в Интернете

[ редактировать ]

в 2017 году было обнаружено, что алгоритм Facebook, предназначенный для удаления разжигания ненависти в Интернете, дает преимущество белым мужчинам перед чернокожими детьми при оценке нежелательного контента. Согласно внутренним документам Facebook, [94] Алгоритм, представляющий собой комбинацию компьютерных программ и рецензентов контента, был создан для защиты широких категорий, а не конкретных подмножеств категорий. Например, сообщения, осуждающие «мусульман», будут заблокированы, а сообщения, осуждающие «радикальных мусульман», будут разрешены. Непредвиденным результатом алгоритма является разрешение разжигания ненависти в отношении чернокожих детей, поскольку они осуждают «детскую» подгруппу чернокожих, а не «всех черных», тогда как «все белые мужчины» вызовут блокировку, поскольку белые и мужчины не являются считаются подмножествами. [94] Также было обнаружено, что Facebook позволяет покупателям рекламы ориентироваться на «ненавистников евреев» как на категорию пользователей, что, по словам компании, является непреднамеренным результатом алгоритмов, используемых при оценке и классификации данных. Дизайн компании также позволял покупателям рекламы блокировать просмотр рекламы жилья афроамериканцами. [95]

Хотя для отслеживания и блокировки разжигания ненависти используются алгоритмы, некоторые из них в 1,5 раза чаще отмечают информацию, опубликованную чернокожими пользователями, и в 2,2 раза чаще отмечают информацию как разжигание ненависти, если она написана на афроамериканском английском языке . [96] Без контекста были помечены оскорбления и эпитеты, даже если они использовались сообществами, которые их повторно присвоили. [97]

Наблюдение

[ редактировать ]

Программное обеспечение камер наблюдения можно считать политическим по своей сути, поскольку оно требует алгоритмов, позволяющих отличать нормальное поведение от ненормального и определять, кто находится в определенных местах в определенное время. [14] : 572  Было показано, что способность таких алгоритмов распознавать лица представителей расового спектра ограничена расовым разнообразием изображений в обучающей базе данных; если большинство фотографий принадлежат одной расе или полу, программа лучше распознает других представителей этой расы или пола. [98] Однако даже аудит этих систем распознавания изображений чреват этической проблемой, и некоторые ученые предполагают, что контекст этой технологии всегда будет оказывать непропорционально большое влияние на сообщества, действия которых подвергаются чрезмерному надзору. [99] Например, анализ программного обеспечения, используемого для идентификации людей на изображениях с камер видеонаблюдения в 2002 году , выявил несколько примеров предвзятости при сопоставлении с криминальными базами данных. Программное обеспечение было оценено как идентифицирующее мужчин чаще, чем женщин, пожилых людей чаще, чем молодых, и идентифицировало азиатов, афроамериканцев и представителей других рас чаще, чем белых. [28] : 190  Исследование 2018 года показало, что программное обеспечение для распознавания лиц, скорее всего, точно идентифицирует светлокожих (типично европейцев) мужчин, с немного более низкими показателями точности для светлокожих женщин. Темнокожих мужчин и женщин было значительно меньше шансов точно идентифицировать с помощью программного обеспечения для распознавания лиц. Эти различия объясняются недостаточной представленностью участников с более темной кожей в наборах данных, используемых для разработки этого программного обеспечения. [100] [101]

Дискриминация ЛГБТ-сообщества

[ редактировать ]

В 2011 году пользователи приложения для знакомств для геев Grindr сообщили, что алгоритм рекомендаций магазина Android связывает Grindr с приложениями, предназначенными для поиска сексуальных преступников, которые, по мнению критиков, неточно связывают гомосексуализм с педофилией . Писатель Майк Анэнни раскритиковал эту ассоциацию в The Atlantic , утверждая, что такие ассоциации еще больше стигматизируют геев . [102] В 2009 году интернет-магазин Amazon исключил из списка 57 000 книг после изменения алгоритма, расширив свой черный список «контента для взрослых», включив в него любые книги, затрагивающие темы сексуальности или геев, такие как получивший признание критиков роман « Горбатая гора» . [103] [18] : 5  [104]

В 2019 году выяснилось, что в Facebook поиск по запросу «фотографии моих подруг» приводил к таким предложениям, как «в бикини» или «на пляже». Напротив, поиск по запросу «фотографии моих друзей-мужчин» не дал результатов. [105]

Было замечено, что технология распознавания лиц создает проблемы для трансгендеров. В 2018 году поступали сообщения о том, что водители Uber, которые были трансгендерами или перешли на переходный возраст, испытывали трудности с программным обеспечением для распознавания лиц, которое Uber внедряет в качестве встроенной меры безопасности. В результате некоторые учетные записи транс-водителей Uber были заблокированы, что стоило им платы за проезд и, возможно, работы, и все это из-за того, что программное обеспечение для распознавания лиц испытывало трудности с распознаванием лица транс-водителя, который переходил. [106] Хотя решение этой проблемы, по всей видимости, заключается в включении трансгендеров в обучающие наборы для моделей машинного обучения, экземпляр трансгендерных видео на YouTube, которые были собраны для использования в обучающих данных, не получил согласия от трансгендеров, включенных в видео. , что создало проблему нарушения конфиденциальности. [107]

В 2017 году в Стэнфордском университете также было проведено исследование, в ходе которого проверялись алгоритмы системы машинного обучения, которая, как утверждается, способна определять сексуальную ориентацию человека на основе изображений его лица. [108] Модель в исследовании предсказала правильное различие между геями и гетеросексуальными мужчинами в 81% случаев, а также правильное различие между геями и гетеросексуальными женщинами в 74% случаев. Это исследование вызвало негативную реакцию со стороны ЛГБТКИА-сообщества, которое опасалось возможных негативных последствий, которые эта система искусственного интеллекта могла иметь для представителей ЛГБТКИА-сообщества, подвергая людей риску быть «разоблаченными» против их воли. [109]

Дискриминация инвалидов

[ редактировать ]

Хотя способы алгоритмической справедливости оцениваются на основе различных аспектов предвзятости, таких как пол, раса и социально-экономический статус, инвалидность часто не учитывается. [110] [111] Маргинализация людей с ограниченными возможностями, с которыми в настоящее время сталкиваются в обществе, преобразуется в системы и алгоритмы искусственного интеллекта, создавая еще большую изоляцию. [112] [113]

Изменяющаяся природа инвалидности и ее субъективная характеристика усложняют ее вычислительное решение. Отсутствие исторической глубины в определении инвалидности, сборе информации о ее частоте и распространенности в анкетах и ​​установлении признания усугубляет противоречия и двусмысленность в ее количественной оценке и расчетах. Определение инвалидности уже давно обсуждается, и совсем недавно произошел переход от медицинской модели к социальной модели инвалидности , которая устанавливает, что инвалидность является результатом несоответствия между взаимодействиями людей и барьерами в их среде, а не нарушениями и состоянием здоровья. Инвалидность также может быть ситуативной или временной. [114] рассматриваться в состоянии постоянного изменения. Инвалиды невероятно разнообразны, [115] относятся к широкому спектру и могут быть уникальными для каждого человека. Личность людей может различаться в зависимости от конкретных типов инвалидности, с которыми они сталкиваются, от того, как они используют ассистивные технологии и кого они поддерживают. Высокий уровень вариативности опыта людей в значительной степени персонализирует то, как может проявляться инвалидность. Перекрывающиеся идентичности и интерсекциональный опыт [116] исключаются из статистики и наборов данных, [117] следовательно, они недостаточно представлены и отсутствуют в обучающих данных. [118] Таким образом, модели машинного обучения обучаются несправедливо, а системы искусственного интеллекта закрепляют еще большую алгоритмическую предвзятость. [119] Например, если люди с нарушениями речи не включены в обучение функциям голосового управления и умным ИИ-помощникам – они не смогут использовать эту функцию или ответы, полученные от Google Home или Alexa, будут крайне плохими.

Учитывая стереотипы и стигмы, которые все еще существуют вокруг инвалидности, деликатный характер раскрытия этих идентифицирующих характеристик также сопряжен с огромными проблемами конфиденциальности. Поскольку раскрытие информации об инвалидности может быть табуировано и способствовать дальнейшей дискриминации этой группы населения, существует недостаток явных данных об инвалидности, с которыми могли бы взаимодействовать алгоритмические системы. Люди с ограниченными возможностями сталкиваются с дополнительным вредом и рисками в отношении социальной поддержки, стоимости медицинского страхования, дискриминации на рабочем месте и других основных потребностей после раскрытия своего статуса инвалидности. Алгоритмы еще больше усугубляют этот разрыв, воссоздавая предубеждения, которые уже существуют в социальных системах и структурах. [120] [121]

[ редактировать ]

Хотя пользователи выдают результаты, которые «завершаются» автоматически, Google не смог удалить сексистский и расистский текст автозаполнения. Например, в книге «Алгоритмы угнетения: как поисковые системы усиливают расизм» Сафия Ноубл приводит пример поиска по запросу «черные девушки», который, как сообщалось, приводил к появлению порнографических изображений. Google заявил, что не может удалить эти страницы, если только они не будут сочтены незаконными. [122]

Препятствия для исследований

[ редактировать ]

Некоторые проблемы препятствуют изучению крупномасштабной алгоритмической предвзятости, препятствуя применению академически строгих исследований и общественному пониманию. [13] : 5  [123] [124]

Определение справедливости

[ редактировать ]

Литература по алгоритмической предвзятости сосредоточена на устранении справедливости, но определения справедливости часто несовместимы друг с другом и реалиями оптимизации машинного обучения. [125] [126] Например, определение справедливости как «равенства результатов» может просто относиться к системе, обеспечивающей одинаковый результат для всех людей, тогда как справедливость, определяемая как «равенство обращения», может явно учитывать различия между людьми. [127] : 2  В результате справедливость иногда описывается как конфликтующая с точностью модели, что указывает на врожденное противоречие между приоритетами социального обеспечения и приоритетами поставщиков, разрабатывающих эти системы. [128] : 2  В ответ на это противоречие исследователи предложили уделять больше внимания разработке и использованию систем, основанных на потенциально предвзятых алгоритмах, с определением «справедливости» для конкретных приложений и контекстов. [129]

Сложность

[ редактировать ]

Алгоритмические процессы сложны и часто превосходят понимание людей, которые их используют. [13] : 2  [130] : 7  Масштабные операции могут быть непонятны даже тем, кто причастен к их созданию. [131] Методы и процессы современных программ часто неясны из-за невозможности знать каждую перестановку ввода или вывода кода. [28] : 183  Социолог Бруно Латур определил этот процесс как «черный ящик» — процесс, в котором «научная и техническая работа становится невидимой из-за собственного успеха. Когда машина работает эффективно, когда факт решен, нужно сосредоточиться только на ее входных данных и результатов, а не от ее внутренней сложности. Таким образом, как это ни парадоксально, чем успешнее наука и технология, тем более непрозрачными и неясными они становятся». [132] Другие раскритиковали метафору черного ящика, предполагая, что современные алгоритмы представляют собой не один черный ящик, а сеть взаимосвязанных. [133] : 92 

Пример этой сложности можно найти в диапазоне входных данных для настройки обратной связи. Сайт социальной сети Facebook учел не менее 100 000 точек данных, чтобы определить макет ленты пользователя в социальной сети в 2013 году. [134] Более того, большие команды программистов могут работать в относительной изоляции друг от друга и не осознавать совокупного эффекта небольших решений в рамках связанных, сложных алгоритмов. [26] : 118  Не весь код является оригинальным и может быть заимствован из других библиотек, создавая сложный набор взаимосвязей между системами обработки и ввода данных. [6] : 22 

Дополнительная сложность возникает из-за машинного обучения и персонализации алгоритмов на основе взаимодействия с пользователем, такого как клики, время, проведенное на сайте, и другие показатели. Эти личные корректировки могут сбить с толку общие попытки понять алгоритмы. [135] : 367  [130] : 7  Один неопознанный сервис потокового радио сообщил, что он использует пять уникальных алгоритмов выбора музыки, которые он выбирает для своих пользователей на основе их поведения. Это создает разные впечатления от одних и тех же потоковых сервисов для разных пользователей, что затрудняет понимание того, что делают эти алгоритмы. [13] : 5  Компании также часто проводят A/B-тесты для точной настройки алгоритмов на основе реакции пользователей. Например, поисковая система Bing может запускать до десяти миллионов тонких вариаций своего сервиса в день, создавая разные впечатления от сервиса для каждого использования и/или пользователя. [13] : 5 

Отсутствие прозрачности

[ редактировать ]

Коммерческие алгоритмы являются собственностью и могут рассматриваться как коммерческая тайна . [13] : 2  [130] : 7  [28] : 183  Отнесение алгоритмов к коммерческой тайне защищает такие компании, как поисковые системы , где прозрачный алгоритм может раскрыть тактику манипулирования поисковыми рейтингами. [135] : 366  Это затрудняет исследователям проведение интервью или анализ, чтобы выяснить, как работают алгоритмы. [6] : 20  Критики предполагают, что такая секретность может также скрыть возможные неэтичные методы, используемые при производстве или обработке алгоритмических результатов. [135] : 369  Другие критики, такие как юрист и активистка Катажина Шимелевич, предположили, что отсутствие прозрачности часто маскируется под сложностью алгоритмов, защищая компании от раскрытия или расследования собственных алгоритмических процессов. [136]

Отсутствие данных о деликатных категориях

[ редактировать ]

Существенным препятствием для понимания того, как бороться с предвзятостью на практике, является то, что такие категории, как демографические данные лиц, защищаемых антидискриминационным законодательством , часто не учитываются явным образом при сборе и обработке данных. [137] В некоторых случаях существует мало возможностей для явного сбора этих данных, например, при снятии отпечатков пальцев устройств , повсеместных вычислениях и Интернете вещей . В других случаях контролер данных может не захотеть собирать такие данные по причинам репутации или потому, что это представляет собой повышенную ответственность и риск безопасности. Европейского Союза Также может случиться так, что, по крайней мере, в соответствии с Общим регламентом защиты данных , такие данные подпадают под положения «особой категории» (статья 9) и, следовательно, имеют больше ограничений на потенциальный сбор и обработку.

Некоторые практики пытались оценить и приписать эти недостающие чувствительные категоризации, чтобы смягчить предвзятость, например, создавая системы, позволяющие делать выводы об этнической принадлежности по именам, [138] однако это может привести к другим формам предвзятости, если не соблюдать осторожность. [139] Исследователи машинного обучения использовали криптографические технологии повышения конфиденциальности, такие как безопасные многосторонние вычисления , чтобы предложить методы, с помощью которых можно оценить или смягчить алгоритмическую предвзятость, при этом эти данные никогда не будут доступны разработчикам моделей в открытом виде . [140]

Алгоритмическая предвзятость не только включает защищенные категории, но также может касаться характеристик, которые труднее наблюдать или кодифицировать, например, политических взглядов. В этих случаях редко существует легкодоступная или непротиворечивая основная истина , и устранить предвзятость в такой системе труднее. [141] Кроме того, ложные и случайные корреляции могут возникнуть из-за непонимания защищенных категорий, например, тарифов страхования, основанных на исторических данных об автомобильных авариях, которые могут строго случайно совпадать с местами проживания этнических меньшинств. [142]

Исследование 84 руководящих принципов этического ИИ показало, что справедливость и «смягчение нежелательной предвзятости» были общей проблемой и решались посредством сочетания технических решений, прозрачности и мониторинга, права на исправление и усиления надзора, а также разнообразия и усилия по включению. [143]

Технический

[ редактировать ]

Было предпринято несколько попыток создать методы и инструменты, которые могут обнаруживать и наблюдать отклонения в алгоритме. Эти новые поля сосредоточены на инструментах, которые обычно применяются к (обучающим) данным, используемым программой, а не к внутренним процессам алгоритма. Эти методы также могут анализировать выходные данные программы и ее полезность и, следовательно, могут включать анализ ее матрицы путаницы (или таблицы путаницы). [144] [145] [146] [147] [148] [149] [150] [151] [152] Объяснимый ИИ для обнаружения предвзятости алгоритма — это предлагаемый способ обнаружить предвзятость в алгоритме или модели обучения. [153] Использование машинного обучения для обнаружения предвзятости называется «проведением аудита ИИ», где «аудитор» — это алгоритм, который просматривает модель ИИ и данные обучения для выявления предвзятостей. [154] Обеспечить отсутствие предвзятости в таком инструменте искусственного интеллекта, как классификатор, сложнее, чем просто удалить конфиденциальную информацию.от его входных сигналов, поскольку это обычно подразумевается в других сигналах. Например, хобби, спорт и посещаемые школы.кандидат на работу может раскрыть программному обеспечению свой пол, даже если он исключен из анализа. Решения для этогоПроблема заключается в том, чтобы гарантировать, что интеллектуальный агент не имеет никакой информации, которую можно было бы использовать для восстановления защищенногои конфиденциальную информацию о предмете, как впервые продемонстрировано в [155] где сеть глубокого обучения одновременно обучалась изучению задачи, в то же время совершенно не обращая внимания на защищенную функцию. Более простой метод был предложен в контексте встраивания слов и предполагает удаление информации, которая коррелирует с защищенной характеристикой. [156]

новый стандарт IEEE В настоящее время разрабатывается , целью которого является определение методологий, которые помогут создателям алгоритмов устранить проблемы предвзятости и обеспечить прозрачность (т. е. для органов власти или конечных пользователей ) функций и возможных эффектов их алгоритмов. Проект был одобрен в феврале 2017 года и спонсируется Комитетом по стандартам программного обеспечения и системной инженерии , комитетом, учрежденным Компьютерным обществом IEEE . Ожидается, что проект стандарта будет вынесен на голосование в июне 2019 года. [157] [158]

Прозрачность и мониторинг

[ редактировать ]

Руководящие принципы по этике ИИ указывают на необходимость подотчетности и рекомендуют предпринять шаги для улучшения интерпретируемости результатов. [159] Такие решения включают в себя учет «права на понимание» в алгоритмах машинного обучения и противодействие внедрению машинного обучения в ситуациях, когда решения невозможно объяснить или просмотреть. [160] , уже ведется движение за « Объяснимый ИИ С этой целью в таких организациях, как DARPA » по причинам, выходящим за рамки устранения предвзятости. [161] Price Waterhouse Coopers , например, также предполагает, что мониторинг результатов означает проектирование систем таким образом, чтобы гарантировать, что отдельные компоненты системы могут быть изолированы и отключены, если они искажают результаты. [162]

Первоначальный подход к обеспечению прозрачности включал в себя открытый исходный код алгоритмов . [163] Программный код можно изучить и предложить улучшения с помощью средств хостинга исходного кода . Однако этот подход не обязательно дает желаемый эффект. Компании и организации могут делиться всей возможной документацией и кодом, но это не обеспечивает прозрачности, если аудитория не понимает предоставленную информацию. Таким образом, роль заинтересованной критической аудитории стоит изучить в отношении прозрачности. Алгоритмы не могут быть привлечены к ответственности без критической аудитории. [164]

Право на возмещение

[ редактировать ]

С нормативной точки зрения Декларация Торонто призывает применять систему прав человека к вреду, причиненному алгоритмической предвзятостью. [165] Это включает в себя законодательное закрепление ожиданий должной осмотрительности от имени разработчиков этих алгоритмов и создание ответственности, когда частные лица не могут защитить общественные интересы, отмечая, что такие права могут быть затенены сложностью определения ответственности в сети сложных, переплетающихся процессов. [166] Другие полагают, что необходимы четкие механизмы страхования ответственности. [167]

Разнообразие и инклюзивность

[ редактировать ]

На фоне опасений, что проектирование систем искусственного интеллекта в первую очередь является прерогативой белых инженеров-мужчин, [168] ряд ученых предположили, что алгоритмическую предвзятость можно свести к минимуму за счет расширения числа тех, кто разрабатывает системы искусственного интеллекта. [160] [143] Например, только 12% инженеров по машинному обучению — женщины. [169] с чернокожими лидерами ИИ, указывающими на «кризис разнообразия» в этой области. [170] Такие группы, как Black in AI и Queer in AI, пытаются создать более инклюзивное пространство в сообществе ИИ и работать против часто вредных желаний корпораций, которые контролируют траекторию исследований ИИ. [171] Критика простых усилий по инклюзивности предполагает, что программы разнообразия не могут решить проблему пересекающихся форм неравенства, и призывает к более продуманному рассмотрению интерсекциональности при разработке алгоритмов. [172] [173] : 4  Исследователи из Кембриджского университета утверждают, что решению проблемы расового разнообразия препятствует «белизна» культуры ИИ. [174]

Междисциплинарность и сотрудничество

[ редактировать ]

Интеграция междисциплинарности и сотрудничества при разработке систем искусственного интеллекта может сыграть решающую роль в борьбе с алгоритмической предвзятостью. Интеграция идей, опыта и точек зрения из дисциплин, не относящихся к информатике, может способствовать лучшему пониманию того, какое влияние решения, основанные на данных, оказывают на общество. Примером этого в исследованиях ИИ является PACT или подход совместного участия для реализации возможностей сообществ, предлагаемая структура для облегчения сотрудничества при разработке решений на основе ИИ, связанных с социальным воздействием. [175] Эта структура определяет руководящие принципы участия заинтересованных сторон при работе над проектами ИИ на благо общества (AI4SG). PACT пытается подчеркнуть важность усилий по деколонизации и смене власти при разработке ориентированных на человека решений искусственного интеллекта. Академической инициативой в этом отношении является Институт человекоориентированного искусственного интеллекта Стэнфордского университета, целью которого является содействие междисциплинарному сотрудничеству. Миссия института — продвигать исследования, образование, политику и практику искусственного интеллекта (ИИ) для улучшения условий жизни человека. [176]

Сотрудничество с внешними экспертами и различными заинтересованными сторонами способствует этической, инклюзивной и подотчетной разработке интеллектуальных систем. Он учитывает этические соображения, понимает социальный и культурный контекст, продвигает дизайн, ориентированный на человека, использует технические знания и учитывает политические и юридические соображения. [177] Сотрудничество между дисциплинами имеет важное значение для эффективного смягчения предвзятости в системах ИИ и обеспечения справедливости, прозрачности и подотчетности технологий ИИ.

Регулирование

[ редактировать ]

Общий регламент по защите данных (GDPR), пересмотренный режим защиты данных Европейского Союза , который был введен в действие в 2018 году, касается «автоматизированного индивидуального принятия решений, включая профилирование » в статье 22. Эти правила запрещают «исключительно» автоматизированные решения, которые имеют «существенное» или «юридическое» воздействие на человека, если только это явно не разрешено согласием, контрактом или законодательством государства-члена . Там, где они разрешены, должны быть предусмотрены гарантии, такие как право на участие человека в процессе и необязательное право на объяснение принятых решений. Хотя эти правила обычно считаются новыми, почти идентичные положения существуют по всей Европе с 1995 года в статье 15 Директивы о защите данных . Оригинальные правила и гарантии автоматизированного принятия решений присутствуют во французском законодательстве с конца 1970-х годов. [178]

GDPR рассматривает алгоритмическую предвзятость в системах профилирования, а также статистические подходы, возможные для ее устранения, непосредственно в декларативной части 71: [179] отмечая, что

Контролер должен использовать соответствующие математические или статистические процедуры для составления профиля, применять соответствующие технические и организационные меры... которые предотвращают, среди прочего, дискриминационное воздействие на физических лиц на основе расового или этнического происхождения, политических взглядов, религии или убеждений, торговли членство в профсоюзе, генетическое состояние или состояние здоровья или сексуальная ориентация, или которые приводят к мерам, имеющим такой эффект.

Как и в случае с необязательным правом на объяснение в пункте 71 декламации, проблема заключается в необязательном характере декламации . [180] рассматривала это как требование , Хотя Рабочая группа по статье 29 , которая давала рекомендации по осуществлению закона о защите данных, [179] его практические аспекты неясны. Утверждалось, что оценка воздействия на защиту данных для профилирования данных с высоким риском (наряду с другими упреждающими мерами в области защиты данных) может быть лучшим способом решения проблем алгоритмической дискриминации, поскольку она ограничивает действия тех, кто применяет алгоритмы, а не требование от потребителей подавать жалобы или требовать внесения изменений. [181]

Соединенные Штаты

[ редактировать ]

В Соединенных Штатах нет общего законодательства, контролирующего алгоритмическую предвзятость, и проблема решается через различные государственные и федеральные законы, которые могут различаться в зависимости от отрасли, сектора и способа использования алгоритма. [182] Многие политики осуществляются самостоятельно или контролируются Федеральной торговой комиссией . [182] В 2016 году администрация Обамы опубликовала Национальный стратегический план исследований и разработок в области искусственного интеллекта . [183] целью которого было направить политиков к критической оценке алгоритмов. Он рекомендовал исследователям «спроектировать эти системы так, чтобы их действия и принятие решений были прозрачными и легко интерпретируемыми людьми и, таким образом, могли быть проверены на предмет любой предвзятости, которую они могут содержать, а не просто изучать и повторять эти предубеждения». Отчет, предназначенный только в качестве руководства, не создал какого-либо юридического прецедента. [184] : 26 

В 2017 году город Нью-Йорк принял первый об алгоритмической подотчетности . в США законопроект [185] Законопроект, вступивший в силу 1 января 2018 года, требовал «создания целевой группы, которая давала бы рекомендации о том, как информация об автоматизированных системах принятия решений агентств может быть предоставлена ​​общественности, и как агентства могут реагировать на случаи, когда люди страдают от автоматизированные системы принятия решений агентств». [186] Целевая группа должна представить выводы и рекомендации для дальнейших регулирующих мер в 2019 году. [187]

31 июля 2018 года был представлен проект закона о персональных данных. [188] В проекте предлагаются стандарты хранения, обработки и передачи данных. Хотя в нем не используется термин «алгоритм», в нем предусмотрены положения о «вреде, причиненном в результате любой обработки или любого вида обработки, предпринятой фидуциарием». Он определяет «любой отказ или отзыв услуги, выгоды или товара в результате оценочного решения в отношении субъекта данных» или «любое дискриминационное обращение» как источник вреда, который может возникнуть в результате ненадлежащего использования данных. Он также предусматривает специальные положения для людей с «интерсекс-статусом». [189]

См. также

[ редактировать ]
  1. ^ Якоби, Дженнифер (13 сентября 2001 г.). «Патент № US2001021914» . Эспеснет . Проверено 4 июля 2018 г.
  2. ^ Марабелли, Марко (2024). ИИ, этика и дискриминация в бизнесе . Исследования Пэлгрейва в области равенства, разнообразия, инклюзивности и коренного населения в бизнесе. Спрингер. дои : 10.1007/978-3-031-53919-0 . ISBN  978-3-031-53918-3 .
  3. ^ Суреш, Харини; Гуттаг, Джон (4 ноября 2021 г.). «Система понимания источников вреда на протяжении жизненного цикла машинного обучения» . Справедливость и доступ в алгоритмах, механизмах и оптимизации . ЕААМО '21. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 1–9. дои : 10.1145/3465416.3483305 . ISBN  978-1-4503-8553-4 . S2CID   235436386 .
  4. ^ Стрифас, Тед (февраль 2012 г.). «Что такое алгоритм? – Цифровая культура» . Culturedigitally.org . Проверено 20 ноября 2017 г.
  5. ^ Кормен, Томас Х.; Лейзерсон, Чарльз Э.; Ривест, Рональд Л.; Штейн, Клиффорд (2009). Введение в алгоритмы (3-е изд.). Кембридж, Массачусетс: MIT Press. п. 5 . ISBN  978-0-262-03384-8 .
  6. ^ Jump up to: а б с Китчин, Роб (25 февраля 2016 г.). «Критическое мышление и исследование алгоритмов» (PDF) . Информация, коммуникация и общество . 20 (1): 14–29. дои : 10.1080/1369118X.2016.1154087 . S2CID   13798875 .
  7. ^ «Как работает поиск Google» . Проверено 19 ноября 2017 г.
  8. ^ Лакерсон, Виктор. «Вот как на самом деле работает ваша лента новостей Facebook» . Время . Проверено 19 ноября 2017 г.
  9. ^ Вандербильт, Том (7 августа 2013 г.). «Наука, лежащая в основе алгоритмов Netflix, которые решают, что вы будете смотреть дальше» . Проводной . Проверено 19 ноября 2017 г.
  10. ^ Ангвин, Джулия ; Матту, Сурья (20 сентября 2016 г.). «Amazon заявляет, что ставит клиентов на первое место. Но ее алгоритм ценообразования этого не делает — ProPublica» . ПроПублика . Проверено 19 ноября 2017 г.
  11. ^ Ливингстон, Роб (13 марта 2017 г.). «Будущее онлайн-рекламы — это большие данные и алгоритмы» . Разговор . Проверено 19 ноября 2017 г.
  12. ^ Хикман, Лео (1 июля 2013 г.). «Как алгоритмы правят миром» . Хранитель . Проверено 19 ноября 2017 г.
  13. ^ Jump up to: а б с д и ж Сивер, Ник. «Знание алгоритмов» (PDF) . Media in Transition 8, Кембридж, Массачусетс, апрель 2013 г. Архивировано из оригинала (PDF) 1 декабря 2017 г. Проверено 18 ноября 2017 г.
  14. ^ Jump up to: а б с Грэм, Стивен Д.Н. (июль 2016 г.). «География с программной сортировкой» (PDF) . Прогресс в человеческой географии (представленная рукопись). 29 (5): 562–580. дои : 10.1191/0309132505ph568oa . S2CID   19119278 .
  15. ^ Jump up to: а б с Тьюэлл, Имон (4 апреля 2016 г.). «На пути к резистентному чтению информации: Google, резистентное зрительство и критическая информационная грамотность» . Портал: Библиотеки и Академия . 16 (2): 289–310. дои : 10.1353/pla.2016.0017 . ISSN   1530-7131 . S2CID   55749077 . Проверено 19 ноября 2017 г.
  16. ^ Кроуфорд, Кейт (1 апреля 2013 г.). «Скрытые искажения в больших данных» . Гарвардское деловое обозрение .
  17. ^ Jump up to: а б с д и ж г час я дж к л м н тот п д Фридман, Батя; Ниссенбаум, Хелен (июль 1996 г.). «Предвзятость в компьютерных системах» (PDF) . Транзакции ACM в информационных системах . 14 (3): 330–347. дои : 10.1145/230538.230561 . S2CID   207195759 . Проверено 10 марта 2019 г.
  18. ^ Jump up to: а б с д и ж Гиллеспи, Тарлтон; Бочковски, Пабло; Фут, Кристин (2014). Медиатехнологии . Кембридж: MIT Press. стр. 1–30. ISBN  9780262525374 .
  19. ^ Jump up to: а б Диакопулос, Николас. «Алгоритмическая ответственность: исследование черных ящиков |» . сайт towcenter.org . Проверено 19 ноября 2017 г.
  20. ^ Липартито, Кеннет (6 января 2011 г.). Повествование и алгоритм: жанры кредитной отчетности с девятнадцатого века до наших дней (PDF) (представленная рукопись). дои : 10.2139/SSRN.1736283 . S2CID   166742927 . ССНР   1736283 .
  21. ^ Jump up to: а б Гудман, Брайс; Флаксман, Сет (2017). «Правила ЕС об алгоритмическом принятии решений и «праве на объяснение» ». Журнал ИИ . 38 (3): 50. arXiv : 1606.08813 . дои : 10.1609/aimag.v38i3.2741 . S2CID   7373959 .
  22. ^ Jump up to: а б с д и ж г Вайценбаум, Джозеф (1976). Мощь компьютера и человеческий разум: от суждения к расчету . Сан-Франциско: WH Freeman. ISBN  978-0-7167-0464-5 .
  23. ^ Jump up to: а б Гоффри, Эндрю (2008). "Алгоритм". В Фуллере, Мэтью (ред.). Исследования программного обеспечения: лексикон . Кембридж, Массачусетс: MIT Press. стр. 15–20 . ISBN  978-1-4356-4787-9 .
  24. ^ Лоури, Стелла; Макферсон, Гордон (5 марта 1988 г.). «Пятно на профессии» . Британский медицинский журнал . 296 (6623): 657–8. дои : 10.1136/bmj.296.6623.657 . ПМЦ   2545288 . ПМИД   3128356 . Проверено 17 ноября 2017 г.
  25. ^ Миллер, Алекс П. (26 июля 2018 г.). «Хотите менее предвзятые решения? Используйте алгоритмы» . Гарвардское деловое обозрение . Проверено 31 июля 2018 г.
  26. ^ Jump up to: а б с Интрона, Лукас Д. (2 декабря 2011 г.). «Обрамление кода». Теория, культура и общество . 28 (6): 113–141. дои : 10.1177/0263276411418131 . S2CID   145190381 .
  27. ^ Богост, Ян (15 января 2015 г.). «Собор вычислений» . Атлантика . Проверено 19 ноября 2017 г.
  28. ^ Jump up to: а б с д и ж г Интрона, Лукас; Вуд, Дэвид (2004). «Изображение алгоритмического наблюдения: политика систем распознавания лиц» . Наблюдение и общество . 2 : 177–198 . Проверено 19 ноября 2017 г.
  29. ^ Jump up to: а б с д Интрона, Лукас Д. (21 декабря 2006 г.). «Сохранение обратимости складок: сделать этику (политику) информационных технологий видимой». Этика и информационные технологии . 9 (1): 11–25. CiteSeerX   10.1.1.154.1313 . дои : 10.1007/s10676-006-9133-z . S2CID   17355392 .
  30. ^ Jump up to: а б Ширки, Клей. «Спекулятивный пост об идее алгоритмического авторитета Клэя Ширки» . www.shirky.com . Проверено 20 ноября 2017 г.
  31. ^ Jump up to: а б Зивиц, Мальте (1 января 2016 г.). «Управляющие алгоритмы: миф, беспорядок и методы» . Наука, технологии и человеческие ценности . 41 (1): 3–16. дои : 10.1177/0162243915608948 . ISSN   0162-2439 . S2CID   148023125 .
  32. ^ Лэш, Скотт (30 июня 2016 г.). «Власть после гегемонии». Теория, культура и общество . 24 (3): 55–78. дои : 10.1177/0263276407075956 . S2CID   145639801 .
  33. ^ Jump up to: а б Гарсия, Меган (1 января 2016 г.). «Расист в машине». Журнал мировой политики . 33 (4): 111–117. дои : 10.1215/07402775-3813015 . S2CID   151595343 .
  34. ^ «Регистрация ACM FAccT 2021» . Сайт fatconference.org . Проверено 14 ноября 2021 г.
  35. ^ Очигаме, Родриго (20 декабря 2019 г.). «Изобретение «этического ИИ»: как крупные технологические компании манипулируют академическими кругами, чтобы избежать регулирования» . Перехват . Проверено 11 февраля 2020 г.
  36. ^ Серго, MJ; Садри, Ф; Ковальски, РА; Кривачек, Ф; Хаммонд, П; Кори, ХТ (май 1986 г.). «Закон о британском гражданстве как логическая программа» (PDF) . Коммуникации АКМ . 29 (5): 370–386. дои : 10.1145/5689.5920 . S2CID   5665107 . Проверено 18 ноября 2017 г.
  37. ^ Jump up to: а б «Чтобы остановить алгоритмическую предвзятость, нам сначала нужно ее определить» . Брукингс . Проверено 27 июня 2023 г.
  38. ^ Эванс, Мелани; Мэтьюз, Анна Уайлд (24 октября 2019 г.). «Исследователи обнаружили расовую предвзятость в больничном алгоритме» . Уолл Стрит Джорнал . ISSN   0099-9660 . Проверено 27 июня 2023 г.
  39. ^ Jump up to: а б с Луо, Куини; Пуэтт, Майкл Дж.; Смит, Майкл Д. (23 мая 2023 г.), Перспективное зеркало слона: исследование языковой предвзятости в Google, ChatGPT, Википедии и YouTube , arXiv : 2303.16281
  40. ^ Баскер, Тони; Чоенни, Сунил; Шоа Барг, Мортаза (20 ноября 2023 г.). «Стереотипы в ChatGPT: эмпирическое исследование» . Материалы 16-й Международной конференции по теории и практике электронного управления . ИКЕГОВ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 24–32. дои : 10.1145/3614321.3614325 . ISBN  979-8-4007-0742-1 .
  41. ^ Котек, Хадас; Докум, Риккер; Сан, Дэвид (5 ноября 2023 г.). «Гендерная предвзятость и стереотипы в моделях большого языка» . Материалы конференции по коллективному разуму ACM . КИ '23. Нью-Йорк, штат Нью-Йорк, США: Ассоциация вычислительной техники. стр. 12–24. дои : 10.1145/3582269.3615599 . ISBN  979-8-4007-0113-9 .
  42. ^ Ченг, Майра; Дурмус, Есин; Джурафски, Дэн (29 мая 2023 г.), Отмеченные личности: использование подсказок на естественном языке для измерения стереотипов в языковых моделях , arXiv : 2305.18189
  43. ^ Фридриксдоттир, Штайнунн Рут; Эйнарссон, Хафштейн (2024), «Гендерная грамматика или укоренившаяся предвзятость? Исследование гендерной предвзятости в моделях исландского языка» , LREC-COLING 2024 : 7596–7610
  44. ^ Фэн, Шанбин; Пак, Чан Ён; Лю, Юхан; Цветков, Юлия (июль 2023 г.). Роджерс, Анна; Бойд-Грабер, Иордания; Окадзаки, Наоаки (ред.). «От данных предварительной подготовки к языковым моделям и последующим задачам: отслеживание политических предубеждений, ведущих к несправедливым моделям НЛП» . Материалы 61-го ежегодного собрания Ассоциации компьютерной лингвистики (Том 1: Длинные статьи) . Торонто, Канада: Ассоциация компьютерной лингвистики: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  45. ^ Гиллеспи, Тарлтон (25 июня 2014 г.). «Алгоритм [проект] [#digitalkeywords] – Культура в цифровом формате» . Culturedigitally.org . Проверено 20 ноября 2017 г.
  46. ^ Рот, AE 1524–1528 гг. (14 декабря 1990 г.). «Новые врачи: естественный эксперимент в организации рынка» . Наука . 250 (4987): 1524–1528. Бибкод : 1990Sci...250.1524R . дои : 10.1126/science.2274783 . ПМИД   2274783 . S2CID   23259274 . Проверено 18 ноября 2017 г. {{cite journal}}: CS1 maint: числовые имена: список авторов ( ссылка )
  47. ^ Куанг, Клифф (21 ноября 2017 г.). «Можно ли научить ИИ объяснять себя?» . Журнал «Нью-Йорк Таймс» . Проверено 26 ноября 2017 г.
  48. ^ Jump up to: а б Жувеналь, Джастин (17 ноября 2016 г.). «Полиция использует программное обеспечение для прогнозирования преступлений. Это «Святой Грааль» или предвзятое отношение к меньшинствам?» . Вашингтон Пост . Проверено 25 ноября 2017 г.
  49. ^ Jump up to: а б Чамма, Морис (3 февраля 2016 г.). «На страже будущего» . Проект Маршалла . Проверено 25 ноября 2017 г.
  50. ^ Лам, Кристиан; Исаак, Уильям (октябрь 2016 г.). «Предсказывать и служить?» . Значение . 13 (5): 14–19. дои : 10.1111/j.1740-9713.2016.00960.x .
  51. ^ Смит, Джек (9 октября 2016 г.). «Исследование показывает, что профилактическая работа полиции только усиливает расовую предвзятость» . Микрофон . Проверено 25 ноября 2017 г.
  52. ^ Лам, Кристиан; Исаак, Уильям (1 октября 2016 г.). «Часто задаваемые вопросы о превентивной полицейской деятельности и предвзятости» . ХРДАГ . Проверено 25 ноября 2017 г.
  53. ^ Сунь, Вэньлун; Насрауи, Ольфа; Шафто, Патрик (2018). «Итерируемое алгоритмическое смещение в процессе интерактивного машинного обучения фильтрации информации». Материалы 10-й Международной совместной конференции по открытию знаний, инженерии знаний и управлению знаниями . Севилья, Испания: SCITEPRESS - Публикации по науке и технологиям. стр. 110–118. дои : 10.5220/0006938301100118 . ISBN  9789897583308 .
  54. ^ Синха, Аян; Глейх, Дэвид Ф.; Рамани, Картик (9 августа 2018 г.). «Закон Гаусса для сетей напрямую раскрывает границы сообщества» . Научные отчеты . 8 (1): 11909. Бибкод : 2018NatSR...811909S . дои : 10.1038/s41598-018-30401-0 . ISSN   2045-2322 . ПМК   6085300 . ПМИД   30093660 .
  55. ^ Хао, Карен (февраль 2018 г.). «Google наконец-то признал, что у него есть проблема с пузырьками фильтров» . Кварц . Проверено 26 февраля 2019 г.
  56. ^ «Facebook тестирует новую функцию для борьбы с «пузырями фильтров» » . Удача . Проверено 26 февраля 2019 г.
  57. ^ Jump up to: а б Сандвиг, Кристиан; Гамильтон, Кевин; Карахалиос, Кэрри ; Лангборт, Седрик (22 мая 2014 г.). «Алгоритмы аудита: методы исследования обнаружения дискриминации на интернет-платформах» (PDF) . 64-е ежегодное собрание Международной коммуникационной ассоциации . Проверено 18 ноября 2017 г.
  58. ^ Брин, Сергей; Пейдж, Лоуренс. «Анатомия поисковой системы» . www7.scu.edu.au. ​Архивировано из оригинала 2 июля 2019 года . Проверено 18 ноября 2017 г.
  59. ^ Эпштейн, Роберт; Робертсон, Рональд Э. (18 августа 2015 г.). «Эффект манипулирования поисковыми системами (SEME) и его возможное влияние на результаты выборов» . Труды Национальной академии наук . 112 (33): Е4512–Е4521. Бибкод : 2015PNAS..112E4512E . дои : 10.1073/pnas.1419828112 . ПМЦ   4547273 . ПМИД   26243876 .
  60. ^ Бонд, Роберт М.; Фарисс, Кристофер Дж.; Джонс, Джейсон Дж.; Крамер, Адам Д.И.; Марлоу, Кэмерон; Сеттл, Джейми Э.; Фаулер, Джеймс Х. (13 сентября 2012 г.). «Эксперимент по социальному влиянию и политической мобилизации с участием 61 миллиона человек» . Природа . 489 (7415): 295–8. Бибкод : 2012Natur.489..295B . дои : 10.1038/nature11421 . ISSN   0028-0836 . ПМЦ   3834737 . ПМИД   22972300 .
  61. ^ Зиттрейн, Джонатан (2014). «Проектирование выборов» (PDF) . Гарвардский форум по обзору права . 127 : 335–341. Архивировано из оригинала (PDF) 4 марта 2021 г. Проверено 19 ноября 2017 г.
  62. ^ Дэй, Мэтт (31 августа 2016 г.). «Как поисковая система LinkedIn может отражать гендерную предвзятость» . Сиэтл Таймс . Проверено 25 ноября 2017 г.
  63. ^ Jump up to: а б Кроуфорд, Кейт; Шульц, Джейсон (2014). «Большие данные и надлежащая правовая процедура: на пути к системе устранения прогнозируемого ущерба конфиденциальности» . Обзор права Бостонского колледжа . 55 (1): 93–128 . Проверено 18 ноября 2017 г.
  64. ^ Духигг, Чарльз (16 февраля 2012 г.). «Как компании узнают ваши секреты» . Журнал «Нью-Йорк Таймс» . Проверено 18 ноября 2017 г.
  65. ^ Благородный, Сафия (2012). «Упущенные связи: что поисковые системы говорят о женщинах» (PDF) . Сука . 12 (4): 37–41.
  66. ^ Гайнн, Джессика (16 марта 2017 г.). «Google начинает отмечать оскорбительный контент в результатах поиска» . США СЕГОДНЯ . США сегодня . Проверено 19 ноября 2017 г.
  67. ^ Симонит, Том. «Исследование предполагает, что система таргетинга рекламы Google может дискриминировать» . Обзор технологий Массачусетского технологического института . Массачусетский технологический институт . Проверено 17 ноября 2017 г.
  68. ^ Пратес, Марсело ОР; Авелар, Педро ХК; Лэмб, Луис (2018). «Оценка гендерной предвзятости в машинном переводе: пример использования Google Translate». arXiv : 1809.02208 [ cs.CY ].
  69. ^ Пратес, Марсело ОР; Авелар, Педро Х.; Лэмб, Луис К. (2019). «Оценка гендерной предвзятости в машинном переводе: пример использования Google Translate». Нейронные вычисления и их приложения . 32 (10): 6363–6381. arXiv : 1809.02208 . дои : 10.1007/s00521-019-04144-6 . S2CID   52179151 .
  70. ^ Клэберн, Томас (10 сентября 2018 г.). «Учёные критикуют Google Translate за сексизм» . Регистр . Проверено 28 апреля 2022 г.
  71. ^ Дастин, Джеффри (9 октября 2018 г.). «Amazon отказывается от секретного инструмента рекрутинга, основанного на искусственном интеллекте, который показал предвзятое отношение к женщинам» . Рейтер .
  72. ^ Винсент, Джеймс (10 октября 2018 г.). «Сообщается, что Amazon отказывается от внутреннего инструмента рекрутинга с использованием искусственного интеллекта, который был предвзятым в отношении женщин» . Грань .
  73. ^ «Размышляя о рекомендательной системе Spotify – SongData» . Октябрь 2019 года . Проверено 7 августа 2020 г.
  74. ^ Буоламвини, Джой; Гебру, Тимнит (21 января 2018 г.). «Гендерные оттенки: различия в точности в коммерческой гендерной классификации» . Труды исследований машинного обучения . 81 (2018): 77–91 . Проверено 27 сентября 2020 г.
  75. ^ Ноубл, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк: Нью-Йоркский университет Пресс. ISBN  978-1479837243 .
  76. ^ Jump up to: а б Накамура, Лиза (2009). Магнит, Шошана; Гейтс, Келли (ред.). Новые средства наблюдения . Лондон: Рутледж. стр. 149–162. ISBN  978-0-415-56812-8 .
  77. ^ Марко Марабелли; Сью Ньюэлл; Валери Хандунге (2021). «Жизненный цикл алгоритмических систем принятия решений: организационный выбор и этические проблемы» . Журнал стратегических информационных систем . 30 (3): 1–15. дои : 10.1016/j.jsis.2021.101683 .
  78. ^ Александр, Рудольф; Гьямера, Жаклин (сентябрь 1997 г.). «Дифференциальное наказание афроамериканцев и белых, владеющих наркотиками: справедливая политика или продолжение прошлого?». Журнал исследований чернокожих . 28 (1): 97–111. дои : 10.1177/002193479702800106 . ISSN   0021-9347 . S2CID   152043501 .
  79. ^ Петерсилия, Джоан (январь 1985 г.). «Расовые различия в системе уголовного правосудия: Резюме». Преступность и правонарушения . 31 (1): 15–34. дои : 10.1177/0011128785031001002 . ISSN   0011-1287 . S2CID   146588630 .
  80. ^ Jump up to: а б Гайнн, Джессика (1 июля 2015 г.). «Google Фото назвал чернокожих людей «гориллами» » . США СЕГОДНЯ . США сегодня . Проверено 18 ноября 2017 г.
  81. ^ Роуз, Адам (22 января 2010 г.). «Являются ли камеры распознавания лиц расистскими?» . Время . Проверено 18 ноября 2017 г.
  82. ^ «Алекса не понимает ваш акцент» . Вашингтон Пост .
  83. ^ Суини, Латанья (28 января 2013 г.). «Дискриминация в доставке онлайн-рекламы». arXiv : 1301.6822 [ cs.IR ].
  84. ^ Браун, Ланди (2015). «Раса, этническая принадлежность и функция легких: краткая история» . Канадский журнал респираторной терапии . 51 (4): 99–101. ISSN   1205-9838 . ПМЦ   4631137 . ПМИД   26566381 .
  85. ^ Робинсон, Уитни Р.; Ренсон, Одри; Наими, Эшли I (1 апреля 2020 г.). «Изучение структурного расизма улучшит ваше машинное обучение» . Биостатистика . 21 (2): 339–344. doi : 10.1093/biostatistics/kxz040 . ISSN   1465-4644 . ПМЦ   7868043 . ПМИД   31742353 .
  86. ^ Джонсон, Кэролайн Ю. (24 октября 2019 г.). «Расовая предвзятость в медицинском алгоритме отдает предпочтение белым пациентам, а не более больным чернокожим пациентам» . Вашингтон Пост . Проверено 28 октября 2019 г.
  87. ^ Бартлетт, Роберт; Морс, Адэр; Стэнтон, Ричард; Уоллес, Нэнси (июнь 2019 г.). «Дискриминация потребительского кредитования в эпоху финансовых технологий» . Рабочий документ NBER № 25943 . Серия рабочих документов. дои : 10.3386/w25943 . S2CID   242410791 .
  88. ^ Джефф Ларсон, Джулия Ангвин (23 мая 2016 г.). «Как мы анализировали алгоритм COMPAS по борьбе с рецидивами» . ПроПублика . Архивировано из оригинала 29 апреля 2019 года . Проверено 19 июня 2020 г.
  89. ^ «Комментарий: Плохие новости. Искусственный интеллект предвзят» . ЦНА . 12 января 2019 года. Архивировано из оригинала 12 января 2019 года . Проверено 19 июня 2020 г.
  90. ^ Jump up to: а б Ангвин, Джулия; Ларсон, Джефф; Матту, Сурья; Киршнер, Лорен (23 мая 2016 г.). «Машинный уклон — ПроПублика» . ПроПублика . Проверено 18 ноября 2017 г.
  91. ^ Харкорт, Бернард (16 сентября 2010 г.). «Риск как признак расы» . Репортер по федеральным приговорам . 27 (4): 237. doi : 10.1525/fsr.2015.27.4.237 . S2CID   53611813 . ССНН   1677654 .
  92. Ским Дж., Ловенкамп С., Риск, раса и рецидивизм: прогнозируемая предвзятость и несопоставимое воздействие (14 июня 2016 г.). ССНР   2687339
  93. ^ Томас, К.; Нуньес, А. (2022). «Автоматизация судебного усмотрения: как алгоритмическая оценка рисков в досудебных решениях нарушает права на равную защиту по признаку расы» . Закон и неравенство . 40 (2): 371–407. дои : 10.24926/25730037.649 .
  94. ^ Jump up to: а б Ангвин, Джулия; Грассеггер, Ханнес (28 июня 2017 г.). «Секретные правила цензуры Facebook защищают белых мужчин от разжигания ненависти, но не чернокожих детей — ProPublica» . ПроПублика . Проверено 20 ноября 2017 г.
  95. ^ Ангвин, Джулия; Варнер, Мадлен; Тобин, Ариана (14 сентября 2017 г.). «Facebook позволил рекламодателям связаться с «ненавистниками евреев» — ProPublica» . ПроПублика . Проверено 20 ноября 2017 г.
  96. ^ Сап, Мартен; Кард, Даллас; Габриэль, Саадия; Чой, Еджин; Смит, Ной А. (28 июля – 2 августа 2019 г.). «Риск расовой предвзятости при обнаружении разжигания ненависти» (PDF) . Материалы 57-го ежегодного собрания Ассоциации компьютерных лингвистов . Флоренция, Италия: Ассоциация компьютерной лингвистики. стр. 1668–1678. Архивировано (PDF) из оригинала 14 августа 2019 г.
  97. ^ Гаффари, Ширин (15 августа 2019 г.). «Алгоритмы, распознающие разжигание ненависти в Интернете, предвзято относятся к чернокожим людям» . Вокс . Проверено 19 февраля 2020 г.
  98. ^ Ферл, Н. (декабрь 2002 г.). «Алгоритмы распознавания лиц и эффект другой расы: вычислительные механизмы для гипотезы контакта развития» . Когнитивная наука . 26 (6): 797–815. дои : 10.1207/s15516709cog2606_4 .
  99. ^ Раджи, Иниолува Дебора; Гебру, Тимнит; Митчелл, Маргарет; Буоламвини, Джой; Ли, Джунсок; Дентон, Эмили (7 февраля 2020 г.). «Спасение лица» . Материалы конференции AAAI/ACM по искусственному интеллекту, этике и обществу . Ассоциация вычислительной техники. стр. 145–151. arXiv : 2001.00964 . дои : 10.1145/3375627.3375820 . ISBN  9781450371100 . S2CID   209862419 .
  100. ^ «Распознавание лиц будет точным, если вы белый парень» . Нью-Йорк Таймс . 9 февраля 2018 года . Проверено 24 августа 2023 г.
  101. ^ Буоламвини, Джой; Гебру, Тимнит (2018). «Гендерные оттенки: различия в точности в коммерческой гендерной классификации» (PDF) . Труды исследований машинного обучения . 81 : 1 – через MLR Press.
  102. ^ Ананни, Майк (14 апреля 2011 г.). «Любопытная связь между приложениями для геев и сексуальными преступниками» . Атлантика . Проверено 18 ноября 2017 г.
  103. ^ Кафка, Питер. «Действительно ли Amazon потерпела неудачу на этих выходных? Твиттерсфера говорит: «Да», интернет-магазин говорит: «Сбой». " . ВсеВещиД . Проверено 22 ноября 2017 г.
  104. ^ Кафка, Питер. «Amazon приносит извинения за «неуклюжую ошибку каталогизации» » . ВсеВещиД . Проверено 22 ноября 2017 г.
  105. ^ Мацакис, Луиза (22 февраля 2019 г.). «Сексистская поисковая ошибка говорит о нас больше, чем Facebook» . Проводной . ISSN   1059-1028 . Проверено 26 февраля 2019 г.
  106. ^ «Некоторый ИИ просто не должен существовать» . 19 апреля 2019 г.
  107. ^ Самуэль, Сигал (19 апреля 2019 г.). «Некоторый ИИ просто не должен существовать» . Вокс . Проверено 12 декабря 2019 г.
  108. ^ Ван, Илунь; Косински, Михал (15 февраля 2017 г.). «Глубокие нейронные сети точнее, чем люди, определяют сексуальную ориентацию по изображениям лиц» . ОСФ . дои : 10.17605/OSF.IO/ZN79K .
  109. ^ Левин, Сэм (9 сентября 2017 г.). «ЛГБТ-группы осуждают «опасный» искусственный интеллект, который использует ваше лицо, чтобы угадывать сексуальную принадлежность» . Хранитель . ISSN   0261-3077 . Проверено 12 декабря 2019 г.
  110. ^ Пал, GC (16 сентября 2011 г.). «Инвалидность, интерсекциональность и депривация: исключенная повестка дня» . Психология и развивающиеся общества . 23 (2), 159–176. дои : 10.1177/097133361102300202 . S2CID   147322669 — через Sagepub.
  111. ^ Бринкман, Аврора Х.; Реа-Сандин, Джанна; Лунд, Эмили М.; Фицпатрик, Оливия М.; Гусман, Микаэла С.; Бонесс, Кассандра Л.; Ученые за повышение равенства и разнообразия (SEED) (20 октября 2022 г.). «Изменение дискурса об инвалидности: переход к инклюзивному, межсекциональному фокусу» . Американский журнал ортопсихиатрии . 93 (1): 50–62. дои : 10.1037/ort0000653 . ISSN   1939-0025 . ПМЦ   9951269 . ПМИД   36265035 .
  112. ^ Уиттакер, Мередит (ноябрь 2019 г.). «Инвалидность, предвзятость и ИИ» (PDF) .
  113. ^ «Миссия: Инвалидность — это разнообразие. Дорогая индустрия развлечений, БЕЗ ИНВАЛИДНОСТИ НЕТ РАЗНООБРАЗИЯ, СПРАВЕДЛИВОСТИ И ИНКЛЮЗИВНОСТИ» . Инвалидность – это разнообразие . Проверено 2 декабря 2022 г.
  114. ^ «Майкрософт Дизайн» . www.microsoft.com . Проверено 2 декабря 2022 г.
  115. ^ Пулранг, Эндрю. «4 способа понять разнообразие сообщества инвалидов» . Форбс . Проверено 2 декабря 2022 г.
  116. ^ Уотермейер, Брайан; Шварц, Лесли (12 октября 2022 г.). «Инвалидность и проблема ленивой интерсекциональности» . Инвалидность и общество . 38 (2): 362–366. дои : 10.1080/09687599.2022.2130177 . ISSN   0968-7599 . S2CID   252959399 .
  117. ^ «Отчет о данных об инвалидности 2021» . Инициатива по данным об инвалидности . Проверено 2 декабря 2022 г.
  118. ^ Уайт, Джейсон Дж. Г. (2 марта 2020 г.). «Справедливость ИИ для людей с ограниченными возможностями: анализ проблем и междисциплинарное сотрудничество» . ACM SIGACCESS Доступность и вычисления (125): 3:1. дои : 10.1145/3386296.3386299 . ISSN   1558-2337 . S2CID   211723415 .
  119. ^ «Языковые модели искусственного интеллекта демонстрируют предвзятое отношение к людям с ограниченными возможностями, показало исследование | Университет штата Пенсильвания» . www.psu.edu . Проверено 2 декабря 2022 г.
  120. ^ Гивенс, Александра Рив (6 февраля 2020 г.). «Как алгоритмическое смещение вредит людям с ограниченными возможностями» . Журнал «Сланец» . Проверено 2 декабря 2022 г.
  121. ^ Моррис, Мередит Рингел (22 мая 2020 г.). «ИИ и доступность» . Коммуникации АКМ . 63 (6): 35–37. arXiv : 1908.08939 . дои : 10.1145/3356727 . ISSN   0001-0782 . S2CID   201645229 .
  122. ^ Ноубл, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк. ISBN  9781479837243 . OCLC   987591529 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  123. ^ Кастельново, Алессандро; Инверарди, Николь; Нанино, Габриэле; Пенко, Илария; Реголи, Даниэле (2023). «Достаточно справедливо? Карта текущих ограничений требований к «справедливым» алгоритмам». arXiv : 2311.12435 [ cs.AI ].
  124. ^ Руджери, Сальваторе; Альварес, Хосе М; Пуньяна, Андреа; Турини, Франко (2023). «Можем ли мы доверять справедливому искусственному интеллекту?» . Материалы конференции AAAI по искусственному интеллекту . 37 (13): 5421–15430. дои : 10.1609/aaai.v37i13.26798 . hdl : 11384/136444 . S2CID   259678387 .
  125. ^ Самуэль, Сигал (19 апреля 2022 г.). «Почему так чертовски сложно сделать ИИ справедливым и беспристрастным» . Вокс . Проверено 23 июля 2024 г.
  126. ^ Фиоретто, Фердинандо (19 марта 2024 г.). «Обеспечение справедливости в ИИ имеет решающее значение, и его трудно добиться правильно» . Разговор . Проверено 23 июля 2024 г.
  127. ^ Фридлер, Сорель А.; Шайдеггер, Карлос; Венкатасубраманиан, Суреш (2016). «О (не) возможности справедливости». arXiv : 1609.07236 [ cs.CY ].
  128. ^ Ху, Лили; Чен, Илин (2018). «Влияние справедливой классификации на благосостояние и распределение». arXiv : 1807.01134 [ cs.LG ].
  129. ^ Дворк, Синтия; Хардт, Мориц; Питасси, Тонианн; Рейнгольд, Омер; Земель, Рич (28 ноября 2011 г.). «Справедливость через осознанность». arXiv : 1104.3913 [ cs.CC ].
  130. ^ Jump up to: а б с Сандвиг, Кристиан; Гамильтон, Кевин; Карахалиос, Кэрри; Лангборт, Седрик (2014). Гангадхаран, Сита Пена; Юбэнкс, Вирджиния; Барокас, Солон (ред.). «Аудит алгоритма» (PDF) . Данные и дискриминация: Сборник очерков .
  131. ^ ЛаФранс, Адриенн (18 сентября 2015 г.). «Алгоритмы, лежащие в основе Интернета, становятся все более загадочными» . Атлантика . Проверено 19 ноября 2017 г.
  132. ^ Бруно Латур (1999). Надежда Пандоры: очерки реальности научных исследований . Кембридж, Массачусетс : Издательство Гарвардского университета .
  133. ^ Кубичко, Себастьян; Каун, Энн (2016). Инновационные методы в медиа и коммуникационных исследованиях . Спрингер. ISBN  978-3-319-40700-5 . Проверено 19 ноября 2017 г.
  134. ^ МакГи, Мэтт (16 августа 2013 г.). «EdgeRank мертв: алгоритм ленты новостей Facebook теперь имеет весовые коэффициенты, близкие к 100 тыс.» . Маркетинговая земля . Проверено 18 ноября 2017 г.
  135. ^ Jump up to: а б с Гранка, Лаура А. (27 сентября 2010 г.). «Политика поиска: десятилетняя ретроспектива» (PDF) . Информационное общество . 26 (5): 364–374. дои : 10.1080/01972243.2010.511560 . S2CID   16306443 . Проверено 18 ноября 2017 г.
  136. ^ Шимелевич, Катажина (20 января 2020 г.). «Политика черного ящика» . Середина . Проверено 11 февраля 2020 г.
  137. ^ Вил, Майкл; Биннс, Рубен (2017). «Более справедливое машинное обучение в реальном мире: смягчение дискриминации без сбора конфиденциальных данных» . Большие данные и общество . 4 (2): 205395171774353. doi : 10.1177/2053951717743530 . ССНР   3060763 .
  138. ^ Эллиотт, Марк Н.; Моррисон, Питер А.; Фремонт, Аллен; Маккаффри, Дэниел Ф.; Пантоха, Филип; Лурье, Николь (июнь 2009 г.). «Использование списка фамилий Бюро переписи населения для улучшения оценок расовой / этнической принадлежности и связанных с ними различий». Методология исследования медицинских услуг и результатов . 9 (2): 69–83. дои : 10.1007/s10742-009-0047-1 . ISSN   1387-3741 . S2CID   43293144 .
  139. ^ Чен, Цзяхао; Каллус, Натан; Мао, Сяоцзе; Свача, Джеффри; Уделл, Мадлен (2019). «Справедливость в условиях неосознанности» . Материалы конференции по справедливости, подотчетности и прозрачности . Атланта, Джорджия, США: ACM Press. стр. 339–348. arXiv : 1811.11154 . дои : 10.1145/3287560.3287594 . ISBN  9781450361255 . S2CID   58006233 .
  140. ^ Килбертус, Ники; Гаскон, Адриатика; Куснер, Мэтт; Вил, Майкл; Гуммади, Кришна; Веллер, Адриан (2018). «Слепое правосудие: справедливость с зашифрованными конфиденциальными атрибутами» . Международная конференция по машинному обучению : 26:30–26:39. arXiv : 1806.03281 . Бибкод : 2018arXiv180603281K .
  141. ^ Биннс, Рубен; Вил, Майкл; Клик, Макс Ван; Шедболт, Найджел (13 сентября 2017 г.). «Как тренер, как бот? Наследование предвзятости при алгоритмической модерации контента». Социальная информатика . Конспекты лекций по информатике. Том. 10540. стр. 405–415. arXiv : 1707.01477 . дои : 10.1007/978-3-319-67256-4_32 . ISBN  978-3-319-67255-7 . S2CID   2814848 .
  142. ^ Клэберн, Томас (18 июля 2016 г.). «Закон ЕС о защите данных может положить конец непознаваемому алгоритму – InformationWeek» . Информационная неделя . Проверено 25 ноября 2017 г.
  143. ^ Jump up to: а б Джобин, Анна; Иенка, Марчелло; Вайена, Эффи (2 сентября 2019 г.). «Глобальный ландшафт руководящих принципов этики ИИ». Природный машинный интеллект . 1 (9): 389–399. arXiv : 1906.11668 . дои : 10.1038/s42256-019-0088-2 . S2CID   201827642 .
  144. ^ https://research.google.com/bigpicture/attacking-discrimination-in-ml/ Борьба с дискриминацией с помощью более умного машинного обучения
  145. ^ Хардт, Мориц; Прайс, Эрик; Сребро, Натан (2016). «Равенство возможностей в контролируемом обучении». arXiv : 1610.02413 [ cs.LG ].
  146. ^ https://venturebeat.com/2018/05/25/microsoft-is-developing-a-tool-to-help-engineers-catch-bias-in-algorithms/ Microsoft разрабатывает инструмент, который поможет инженерам выявить предвзятость в алгоритмы
  147. ^ «Facebook заявляет, что у него есть инструмент для обнаружения предвзятости в искусственном интеллекте» . Кварц . 3 мая 2018 г. Архивировано из оригинала 5 марта 2023 г.
  148. ^ с открытым исходным кодом Pymetrics Audit-AI
  149. ^ https://venturebeat-com.cdn.ampproject.org/c/s/venturebeat.com/2018/05/31/pymetrics-open-sources-audit-ai-an-algorithm-bias-detection-tool/amp / Pymetrics с открытым исходным кодом Audit AI, инструмент обнаружения предвзятости алгоритма
  150. ^ https://github.com/dssg/aequitas с открытым исходным кодом Aequitas: набор инструментов для аудита предвзятости и справедливости
  151. ^ https://dsapp.uchicago.edu/aequitas/ ИИ аудита с открытым исходным кодом, Aequitas в Чикагском университете
  152. ^ https://www.ibm.com/blogs/research/2018/02/mitigating-bias-ai-models/ Смягчение предвзятости в моделях ИИ
  153. ^ С. Сен, Д. Дасгупта и К.Д. Гупта, «Эмпирическое исследование алгоритмической предвзятости», 44-я ежегодная конференция IEEE по компьютерам, программному обеспечению и приложениям (COMPSAC), Мадрид, Испания, 2020 г., 2020 г., стр. 1189-1194, два : 10.1109/COMPSAC48688.2020.00-95 .
  154. ^ Цзоу, Джеймс; Шибингер, Лонда (июль 2018 г.). «ИИ может быть сексистским и расистским — пришло время сделать это справедливым» . Природа . 559 (7714): 324–326. Бибкод : 2018Natur.559..324Z . дои : 10.1038/d41586-018-05707-8 . ПМИД   30018439 .
  155. ^ Цзя, Сен; Благополучие, Томас; Кристианини, Нелло (2018). Правильно по правильной причине: Обучение независимых сетей . Международный симпозиум по интеллектуальному анализу данных. Спрингер.
  156. ^ Саттон, Адам; Благополучие, Томас; Кристианини, Нелло (2018). Смещенные внедрения из диких данных: измерение, понимание и удаление . Международный симпозиум по интеллектуальному анализу данных. Спрингер.
  157. ^ Коэне, Ансгар (июнь 2017 г.). «Алгоритмическая предвзятость: решение растущих проблем [передовые позиции]» (PDF) . Журнал IEEE Technology and Society . 36 (2): 31–32. дои : 10.1109/mts.2017.2697080 . ISSN   0278-0097 .
  158. ^ «P7003 — Вопросы алгоритмического смещения» . ИИЭЭ . Архивировано из оригинала 3 декабря 2018 года . Проверено 3 декабря 2018 г.
  159. ^ Интернет-сообщество (18 апреля 2017 г.). «Искусственный интеллект и машинное обучение: аналитический документ» . Интернет-сообщество . Проверено 11 февраля 2020 г.
  160. ^ Jump up to: а б «Белая книга: Как предотвратить дискриминационные результаты в машинном обучении» . Всемирный экономический форум . 12 марта 2018 года . Проверено 11 февраля 2020 г.
  161. ^ «Объяснимый искусственный интеллект» . www.darpa.mil . Проверено 11 февраля 2020 г.
  162. ^ ПрайсуотерхаусКуперс. «Система ответственного ИИ» . ПвК . Проверено 11 февраля 2020 г.
  163. ^ Хилд, Дэвид (7 сентября 2006 г.). Прозрачность: ключ к лучшему управлению? . Британская академия. дои : 10.5871/bacad/9780197263839.003.0002 . ISBN  978-0-19-726383-9 .
  164. ^ Кемпер, Якко; Колкман, Даан (6 декабря 2019 г.). «Прозрачно для кого? Никакой алгоритмической ответственности без критической аудитории» . Информация, коммуникация и общество . 22 (14): 2081–2096. дои : 10.1080/1369118X.2018.1477967 . hdl : 11245.1/75cb1256-5fe5-4724-9a63-03ef66032d8e . ISSN   1369-118X .
  165. ^ «Декларация Торонто: защита прав на равенство и недискриминацию в системах машинного обучения» . Хьюман Райтс Вотч . 3 июля 2018 г. Проверено 11 февраля 2020 г.
  166. ^ Декларация Торонто: защита права на равенство и недискриминацию в системах машинного обучения (PDF) . Хьюман Райтс Вотч. 2018. с. 15.
  167. ^ Флориди, Лучано; Коулс, Джош; Бельтраметти, Моника; Чатила, Раджа; Шазеранд, Патрис; Дигнум, Вирджиния; Лютге, Кристоф; Мэдлин, Роберт; Пагалло, Уго; Росси, Франческа; Шафер, Буркхард (1 декабря 2018 г.). «AI4People — этические рамки хорошего общества искусственного интеллекта: возможности, риски, принципы и рекомендации» . Разум и машины . 28 (4): 703. doi : 10.1007/s11023-018-9482-5 . ISSN   1572-8641 . ПМК   6404626 . ПМИД   30930541 .
  168. ^ Кроуфорд, Кейт (25 июня 2016 г.). «Мнение | Проблема белого парня искусственного интеллекта» . Нью-Йорк Таймс . ISSN   0362-4331 . Проверено 11 февраля 2020 г.
  169. ^ «ИИ — это будущее, но где женщины?» . Проводной . ISSN   1059-1028 . Проверено 11 февраля 2020 г.
  170. ^ Сноу, Джеки. « Мы находимся в кризисе разнообразия»: соучредитель Black in AI о том, что отравляет алгоритмы в нашей жизни» . Обзор технологий Массачусетского технологического института . Проверено 11 февраля 2020 г.
  171. ^ Хао, Карен (14 июня 2021 г.). «Внутри борьбы за освобождение ИИ от контроля крупных технологий» . Обзор технологий Массачусетского технологического института . Проверено 21 июня 2021 г.
  172. ^ Цистон, Сара (29 декабря 2019 г.). «Интерсекциональный ИИ необходим» . Журнал науки и технологий искусств . 11 (2): 3–8. дои : 10.7559/citarj.v11i2.665 . ISSN   2183-0088 .
  173. ^ Д'Игнацио, Кэтрин; Кляйн, Лорен Ф. (2020). Данные феминизма . С Прессой. ISBN  978-0262044004 .
  174. ^ Кейв, Стивен; Дихал, Канта (6 августа 2020 г.). «Белизна ИИ» . Философия и технология . 33 (4): 685–703. дои : 10.1007/s13347-020-00415-6 . ISSN   2210-5441 .
  175. ^ Бонди, Элизабет; Сюй, Лили; Акоста-Навас, Диана; Киллиан, Джексон А. (2021). «Представление сообществ: коллективный подход к использованию ИИ на благо общества». Материалы конференции AAAI/ACM 2021 года по искусственному интеллекту, этике и обществу . стр. 425–436. arXiv : 2105.01774 . дои : 10.1145/3461702.3462612 . ISBN  9781450384735 . S2CID   233740121 . Получено 6 апреля 2023 г. - через ezpa.library.ualberta.ca.
  176. ^ Университет, Стэнфорд (18 марта 2019 г.). «Стэнфордский университет запускает Институт человекоцентрированного искусственного интеллекта» . Стэнфордские новости . Проверено 6 апреля 2023 г.
  177. ^ Бонди, Элизабет; Сюй, Лили; Акоста-Навас, Диана; Киллиан, Джексон А. (21 июля 2021 г.). «Представление сообществ: коллективный подход к использованию ИИ на благо общества». Материалы конференции AAAI/ACM 2021 года по искусственному интеллекту, этике и обществу . стр. 425–436. arXiv : 2105.01774 . дои : 10.1145/3461702.3462612 . ISBN  9781450384735 . S2CID   233740121 .
  178. ^ Бигрейв, Ли А. (2001). «Автоматическое профилирование». Обзор компьютерного права и безопасности . 17 (1): 17–24. дои : 10.1016/s0267-3649(01)00104-2 .
  179. ^ Jump up to: а б Вил, Майкл; Эдвардс, Лилиан (2018). «Ясность, сюрпризы и дополнительные вопросы в проекте руководства Рабочей группы по статье 29 по автоматизированному принятию решений и профилированию» (PDF) . Обзор компьютерного права и безопасности . 34 (2): 398–404. дои : 10.1016/j.clsr.2017.12.002 . S2CID   4797884 . ССНР   3071679 .
  180. ^ Вахтер, Сандра; Миттельштадт, Брент; Флориди, Лучано (1 мая 2017 г.). «Почему право на объяснение автоматизированного принятия решений не существует в Общем регламенте защиты данных» . Международный закон о конфиденциальности данных . 7 (2): 76–99. дои : 10.1093/idpl/ipx005 . ISSN   2044-3994 .
  181. ^ Эдвардс, Лилиан; Вил, Майкл (23 мая 2017 г.). «Раб алгоритма? Почему право на объяснение, вероятно, не то средство, которое вы ищете». Обзор закона и технологий Duke . 16 :18–84. ССНН   2972855 .
  182. ^ Jump up to: а б Певица Наташа (2 февраля 2013 г.). «Законы о защите потребительских данных, за исключением океана» . Нью-Йорк Таймс . Проверено 26 ноября 2017 г.
  183. ^ Обама, Барак (12 октября 2016 г.). «Отчет администрации о будущем искусственного интеллекта» . Белый дом . Национальный архив . Проверено 26 ноября 2017 г.
  184. ^ и технологический совет, Национальная наука (2016). Национальный стратегический план исследований и разработок искусственного интеллекта (PDF) . Правительство США . Проверено 26 ноября 2017 г.
  185. ^ Киршнер, Лорен (18 декабря 2017 г.). «Нью-Йорк движется к созданию ответственности за алгоритмы — ProPublica» . ПроПублика . Проверено 28 июля 2018 г.
  186. ^ «Городской совет Нью-Йорка — Файл №: Int 1696-2017» . legistar.council.nyc.gov . Городской совет Нью-Йорка . Проверено 28 июля 2018 г.
  187. ^ Паулз, Джулия. «Смелая и ошибочная попытка Нью-Йорка сделать алгоритмы ответственными» . Житель Нью-Йорка . Проверено 28 июля 2018 г.
  188. ^ «Индия рассматривает комплексный законопроект о конфиденциальности данных, аналогичный GDPR ЕС» . Страховой журнал . 31 июля 2018 года . Проверено 26 февраля 2019 г.
  189. ^ «Законопроект о защите персональных данных, 2018 г.» (PDF) . Министерство электроники и информационных технологий, правительство Индии. 2018 . Проверено 29 апреля 2022 г.

Дальнейшее чтение

[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: a9ddfd3bdadee0565810ee404a726ec8__1722384240
URL1:https://arc.ask3.ru/arc/aa/a9/c8/a9ddfd3bdadee0565810ee404a726ec8.html
Заголовок, (Title) документа по адресу, URL1:
Algorithmic bias - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)