Jump to content

Алгоритмы угнетения

Алгоритмы угнетения
Первое издание
Автор Утренний Благородный
Язык Английский
Предмет Расизм, алгоритмы
Жанр Научная литература
Опубликовано февраль 2018 г.
Издатель Нью-Йоркский университет Пресс
Место публикации Соединенные Штаты
Страницы 256 стр.
ISBN 978-1-4798-4994-9 (Твердый переплет)

«Алгоритмы угнетения: как поисковые системы усиливают расизм» — это книга Сафии Умоджи Нобл, вышедшая в 2018 году , в области информатики, машинного обучения и взаимодействия человека и компьютера. [ 1 ] [ 2 ] [ 3 ] [ 4 ]

Ноубл получил степень бакалавра социологии в Калифорнийском государственном университете во Фресно в 1990-х годах, затем пятнадцать лет работал в сфере рекламы и маркетинга, а затем в начале 2000-х поступил в Университет Иллинойса в Урбана-Шампейн , чтобы получить степень магистра библиотечных и информационных наук . [ 5 ] Первое вдохновение для создания книги пришло в 2011 году, когда Ноубл ввела в Google фразу «черные девушки» и увидела на первой странице результаты по порнографии. [ 5 ] Докторская диссертация Нобл, завершенная в 2012 году, называлась «В поисках чернокожих девушек: старые традиции в новых медиа». [ 6 ] В это время Ноубл придумал название для будущей книги «Алгоритмы угнетения». [ 7 ] К этому времени изменения в алгоритме Google изменили наиболее распространенные результаты поиска «черных девушек», хотя основные предубеждения остаются влиятельными. [ 8 ] Ноубл стал доцентом Калифорнийского университета в Лос-Анджелесе в 2014 году. [ 9 ] В 2017 году она опубликовала статью о расистской и сексистской предвзятости в поисковых системах в The Chronicle of Higher Education . [ 9 ] [ 10 ] Книга вышла 20 февраля 2018 года. [ 11 ]

«Алгоритмы угнетения» — это текст, основанный на более чем шестилетних академических исследованиях поисковых алгоритмов Google , в которых изучаются результаты поиска с 2009 по 2015 год. [ 12 ] В книге рассматривается взаимосвязь между поисковыми системами и дискриминационными предубеждениями. Ноубл утверждает, что алгоритмы поиска являются расистскими и увековечивают социальные проблемы, поскольку отражают негативные предубеждения, существующие в обществе и людях, которые их создают. [ 13 ] [ 14 ] [ 15 ] Ноубл опровергает идею о том, что поисковые системы по своей сути нейтральны, объясняя, как алгоритмы поисковых систем отдают предпочтение белизне, изображая положительные сигналы, когда вводятся такие ключевые слова, как «белый», а не «азиат», «латиноамериканец» или «черный». Ее главный пример касается результатов поиска «черные девушки» по сравнению с «белыми девушками» и предвзятостей, которые отражены в результатах. [ 16 ] Эти алгоритмы могут затем иметь негативное предубеждение против цветных женщин и других маргинализированных групп населения, а также влиять на пользователей Интернета в целом, приводя к «расовому и гендерному профилированию, искажению фактов и даже экономической красной черте». В книге утверждается, что алгоритмы увековечивают угнетение и дискриминацию цветных людей, особенно цветных женщин.

В своей работе Ноубл использует интерсекциональный феминистский подход черных, изучая, как алгоритмы Google по-разному влияют на людей в зависимости от расы и пола. Интерсекциональный феминизм учитывает разнообразный опыт женщин разных рас и сексуальной ориентации при обсуждении их угнетающего общества, а также то, как их различное происхождение влияет на их борьбу. Кроме того, аргумент Нобл касается того, как расизм проникает в сам алгоритм Google, что справедливо для многих систем кодирования, включая распознавание лиц и программы медицинского обслуживания. [ 17 ] Хотя многие новые технологические системы позиционируют себя как прогрессивные и беспристрастные, Ноубл возражает против этой точки зрения и утверждает, что многие технологии, включая алгоритм Google, «отражают и воспроизводят существующее неравенство». [ 18 ]

Краткое содержание глав

[ редактировать ]

В главе 1 книги «Алгоритмы угнетения » Сафия Ноубл исследует, как функция автоматического предложения поиска Google деморализует. 18 сентября 2011 года мать ввела в Google запрос «черные девочки», пытаясь найти развлечения, которые можно было бы показать своей падчерице и племянницам. К ее удивлению, результаты включали веб-сайты и порнографические изображения. Этот результат включает в себя сбои в данных, характерные для цветных людей и женщин, которых Нобл называет алгоритмическим угнетением . Ноубл также добавляет, что мы, как общество, должны иметь феминистский взгляд и расовую осведомленность, чтобы понять «проблемные позиции о благотворной роли технологий». [ 19 ]

Ноубл также обсуждает, как Google может удалить человеческое курирование с первой страницы результатов, чтобы исключить любые потенциальные расовые оскорбления или неуместные изображения. Другой пример, обсуждаемый в этом тексте, — это публичный спор по поводу результатов, полученных при поиске «еврей» в Google. Результаты включали ряд антисемитских страниц, и Google не взял на себя никакой ответственности за то, как он предоставил эти личные данные. Вместо этого Google поощрял людей использовать слова «евреи» или «еврейский народ» и утверждал, что действия групп сторонников превосходства белой расы находятся вне контроля Google. [ 16 ] Если страницы не являются незаконными, Google позволит своему алгоритму продолжать действовать, не удаляя страницы.

Ноубл размышляет об AdWords, который является рекламным инструментом Google, и о том, как этот инструмент может усилить предвзятость в Google. Adwords позволяет любому размещать рекламу на страницах поиска Google и имеет широкие возможности настройки. [ 20 ] Сначала Google ранжирует объявления по релевантности, а затем отображает их на страницах, которые, по его мнению, релевантны поисковому запросу. Рекламодатель также может установить максимальную сумму денег в день, которую он может потратить на рекламу. Чем больше вы тратите на рекламу, тем выше вероятность того, что ваше объявление окажется ближе к верху. Таким образом, если рекламодатель увлечен своей темой, но она вызывает споры, она может появиться в результатах поиска Google первой.

В главе 2 «Алгоритмы угнетения » Ноубл объясняет, что Google усугубил расизм и как они продолжают отрицать ответственность за него. Google возлагает вину на тех, кто создал контент, а также на тех, кто активно ищет эту информацию. Google Алгоритм поддерживает социальное неравенство и стереотипы в отношении чернокожих, латиноамериканских и азиатских женщин, в основном благодаря дизайну и инфраструктуре Google, которая нормализует белизну и мужчин. Она объясняет, что алгоритм Google классифицирует информацию, которая усугубляет стереотипы, а также поощряет гегемонистские нормы белых. Ноубл обнаружил, что после поиска чернокожих девушек первыми результатами поиска были распространенные стереотипы о чернокожих девушках или категории, созданные Google на основе собственного представления о чернокожих девушках. Google прячется за своим алгоритмом, который, как было доказано, увековечивает неравенство.

В главе 3 книги «Алгоритмы угнетения » Сафия Нобл обсуждает, как поисковая система Google объединяет несколько источников для создания угрожающих повествований о меньшинствах. Она объясняет пример, в котором она искала в Google «преступления черных против белых» . [ 21 ] Ноубл подчеркивает, что источники и информация, которые были найдены после обыска, указывали на консервативные источники, которые искажали информацию. Эти источники отображали расистскую и античерную информацию из источников, сторонников превосходства белой расы . В конечном счете, она считает, что эта легкодоступная ложная информация способствовала действиям сторонника превосходства белой расы Диланна Руфа , который совершил резню.

В главе 4 «Алгоритмы угнетения » Ноубл развивает свои аргументы, обсуждая, каким образом Google осуществляет репрессивный контроль над личностью. В этой главе приводятся многочисленные примеры того, как женщин стыдили за их деятельность в порноиндустрии, независимо от того, была ли она по обоюдному согласию или нет. Она критикует способность Интернета влиять на будущее из-за его постоянного характера и сравнивает законы США о конфиденциальности с законами Европейского Союза, которые предоставляют гражданам «право забыть или быть забытыми». [ 22 ] При использовании поисковых систем, таких как Google, эти нарушения конфиденциальности непропорционально сильно затрагивают женщин и цветных людей. Google утверждает, что они защищают наши данные, чтобы защитить нас от потери нашей информации, но не может решить, что происходит, когда вы хотите, чтобы ваши данные были удалены.

В главе 5 «Алгоритмов угнетения » Ноубл переносит обсуждение с Google на другие источники информации, которые считаются заслуживающими доверия и нейтральными. Ноубл говорит, что известные библиотеки, в том числе Библиотека Конгресса , поощряют белизну, гетеронормативность , патриархат и другие социальные стандарты как правильные, а альтернативы — как проблематичные. Она объясняет эту проблему, обсуждая дело между Дартмутским колледжем и Библиотекой Конгресса, когда «возглавляемая студентами организация Коалиция за иммиграционную реформу, равенство (CoFired) и МЕЧТЫ» участвовала в двухлетней битве за изменение терминологии библиотеки с «незаконной». иностранцев» на «неграждан» или «нелегальных иммигрантов». [ 20 ] Позже Нобл обсуждает проблемы, возникающие в результате искажения фактов и классификации, что позволяет ей подчеркивать важность контекстуализации. Ноубл утверждает, что не только Google, но и все цифровые поисковые системы укрепляют социальные структуры и дискриминационные предубеждения, и тем самым она указывает, насколько взаимосвязаны технологии и общество. [ 23 ]

В главе 6 книги «Алгоритмы угнетения » Сафия Ноубл обсуждает возможные решения проблемы алгоритмической предвзятости . Сначала она утверждает, что государственная политика, принятая местными и федеральными правительствами, уменьшит «информационную монополию» Google и будет регулировать способы, которыми поисковые системы фильтруют свои результаты. Она настаивает на том, что правительства и корпорации несут наибольшую ответственность за реформирование системных проблем, ведущих к алгоритмической предвзятости.

В то же время Ноубл осуждает распространенный неолиберальный аргумент о том, что алгоритмические предубеждения исчезнут, если больше женщин и представителей расовых меньшинств войдут в отрасль в качестве инженеров-программистов . Она называет этот аргумент «самодовольным», поскольку он возлагает ответственность на отдельных лиц, у которых меньше власти, чем у медиакомпаний, и потворствует мышлению, которое она называет « оптимизмом больших данных », или неспособностью бросить вызов идее, что институты сами по себе не всегда решают проблемы. , но иногда увековечивают неравенство. Чтобы проиллюстрировать это, она использует пример Кандис, чернокожей парикмахерши, чей бизнес сталкивается с неудачами из-за того, что сайт обзоров Yelp использовал против нее предвзятую рекламную практику и стратегии поиска.

Она завершает главу, призывая Федеральную комиссию по связи (FCC) и Федеральную торговую комиссию (FTC) «регулировать приличия» или ограничить количество расистской , гомофобной или предвзятой риторики в Интернете. Она призывает общественность избегать идеологии « дальтонизма » по отношению к расе, потому что она исторически стирала борьбу, с которой сталкиваются расовые меньшинства. Наконец, она отмечает, что оптимизм в отношении больших данных не учитывает дискуссию о вреде, который большие данные могут непропорционально нанести сообществам меньшинств.

Заключение

[ редактировать ]

В книге «Алгоритмы угнетения » Сафия Ноубл исследует социальные и политические последствия результатов нашего поиска в Google и наших шаблонов поиска в Интернете. Ноубл бросает вызов идее, что Интернет является полностью демократической или пострасовой средой. В каждой главе рассматриваются различные уровни алгоритмических предубеждений, создаваемых поисковыми системами. Излагая ключевые моменты и теории на протяжении всей книги, «Алгоритмы угнетения» предназначены не только для академических читателей. Это позволяет произведениям Нобла охватить более широкую и инклюзивную аудиторию.

Критический прием

[ редактировать ]

Критики восприняли «Алгоритмы угнетения» в основном положительно. В Los Angeles Review of Books Эмили Драбински пишет: «Из этих страниц возникает ощущение, что алгоритмы угнетения Google представляют собой лишь одну из скрытых инфраструктур, которые управляют нашей повседневной жизнью, а остальные, вероятно, столь же жестко запрограммированы. с превосходством белых и женоненавистничеством, как то, что исследует Ноубл». [ 24 ] В книге «PopMatters » Ханс Роллман пишет, что «Алгоритмы угнетения » «демонстрируют, что поисковые системы, и в частности Google , являются не просто несовершенными машинами, а системами, разработанными людьми таким образом, чтобы копировать структуры власти западных стран, где они созданы». , со всем сексизмом и расизмом, заложенными в эти структуры». [ 1 ] В книге «Booklist» рецензент Лесли Уильямс заявляет: «Исследование Нобла должно побудить к некоторому переоценке ценностей в отношении нашей зависимости от коммерческих поисковых систем и цифровой социальной справедливости». [ 25 ]

В начале февраля 2018 года «Алгоритмы угнетения» привлекли внимание прессы, когда официальный в Твиттере аккаунт Института инженеров по электротехнике и электронике высказал критику в адрес книги, заявив, что результаты поиска в Google, предложенные в ее аннотации, не соответствуют предсказаниям Ноубла. Историк IEEE Александр Магун позже сообщил, что не читал книгу, и принес извинения. [ 14 ]

См. также

[ редактировать ]
  1. ^ Jump up to: а б «Не используйте Google! Как поисковые системы усиливают расизм» . ПопМатерс . 2018-01-30 . Проверено 24 марта 2018 г.
  2. ^ Прекрасно, Корделия (7 марта 2018 г.). «Закодированные предрассудки: как алгоритмы разжигают несправедливость» . Файнэншл Таймс . Проверено 10 мая 2018 г.
  3. ^ «Мнение | Ной Берлацкий: Как поисковые алгоритмы усиливают расизм и сексизм» . Новости Эн-Би-Си . Проверено 10 мая 2018 г.
  4. ^ «Как поисковые системы делают нас более расистскими» . Вокс . Проверено 10 мая 2018 г.
  5. ^ Jump up to: а б Манро, Дональд (19 апреля 2018 г.). «Когда Google ошибается» . ОБЗОР МУНРО . Проверено 05 октября 2021 г.
  6. ^ Джесси, Дэниэлс; Карен, Грегори; Коттом, Тресси Макмиллан (2017). Цифровые социологии . Политическая пресса. п. 420. ИСБН  978-1-4473-2901-5 .
  7. ^ «В «Алгоритмах угнетения» Сафия Ноубл обнаруживает, что старые стереотипы сохраняются в новых медиа» . annenberg.usc.edu . Проверено 05 октября 2021 г.
  8. ^ «Рецензия на книгу Роберта Фантины: Алгоритмы угнетения: как поисковые системы усиливают расизм» . www.nyjournalofbooks.com . Проверено 05 октября 2021 г.
  9. ^ Jump up to: а б «Сафия Умоджа Ноубл удостоена высшей награды штата Фресно | UCLA GSE&IS Ampersand» . 07.02.2019. Архивировано из оригинала 07 февраля 2019 г. Проверено 05 октября 2021 г.
  10. ^ Ноубл, Сафия У. (15 января 2017 г.). «Google и дезинформированная общественность» . www.chronicle.com . Архивировано из оригинала 23 июля 2020 г. Проверено 05 октября 2021 г.
  11. ^ АЛГОРИТМЫ ПРИТЕСНЕНИЯ | Обзоры Киркуса .
  12. ^ Эрига, Марианна (01 июля 2019 г.). «Алгоритмы угнетения: как поисковые системы усиливают расизм», Сафия Умоджа Нобл . Американский журнал социологии . 125 (1): 305–307. дои : 10.1086/703431 . ISSN   0002-9602 . S2CID   198603932 .
  13. ^ Основное внимание Нобл уделяет алгоритмам Google, хотя она также обсуждает Amazon, Facebook, Twitter и WordPress. Она вкладывает средства в контроль над тем, что видят и не видят пользователи. «Результаты поиска отражают ценности и нормы коммерческих партнеров и рекламодателей поисковых компаний и часто отражают наши самые низкие и унизительные убеждения, потому что эти идеи циркулируют так свободно и так часто, что становятся нормой и чрезвычайно прибыльны». (Нобель, 36 лет)
  14. ^ Jump up to: а б «Ученый вызвал фурор в Твиттере, раскритиковав книгу, которую он не читал» . Проверено 8 февраля 2018 г.
  15. ^ «Может ли алгоритм быть расистским? Выявление системного угнетения в эпоху Google» . Цифровые тенденции . 03.03.2018 . Проверено 24 марта 2018 г.
  16. ^ Jump up to: а б Благородный, Сафия (2018). Алгоритмы угнетения: Как поисковые системы усиливают расизм . Нью-Йорк, штат Нью-Йорк, США: Издательство Нью-Йоркского университета. пп. гл. 2. ISBN  978-1-4798-3364-1 .
  17. ^ Д'Игнацио, К.; Кляйн, Л. (2019). Данные феминизма . МТИ Пресс. стр. Глава 1 «Власть»: Глава «Власть» (стр. 21–47).
  18. ^ Бенджамин, Р. (2019). Гонка за технологиями: аболиционистские инструменты для нового кодекса Джима . Медфорд, Массачусетс: Политика. п. 3.
  19. ^ Благородный, Сафия (2018). Алгоритмы угнетения: Как поисковые системы усиливают расизм . Нью-Йорк, штат Нью-Йорк, США: Издательство Нью-Йоркского университета. п. 230. ИСБН  978-1-4798-3364-1 .
  20. ^ Jump up to: а б Ноубл, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк. стр. 134–135. ISBN  9781479837243 . OCLC   987591529 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  21. ^ Ноубл, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк. п. 112. ИСБН  978-1-4798-3724-3 . OCLC   987591529 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  22. ^ Благородный, Сафия Умоджа (2018). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк. п. 121. ИСБН  978-1-4798-3364-1 . OCLC   1017736697 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  23. ^ Ноубл, Сафия Умоджа (20 февраля 2018 г.). Алгоритмы угнетения: как поисковые системы усиливают расизм . Нью-Йорк. ISBN  978-1-4798-3724-3 . OCLC   987591529 . {{cite book}}: CS1 maint: отсутствует местоположение издателя ( ссылка )
  24. ^ «Идеологии скучных вещей: Интернет и расовая инфраструктура — Лос-Анджелесское обозрение книг» . Лос-Анджелесский обзор книг . Проверено 24 марта 2018 г.
  25. ^ Алгоритмы угнетения: как поисковые системы усиливают расизм, Сафия Умоджа Ноубл | Список книг онлайн .
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: 9cf2bb8b8115f5602c7f7757945991d9__1656363840
URL1:https://arc.ask3.ru/arc/aa/9c/d9/9cf2bb8b8115f5602c7f7757945991d9.html
Заголовок, (Title) документа по адресу, URL1:
Algorithms of Oppression - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)