Jump to content

Алгоритмическая радикализация

(Перенаправлено из конвейера радикализации )

Алгоритмическая радикализация — это концепция, согласно которой рекомендательные алгоритмы на популярных сайтах социальных сетей, таких как YouTube и Facebook, с течением времени подталкивают пользователей к все более экстремальному контенту, что приводит к развитию у них радикальных экстремистских политических взглядов. Алгоритмы фиксируют взаимодействие пользователей, от лайков/дизлайков до количества времени, потраченного на публикации, чтобы генерировать бесконечные медиа, направленные на поддержание активности пользователей. Через каналы эхо-камеры потребитель становится более поляризованным через предпочтения в СМИ и самоутверждение. [1] [2] [3] [4]

Алгоритмическая радикализация остается спорным явлением, поскольку удаление каналов эхо-камеры зачастую не в интересах компаний социальных сетей. [5] [6] Хотя компании, занимающиеся социальными сетями, признали существование алгоритмической радикализации, остается неясным, как каждая из них справится с этой растущей угрозой.

Эхо-камеры социальных сетей и пузыри фильтров

[ редактировать ]

Платформы социальных сетей изучают интересы и симпатии пользователя, чтобы изменить его впечатления в своей ленте, чтобы поддерживать его интерес и прокрутку, что известно как пузырь фильтров . [7] Эхо-камера формируется, когда пользователи сталкиваются с убеждениями, которые усиливают или усиливают их мысли и формируют группу пользователей-единомышленников в закрытой системе. [8] Эхо-камеры распространяют информацию без каких-либо противоположных убеждений и могут привести к предвзятости подтверждения . Согласно теории групповой поляризации , эхо-камера потенциально может привести пользователей и группы к более радикальным позициям. [9] По данным Национальной медицинской библиотеки, «пользователи онлайн, как правило, предпочитают информацию, соответствующую их мировоззрению, игнорируют инакомыслящую информацию и формируют поляризованные группы вокруг общих мнений. Кроме того, когда поляризация высока, дезинформация быстро распространяется». [10]

По сайту

[ редактировать ]

Алгоритмы Facebook

[ редактировать ]

Facebook Алгоритм фокусируется на рекомендации контента, который вызывает у пользователя желание взаимодействовать. Они ранжируют контент, отдавая приоритет популярным публикациям друзей, вирусному контенту, а иногда и контенту, вызывающему разногласия. Каждый канал персонализирован с учетом конкретных интересов пользователя, что иногда может привести пользователей к эхо-камере неприятного контента. [11] Пользователи могут найти список своих интересов, которые использует алгоритм, перейдя на страницу «Настройки вашей рекламы». Согласно исследованию Pew Research, 74% пользователей Facebook не знали о существовании этого списка, пока их не перенаправили на эту страницу в исследовании. [12] Facebook также относительно часто присваивает своим пользователям политические ярлыки. В последние годы, [ когда? ] Facebook начал использовать искусственный интеллект, чтобы изменять контент, который пользователи видят в своей ленте, и то, что им рекомендуют. Документ, известный как The Facebook Files, показал, что их система искусственного интеллекта отдает приоритет вовлечению пользователей над всем остальным. Файлы Facebook также продемонстрировали, что контролировать системы искусственного интеллекта оказалось сложно. [13]

Обвинения Facebook

[ редактировать ]

Во внутренней памятке от августа 2019 года, которая стала известна в 2021 году, Facebook признал, что «механика наших платформ не нейтральна». [14] [15] пришли к выводу, что для достижения максимальной прибыли необходима оптимизация вовлеченности. Алгоритмы обнаружили, что ненависть, дезинформация и политика играют важную роль в активности приложений, чтобы повысить вовлеченность. [16] Как указано в заметке: «Чем зажигательнее материал, тем больше он привлекает пользователей, тем больше его усиливает алгоритм». [14] Согласно исследованию 2018 года, «ложные слухи распространяются быстрее и шире, чем правдивая информация… Они обнаружили, что ложь на 70% чаще ретвитится в Твиттере, чем правда, и достигает первых 1500 человек в шесть раз быстрее. произносится с политическими новостями, чем с другими категориями». [17]

Алгоритм YouTube

[ редактировать ]

YouTube существует с 2005 года и имеет более 2,5 миллиардов пользователей в месяц. Системы контента YouTube Discovery фокусируются на личной активности пользователя (просмотренных, избранных, лайках), чтобы направить их к рекомендуемому контенту. Алгоритм YouTube отвечает примерно за 70% рекомендуемых пользователями видео и за то, что заставляет людей смотреть определенный контент. [18] Согласно новому исследованию, у пользователей мало возможностей исключить нежелательные видео из рекомендуемого контента. Сюда входят видеоролики о разжигании ненависти, прямые трансляции и т. д. [18]

Обвинения YouTube

[ редактировать ]

YouTube считается влиятельной платформой для распространения радикального контента. «Аль-Каиду» и подобные экстремистские группировки связывают с использованием YouTube для размещения видеороликов о вербовке и взаимодействия с международными СМИ. В исследовании, опубликованном в журнале American Behavioral Scientist Journal , они исследовали, «можно ли определить набор атрибутов, которые могут помочь объяснить часть процесса принятия решений алгоритмом YouTube». [19] Результаты исследования показали, что рекомендации алгоритма YouTube по экстремистскому контенту учитывают наличие радикальных ключевых слов в названии видео. В феврале 2023 года в деле «Гонсалес против Google» возникает вопрос, защищена ли Google, материнская компания YouTube, от судебных исков, утверждающих, что алгоритмы сайта помогали террористам рекомендовать ИГИЛ пользователям видео раздел 230 обычно защищает онлайн-платформы от гражданской ответственности за контент, размещенный их пользователями. . Известно, что [20]

Алгоритмы Тик Ток

[ редактировать ]

TikTok  — это приложение, которое рекомендует видео на странице пользователя «Для вас» (FYP), делая страницы каждого пользователя уникальными. Учитывая характер алгоритма, лежащего в основе приложения, FYP TikTok связан с показом более откровенных и радикальных видео с течением времени на основе предыдущих взаимодействий пользователей с приложением. [21] С момента создания TikTok приложение тщательно проверялось на предмет дезинформации и разжигания ненависти, поскольку эти формы медиа обычно вызывают больше взаимодействий с алгоритмом. [22]

По состоянию на 2022 год глава службы безопасности США TikTok опубликовал заявление о том, что «81 518 334 видео были удалены по всему миру в период с апреля по июнь за нарушение наших Правил сообщества или Условий обслуживания», чтобы сократить количество разжигания ненависти, преследований и дезинформации. [23]

Альтернативный правый трубопровод

[ редактировать ]
Графика взаимодействия между преимущественно правыми личностями на YouTube с января 2017 года по апрель 2018 года. Каждая строка указывает на совместное появление в видео на YouTube, что позволяет аудитории одной личности обнаружить другую. [24]

Трубопровод альтернативных правых (также называемый кроличьей норой альтернативных правых) — это предлагаемая концептуальная модель интернет -радикализации в сторону движения альтернативных правых . Он описывает феномен, при котором потребление провокационного политического контента правого толка , такого как антифеминистские идеи или идеи против SJW , постепенно увеличивает воздействие альтернативных правых или аналогичных ультраправых политик . В нем утверждается, что это взаимодействие происходит из-за взаимосвязанного характера политических комментаторов и онлайн-сообществ , что позволяет членам одной аудитории или сообщества обнаруживать более экстремистские группы. [24] [25] Этот процесс чаще всего связан с видеоплатформой YouTube и документирован на ней , и во многом связан с методом, в котором алгоритмы на различных платформах социальных сетей функционируют посредством процесса, рекомендуя контент, который похож на тот, с которым взаимодействуют пользователи, но может быстро заводят пользователей в кроличью нору. [25] [26] [27]

Многие политические движения были связаны с концепцией трубопровода. Интеллектуальная даркнет , [25] либертарианство , [28] движение за права мужчин , [29] и alt-lite движение [25] все они были идентифицированы как потенциально знакомящие аудиторию с идеями альтернативных правых. Аудитория, которая ищет и готова принять экстремальный контент таким образом, обычно состоит из молодых людей, обычно из тех, кто испытывает значительное одиночество и ищет принадлежности или смысла. [30] В попытках найти сообщество и принадлежность доски объявлений, которые часто изобилуют крайне правыми социальными комментариями, такие как 4chan и 8chan , были хорошо задокументированы в их важности в процессе радикализации. [31]

Альтернативные правые могут стать фактором, способствующим внутреннему терроризму . [32] [33] Многие платформы социальных сетей признали этот путь радикализации и приняли меры по его предотвращению, включая удаление экстремистских деятелей и введение правил против разжигания ненависти и дезинформации. [26] [30] Левые движения, такие как BreadTube , также выступают против конвейера альтернативных правых и «стремятся создать «левый конвейер» в качестве противодействия альтернативному правому конвейеру». [34]

Влияние алгоритмической предвзятости YouTube на радикализацию пользователей было воспроизведено в одном исследовании: [25] [35] [36] [37] хотя два других исследования обнаружили мало или вообще не обнаружили доказательств процесса радикализации. [26] [38] [39]

Саморадикализация

[ редактировать ]
Инфографика из кампании Министерства внутренней безопасности США «Если вы что-то видите, скажите что-нибудь». Кампания представляет собой национальную инициативу, направленную на повышение осведомленности о доморощенном терроризме и преступлениях, связанных с терроризмом.

Министерство юстиции США определяет терроризм «одинокого волка» (само) как «человека, который действует в одиночку во время террористической атаки без помощи или поощрения правительства или террористической организации». [40] Через социальные сети в Интернете растет терроризм «одинокого волка», связанный с алгоритмической радикализацией. [41] Через эхо-камеры в Интернете точки зрения, обычно считающиеся радикальными, были приняты и быстро приняты другими экстремистами. [42] Эти точки зрения поощряются форумами, групповыми чатами и социальными сетями, чтобы укрепить их убеждения. [43]

Упоминания в СМИ

[ редактировать ]

Социальная дилемма

[ редактировать ]

«Социальная дилемма» — это документальная драма 2020 года о том, как алгоритмы социальных сетей вызывают зависимость, обладая при этом способностью манипулировать взглядами, эмоциями и поведением людей для распространения теорий заговора и дезинформации. В фильме неоднократно используются такие модные слова, как «эхо-камеры» и « фейковые новости », чтобы доказать психологические манипуляции в социальных сетях, что приводит к политическим манипуляциям . В фильме Бен все глубже впадает в зависимость от социальных сетей, поскольку алгоритм обнаружил, что вероятность долгосрочного взаимодействия с его страницей в социальной сети составляет 62,3%. Это приводит к появлению большего количества видео в рекомендуемой ленте для Бена, и в конечном итоге он все больше погружается в пропаганду и теории заговора, становясь все более поляризованным с каждым видео.

Предлагаемые решения

[ редактировать ]

Ослабление защиты по разделу 230

[ редактировать ]

В Закона о порядочности в области коммуникаций говорится , разделе 230 что «ни один поставщик или пользователь интерактивных компьютерных услуг не может рассматриваться как издатель или докладчик любой информации, предоставленной другим поставщиком информационного контента». [44] Раздел 230 защищает средства массовой информации от ответственности или судебных исков за контент третьих лиц, например, за незаконную деятельность пользователя. [44] Однако критики утверждают, что такой подход снижает стимулы компании удалять вредный контент или дезинформацию, и эта лазейка позволила компаниям социальных сетей максимизировать прибыль за счет продвижения радикального контента без юридических рисков. [45] Это утверждение само по себе подверглось критике со стороны сторонников раздела 230, которые считают, что пункт «Добрый самаритянин» в подразделе (c)(2) в первую очередь позволяет веб-сайтам модерировать, и что до его принятия суды в Страттон-Окмонте постановили: против Prodigy Services Co. , что модерация в любом качестве налагает ответственность на поставщиков контента как на «издателей» контента, который они решили оставить. [46]

Законодатели разработали законопроект, который ослабит или устранит защиту раздела 230 в отношении алгоритмического контента. Демократы Палаты представителей Анна Эшу , Фрэнк Паллоне-младший , Майк Дойл и Ян Шаковски представили «Закон о правосудии против вредоносных алгоритмов» в октябре 2021 года под номером HR 5596 . Законопроект умер в комитете, [47] но он бы снял защиту раздела 230 для поставщиков услуг, связанную с алгоритмами персонализированных рекомендаций , которые предоставляют контент пользователям, если эти алгоритмы сознательно или по неосторожности доставляют контент, который способствует физической или серьезной эмоциональной травме. [48]

См. также

[ редактировать ]
  1. ^ «Что такое эхо-камера социальных сетей? | Школа рекламы Стэна Ричардса» . реклама.utexas.edu . 18 ноября 2020 г. . Проверено 2 ноября 2022 г.
  2. ^ «Веб-сайты, поддерживающие крайне правых влиятельных лиц Великобритании» . Беллингкэт . 24 февраля 2021 г. . Проверено 10 марта 2021 г.
  3. ^ Камарго, Чико К. (21 января 2020 г.). «Алгоритмы YouTube могут радикализировать людей, но настоящая проблема в том, что мы понятия не имеем, как они работают» . Разговор . Проверено 10 марта 2021 г.
  4. ^ Редакция E&T (27 мая 2020). «Facebook не действовал на основании собственных доказательств алгоритмического экстремизма» . eandt.theiet.org . Проверено 10 марта 2021 г.
  5. ^ «Как компании, работающие в социальных сетях, могут бороться с разжиганием ненависти?» . Знания в Wharton . Проверено 22 ноября 2022 г.
  6. ^ «Интернет-ассоциация – мы голос интернет-экономики. | Интернет-ассоциация» . 17 декабря 2021 года. Архивировано из оригинала 17 декабря 2021 года . Проверено 22 ноября 2022 г.
  7. ^ Калужа, Ерней (3 июля 2022 г.). «Привычное создание пузырей фильтров: почему алгоритмическая персонализация проблематична для демократической публичной сферы?» . Javnost — The Public, журнал Европейского института коммуникации и культуры . 29 (3): 267. дои : 10.1080/13183222.2021.2003052 . ISSN   1318-3222 .
  8. ^ «Что такое эхо-камера социальных сетей? | Школа рекламы Стэна Ричардса» . реклама.utexas.edu . 18 ноября 2020 г. . Проверено 12 апреля 2023 г.
  9. ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Галеацци, Алессандро; Кваттрочокки, Уолтер; Старнини, Микеле (2 марта 2021 г.). «Влияние эхо-камеры на социальные сети» . Труды Национальной академии наук Соединенных Штатов Америки . 118 (9): –2023301118. Бибкод : 2021PNAS..11823301C . дои : 10.1073/pnas.2023301118 . ISSN   0027-8424 . ПМЦ   7936330 . ПМИД   33622786 .
  10. ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Старнини, Микеле; Галеацци, Алессандро; Кваттрочокки, Уолтер (14 января 2021 г.). «Влияние эхо-камеры на социальные сети» . Труды Национальной академии наук Соединенных Штатов Америки . 118 (9): e2023301118. Бибкод : 2021PNAS..11823301C . дои : 10.1073/pnas.2023301118 . ISSN   0027-8424 . ПМЦ   7936330 . ПМИД   33622786 .
  11. ^ Оремус, Уилл; Алькантара, Крис; Меррилл, Джереми; Галоча, Артур (26 октября 2021 г.). «Как Facebook формирует вашу ленту» . Вашингтон Пост . Проверено 12 апреля 2023 г.
  12. ^ Ацке, Сара (16 января 2019 г.). «Алгоритмы Facebook и персональные данные» . Исследовательский центр Пью: Интернет, наука и технологии . Проверено 12 апреля 2023 г.
  13. ^ Коринек, Антон (8 декабря 2021 г.). «Почему нам нужно новое агентство для регулирования передового искусственного интеллекта: уроки по контролю ИИ из файлов Facebook» . Брукингс . Проверено 12 апреля 2023 г.
  14. ^ Jump up to: а б «Дезинформация, радикализация и алгоритмическое усиление: какие шаги может предпринять Конгресс?» . Просто безопасность . 7 февраля 2022 г. . Проверено 2 ноября 2022 г.
  15. ^ Исаак, Майк (25 октября 2021 г.). «Facebook борется с функциями, которые он использовал для определения социальных сетей» . Нью-Йорк Таймс . ISSN   0362-4331 . Проверено 2 ноября 2022 г.
  16. ^ Литтл, Оливия (26 марта 2021 г.). «TikTok побуждает пользователей подписываться на аккаунты крайне правых экстремистов» . СМИ имеют значение для Америки . Проверено 2 ноября 2022 г.
  17. ^ «Исследование: ложные новости распространяются быстрее, чем правда» . Массачусетский технологический институт Слоана . Проверено 2 ноября 2022 г.
  18. ^ Jump up to: а б «Ненавидел это видео? Алгоритм YouTube может подтолкнуть вас к другому такому же видео» . Обзор технологий Массачусетского технологического института . Проверено 11 апреля 2023 г.
  19. ^ Мурти, Дирадж (1 мая 2021 г.). «Оценка подотчетности платформы: террористический контент на YouTube» . Американский учёный-бихевиорист . 65 (6): 800–824. дои : 10.1177/0002764221989774 . S2CID   233449061 – через JSTOR.
  20. ^ Рут, Дэймон (апрель 2023 г.). «Скотус рассматривает сферу действия раздела 230» . Причина . 54 (11): 8. ISSN   0048-6906 .
  21. ^ «Алгоритм TikTok ведет пользователей от трансфобных видео к ультраправым кроличьим норам» . СМИ имеют значение для Америки . 5 октября 2021 г. . Проверено 22 ноября 2022 г.
  22. ^ Литтл, Оливия (2 апреля 2021 г.). «На первый взгляд безобидные аккаунты в TikTok, посвященные теории заговора, продвигают крайне правую пропаганду, и TikTok побуждает пользователей подписаться на них» . СМИ имеют значение для Америки . Проверено 22 ноября 2022 г.
  23. ^ «Наша постоянная борьба с ненавистью и притеснениями» . Отдел новостей | ТикТок . 16 августа 2019 г. Проверено 22 ноября 2022 г.
  24. ^ Jump up to: а б Льюис, Ребекка (18 сентября 2018 г.). Альтернативное влияние: трансляция реакционных правых на YouTube (отчет). Данные и общество. Архивировано из оригинала 25 мая 2022 года . Проверено 14 июля 2022 г.
  25. ^ Jump up to: а б с д и Орта Рибейро, Маноэль; Оттони, Рафаэль; Уэст, Роберт; Алмейда, Виргилиу А.Ф.; Мейра, Вагнер (27 января 2020 г.). «Аудит путей радикализации на YouTube». Материалы конференции 2020 года по справедливости, подотчетности и прозрачности . стр. 131–141. дои : 10.1145/3351095.3372879 . ISBN  9781450369367 . S2CID   201316434 .
  26. ^ Jump up to: а б с Ледвич, Марк; Зайцева Анна (26 февраля 2020 г.). «Алгоритмический экстремизм: исследование кроличьей норы радикализации на YouTube» . Первый понедельник . arXiv : 1912.11211 . дои : 10.5210/fm.v25i3.10419 . ISSN   1396-0466 . S2CID   209460683 . Архивировано из оригинала 28 октября 2022 года . Проверено 28 октября 2022 г.
  27. ^ «Расследование Mozilla: алгоритм YouTube рекомендует видео, нарушающие собственные политики платформы» . Фонд Мозилла . 7 июля 2021 года. Архивировано из оригинала 25 марта 2023 года . Проверено 25 марта 2023 г.
  28. ^ Херманссон, Патрик; Лоуренс, Дэвид; Малхолл, Джо; Мердок, Саймон (31 января 2020 г.). Международные альтернативные правые: фашизм XXI века? . Рутледж. стр. 57–58. ISBN  978-0-429-62709-5 . Архивировано из оригинала 25 июля 2023 года . Проверено 21 сентября 2022 г.
  29. ^ Мамие, Робин; Рибейро, Маноэль Орта; Уэст, Роберт (2021). «Являются ли антифеминистские сообщества воротами для крайне правых? Данные Reddit и YouTube». WebSci '21: Материалы 13-й веб-научной конференции ACM 2021 . Нью-Йорк: Ассоциация вычислительной техники. стр. 139–147. arXiv : 2102.12837 . дои : 10.1145/3447535.3462504 . ISBN  978-1-4503-8330-1 . S2CID   232045966 .
  30. ^ Jump up to: а б Руз, Кевин (8 июня 2019 г.). «Становление радикала на YouTube» . Нью-Йорк Таймс . ISSN   0362-4331 . Архивировано из оригинала 17 мая 2023 года . Проверено 26 октября 2022 г.
  31. ^ Хьюз, Тервин (26 января 2021 г.). «Канадский трубопровод альтернативных правых» . Голубь . Архивировано из оригинала 25 марта 2023 года . Проверено 25 марта 2023 г.
  32. ^ Пьяцца, Джеймс А. (2 января 2022 г.). «Фейковые новости: влияние дезинформации в социальных сетях на внутренний терроризм» . Динамика асимметричного конфликта . 15 (1): 55–77. дои : 10.1080/17467586.2021.1895263 . ISSN   1746-7586 . S2CID   233679934 . Архивировано из оригинала 25 июля 2023 года . Проверено 4 ноября 2022 г.
  33. ^ Манн, Люк (1 июня 2019 г.). «Альтернативные правые: индивидуальный путь к экстремизму в Интернете» . Первый понедельник . дои : 10.5210/fm.v24i6.10108 . ISSN   1396-0466 . S2CID   184483249 . Архивировано из оригинала 24 мая 2022 года . Проверено 14 июля 2022 г.
  34. ^ Коттер, Келли (18 марта 2022 г.). «Практическое знание алгоритмов: случай BreadTube» . Новые медиа и общество . 26 (4): 2131–2150. дои : 10.1177/14614448221081802 . ISSN   1461-4448 . S2CID   247560346 .
  35. ^ Ломас, Наташа (28 января 2020 г.). «Изучение комментариев на YouTube выявило доказательства эффекта радикализации» . ТехКранч . Проверено 17 июля 2021 г.
  36. ^ Ньютон, Кейси (28 августа 2019 г.). «Со временем YouTube может подтолкнуть пользователей к более радикальным взглядам, утверждается в новой статье» . Грань . Архивировано из оригинала 27 июля 2023 года . Проверено 17 июля 2021 г.
  37. ^ Орта Рибейро, Маноэль; Оттони, Рафаэль; Уэст, Роберт; Алмейда, Виргилиу А.Ф.; Мейра, Вагнер (22 августа 2019 г.). «Аудит путей радикализации на YouTube». arXiv : 1908.08313 [ cs.CY ].
  38. ^ Хоссейнмарди, Хома; Гасемиан, Амир; Клосет, Аарон; Мебиус, Маркус; Ротшильд, Дэвид М.; Уоттс, Дункан Дж. (2 августа 2021 г.). «Изучение потребления радикального контента на You Tube » . Труды Национальной академии наук . 118 (32). arXiv : 2011.12843 . Бибкод : 2021PNAS..11801967H . дои : 10.1073/pnas.2101967118 . ПМЦ   8364190 . ПМИД   34341121 .
  39. ^ * Чен, Энни Ю.; Найхан, Брендан; Райфлер, Джейсон; Робертсон, Рональд Э.; Уилсон, Христо (22 апреля 2022 г.). «Подписки и внешние ссылки помогают привлечь обиженных пользователей к альтернативным и экстремистским видеороликам на YouTube». arXiv : 2204.10921 [ cs.SI ].
  40. ^ «Терроризм одинокого волка в Америке | Программы Управления юстиции» . www.ojp.gov . Проверено 2 ноября 2022 г.
  41. ^ Альфано, Марк; Картер, Дж. Адам; Чеонг, Марк (2018). «Технологическое соблазнение и саморадикализация» . Журнал Американской философской ассоциации . 4 (3): 298–322. дои : 10.1017/apa.2018.27 . ISSN   2053-4477 . S2CID   150119516 .
  42. ^ Дюбуа, Элизабет; Бланк, Грант (4 мая 2018 г.). «Эхо-камера преувеличена: сдерживающий эффект политических интересов и разнообразных средств массовой информации» . Информация, коммуникация и общество . 21 (5): 729–745. дои : 10.1080/1369118X.2018.1428656 . ISSN   1369-118X . S2CID   149369522 .
  43. ^ Санстейн, Касс Р. (13 мая 2009 г.). Впадая в крайности: как одинаковые умы объединяются и разделяются . Издательство Оксфордского университета. ISBN  978-0-19-979314-3 .
  44. ^ Jump up to: а б «47 Кодекса США § 230 – Защита от частной блокировки и проверки оскорбительных материалов» . ЛИИ/Институт правовой информации . Проверено 2 ноября 2022 г.
  45. ^ Смит, Майкл Д.; Олстайн, Маршалл Ван (12 августа 2021 г.). «Пришло время обновить раздел 230» . Гарвардское деловое обозрение . ISSN   0017-8012 . Проверено 2 ноября 2022 г.
  46. ^ Масник, Майк (23 июня 2020 г.). «Здравствуйте! Вас направили сюда, потому что вы ошибались насчет раздела 230 Закона о порядочности в сфере коммуникаций» . Проверено 11 апреля 2024 г.
  47. ^ «HR 5596 (117-й): Закон о правосудии против вредоносных алгоритмов 2021 года» . GovTrack . Проверено 11 апреля 2024 г.
  48. ^ Робертсон, Ади (14 октября 2021 г.). «Законодатели хотят лишить юридическую защиту новостной ленты Facebook» . Грань . Архивировано из оригинала 14 октября 2021 года . Проверено 14 октября 2021 г.
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: bb383c6053f198e82a5896cbbdd54355__1720937040
URL1:https://arc.ask3.ru/arc/aa/bb/55/bb383c6053f198e82a5896cbbdd54355.html
Заголовок, (Title) документа по адресу, URL1:
Algorithmic radicalization - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)