Алгоритмическая радикализация
Алгоритмическая радикализация — это концепция, согласно которой рекомендательные алгоритмы на популярных сайтах социальных сетей, таких как YouTube и Facebook, с течением времени подталкивают пользователей к все более экстремальному контенту, что приводит к развитию у них радикальных экстремистских политических взглядов. Алгоритмы фиксируют взаимодействие пользователей, от лайков/дизлайков до количества времени, потраченного на публикации, чтобы генерировать бесконечные медиа, направленные на поддержание активности пользователей. Через каналы эхо-камеры потребитель становится более поляризованным через предпочтения в СМИ и самоутверждение. [1] [2] [3] [4]
Алгоритмическая радикализация остается спорным явлением, поскольку удаление каналов эхо-камеры зачастую не в интересах компаний социальных сетей. [5] [6] Хотя компании, занимающиеся социальными сетями, признали существование алгоритмической радикализации, остается неясным, как каждая из них справится с этой растущей угрозой.
-камеры социальных сетей и фильтров Эхо пузыри
Платформы социальных сетей изучают интересы и симпатии пользователя, чтобы изменить их впечатления в своей ленте, чтобы они оставались вовлеченными и прокручивали страницу. Эхо-камера формируется, когда пользователи сталкиваются с убеждениями, которые усиливают или усиливают их мысли и формируют группу пользователей-единомышленников в закрытой системе. [7] Проблема с эхо-камерами заключается в том, что они распространяют информацию без каких-либо противоположных убеждений и могут привести к предвзятости подтверждения. Согласно теории групповой поляризации, эхо-камера потенциально может привести пользователей и группы к более радикальным позициям. [8] По данным Национальной медицинской библиотеки, «пользователи онлайн, как правило, предпочитают информацию, соответствующую их мировоззрению, игнорируют инакомыслящую информацию и формируют поляризованные группы вокруг общих мнений. Кроме того, когда поляризация высока, дезинформация быстро распространяется». [9]
По сайту [ править ]
Фейсбук [ править ]
Алгоритмы Facebook [ править ]
Алгоритм Facebook фокусируется на рекомендации контента, который вызывает у пользователя желание взаимодействовать. Они ранжируют контент, отдавая приоритет популярным публикациям друзей, вирусному контенту, а иногда и контенту, вызывающему разногласия. Каждый канал персонализирован с учетом конкретных интересов пользователя, что иногда может привести пользователей к эхо-камере неприятного контента. [10] Пользователи могут найти список своих интересов, которые использует алгоритм, перейдя на страницу «Настройки вашей рекламы». Согласно исследованию Pew Research, 74% пользователей Facebook не знали о существовании этого списка, пока их не перенаправили на эту страницу в исследовании. [11] Facebook также относительно часто присваивает своим пользователям политические ярлыки. В последние годы, [ когда? ] Facebook начал использовать искусственный интеллект, чтобы изменять контент, который пользователи видят в своей ленте, и то, что им рекомендуют. Документ, известный как The Facebook Files, показал, что их система искусственного интеллекта отдает приоритет вовлечению пользователей над всем остальным. Файлы Facebook также продемонстрировали, что контролировать системы искусственного интеллекта оказалось сложно. [12]
Обвинения Facebook [ править ]
Во внутренней памятке от августа 2019 года, которая стала известна в 2021 году, Facebook признал, что «механика наших платформ не нейтральна». [13] [14] пришли к выводу, что для достижения максимальной прибыли необходима оптимизация взаимодействия. Алгоритмы обнаружили, что ненависть, дезинформация и политика играют важную роль в активности приложений, чтобы повысить вовлеченность. [15] Как указано в заметке: «Чем зажигательнее материал, тем больше он привлекает пользователей, тем больше его усиливает алгоритм». [13] Согласно исследованию 2018 года, «ложные слухи распространяются быстрее и шире, чем правдивая информация... Они обнаружили, что ложь на 70% чаще ретвитируется в Твиттере, чем правда, и достигает своих первых 1500 человек в шесть раз быстрее. Этот эффект более значителен. произносится с политическими новостями, чем с другими категориями». [16]
Ютуб [ править ]
Алгоритм YouTube [ править ]
YouTube существует с 2005 года и имеет более 2,5 миллиардов пользователей в месяц. Системы контента YouTube Discovery фокусируются на личной активности пользователя (просмотренных, избранных, лайках), чтобы направить их к рекомендуемому контенту. Алгоритм YouTube отвечает примерно за 70% рекомендуемых пользователями видео и за то, что заставляет людей смотреть определенный контент. [17] Согласно новому исследованию, у пользователей мало возможностей исключить нежелательные видео из рекомендуемого контента. Сюда входят видеоролики о разжигании ненависти, прямые трансляции и т. д. [17]
Обвинения YouTube [ править ]
YouTube считается влиятельной платформой для распространения радикального контента. «Аль-Каиду» и подобные экстремистские группировки связывают с использованием YouTube для размещения видеороликов о вербовке и взаимодействия с международными СМИ. В исследовании, опубликованном в журнале American Behavioral Scientist Journal, они исследовали, «можно ли определить набор атрибутов, которые могут помочь объяснить часть процесса принятия решений алгоритмом YouTube». [18] Результаты исследования показали, что рекомендации алгоритма YouTube по экстремистскому контенту учитывают наличие радикальных ключевых слов в названии видео. В феврале 2023 года в деле «Гонсалес против Google» возникает вопрос, защищена ли Google, материнская компания YouTube, от судебных исков, утверждающих, что алгоритмы сайта помогали террористам рекомендовать пользователям видео ИГИЛ. Известно, что раздел 230 обычно защищает онлайн-платформы от гражданской ответственности за контент, размещенный их пользователями. [19]
ТикТок [ править ]
Алгоритмы TikTok [ править ]
TikTok — это приложение, которое рекомендует видео на странице пользователя «Для вас» (FYP), делая страницы каждого пользователя уникальными. Благодаря характеру алгоритма, лежащего в основе приложения, FYP TikTok связан с показом более откровенных и радикальных видео с течением времени на основе предыдущих взаимодействий пользователей с приложением. [20] С момента создания TikTok приложение тщательно проверялось на предмет дезинформации и разжигания ненависти, поскольку эти формы медиа обычно вызывают больше взаимодействий с алгоритмом. [21]
По состоянию на 2022 год глава службы безопасности США TikTok выступил с заявлением о том, что «81 518 334 видео были удалены по всему миру в период с апреля по июнь за нарушение наших Правил сообщества или Условий обслуживания», чтобы сократить количество разжигания ненависти, преследований и дезинформации. [22]
Alt-правый конвейер [ править ]

Трубопровод альтернативных правых (также называемый кроличьей норой альтернативных правых) — это предложенная концептуальная модель интернет- радикализации в сторону движения альтернативных правых . Он описывает феномен, при котором потребление провокационного политического контента правого толка , такого как антифеминистские идеи или идеи против SJW , постепенно увеличивает воздействие альтернативных правых или аналогичных ультраправых политик . В нем утверждается, что это взаимодействие происходит из-за взаимосвязанного характера политических комментаторов и онлайн-сообществ , что позволяет членам одной аудитории или сообщества обнаруживать более экстремистские группы. [23] [24] Этот процесс чаще всего связан с видеоплатформой YouTube и документирован на ней , и во многом связан с методом, в котором алгоритмы на различных платформах социальных сетей функционируют посредством процесса, рекомендуя контент, который похож на тот, с которым взаимодействуют пользователи, но может быстро заводят пользователей в кроличью нору. [24] [25] [26]
Многие политические движения были связаны с концепцией трубопровода. Интеллектуальная даркнет , [24] либертарианство , [27] движение за права мужчин , [28] и alt-lite движение [24] все они были идентифицированы как потенциально знакомящие аудиторию с идеями альтернативных правых. Аудитория, которая ищет и готова принять экстремальный контент таким образом, обычно состоит из молодых людей, обычно из тех, кто испытывает значительное одиночество и ищет принадлежности или смысла. [29] В попытках найти сообщество и принадлежность доски объявлений, которые часто изобилуют крайне правыми социальными комментариями, такие как 4chan и 8chan , были хорошо задокументированы в их важности в процессе радикализации. [30]
Альтернативные правые могут стать фактором, способствующим внутреннему терроризму . [31] [32] Многие платформы социальных сетей признали этот путь радикализации и приняли меры по его предотвращению, включая удаление экстремистских деятелей и введение правил против разжигания ненависти и дезинформации. [25] [29] Левые движения, такие как BreadTube , также выступают против конвейера альтернативных правых и «стремятся создать «левый конвейер» в качестве противодействия конвейеру альтернативных правых». [33]
Влияние алгоритмической предвзятости YouTube на радикализацию пользователей было воспроизведено в одном исследовании: [24] [34] [35] [36] хотя два других исследования обнаружили мало или вообще не обнаружили доказательств процесса радикализации. [25] [37] [38]Саморадикализация [ править ]

Министерство юстиции США определяет терроризм «одинокого волка» (само) как «человека, который действует в одиночку во время террористической атаки без помощи или поощрения правительства или террористической организации». [39] Через социальные сети в Интернете растет терроризм «одинокого волка», связанный с алгоритмической радикализацией. [40] Через эхо-камеры в Интернете точки зрения, обычно считающиеся радикальными, были приняты и быстро приняты другими экстремистами. [41] Эти точки зрения поощряются форумами, групповыми чатами и социальными сетями, чтобы укрепить их убеждения. [42]
Упоминания в СМИ [ править ]
Социальная дилемма
«Социальная дилемма» — это документальная драма 2020 года о том, как алгоритмы социальных сетей вызывают зависимость, обладая при этом способностью манипулировать взглядами, эмоциями и поведением людей для распространения теорий заговора и дезинформации. В фильме неоднократно используются такие модные слова, как «эхо-камеры» и «фейковые новости», чтобы доказать психологические манипуляции в социальных сетях, что приводит к политическим манипуляциям. В фильме Бен все глубже впадает в зависимость от социальных сетей, поскольку алгоритм обнаружил, что вероятность долгосрочного взаимодействия с его страницей в социальной сети составляет 62,3%. Это приводит к появлению большего количества видео в рекомендуемой ленте для Бена, и в конечном итоге он все больше погружается в пропаганду и теории заговора, становясь все более поляризованным с каждым видео.
Предлагаемые решения [ править ]
защиты согласно 230 Ослабление Разделу
В Закона о порядочности в сфере коммуникаций говорится , разделе 230 что «ни один поставщик или пользователь интерактивных компьютерных услуг не может рассматриваться как издатель или докладчик любой информации, предоставленной другим поставщиком информационного контента». [43] Раздел 230 защищает средства массовой информации от ответственности или судебных исков за контент третьих лиц, например, за незаконную деятельность пользователя. [43] Однако критики утверждают, что такой подход снижает стимулы компании удалять вредный контент или дезинформацию, и эта лазейка позволила компаниям социальных сетей максимизировать прибыль за счет продвижения радикального контента без юридических рисков. [44] Это утверждение само по себе подверглось критике со стороны сторонников раздела 230, которые считают, что пункт «Добрый самаритянин» в подразделе (c)(2) в первую очередь позволяет веб-сайтам модерировать, и что до его принятия суды в Страттон-Окмонте постановили: против Prodigy Services Co. , что модерация в любом качестве налагает ответственность на поставщиков контента как на «издателей» контента, который они решили оставить. [45]
Законодатели разработали законопроект, который ослабит или устранит защиту раздела 230 в отношении алгоритмического контента. Демократы Палаты представителей Анна Эшу , Фрэнк Паллоне-младший , Майк Дойл и Ян Шаковски представили «Закон о правосудии против вредоносных алгоритмов» в октябре 2021 года под номером HR 5596 . Законопроект умер в комитете, [46] но это лишило бы поставщиков услуг защиты согласно Разделу 230, связанной с алгоритмами персонализированных рекомендаций , которые предоставляют контент пользователям, если эти алгоритмы сознательно или по неосторожности доставляют контент, который способствует физической или серьезной эмоциональной травме. [47]
См. также [ править ]
- Алгоритмическое курирование
- Осведомленность об окружающей среде
- Комплексное заражение
- Теория мертвого Интернета
- Дезинформационная атака
- Думскроллинг
- Эхо-камера
- Экстремизм
- Эффект ложного консенсуса
- Фильтр-пузырь
- Влияние по найму
- Радикализация молодежи в Интернете
- Радикальное доверие
- Теория выборочного воздействия
- Социальный бот
- Революция социальных данных
- Предвзятость социального влияния
- Предвзятость в социальных сетях
- Викарная травма после просмотра СМИ
- Виртуальное коллективное сознание
Ссылки [ править ]
- ^ «Что такое эхо-камера социальных сетей? | Школа рекламы Стэна Ричардса» . реклама.utexas.edu . 18 ноября 2020 г. . Проверено 2 ноября 2022 г.
- ^ «Веб-сайты, поддерживающие крайне правых влиятельных лиц Великобритании» . Беллингкэт . 24 февраля 2021 г. . Проверено 10 марта 2021 г.
- ^ Камарго, Чико К. (21 января 2020 г.). «Алгоритмы YouTube могут радикализировать людей, но настоящая проблема в том, что мы понятия не имеем, как они работают» . Разговор . Проверено 10 марта 2021 г.
- ^ Редакция E&T (27 мая 2020). «Facebook не действовал на основании собственных доказательств алгоритмического экстремизма» . eandt.theiet.org . Проверено 10 марта 2021 г.
- ^ «Как компании, работающие в социальных сетях, могут бороться с разжиганием ненависти?» . Знания в Wharton . Проверено 22 ноября 2022 г.
- ^ «Интернет-ассоциация – мы голос интернет-экономики. | Интернет-ассоциация» . 17 декабря 2021 года. Архивировано из оригинала 17 декабря 2021 года . Проверено 22 ноября 2022 г.
- ^ «Что такое эхо-камера социальных сетей? | Школа рекламы Стэна Ричардса» . реклама.utexas.edu . 18 ноября 2020 г. . Проверено 12 апреля 2023 г.
- ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Галеацци, Алессандро; Кваттрочокки, Уолтер; Старнини, Микеле (2 марта 2021 г.). «Влияние эхо-камеры на социальные сети» . Труды Национальной академии наук Соединенных Штатов Америки . 118 (9): –2023301118. Бибкод : 2021PNAS..11823301C . дои : 10.1073/pnas.2023301118 . ISSN 0027-8424 . ПМЦ 7936330 . ПМИД 33622786 .
- ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Старнини, Микеле; Галеацци, Алессандро; Кваттрочокки, Уолтер (14 января 2021 г.). «Влияние эхо-камеры на социальные сети» . Труды Национальной академии наук Соединенных Штатов Америки . 118 (9): e2023301118. Бибкод : 2021PNAS..11823301C . дои : 10.1073/pnas.2023301118 . ISSN 0027-8424 . ПМЦ 7936330 . ПМИД 33622786 .
- ^ Оремус, Уилл; Алькантара, Крис; Меррилл, Джереми; Галоча, Артур (26 октября 2021 г.). «Как Facebook формирует вашу ленту» . Вашингтон Пост . Проверено 12 апреля 2023 г.
- ^ Ацке, Сара (16 января 2019 г.). «Алгоритмы Facebook и персональные данные» . Исследовательский центр Пью: Интернет, наука и технологии . Проверено 12 апреля 2023 г.
- ^ Коринек, Антон (8 декабря 2021 г.). «Почему нам нужно новое агентство для регулирования передового искусственного интеллекта: уроки по контролю ИИ из файлов Facebook» . Брукингс . Проверено 12 апреля 2023 г.
- ^ Jump up to: Перейти обратно: а б «Дезинформация, радикализация и алгоритмическое усиление: какие шаги может предпринять Конгресс?» . Просто безопасность . 7 февраля 2022 г. . Проверено 2 ноября 2022 г.
- ^ Исаак, Майк (25 октября 2021 г.). «Facebook борется с функциями, которые он использовал для определения социальных сетей» . Нью-Йорк Таймс . ISSN 0362-4331 . Проверено 2 ноября 2022 г.
- ^ Литтл, Оливия (26 марта 2021 г.). «TikTok побуждает пользователей подписываться на аккаунты крайне правых экстремистов» . СМИ имеют значение для Америки . Проверено 2 ноября 2022 г.
- ^ «Исследование: ложные новости распространяются быстрее, чем правда» . Массачусетский технологический институт Слоана . Проверено 2 ноября 2022 г.
- ^ Jump up to: Перейти обратно: а б «Ненавидел это видео? Алгоритм YouTube может подтолкнуть вас к другому такому же видео» . Обзор технологий Массачусетского технологического института . Проверено 11 апреля 2023 г.
- ^ Мурти, Дирадж (1 мая 2021 г.). «Оценка подотчетности платформы: террористический контент на YouTube» . Американский учёный-бихевиорист . 65 (6): 800–824. дои : 10.1177/0002764221989774 . S2CID 233449061 – через JSTOR.
- ^ Рут, Дэймон (апрель 2023 г.). «Скотус рассматривает сферу действия раздела 230» . Причина . 54 (11): 8. ISSN 0048-6906 .
- ^ «Алгоритм TikTok ведет пользователей от трансфобных видео к ультраправым кроличьим норам» . СМИ имеют значение для Америки . 5 октября 2021 г. . Проверено 22 ноября 2022 г.
- ^ Литтл, Оливия (2 апреля 2021 г.). «На первый взгляд безобидные аккаунты в TikTok, посвященные теории заговора, продвигают крайне правую пропаганду, и TikTok побуждает пользователей подписаться на них» . СМИ имеют значение для Америки . Проверено 22 ноября 2022 г.
- ^ «Наша постоянная борьба с ненавистью и притеснениями» . Отдел новостей | ТикТок . 16 августа 2019 г. Проверено 22 ноября 2022 г.
- ^ Jump up to: Перейти обратно: а б Льюис, Ребекка (18 сентября 2018 г.). Альтернативное влияние: трансляция реакционных правых на YouTube (отчет). Данные и общество. Архивировано из оригинала 25 мая 2022 года . Проверено 14 июля 2022 г.
- ^ Jump up to: Перейти обратно: а б с д и Рибейру, Маноэль Орта; Оттони, Рафаэль; Уэст, Роберт; Алмейда, Виргилиу А.Ф.; Мейра, Вагнер (27 января 2020 г.). «Аудит путей радикализации на YouTube». Материалы конференции 2020 года по справедливости, подотчетности и прозрачности . стр. 131–141. дои : 10.1145/3351095.3372879 . ISBN 9781450369367 . S2CID 201316434 .
- ^ Jump up to: Перейти обратно: а б с Ледвич, Марк; Зайцева Анна (26 февраля 2020 г.). «Алгоритмический экстремизм: исследование кроличьей норы радикализации на YouTube» . Первый понедельник . arXiv : 1912.11211 . дои : 10.5210/fm.v25i3.10419 . ISSN 1396-0466 . S2CID 209460683 . Архивировано из оригинала 28 октября 2022 года . Проверено 28 октября 2022 г.
- ^ «Расследование Mozilla: алгоритм YouTube рекомендует видео, которые нарушают собственные политики платформы» . Фонд Мозилла . 7 июля 2021 года. Архивировано из оригинала 25 марта 2023 года . Проверено 25 марта 2023 г.
- ^ Херманссон, Патрик; Лоуренс, Дэвид; Малхолл, Джо; Мердок, Саймон (31 января 2020 г.). Международные альтернативные правые: фашизм XXI века? . Рутледж. стр. 57–58. ISBN 978-0-429-62709-5 . Архивировано из оригинала 25 июля 2023 года . Проверено 21 сентября 2022 г.
- ^ Мамие, Робин; Рибейру, Маноэль Орта; Уэст, Роберт (2021). «Являются ли антифеминистские сообщества воротами для крайне правых? Данные Reddit и YouTube». WebSci '21: Материалы 13-й веб-научной конференции ACM 2021 . Нью-Йорк: Ассоциация вычислительной техники. стр. 139–147. arXiv : 2102.12837 . дои : 10.1145/3447535.3462504 . ISBN 978-1-4503-8330-1 . S2CID 232045966 .
- ^ Jump up to: Перейти обратно: а б Руз, Кевин (8 июня 2019 г.). «Становление радикала на YouTube» . Нью-Йорк Таймс . ISSN 0362-4331 . Архивировано из оригинала 17 мая 2023 года . Проверено 26 октября 2022 г.
- ^ Хьюз, Тервин (26 января 2021 г.). «Канадский трубопровод альтернативных правых» . Голубь . Архивировано из оригинала 25 марта 2023 года . Проверено 25 марта 2023 г.
- ^ Пьяцца, Джеймс А. (2 января 2022 г.). «Фейковые новости: влияние дезинформации в социальных сетях на внутренний терроризм» . Динамика асимметричного конфликта . 15 (1): 55–77. дои : 10.1080/17467586.2021.1895263 . ISSN 1746-7586 . S2CID 233679934 . Архивировано из оригинала 25 июля 2023 года . Проверено 4 ноября 2022 г.
- ^ Манн, Люк (1 июня 2019 г.). «Альтернативные правые: индивидуальный путь к экстремизму в Интернете» . Первый понедельник . дои : 10.5210/fm.v24i6.10108 . ISSN 1396-0466 . S2CID 184483249 . Архивировано из оригинала 24 мая 2022 года . Проверено 14 июля 2022 г.
- ^ Коттер, Келли (18 марта 2022 г.). «Практическое знание алгоритмов: случай BreadTube» . Новые медиа и общество . 26 (4): 2131–2150. дои : 10.1177/14614448221081802 . ISSN 1461-4448 . S2CID 247560346 .
- ^ Ломас, Наташа (28 января 2020 г.). «Изучение комментариев на YouTube выявило доказательства эффекта радикализации» . ТехКранч . Проверено 17 июля 2021 г.
- ^ Ньютон, Кейси (28 августа 2019 г.). «Со временем YouTube может подтолкнуть пользователей к более радикальным взглядам, утверждается в новой статье» . Грань . Архивировано из оригинала 27 июля 2023 года . Проверено 17 июля 2021 г.
- ^ Рибейру, Маноэль Орта; Оттони, Рафаэль; Уэст, Роберт; Алмейда, Виргилиу А.Ф.; Мейра, Вагнер (22 августа 2019 г.). «Аудит путей радикализации на YouTube». arXiv : 1908.08313 [ cs.CY ].
- ^ Хоссейнмарди, Хома; Гасемиан, Амир; Клосет, Аарон; Мебиус, Маркус; Ротшильд, Дэвид М.; Уоттс, Дункан Дж. (2 августа 2021 г.). «Изучение потребления радикального контента на You Tube » . Труды Национальной академии наук . 118 (32). arXiv : 2011.12843 . Бибкод : 2021PNAS..11801967H . дои : 10.1073/pnas.2101967118 . ПМЦ 8364190 . ПМИД 34341121 .
- ^ * Чен, Энни Ю.; Найхан, Брендан; Райфлер, Джейсон; Робертсон, Рональд Э.; Уилсон, Христо (22 апреля 2022 г.). «Подписки и внешние ссылки помогают привлечь обиженных пользователей к альтернативным и экстремистским видеороликам на YouTube». arXiv : 2204.10921 [ cs.SI ].
- Вулф, Лиз (26 апреля 2022 г.). «Алгоритмы YouTube не превращают ничего не подозревающие массы в экстремистов, предполагает новое исследование / Новое исследование ставит под сомнение наиболее известные теории об экстремизме с помощью алгоритмов» . Причина . Архивировано из оригинала 26 апреля 2022 года.
- ^ «Терроризм одинокого волка в Америке | Программы Управления юстиции» . www.ojp.gov . Проверено 2 ноября 2022 г.
- ^ Альфано, Марк; Картер, Дж. Адам; Чеонг, Марк (2018). «Технологическое соблазнение и саморадикализация» . Журнал Американской философской ассоциации . 4 (3): 298–322. дои : 10.1017/apa.2018.27 . ISSN 2053-4477 . S2CID 150119516 .
- ^ Дюбуа, Элизабет; Бланк, Грант (4 мая 2018 г.). «Эхо-камера преувеличена: сдерживающий эффект политических интересов и разнообразных средств массовой информации» . Информация, коммуникация и общество . 21 (5): 729–745. дои : 10.1080/1369118X.2018.1428656 . ISSN 1369-118X . S2CID 149369522 .
- ^ Санстейн, Касс Р. (13 мая 2009 г.). Впадая в крайности: как сходные умы объединяются и разделяются . Издательство Оксфордского университета. ISBN 978-0-19-979314-3 .
- ^ Jump up to: Перейти обратно: а б «47 Кодекса США § 230 – Защита от частной блокировки и проверки оскорбительных материалов» . ЛИИ/Институт правовой информации . Проверено 2 ноября 2022 г.
- ^ Смит, Майкл Д.; Олстайн, Маршалл Ван (12 августа 2021 г.). «Пришло время обновить раздел 230» . Гарвардское деловое обозрение . ISSN 0017-8012 . Проверено 2 ноября 2022 г.
- ^ Масник, Майк (23 июня 2020 г.). «Здравствуйте! Вас направили сюда, потому что вы ошибались насчет раздела 230 Закона о порядочности в сфере коммуникаций» . Проверено 11 апреля 2024 г.
- ^ «HR 5596 (117-й): Закон о правосудии против вредоносных алгоритмов 2021 года» . GovTrack . Проверено 11 апреля 2024 г.
- ^ Робертсон, Ади (14 октября 2021 г.). «Законодатели хотят лишить ленту новостей Facebook юридической защиты» . Грань . Архивировано из оригинала 14 октября 2021 года . Проверено 14 октября 2021 г.