Jump to content

Фильтр-пузырь

(Перенаправлено с пузыря фильтров )

, социальные сети непреднамеренно изолируют пользователей в их собственные идеологические фильтры. По мнению интернет-активиста Эли Паризера

Пузырь фильтров или идеологический фрейм — это состояние интеллектуальной изоляции. [1] Это может быть результатом персонализированного поиска , систем рекомендаций и алгоритмического курирования . Результаты поиска основаны на информации о пользователе, такой как его местоположение, поведение при кликах в прошлом и история поиска. [2] Следовательно, пользователи отделяются от информации, которая не согласуется с их точками зрения, что фактически изолирует их в их собственных культурных или идеологических пузырях, что приводит к ограниченному и индивидуальному взгляду на мир. [3] Выбор, сделанный этими алгоритмами, лишь иногда прозрачен. [4] Яркими примерами являются результаты персонализированного поиска Google и персонализированная лента новостей Facebook.

Однако существуют противоречивые сообщения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред, при этом различные исследования дают неубедительные результаты.

Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году. Во влиятельной книге Паризера под тем же названием «Пузырь фильтров» (2011) было предсказано, что индивидуализированная персонализация с помощью алгоритмической фильтрации приведет к интеллектуальной изоляции и социальной фрагментации. [5] По мнению Паризера, эффект «пузыря» может иметь негативные последствия для гражданского дискурса , но противоположные точки зрения считают этот эффект минимальным. [6] и адресуемый. [7] По мнению Паризера, пользователи меньше подвержены противоречивым точкам зрения и интеллектуально изолированы в своем информационном пузыре. [8] Он привел пример, в котором один пользователь ввел в Google запрос «BP» и получил инвестиционные новости о British Petroleum , а другой пользователь получил информацию о разливе нефти Deepwater Horizon , отметив, что две страницы результатов поиска «разительно отличались», несмотря на использование те же ключевые слова. [8] [9] [10] [6] Результаты президентских выборов в США в 2016 году были связаны с влиянием социальных сетей, таких как Twitter и Facebook. [11] и в результате поставили под сомнение влияние феномена «пузыря фильтров» на воздействие на пользователей фейковых новостей и эхо-камер , [12] стимулируя новый интерес к этому термину, [13] Многие обеспокоены тем, что это явление может нанести вред демократии и благополучию, усугубляя последствия дезинформации. [14] [15] [13] [16] [17] [18]

Концепция

[ редактировать ]
Термин «пузырь фильтров» был придуман интернет-активистом Эли Паризером примерно в 2010 году.

Паризер определил свою концепцию пузыря фильтров более формально как «эту личную экосистему информации , которая обслуживается этими алгоритмами». [8] Прошлые просмотры и история поиска интернет-пользователя накапливаются с течением времени, когда он проявляет интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и так далее. [19] Затем интернет-фирма использует эту информацию для таргетирования рекламы на пользователя или для повышения заметности определенных типов информации на страницах результатов поиска . [19]

Этот процесс не является случайным, поскольку, по словам Парайзера, он состоит из трех этапов: «Сначала вы выясняете, кто эти люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь на правильную настройку. Ваша личность формирует ваши медиа». [20] Парижанин также сообщает:

По данным исследования Wall Street Journal , пятьдесят крупнейших интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем 64 файла cookie с данными и персональные маяки слежения. Найдите на Dictionary.com такое слово, как «депрессия», и сайт установит на ваш компьютер до 223 отслеживающих файлов cookie и маяков, чтобы другие веб-сайты могли нацеливать вас на антидепрессанты. Поделитесь статьей о кулинарии на ABC News, и вас может преследовать в Интернете реклама кастрюль с тефлоновым покрытием. Откройте — хотя бы на мгновение — страницу со списком признаков того, что ваш супруг, возможно, изменяет, и приготовьтесь к тому, что вас преследует реклама ДНК-тестов на отцовство. [21]

Доступ к данным о кликах по ссылкам, отображаемым посредством измерения трафика сайта, определяет, что пузырьки фильтров могут быть коллективными или индивидуальными. [22]

По состоянию на 2011 год один инженер сообщил Парайзеру, что Google просматривает 57 различных фрагментов данных, чтобы индивидуально адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [23]

Идея Паризера о пузыре фильтров получила популяризацию после выступления на TED в мае 2011 года, в котором он привел примеры того, как работают пузыри фильтров и где их можно увидеть. В ходе теста, призванного продемонстрировать эффект пузыря фильтра, Паризер попросил нескольких друзей выполнить поиск по слову «Египет» в Google и отправить ему результаты. При сравнении первых страниц результатов двух друзей, несмотря на совпадение между ними по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о продолжавшейся тогда египетской революции 2011 года , в то время как первая страница результатов другого друга таких ссылок не было. [24]

В книге «Пузырь фильтров » Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нас от новых идей, тем и важной информации». [25] и «создает впечатление, что наш узкий личный интерес — это все, что существует». [9] По его мнению, пузыри фильтров потенциально вредны как для отдельных людей, так и для общества. Он раскритиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно моркови». [26] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить наш кругозор. [26] По мнению Парайзера, пагубные последствия пузырей фильтров включают в себя вред обществу в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций». [9] Он написал:

Мир, построенный из привычного, — это мир, в котором нечему учиться… (поскольку существует) невидимая автопропаганда, внушающая нам наши собственные идеи.

- Эли Паризер в The Economist , 2011 г. [27]

Многие люди даже не подозревают о существовании пузырей-фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook совершенно не подозревают о каком-либо курировании на Facebook, полагая вместо этого, что каждая отдельная история от их друзей и страниц, на которые они подписаны, появляется в их новостная лента». [28] Краткое объяснение того, как Facebook решает, что происходит в ленте новостей пользователя, заключается в использовании алгоритма, который учитывает, «как вы взаимодействовали с подобными публикациями в прошлом». [28]

Расширение концепции

[ редактировать ]

Пузырь фильтров был описан как усугубляющий явление, которое называется сплинтернетом или кибербалканизацией . [Примечание 1] это происходит, когда Интернет разделяется на подгруппы единомышленников, которые оказываются изолированными внутри своего онлайн-сообщества и не могут ознакомиться с различными взглядами. Эта обеспокоенность возникла еще на заре общедоступного Интернета, когда в 1996 году был придуман термин «кибербалканизация». [29] [30] [31] Для описания этого явления использовались и другие термины, в том числе « идеологические рамки ». [9] и «образная сфера, окружающая вас, когда вы ищете в Интернете». [19]

Концепция пузыря фильтров была распространена и на другие области, чтобы описать общества, которые самосегментируются в соответствии с политическими взглядами, а также экономическими, социальными и культурными ситуациями. [32] Этот бурный рост приводит к потере более широкого сообщества и создает ощущение, что, например, детям не место на общественных мероприятиях, если только эти мероприятия не были специально запланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [32]

В прощальной речи Барака Обамы подобная концепция фильтрации пузырей была названа «угрозой [американской] демократии», т.е. разделяем одни и те же политические взгляды и никогда не оспариваем наши предположения... И все больше и больше мы становимся настолько защищенными в своих пузырях, что начинаем принимать только ту информацию, правдивую она или нет, которая соответствует нашим мнениям, вместо того, чтобы основывать наши мнения на доказательствах, которые находится там». [33]

Сравнение с эхокамерами

[ редактировать ]

И «эхо-камеры», и «пузыри фильтров» описывают ситуации, когда люди сталкиваются с узким диапазоном мнений и точек зрения, которые укрепляют их существующие убеждения и предубеждения, но между ними есть некоторые тонкие различия, особенно в практиках, связанных с социальными сетями. [34] [35]

Специально для средств массовой информации эхо-камера — это метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются посредством общения и повторения внутри закрытой системы. [36] [37] Этот термин , основанный на социологической концепции теории избирательного воздействия , представляет собой метафору, основанную на акустической эхо-камере, где звуки отражаются в полой камере. Что касается социальных сетей, такого рода ситуация подпитывается явными механизмами самостоятельной персонализации , которые описывают все процессы, в которых пользователи данной платформы могут активно соглашаться на потребление информации и отказываться от него, например, возможность пользователя следить за другими пользователями. или выберите в группы. [38]

В эхо-камере люди могут искать информацию, которая подкрепляет их существующие взгляды, возможно, в качестве бессознательного проявления предвзятости подтверждения . Такое регулирование с обратной связью может усилить политическую и социальную поляризацию и экстремизм. Это может привести к агрегированию пользователей в гомофильные кластеры внутри социальных сетей, что способствует групповой поляризации. [39] «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Люди окружены теми, кто признает и следует одним и тем же точкам зрения, но у них также есть возможность вырваться за пределы эхо-камер. [40]

С другой стороны, «пузыри фильтров» представляют собой неявные механизмы предварительно выбранной персонализации пользователя , при которых медиапотребление создается с помощью персонализированных алгоритмов; контент, который видит пользователь, фильтруется с помощью алгоритма, управляемого искусственным интеллектом, который укрепляет его существующие убеждения и предпочтения, потенциально исключая противоположные или разные точки зрения. В этом случае пользователи играют более пассивную роль и воспринимаются как жертвы технологии, которая автоматически ограничивает их доступ к информации, которая бросает вызов их мировоззрению. [38] Однако некоторые исследователи утверждают, что, поскольку пользователи по-прежнему играют активную роль в выборочном управлении своими новостными лентами и источниками информации посредством взаимодействия с поисковыми системами и сетями социальных сетей, они напрямую помогают в процессе фильтрации с помощью алгоритмов, управляемых ИИ, тем самым эффективно участие в саморасщепляющихся фильтрующих пузырьках. [41]

Несмотря на различия, использование этих терминов идет рука об руку как в академических, так и в платформенных исследованиях. Часто бывает трудно провести различие между этими двумя концепциями в исследованиях социальных сетей из-за ограничений доступности алгоритмов фильтрации, которые, возможно, могли бы позволить исследователям сравнивать и противопоставлять действие двух концепций. [42] Проведение такого рода исследований будет продолжать становиться все труднее, поскольку многие социальные сети также начали ограничивать доступ к API, необходимый для академических исследований. [43]

Реакции и исследования

[ редактировать ]

Реакция СМИ

[ редактировать ]

Существуют противоречивые сведения о том, в какой степени происходит персонализированная фильтрация и приносит ли такая деятельность пользу или вред. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять коллег с разным идеологическим прошлым, проводившие серию поисков: « Джон Боэнер », « Барни Фрэнк », « План Райана » , и « Обамакер » и отправил Вейсбергу скриншоты их результатов. Результаты различались лишь в незначительных отношениях от человека к человеку, и любые различия, по-видимому, не были связаны с идеологией, что привело Вайсберга к выводу, что пузырь фильтров не действует, и написать, что идея, которую большинство интернет-пользователей «подпитывают» у корыта Daily Me » была преувеличена. [9] Вайсберг попросил Google прокомментировать ситуацию, и представитель заявил, что были созданы алгоритмы, которые намеренно «ограничивают персонализацию и способствуют разнообразию». [9] Книжный рецензент Пол Бутен провел эксперимент, аналогичный эксперименту Вайсберга, среди людей с разной историей поиска и снова обнаружил, что разные поисковики получили почти идентичные результаты поиска. [6] Беседуя с программистами Google (не для протокола), журналист Пер Гранквист [ sv ] обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google в ходе тестирования обнаружил, что поисковый запрос, безусловно, является лучшим определяющим фактором того, какие результаты будут получены. для отображения. [44]

Есть сообщения о том, что Google и другие сайты хранят обширные «досье» информации о своих пользователях, что может позволить им дополнительно персонализировать индивидуальный опыт работы в Интернете, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать историю пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее. [6] В одном отчете говорилось, что Google собрала информацию «за 10 лет», полученную из различных источников, таких как Gmail , Google Maps и других сервисов, помимо своей поисковой системы. [10] [ не удалось пройти проверку ] хотя в противоположном отчете говорилось, что попытка персонализировать Интернет для каждого пользователя была технически сложной задачей для интернет-фирмы, несмотря на огромные объемы доступных данных. [ нужна ссылка ] Аналитик Дуг Гросс из CNN предположил, что поиск с фильтром кажется более полезным для потребителей, чем для граждан , и поможет потребителю, ищущему «пиццу», найти местные варианты доставки на основе персонализированного поиска и соответствующим образом отфильтровать отдаленные магазины пиццы. [10] [ не удалось пройти проверку ] Такие организации, как Washington Post , The New York Times и другие, экспериментировали с созданием новых персонализированных информационных услуг с целью адаптировать результаты поиска к тем, которые, скорее всего, понравятся пользователям или с которыми они согласятся. [9]

Академические исследования и реакции

[ редактировать ]

Научное исследование Wharton , в котором анализировались персонализированные рекомендации, также показало, что эти фильтры могут создавать общность, а не фрагментацию вкусов онлайн-музыки. [45] Сообщается, что потребители используют фильтры, чтобы расширить свой вкус, а не ограничить его. [45] Профессор права из Гарварда Джонатан Зиттрейн оспорил степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «эффект персонализации поиска был незначительным». [9] Кроме того, Google предоставляет пользователям возможность отключать функции персонализации, если они захотят. [46] удалив запись Google об их истории поиска и настроив Google не запоминать ключевые слова поиска и посещенные ссылки в будущем. [6]

В исследовании Internet Policy Review было рассмотрено отсутствие четкого и проверяемого определения «пузырей фильтров» в разных дисциплинах; это часто приводит к тому, что исследователи определяют и изучают пузырьки фильтров по-разному. [47] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах. [12] и предположил, что приписываемые им эффекты могут быть связаны скорее с уже существовавшими идеологическими предубеждениями, чем с алгоритмами. Подобные взгляды можно найти и в других академических проектах, которые также затрагивают проблемы определений «пузырей фильтров» и взаимосвязей между идеологическими и технологическими факторами, связанными с ними. [48] Критический обзор пузырей фильтров показал, что «тезис о пузыре фильтров часто постулирует особый тип политического человека, мнение которого является сильным, но в то же время очень податливым» и что «парадокс заключается в том, что люди имеют активную свободу действий, когда они выбирают контент, но становятся пассивными получателями, когда им знакомится рекомендованный им контент, подобранный с помощью алгоритмов». [49]

В исследовании, проведенном исследователями из Оксфорда, Стэнфорда и Microsoft, были изучены истории посещений 1,2 миллиона пользователей панели инструментов Bing для Internet Explorer в США в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными потребителями новостей, а затем классифицировали, были ли они активными потребителями новостей. новостные агентства, которые они посещали, были левыми или правыми в зависимости от того, проголосовало ли большинство избирателей в округах, связанных с IP-адресами пользователей, за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, были ли новости прочитаны после прямого доступа к сайту издателя, через службу агрегирования новостей Google, веб-поиск или социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления онлайн-новостей состоит из пользователей, непосредственно посещающих основные новостные сайты левого или правого толка и, следовательно, подвергающихся почти исключительно взглядам с одной стороны. политический спектр. Ограничения исследования включали такие проблемы отбора, как возраст пользователей Internet Explorer выше, чем среди населения Интернета в целом; Использование панели инструментов Bing и добровольный (или неосознанный) обмен выбранной историей просмотров для пользователей, которые меньше заботятся о конфиденциальности; предположение, что все статьи в публикациях левого толка являются левыми, и то же самое относится и к правым; и вероятность того, что пользователи, которые неактивные потребители новостей могут получать большую часть своих новостей через социальные сети и, таким образом, испытывать более сильные последствия социальной или алгоритмической предвзятости, чем те пользователи, которые, по сути, самостоятельно выбирают свою предвзятость посредством выбора новостных публикаций (при условии, что они осведомлены о предвзятости публикаций). ). [50]

Исследование, проведенное исследователями Принстонского университета и Нью-Йоркского университета, было направлено на изучение влияния пузыря фильтров и алгоритмической фильтрации на поляризацию социальных сетей. Они использовали математическую модель под названием « стохастическая блочная модель », чтобы проверить свою гипотезу в средах Reddit и Twitter. Исследователи измерили изменения в поляризации в регуляризованных и нерегуляризованных социальных сетях, в частности, измеряя процентные изменения в поляризации и разногласиях на Reddit и Twitter. Они обнаружили, что поляризация значительно увеличилась на 400% в нерегуляризованных сетях, в то время как поляризация увеличилась на 4% в регуляризованных сетях, а разногласия - на 5%. [51]

Платформенные исследования

[ редактировать ]

Хотя алгоритмы действительно ограничивают политическое разнообразие, некоторые «пузыри фильтров» являются результатом выбора пользователей. [52] Исследование, проведенное специалистами по обработке данных из Facebook, показало, что на каждые четыре друга в Facebook, разделяющих одну и ту же идеологию, у пользователей есть один друг с противоположными взглядами. [53] [54] Независимо от того, какой алгоритм Facebook использует для своей ленты новостей , люди с большей вероятностью будут дружить или подписываться на людей, которые разделяют схожие убеждения. [53] Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного контента на 5 процентов для консерваторов и на 8 процентов для либералов». [53] Однако даже когда людям предоставляется возможность щелкнуть ссылку, предлагающую противоположные мнения, они по-прежнему по умолчанию выбирают наиболее просматриваемые источники. [53] «Выбор пользователя снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [53] Сквозная ссылка — это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт привязал к убеждениям пользователя. [55] Недавнее исследование Леви Бокселла, Мэтью Генцкоу и Джесси М. Шапиро показывает, что онлайн-СМИ не являются движущей силой политической поляризации. [56] В документе утверждается, что поляризация вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический разрыв наблюдается среди американцев старше 75 лет, при этом только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные показывают, что более молодая демографическая группа В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайн-СМИ почти не существовало. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая апеллирует к их предубеждениям. Пожилые американцы обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для более молодой аудитории. Хотя алгоритмы и «пузыри фильтров» ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены уже существующими взглядами и неспособностью признать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии «Большой пятерки» для проверки влияния индивидуальной личности, демографии и идеологии на потребление новостей пользователями. [57] Основываясь на идее о том, что количество источников новостей, которые потребляют пользователи, влияет на их вероятность попасть в пузырь фильтров (при этом более высокое разнообразие СМИ снижает шансы), их результаты показывают, что определенные демографические группы (старший возраст и мужчины) наряду с определенной личностью Черты (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых людьми. Исследование также выявило негативную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных пользовательских факторов, которые могут повлиять на роль пользовательского выбора, это исследование также поднимает вопросы и устанавливает связи между вероятностью попадания пользователей в пузырьки фильтров и поведением пользователей при голосовании. [57]

Исследование Facebook показало, что «неубедительно» сыграл ли алгоритм такую ​​большую роль в фильтрации новостных лент , как предполагали люди. [58] Исследование также показало, что «индивидуальный выбор», или предвзятость подтверждения, также влияет на то, что отфильтровывается из новостных лент. [58] Некоторые социологи раскритиковали этот вывод, поскольку смысл протеста против пузыря фильтров заключается в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новостные ленты. [59] Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «невоспроизводимы» из-за того, что исследование проводилось «учеными Facebook», имевшими доступ к данные, которые Facebook не предоставляет сторонним исследователям. [60]

Хотя исследование показало, что только около 15–20% друзей среднего пользователя в Facebook подписываются на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли стали бы делиться нашей политикой без Интернета. Facebook может создать уникальную среду, в которой пользователь видит и, возможно, взаимодействует с контентом, опубликованным или повторно опубликованным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативными, а 38 процентов новостей, которые видели консерваторы, были либеральными». [61] «У либералов, как правило, меньше друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [62] Это взаимодействие позволяет предоставлять разнообразную информацию и источники, которые могут модерировать мнения пользователей.

Аналогичным образом, исследование Нью пузырей фильтров Твиттера, проведенное -Йоркским университетом, пришло к выводу, что «отдельные люди теперь имеют доступ к более широкому спектру точек зрения на новостные события, и большая часть этой информации поступает не по традиционным каналам, а либо напрямую от политических деятелей». или через своих друзей и родственников. Кроме того, интерактивный характер социальных сетей дает людям возможность обсуждать политические события со своими сверстниками, в том числе с теми, с кем у них слабые социальные связи». [63] Согласно этим исследованиям, социальные сети могут диверсифицировать информацию и мнения, с которыми сталкиваются пользователи, хотя существует много спекуляций вокруг «пузырей фильтров» и их способности создавать более глубокую политическую поляризацию .

Одним из драйверов и возможным решением проблемы является роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут привести к поляризации или конвергенции: радость преобладает при эмоциональной поляризации, тогда как печаль и страх играют важную роль в эмоциональной конвергенции. [64] Поскольку обнаружить эмоциональное содержание сообщений относительно легко, эти результаты могут помочь разработать более социально ответственные алгоритмы, начав фокусироваться на эмоциональном содержании алгоритмических рекомендаций.

Визуализация процесса и роста двух ботов для социальных сетей, использованных в исследовании Weibo 2019 года . Согласно исследованию, диаграммы представляют два аспекта структуры «пузырей фильтров»: большие концентрации пользователей вокруг отдельных тем и однонаправленную звездообразную структуру, которая влияет на ключевые информационные потоки.

Социальные боты использовались различными исследователями для проверки поляризации и связанных с ней эффектов, связанных с пузырьками фильтров и эхо-камерами. [65] [66] В исследовании 2018 года социальные боты в Твиттере использовались для проверки намеренного воздействия пользователей на партийные точки зрения. [65] В исследовании утверждалось, что оно продемонстрировало партийные различия между людьми, подвергающимися различным взглядам, хотя в нем предупреждалось, что результаты должны быть ограничены зарегистрированными партиями американскими пользователями Твиттера. Один из основных выводов заключался в том, что после знакомства с различными взглядами (предоставляемыми ботами) саморегистрированные республиканцы стали более консервативными, тогда как саморегистрированные либералы продемонстрировали меньшие идеологические изменения, если вообще не проявили их вообще. В другом исследовании, проведенном в Китайской Народной Республике, использовались социальные боты на Weibo — крупнейшей социальной сети Китая — для изучения структуры «пузырей фильтров» с точки зрения их влияния на поляризацию. [66] В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди со схожими взглядами образуют группы, разделяют схожие мнения и блокируют себя от различных точек зрения (поляризация мнений), а во втором случае люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не основанию на мнениях, исследователи пришли к выводу, что существует два основных элемента пузыря фильтров: большая концентрация пользователей вокруг одной темы и однонаправленная звездная система. -подобная структура, которая влияет на ключевые информационные потоки.

В июне 2018 года платформа DuckDuckGo провела исследование платформы веб-браузера Google. Для этого исследования 87 взрослых в разных местах континентальной части Соединенных Штатов одновременно ввели в Google три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели уникальные для них результаты. Google включил определенные ссылки для некоторых участников, которые не были включены для других участников, а информационные окна «Новости» и «Видео» показали значительные различия. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) по большей части является мифом. Представитель Google по поиску Дэнни Салливан заявил: «За прошедшие годы сложился миф о том, что поиск Google настолько персонализируется, что по одному и тому же запросу разные люди могут получить существенно отличающиеся друг от друга результаты. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам». [67]

Когда пузырьки-фильтры находятся на месте, они могут создавать особые моменты, которые ученые называют моментами «Вау». Момент «Ого» — это когда на вашем компьютере появляется статья, реклама, публикация и т. д., связанная с текущим действием или текущим использованием объекта. Ученые открыли этот термин после того, как молодая женщина выполняла свой распорядок дня, включающий употребление кофе, когда она открыла компьютер и заметила рекламу той же марки кофе, которую она пила. «Сегодня утром, пока я пил кофе, сел и открыл Facebook, и там было две рекламы Nespresso . Что-то вроде «ого» момента, когда продукт, который вы пьете, всплывает на экране перед вами». [68] «Ого» моменты случаются, когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при кликах», чтобы увеличить их доход от продаж.

Несколько проектировщиков разработали инструменты для противодействия эффектам пузырьков фильтров (см. § Меры противодействия ). [69] Швейцарская радиостанция SRF признала слово filterblase (немецкий перевод слова «пузырь фильтра») словом 2016 года. [70]

Контрмеры

[ редактировать ]

Частными лицами

[ редактировать ]

В «Пузыре фильтров: что от вас скрывает Интернет » [71] Интернет-активист Эли Паризер подчеркивает, что растущее появление «пузырей фильтров» еще больше подчеркивает ценность связующего социального капитала , как это определил Роберт Путман. Паризер утверждает, что пузыри фильтров усиливают чувство социальной однородности, что ослабляет связи между людьми с потенциально расходящимися интересами и точками зрения. [72] В этом смысле высокий промежуточный капитал может способствовать социальной интеграции, увеличивая наше воздействие на пространство, выходящее за рамки личных интересов. Наращивание связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшить явление «пузыря фильтров».

Пользователи могут предпринять множество действий, чтобы прорваться через пузырьки фильтров, например, приложив сознательные усилия, чтобы оценить, какой информации они подвергаются, и критически подумав о том, взаимодействуют ли они с широким спектром контента. [73] Пользователи могут сознательно избегать непроверяемых или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование проверки фактов для выявления фейковых новостей. сайтов [74] Технологии также могут сыграть ценную роль в борьбе с пузырьками на фильтрах. [75]

Некоторые плагины браузера призваны помочь людям выйти за рамки фильтров и рассказать им о своей личной точке зрения; таким образом, эти СМИ показывают контент, который противоречит их убеждениям и мнениям. Помимо плагинов, существуют приложения, созданные с целью побудить пользователей открыть свои эхо-камеры. Новостные приложения, такие как Read Across the Aisle, подталкивают пользователей читать разные точки зрения, если их стиль чтения смещен в сторону одной стороны/идеологии. [76] Хотя приложения и плагины — это инструменты, которые люди могут использовать, Эли Паризер заявил, что «конечно, здесь есть определенная индивидуальная ответственность за поиск новых источников и людей, которые не похожи на вас». [52]

Поскольку веб-реклама может усилить эффект пузырьков фильтров, предоставляя пользователям больше одного и того же контента, пользователи могут заблокировать большую часть рекламы, удалив свою историю поиска, отключив таргетированную рекламу и загрузив расширения для браузера. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы помешать компаниям собирать свои данные веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для создания новостей, которое использует машинное обучение, чтобы угадать, какой контент интересует пользователя, «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешать истории, за которыми пользователь вряд ли следил в прошлом. [77]

Европейский Союз принимает меры, чтобы уменьшить эффект «пузыря фильтров». Европейский парламент спонсирует исследования того, как пузыри фильтров влияют на возможность людей получать доступ к разнообразным новостям. [78] Кроме того, он представил программу, направленную на информирование граждан о социальных сетях. [79] В США комиссия CSCW предлагает использовать приложения-агрегаторы новостей для расширения потребления новостей потребителями средств массовой информации. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения на определенную тему. Пользователи также могут использовать многофункциональный балансировщик новостей, который визуально показывает потребителю медиа, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая правый наклон с помощью более крупной красной полосы или левый наклон с помощью более крупной синей полосы. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении при чтении в сторону более сбалансированного воздействия среди пользователей, видящих обратную связь, по сравнению с контрольной группой». [80]

По материалам медиа-компаний

[ редактировать ]

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их устранению. [81] В январе 2017 года Facebook удалил персонализацию из своего списка «Трендовые темы» в ответ на проблемы, связанные с тем, что некоторые пользователи не видят там широко обсуждаемые события. [82] Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», реализованную в 2013 году, которая будет публиковать соответствующие новости после того, как пользователь прочитает общую статью. Теперь обновленная стратегия перевернет этот процесс и будет публиковать статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут показываться только статьи из авторитетных источников. Вместе с основателем Craigslist и некоторыми другими Facebook инвестировал 14 миллионов долларов в усилия «повысить доверие к журналистике во всем мире и лучше информировать общественность». [81] Идея состоит в том, что даже если люди читают только посты, которыми поделились их друзья, по крайней мере, эти посты будут заслуживать доверия.

Аналогичным образом, Google по состоянию на 30 января 2018 года также признал существование проблем с «пузырем фильтров» на своей платформе. Поскольку текущие поисковые запросы Google извлекают результаты, ранжированные алгоритмически на основе «авторитетности» и «релевантности», которые показывают или скрывают определенные результаты поиска, Google пытается бороться с этим. Обучая свою поисковую систему распознавать цель поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырьков фильтров. На данный момент начальный этап этого обучения будет введен во втором квартале 2018 года. Вопросы, связанные с предвзятостью и/или противоречивыми мнениями, не будут рассматриваться до более позднего времени, что порождает более серьезную проблему, которая все еще существует: является ли поисковая система действует либо как арбитр истины, либо как знающий наставник, с помощью которого можно принимать решения. [83]

В апреле 2017 года появились новости о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов на . «Инициативу целостности новостей» CUNY, направленную на устранение фейковых новостей и создание более честных новостных СМИ [84]

Позже, в августе, Mozilla, создатели веб-браузера Firefox , объявили о создании Mozilla Information Trust Initiative (MITI). +MITI будет служить коллективным усилием по разработке продуктов, исследований и общественных решений для борьбы с эффектами «пузырей фильтров» и распространением фейковых новостей. Команда открытых инноваций Mozilla возглавляет эту инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту с точки зрения грамотности, исследований и творческих вмешательств. [85]

Этические последствия

[ редактировать ]

Ожидается, что по мере роста популярности облачных сервисов персонализированные алгоритмы, используемые для создания пузырьков фильтров, станут более распространенными. [86] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в отношении личной свободы , безопасности и предвзятости информации . [87] Пузыри фильтров в популярных социальных сетях и на сайтах персонализированного поиска могут определять конкретный контент, который видят пользователи, часто без их прямого согласия или ведома. [86] из-за алгоритмов, используемых для курирования этого контента. Самосозданный контент, проявляющийся в моделях поведения, может привести к частичной информационной слепоте. [88] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию в отношении своего опыта в социальных сетях и создать свою идентичность в обществе в результате повсеместного распространения пузырей фильтров. [86]

Технологи, инженеры социальных сетей и компьютерные специалисты также изучили распространенность «пузырей фильтров». [89] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор книги «Пузырь фильтров» , выразили обеспокоенность по поводу рисков конфиденциальности и поляризации информации. [90] [91] Информация пользователей персонализированных поисковых систем и социальных сетей не является конфиденциальной, хотя некоторые считают, что так и должно быть. [90] Обеспокоенность по поводу конфиденциальности привела к спорам о том, морально ли со стороны информационных технологов отслеживать онлайн-активность пользователей и манипулировать будущим доступом к соответствующей информации. [91]

Некоторые ученые выразили обеспокоенность по поводу воздействия «пузырей фильтров» на индивидуальное и социальное благополучие, т.е. распространение медицинской информации среди широкой публики и потенциальное влияние поисковых систем Интернета на изменение поведения, связанного со здоровьем. [16] [17] [18] [92] В междисциплинарной книге 2019 года сообщалось об исследованиях и взглядах на роль пузырей фильтров в дезинформации о здоровье. [18] Опираясь на различные области, такие как журналистика, право, медицина и психология здоровья, в книге рассматриваются различные противоречивые представления о здоровье (например, альтернативная медицина и лженаука), а также потенциальные средства борьбы с негативным воздействием пузырей фильтров и эхо-камер на различные темы здравоохранения. дискурс. Исследование 2016 года о потенциальном влиянии пузырьков фильтров на результаты поисковых систем, связанные с самоубийствами, показало, что алгоритмы играют важную роль в том, отображаются ли пользователям линии помощи и аналогичные результаты поиска, и обсуждалось влияние их исследований на политику здравоохранения. [17] В другом исследовании 2016 года, опубликованном в хорватском медицинском журнале, были предложены некоторые стратегии по смягчению потенциально вредного воздействия пузырьков фильтров на информацию о здоровье, например: больше информировать общественность о пузырьках фильтров и связанных с ними эффектах, пользователи, решающие попробовать альтернативные [Google] поисковые системы. и дополнительные объяснения процессов, которые поисковые системы используют для определения отображаемых результатов. [16]

Поскольку на контент, который видят отдельные пользователи социальных сетей, влияют алгоритмы, создающие пузырьки фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения . [93] и могут подвергнуться воздействию предвзятой, вводящей в заблуждение информации. [94] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [95]

В свете президентских выборов в США в 2016 году ученые также выразили обеспокоенность по поводу влияния «пузырей фильтров» на демократию и демократические процессы, а также роста «идеологических СМИ». [11] Эти ученые опасаются, что пользователи не смогут «[думать] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [96] По этой причине все чаще обсуждается возможность создания социальных сетей с большей случайностью, то есть активно рекомендовать контент, который находится за пределами сферы фильтров, включая критическую политическую информацию, и, в конечном итоге, предоставлять пользователям фильтры и инструменты, расширяющие возможности пользователей. [97] [98] [99] Связанная с этим проблема на самом деле заключается в том, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, в том числе на то, как голосуют пользователи. [11] [100] [101]

Разоблачения в марте 2018 года сбора и использования Cambridge Analytica пользовательских данных по меньшей мере 87 миллионов профилей Facebook во время президентских выборов 2016 года подчеркивают этические последствия пузырей фильтров. [102] Соучредитель и осведомитель Cambridge Analytica Кристофер Уайли подробно рассказал, как у компании была возможность разрабатывать «психографические» профили этих пользователей и использовать эту информацию для формирования их избирательного поведения. [103] Доступ к пользовательским данным третьих сторон, таких как Cambridge Analytica, может раздражать и усиливать существующие пузыри фильтров, созданные пользователями, искусственно усиливая существующие предубеждения и еще больше разделяя общество.

Опасности

[ редактировать ]

Пузыри фильтров возникли из-за всплеска персонализации СМИ, что может заманить пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователи будут просматривать только тот контент, который подкрепляет их собственные точки зрения, не бросая им вызов. Веб-сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, что пользователям сложно определить источник контента, что заставляет их самостоятельно решать, является ли источник надежным или поддельным. [104] Это может привести к тому, что люди привыкнут слышать то, что они хотят услышать, что может привести к более радикальной реакции, когда они увидят противоположную точку зрения. Пузырь фильтров может привести к тому, что человек будет воспринимать любые противоположные точки зрения как неправильные и, таким образом, может позволить средствам массовой информации навязывать свои взгляды потребителям. [105] [104] [106]

Исследования объясняют, что пузырь фильтров усиливает то, о чем человек уже думает. [107] Вот почему чрезвычайно важно использовать ресурсы, предлагающие различные точки зрения. [107]

См. также

[ редактировать ]

Примечания

[ редактировать ]
  1. ^ Термин «кибербалканизация» (иногда с дефисом) представляет собой гибрид слов «кибер» , относящийся к Интернету, и «балканизации» , относящийся к тому региону Европы, который исторически был разделен по языкам, религиям и культурам; этот термин был придуман в статье исследователей Массачусетского технологического института Ван Олстайна и Бриньольфссона.
  1. ^ Технопедия, Определение - Что означает фильтр-пузырь? Архивировано 10 октября 2017 г. на Wayback Machine , получено 10 октября 2017 г.: «...Пузырь фильтров — это интеллектуальная изоляция, которая может возникнуть, когда веб-сайты используют алгоритмы, выборочно предполагающие информацию, которую пользователь хотел бы видеть. , а затем предоставить информацию пользователю в соответствии с этим предположением... Таким образом, пузырь фильтров может привести к тому, что пользователи будут получать значительно меньше контактов с противоречивыми точками зрения, в результате чего пользователь станет интеллектуально изолированным..."
  2. ^ Боздаг, Энгин (сентябрь 2013 г.). «Предвзятость в алгоритмической фильтрации и персонализации». Этика и информационные технологии . 15 (3): 209–227. дои : 10.1007/s10676-013-9321-6 . S2CID   14970635 .
  3. ^ Huffington Post, The Huffington Post «Пузыри фильтров сужают наш разум?» Архивировано 3 ноября 2016 г. в Wayback Machine.
  4. ^ Шифрование, поиск (26 февраля 2019 г.). «Что такое пузырьки фильтров и как их избежать» . Поиск по блогу шифрования . Архивировано из оригинала 25 февраля 2019 года . Проверено 19 марта 2019 г.
  5. ^ Кухни, Брент; Джонсон, Стив Л.; Грей, Питер (1 декабря 2020 г.). «Понимание эхо-камер и пузырей фильтров: влияние социальных сетей на диверсификацию и партийные сдвиги в потреблении новостей» . МИС Ежеквартально . 44 (4): 1619–1649. дои : 10.25300/MISQ/2020/16371 . S2CID   229294134 .
  6. ^ Перейти обратно: а б с д и Бутин, Пол (20 мая 2011 г.). «Ваши результаты могут отличаться: превратится ли информационная супермагистраль в тупик из-за автоматических фильтров?» . Уолл Стрит Джорнал . Архивировано из оригинала 5 апреля 2015 года . Проверено 15 августа 2011 г. Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google смог персонализировать результаты даже для пользователей, которые не создают личную учетную запись Google или не вошли в нее. ...
  7. ^ Чжан, Юань Цао; Сеагдха, Диармуид О; Керсия, Даниэле; Джамбор, Тамас (2012). «Австралист: Привнесение случайности в музыкальные рекомендации». Материалы пятой международной конференции ACM по веб-поиску и интеллектуальному анализу данных . стр. 13–22. дои : 10.1145/2124295.2124300 . ISBN  9781450307475 . S2CID   2956587 .
  8. ^ Перейти обратно: а б с Паррамор, Линн (10 октября 2010 г.). «Пузырь фильтров» . Атлантика . Архивировано из оригинала 22 августа 2017 года . Проверено 20 апреля 2011 г. С 4 декабря 2009 г. Google стал персонализированным для всех. Итак, когда этой весной у меня было два друга, которые загуглили «BP», один из них получил набор ссылок, посвященных инвестиционным возможностям BP. Другой получил информацию о разливе нефти....
  9. ^ Перейти обратно: а б с д и ж г час Вайсберг, Джейкоб (10 июня 2011 г.). «Проблема с пузырем: персонализация в Интернете превращает нас в солипсических идиотов?» . Сланец . Архивировано из оригинала 12 июня 2011 года . Проверено 15 августа 2011 г.
  10. ^ Перейти обратно: а б с Гросс, Дуг (19 мая 2011 г.). «Что от вас скрывает Интернет» . CNN . Архивировано из оригинала 9 апреля 2016 года . Проверено 15 августа 2011 г. Когда произошел разлив нефти, у меня были друзья в Google BP. Это две женщины, которые во многом были очень похожи. Получено множество результатов об экологических последствиях произошедшего и разлива. Другой только что получил инвестиционную информацию и вообще ничего о разливе.
  11. ^ Перейти обратно: а б с Баер, Дрейк. «Пузырь фильтров объясняет, почему Трамп победил, а вы этого не предвидели» . Наука о нас . Архивировано из оригинала 19 апреля 2017 года . Проверено 19 апреля 2017 г.
  12. ^ Перейти обратно: а б ДиФранцо, Доминик; Глория-Гарсия, Кристина (5 апреля 2017 г.). «Фильтрация пузырей и фейковых новостей». Рентгенографический анализ . 23 (3): 32–35. дои : 10.1145/3055153 . S2CID   7069187 .
  13. ^ Перейти обратно: а б Джаспер Джексон (8 января 2017 г.). «Эли Паризер: активист, чьи предупреждения о пузыре фильтров предвещали Трампа и Брексит: руководитель Upworthy предупредил об опасностях эхо-камер Интернета за пять лет до выборов 2016 года» . Хранитель . Архивировано из оригинала 7 марта 2017 года . Проверено 3 марта 2017 г. ... «Если вы видите сообщения только от таких же людей, как вы, вы будете удивлены, когда кто-то, очень непохожий на вас, выиграет президентство», - сказал Паризер The Guardian....
  14. ^ Мостафа М. Эль-Бермави (18 ноября 2016 г.). «Ваш пузырь фильтров разрушает демократию» . Проводной . Архивировано из оригинала 9 марта 2017 года . Проверено 3 марта 2017 г. ...Глобальная деревня, которая когда-то была Интернетом... цифровые острова изоляции, которые с каждым днем ​​все больше отдаляются друг от друга... ваш онлайн-опыт становится все более персонализированным...
  15. ^ Дрейк Баер (9 ноября 2016 г.). «Пузырь фильтров объясняет, почему Трамп победил, а вы этого не предвидели» . Журнал Нью-Йорк . Архивировано из оригинала 26 февраля 2017 года . Проверено 3 марта 2017 г. ...Победа Трампа ошеломляет... потому что, как это понимают ученые в области СМИ, мы все больше живем в «пузыре фильтров»: информация, которую мы воспринимаем, настолько персонализирована, что мы слепы к другим точкам зрения....
  16. ^ Перейти обратно: а б с Холоне, Харальд (июнь 2016 г.). «Пузырь фильтров и его влияние на личную медицинскую информацию в Интернете» . Хорватский медицинский журнал . 57 (3): 298–301. дои : 10.3325/cmj.2016.57.298 . ПМЦ   4937233 . ПМИД   27374832 .
  17. ^ Перейти обратно: а б с Хаим, Марио; Арендт, Флориан; Шерр, Себастьян (февраль 2017 г.). «Бездна или убежище? О релевантности результатов поиска в поисковых системах, когда люди ищут в Google самоубийство». Общение о здоровье . 32 (2): 253–258. дои : 10.1080/10410236.2015.1113484 . ПМИД   27196394 . S2CID   3399012 .
  18. ^ Перейти обратно: а б с «Медицинская дезинформация и социальный вред в ненаучной практике здравоохранения: междисциплинарная перспектива» . ЦРК Пресс . Архивировано из оригинала 4 августа 2020 года . Проверено 22 апреля 2020 г.
  19. ^ Перейти обратно: а б с Лазарь, Шира (1 июня 2011 г.). «Алгоритмы и пузырь фильтров портят ваш онлайн-опыт?» . Хаффингтон Пост . Архивировано из оригинала 13 апреля 2016 года . Проверено 15 августа 2011 г. пузырь фильтра — это образная сфера, окружающая вас при поиске в Интернете.
  20. ^ Паризер, Эли (12 мая 2011 г.). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Пингвин. ISBN  9781101515129 . Архивировано из оригинала 19 января 2021 года . Проверено 11 октября 2020 г.
  21. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать» . 31 июля 2017. Архивировано из оригинала 3 июля 2019 года . Проверено 23 июня 2019 г.
  22. ^ Николов, Димитар; Оливейра, Диего FM; Фламмини, Алессандро; Менцер, Филиппо (2 декабря 2015 г.). «Измерение социальных пузырей в Интернете» . PeerJ Информатика . 1 : е38. arXiv : 1502.07162 . Бибкод : 2015arXiv150207162N . дои : 10.7717/peerj-cs.38 .
  23. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-пузырей фильтров » . Архивировано из оригинала 28 мая 2018 года . Проверено 30 мая 2018 г.
  24. ^ Паризер, Эли (март 2011 г.). «Остерегайтесь онлайн-пузырей фильтров » . TED.com . Архивировано из оригинала 22 сентября 2017 года . Проверено 24 сентября 2017 г.
  25. ^ «Первый понедельник: Что показывают в этом месяце по телевидению, в фильмах и книгах: «Пузырь фильтров» Эли Паризера» . США сегодня . 2011. Архивировано из оригинала 3 мая 2011 года . Проверено 20 апреля 2011 г. Паризер объясняет, что кормление нас только тем, что нам знакомо и удобно, закрывает нас от новых идей, предметов и важной информации.
  26. ^ Перейти обратно: а б Боскер, Бьянка (7 марта 2011 г.). «Facebook и Google предоставляют нам информацию о вредной пище, предупреждает Эли Паризер» . Хаффингтон Пост . Архивировано из оригинала 13 марта 2011 года . Проверено 20 апреля 2011 г. Когда дело доходит до контента, Google и Facebook предлагают нам слишком много сладостей и недостаточно морковки.
  27. ^ «Невидимое сито: Скрыто, специально для тебя» . Экономист . 30 июня 2011. Архивировано из оригинала 3 июля 2011 года . Проверено 27 июня 2011 г. Книга г-на Паризера представляет собой обзор эволюции Интернета в сторону персонализации, исследует, как представление информации меняет способ ее восприятия, и завершается рецептами, как лопнуть пузырь фильтров, окружающий каждого пользователя.
  28. ^ Перейти обратно: а б Херн (22 мая 2017 г.). «Как социальные сети фильтруют пузыри и алгоритмы влияют на выборы» . Хранитель . Архивировано из оригинала 31 мая 2018 года . Проверено 30 мая 2018 г.
  29. ^ Ван Олстайн, Маршалл; Бриньольфссон, Эрик (март 1997 г.) [Авторское право 1996 г.]. «Электронные сообщества: глобальная деревня или кибербалканы?» (PDF) . Архивировано (PDF) из оригинала 5 апреля 2016 г. Проверено 24 сентября 2017 г.
  30. ^ Ван Олстайн, Маршалл; Бриньольфссон, Эрик (ноябрь 1996 г.). «Может ли Интернет балканизировать науку?». Наука . 274 (5292): 1479–1480. Бибкод : 1996Sci...274.1479V . дои : 10.1126/science.274.5292.1479 . S2CID   62546078 .
  31. ^ Алекс Фам; Джон Хили (24 сентября 2005 г.). «Системы надеются сказать вам то, что вы хотите: «Системы предпочтений» помогают пользователям ориентироваться в потоке контента» . Чикаго Трибьюн . Архивировано из оригинала 8 декабря 2015 года . Проверено 4 декабря 2015 г. ... если бы рекомендатели были идеальными, я мог бы иметь возможность общаться только с такими же людьми, как я ... Кибербалканизация, как сформулировал сценарий Бриньольфссон, не является неизбежным эффектом рекомендательных инструментов.
  32. ^ Перейти обратно: а б Менкедик, Сара (14 мая 2020 г.). «Почему к американским детям относятся как к другому виду, чем к взрослым?» . Эон . Архивировано из оригинала 15 мая 2020 года . Проверено 15 мая 2020 г.
  33. ^ Обама, Барак (10 января 2017 г.). Прощальное обращение президента Обамы (Речь). Вашингтон, округ Колумбия. Архивировано из оригинала 24 января 2017 года . Проверено 24 января 2017 г.
  34. ^ Хосанагар, Картик (25 ноября 2016 г.). «Вините эхо-камеру на Facebook. Но вините и себя» . Проводной . Архивировано из оригинала 25 сентября 2017 года . Проверено 24 сентября 2017 г.
  35. ^ ДиФонзо, Николас (21 апреля 2011 г.). «Эффект эхо-камеры» . Нью-Йорк Таймс . Архивировано из оригинала 13 июня 2017 года . Проверено 24 сентября 2017 г.
  36. ^ СДФ (23 июня 2004 г.). «Джон Горенфельд, Мун-Мессия и эхо-камера СМИ» . Ежедневный Кос . Архивировано из оригинала 2 мая 2016 года . Проверено 24 сентября 2017 г.
  37. ^ Джеймисон, Кэтлин Холл ; Капелла, Джозеф Н. (22 июля 2008 г.). Эхо-камера: Раш Лимбо и консервативный медиа-истеблишмент . Издательство Оксфордского университета . ISBN  978-0-19-536682-2 . Проверено 24 сентября 2017 г.
  38. ^ Перейти обратно: а б «Что такое пузырьковые фильтры и цифровые эхо-камеры? | Фонд Генриха Бёлля | Тель-Авив, Израиль» . Фонд Генриха Бёлля . Проверено 8 марта 2023 г.
  39. ^ Чинелли, Маттео; Де Франсиски Моралес, Джанмарко; Галеацци, Алессандро; Кваттрочокки, Уолтер; Старнини, Микеле (2 марта 2021 г.). «Влияние эхо-камеры на социальные сети» . Труды Национальной академии наук . 118 (9): e2023301118. Бибкод : 2021PNAS..11823301C . дои : 10.1073/pnas.2023301118 . ISSN   0027-8424 . ПМЦ   7936330 . ПМИД   33622786 .
  40. ^ Эланор Коллеони; Алессандро Роцца; Адам Арвидссон (апрель 2014 г.). «Эхо-камера или публичная сфера? Прогнозирование политической ориентации и измерение политической гомофилии в Твиттере с использованием больших данных». Журнал связи . 64 (2): 317–332. дои : 10.1111/jcom.12084 . hdl : 10281/66011 .
  41. ^ Экстрем, Аксель Г.; Нихорстер, Дидерик К.; Олссон, Эрик Дж. (1 августа 2022 г.). «Пузыри самонавязанных фильтров: избирательное внимание и воздействие при онлайн-поиске» . Компьютеры в отчетах о поведении человека . 7 : 100226. doi : 10.1016/j.chbr.2022.100226 . ISSN   2451-9588 . S2CID   251434172 .
  42. ^ Ревильо, Урбано; Агости, Клаудио (апрель 2020 г.). «Мышление вне черного ящика: аргументы в пользу «алгоритмического суверенитета» в социальных сетях» . Социальные сети + Общество . 6 (2): 205630512091561. doi : 10.1177/2056305120915613 . hdl : 2434/840214 . ISSN   2056-3051 . S2CID   219019544 .
  43. ^ «План Twitter по прекращению свободного доступа к данным вызывает «изрядную панику» среди ученых» . www.science.org . Проверено 8 марта 2023 г.
  44. ^ Гранквист, Пер (8 февраля 2018 г.). Большой пузырь: как технологии затрудняют понимание мира . Издательство United Stories. п. 179. ИСБН  978-91-639-5990-5 .
  45. ^ Перейти обратно: а б Хосанагар, Картик; Фледер, Дэниел; Ли, Докюн; Буя, Андреас (декабрь 2013 г.). «Расколется ли глобальная деревня на племена: рекомендательные системы и их влияние на потребителей». Наука управления, предстоящий . ССНР   1321962 .
  46. ^ Людвиг, Эмбер. «Персонализация Google в результатах поиска плюс как ее отключить» . НГНГ. Архивировано из оригинала 17 августа 2011 года . Проверено 15 августа 2011 г. Настройка результатов поиска Google — это автоматическая функция, но вы можете отключить эту функцию.
  47. ^ Брунс, Аксель (29 ноября 2019 г.). «Фильтр-пузырь» . Обзор интернет-политики . 8 (4). дои : 10.14763/2019.4.1426 . hdl : 10419/214088 .
  48. ^ Дэвис, Хью С. (сентябрь 2018 г.). «Переопределение пузырей фильтров как (устранимой) социотехнической рекурсии» . Социологические исследования онлайн . 23 (3): 637–654. дои : 10.1177/1360780418763824 . S2CID   149367030 . Архивировано из оригинала 19 января 2021 года . Проверено 29 августа 2020 г.
  49. ^ Дальгрен, Питер М. (29 января 2021 г.). «Критический обзор пузырьков фильтров и сравнение с выборочным воздействием» . Нордиком Обзор . 42 (1): 15–33. дои : 10.2478/нор-2021-0002 .
  50. ^ Флаксман, Сет; Гоэль, Шарад; Рао, Джастин М. (2016). «Пузыри фильтров, эхо-камеры и потребление онлайн-новостей». Общественное мнение ежеквартально . 80 (С1): 298–320. дои : 10.1093/poq/nfw006 . S2CID   2386849 .
  51. ^ Читра, Утсав; Муско, Кристофер (2020). «Анализ влияния пузырей фильтров на поляризацию социальных сетей». WSDM '20: Материалы 13-й Международной конференции по веб-поиску и интеллектуальному анализу данных . стр. 115–123. дои : 10.1145/3336191.3371825 .
  52. ^ Перейти обратно: а б «5 вопросов Эли Парайзеру, автору книги «Пузырь фильтров» » . Время . 16 мая 2011 года. Архивировано из оригинала 14 апреля 2017 года . Проверено 24 мая 2017 г.
  53. ^ Перейти обратно: а б с д и Блейберг, Джошуа; Уэст, Даррелл М. (24 мая 2017 г.). «Политическая поляризация в Facebook» . Брукингский институт . Архивировано из оригинала 10 октября 2017 года . Проверено 24 мая 2017 г.
  54. ^ Бакши, Э.; Мессинг, С.; Адамик, Луизиана (5 июня 2015 г.). «Ознакомление с идеологически разнообразными новостями и мнениями в Facebook» . Наука . 348 (6239): 1130–1132. Бибкод : 2015Sci...348.1130B . дои : 10.1126/science.aaa1160 . ПМИД   25953820 . S2CID   206632821 .
  55. ^ Ламб (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook» . Архивировано из оригинала 11 ноября 2017 года . Проверено 10 ноября 2017 г.
  56. ^ Оремус, Уилл (5 апреля 2017 г.). «Возвращение к пузырю фильтров» . Журнал «Сланец» . Архивировано из оригинала 6 февраля 2020 года . Проверено 2 марта 2020 г.
  57. ^ Перейти обратно: а б Зиндерманн, Корнелия; Эльхай, Джон Д.; Мошаген, Мортен; Монтэг, Кристиан (январь 2020 г.). «Возраст, пол, личность, идеологические установки и индивидуальные различия в новостном спектре человека: сколько и кто могут быть склонны к «пузырям фильтров» и «эхо-камерам» в Интернете?» . Гелион . 6 (1): e03214. Бибкод : 2020Heliy...603214S . дои : 10.1016/j.heliyon.2020.e03214 . ПМЦ   7002846 . ПМИД   32051860 .
  58. ^ Перейти обратно: а б Паризер, Эли (7 мая 2015 г.). «Забавные факты из нового исследования пузыря фильтров Facebook» . Середина . Архивировано из оригинала 11 ноября 2017 года . Проверено 24 октября 2017 г.
  59. ^ Ламб, Дэвид (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook» . Компания Фаст . Архивировано из оригинала 23 октября 2017 года . Проверено 24 октября 2017 г.
  60. ^ Паризер, Эли (7 мая 2015 г.). «Большое исследование Facebook убило мой тезис о пузыре фильтров?» . Проводной . Архивировано из оригинала 11 ноября 2017 года . Проверено 24 октября 2017 г.
  61. ^ «Вопреки тому, что вы слышали, Facebook может помочь проколоть наши политические «пузыри» » . Вокс . Архивировано из оригинала 13 июня 2018 года . Проверено 30 мая 2018 г.
  62. ^ Бакши, Э.; Мессинг, С.; Адамик, Луизиана (2015). «Ознакомление с идеологически разнообразными новостями и мнениями в Facebook» . Наука . 348 (6239): 1130–1132. Бибкод : 2015Sci...348.1130B . дои : 10.1126/science.aaa1160 . ПМИД   25953820 . S2CID   206632821 .
  63. ^ Барбера, Пабло (август 2015 г.). «Как социальные сети уменьшают массовую политическую поляризацию. Данные из Германии, Испании и США» CiteSeerX   10.1.1.658.5476 .
  64. ^ Хилберт М., Ахмед С., Чо Дж., Лю Б. и Луу Дж. (2018). Общение с алгоритмами: анализ энтропии переноса основанных на эмоциях побегов из онлайн-эхо-камер. Методы и меры коммуникации, 12 (4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Архивировано 19 января 2021 г. в Wayback Machine ; https://www.martinhilbert.net/communicating-with-algorithms/. Архивировано 9 мая 2019 г. в Wayback Machine.
  65. ^ Перейти обратно: а б Бейл, Кристофер; Аргайл, Лиза; Браун, Тейлор; Чен, Хаохан; Хунзакер, MBF; Ли, Джемин (2018). «Воздействие противоположных взглядов в социальных сетях может усилить политическую поляризацию» (PDF) . Труды Национальной академии наук . 115 (37): 9216–9221. Бибкод : 2018PNAS..115.9216B . дои : 10.1073/pnas.1804840115 . ПМК   6140520 . ПМИД   30154168 . Архивировано (PDF) из оригинала 10 апреля 2020 г. Проверено 22 апреля 2020 г.
  66. ^ Перейти обратно: а б Мин, Ён; Цзян, Тинцзюнь; Джин, Ченг; Ли, Цюй; Цзинь, Сяоган (2019). «Эндогенная структура пузыря фильтров в социальных сетях» . Королевское общество открытой науки . 6 (11): 190868. arXiv : 1907.02703 . Бибкод : 2019RSOS....690868M . дои : 10.1098/rsos.190868 . ПМЦ   6894573 . ПМИД   31827834 .
  67. ^ Статт, Ник (4 декабря 2018 г.). «Google персонализирует результаты поиска, даже если вы вышли из системы, утверждает новое исследование» . Грань . Архивировано из оригинала 31 июля 2020 года . Проверено 22 апреля 2020 г.
  68. ^ Бухер, Тайна (25 февраля 2016 г.). «Алгоритмическое воображаемое: исследование обычных эффектов алгоритмов Facebook». Информация, коммуникация и общество . 20 – через Тейлор и Фрэнсис Онлайн.
  69. ^ «Как нам разрушить пузырь фильтров и создать демократию?» . 3 марта 2017 года. Архивировано из оригинала 3 марта 2017 года . Проверено 3 марта 2017 г.
  70. ^ « Filterblase» — это Wort des Jahres 2016» . 7 декабря 2016. Архивировано из оригинала 20 декабря 2016 года . Проверено 27 декабря 2016 г.
  71. ^ Эли Паризер (май 2011 г.). Пузырь фильтров: что от вас скрывает Интернет . Нью-Йорк: Пингвин Пресс. п. 17 . ISBN  978-1-59420-300-8 .
  72. ^ Стивен Бэрон; Джон Филд; Том Шуллер (30 ноября 2000 г.). «Социальный капитал: обзор и критика». Социальный капитал: критические перспективы . Издательство Оксфордского университета. ISBN  9780199243679 .
  73. ^ «Мы застряли в пузырях фильтров? Вот пять потенциальных путей выхода» . Ниман Лаборатория . Архивировано из оригинала 4 марта 2017 года . Проверено 3 марта 2017 г.
  74. ^ Глушко, Крис (8 февраля 2017 г.). «Лопните пузыри фильтров персонализации и сохраните онлайн-разнообразие» . Маркетинговая земля . Архивировано из оригинала 15 марта 2017 года . Проверено 22 мая 2017 г.
  75. ^ Ритхольц, Барри (2 февраля 2017 г.). «Попробуйте разрушить пузырь медиафильтров» . Блумберг . Архивировано из оригинала 21 августа 2017 года . Проверено 22 мая 2017 г.
  76. ^ «Новостное приложение призвано лопнуть пузыри фильтров, подталкивая читателей к более «сбалансированной» медиа-диете» . Ниман Лаборатория . Архивировано из оригинала 15 мая 2017 года . Проверено 24 мая 2017 г.
  77. ^ Мэдалина Чобану (3 марта 2017 г.). «NZZ разрабатывает приложение, которое предоставляет читателям персонализированные новости без создания пузыря фильтров: приложение использует машинное обучение, чтобы предоставить читателям поток из 25 историй, которые могут быть им интересны, исходя из их предпочтений, но «всегда включая элемент неожиданности» » . Журналистика.co.uk. Архивировано из оригинала 3 марта 2017 года . Проверено 3 марта 2017 г. ... если, исходя из истории потребления, кто-то не проявил интереса к спорту, его лента будет включать новости о больших и важных историях, связанных со спортом,...
  78. ^ Каталина Албеану (17 ноября 2016 г.). «Разрыв пузыря фильтров после выборов в США: СМИ обречены на провал? На мероприятии в Брюсселе на этой неделе СМИ и политики обсуждали эхо-камеры в социальных сетях и борьбу с фейковыми новостями» . Журналистика.co.uk. Архивировано из оригинала 10 марта 2017 года . Проверено 3 марта 2017 г. ... Референдум ЕС в Великобритании на панели на мероприятии «Политики в коммуникационном шторме»... Помимо пузыря фильтров, партийные страницы Facebook также подали диету, насыщенную фейковыми новостями....
  79. ^ «Европейская комиссия» . Архивировано из оригинала 4 марта 2017 года . Проверено 3 марта 2017 г.
  80. ^ Резник, Пол; Гарретт, Р. Келли; Криплеан, Трэвис; Мансон, Шон А.; Страуд, Натали Джомини (2013). «Разрыв вашего (фильтрационного) пузыря». Материалы конференции 2013 года по компьютерной поддержке совместной работы - CSCW '13 . п. 95. дои : 10.1145/2441955.2441981 . ISBN  978-1-4503-1332-2 . S2CID   20865375 .
  81. ^ Перейти обратно: а б Ваниан, Джонатан (25 апреля 2017 г.). «Facebook тестирует статьи по теме для борьбы с пузырьками фильтров» . Фортуна.com . Архивировано из оригинала 25 сентября 2017 года . Проверено 24 сентября 2017 г.
  82. ^ Сиделл, Лаура (25 января 2017 г.). «Facebook меняет алгоритм «Актуальные темы», чтобы лучше отражать реальные новости» . Общественные СМИ KQED. ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР. Архивировано из оригинала 26 февраля 2018 года . Проверено 5 апреля 2018 г.
  83. ^ Хао, Карен. «Google наконец-то признал, что у него есть проблема с пузырьками фильтров» . Кварц . Архивировано из оригинала 4 мая 2018 года . Проверено 30 мая 2018 г.
  84. ^ «Facebook, Mozilla и Craigslist Крейг финансируют пожарного фейковых новостей» . Архивировано из оригинала 23 ноября 2018 года . Проверено 14 января 2019 г.
  85. ^ «Инициатива Mozilla Information Trust: создание движения по борьбе с дезинформацией в Интернете» . Блог Mozilla . Архивировано из оригинала 14 января 2019 года . Проверено 14 января 2019 г.
  86. ^ Перейти обратно: а б с Боздаг, Энгин; Тиммерман, Иов. «Ценности в пузыре фильтров. Этика алгоритмов персонализации в облачных вычислениях» . Исследовательские ворота . Архивировано из оригинала 14 декабря 2020 года . Проверено 6 марта 2017 г.
  87. ^ Аль-Родхан, Наиф. «Множество этических последствий новых технологий» . Научный американец . Архивировано из оригинала 8 апреля 2017 года . Проверено 6 марта 2017 г.
  88. ^ Хаим, Марио; Грефе, Андреас; Брозиус, Ханс-Бернд (16 марта 2018 г.). «Взрыв пузыря фильтров?» . Цифровая журналистика . 6 (3): 330–343. дои : 10.1080/21670811.2017.1338145 . S2CID   168906316 .
  89. ^ «Пузырь фильтров поднимает важные проблемы – вам просто нужно отфильтровать их самостоятельно» . Сеть действий в отношении тропических лесов . Архивировано из оригинала 8 апреля 2017 года . Проверено 6 марта 2017 г.
  90. ^ Перейти обратно: а б Стерлинг, Грег (20 февраля 2017 г.). «Манифест Марка Цукерберга: как Facebook объединит мир, победит фейковые новости и лопнет пузырь фильтров» . Маркетинговая земля . Архивировано из оригинала 8 марта 2017 года . Проверено 6 марта 2017 г.
  91. ^ Перейти обратно: а б Морозов, Евгений (10 июня 2011 г.). «Ваши собственные факты» . Нью-Йорк Таймс . Архивировано из оригинала 4 марта 2017 года . Проверено 6 марта 2017 г.
  92. ^ Гессен, Брэдфорд В.; Нельсон, Дэвид Э.; Крепс, Гэри Л.; Кройл, Роберт Т.; Арора, Нирадж К.; Раймер, Барбара К.; Вишванатх, Касисомаяджула (12 декабря 2005 г.). «Доверие и источники медицинской информации: влияние Интернета и его последствия для поставщиков медицинских услуг: результаты первого национального исследования тенденций в области медицинской информации». Архив внутренней медицины . 165 (22): 2618–24. дои : 10.1001/archinte.165.22.2618 . ПМИД   16344419 .
  93. ^ Эль-Бермави, Мостафа (18 ноября 2016 г.). «Ваш пузырь фильтров разрушает демократию» . Проводной . Архивировано из оригинала 9 марта 2017 года . Проверено 6 марта 2017 г.
  94. ^ «Как лопнуть «пузырь фильтров», защищающий нас от противоположных взглядов» . Обзор технологий Массачусетского технологического института . Архивировано из оригинала 19 января 2021 года . Проверено 6 марта 2017 г.
  95. ^ Боргезиус, Фредерик; Триллинг, Дамиан; Мёллер, Юдит; Бодо, Балаж; де Врез, Клаас; Хельбергер, Натали (31 марта 2016 г.). «Должны ли мы беспокоиться о пузырьках в фильтре?» . Обзор интернет-политики . Архивировано из оригинала 20 марта 2017 года . Проверено 6 марта 2017 г.
  96. ^ Паризер, Эли (2011). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Нью-Йорк: Пингвин Пресс. ISBN  978-1-59420-300-8 .
  97. ^ «Во славу счастливой случайности» . Экономист . 9 марта 2017 года. Архивировано из оригинала 15 января 2019 года . Проверено 14 января 2019 г.
  98. ^ Ревильо, Урбано (июнь 2019 г.). «Интуиция как новый принцип проектирования инфосферы: проблемы и возможности». Этика и информационные технологии . 21 (2): 151–166. дои : 10.1007/s10676-018-9496-y . S2CID   57426650 .
  99. ^ Харамбам, Джарон; Хельбергер, Натали; ван Хобокен, Йорис (28 ноября 2018 г.). «Демократизация алгоритмических рекомендаций новостей: как материализовать голос в технологически насыщенной медиа-экосистеме» . Философские труды Королевского общества A: Математические, физические и технические науки . 376 (2133): 20180088. Бибкод : 2018RSPTA.37680088H . дои : 10.1098/rsta.2018.0088 . ПМК   6191663 . ПМИД   30323002 .
  100. ^ Херрман, Джон (24 августа 2016 г.). «Внутри (совершенно безумной, непреднамеренно гигантской, гиперпартийной) политико-медийной машины Facebook» . Нью-Йорк Таймс . Архивировано из оригинала 19 октября 2017 года . Проверено 24 октября 2017 г.
  101. ^ Дель Викарио, Микела; Бесси, Алессандро; Золло, Фабиана; Петрони, Фабио; Скала, Антонио; Кальдарелли, Гвидо; Стэнли, Х. Юджин; Кваттрочокки, Уолтер (19 января 2016 г.). «Распространение дезинформации в Интернете» . Труды Национальной академии наук . 113 (3): 554–559. Бибкод : 2016PNAS..113..554D . дои : 10.1073/pnas.1517441113 . ПМЦ   4725489 . ПМИД   26729863 .
  102. ^ Гранвилл, Кевин (19 марта 2018 г.). «Facebook и Cambridge Analytica: что нужно знать, когда Fallout расширяется» . Нью-Йорк Таймс . Архивировано из оригинала 19 октября 2018 года . Проверено 19 октября 2018 г.
  103. ^ Мередит, Сэм (10 апреля 2018 г.). «Facebook-Cambridge Analytica: Хронология скандала с похищением данных» . CNBC . Архивировано из оригинала 19 октября 2018 года . Проверено 19 октября 2018 г.
  104. ^ Перейти обратно: а б Гросс, Майкл (январь 2017 г.). «Опасности мира постправды» . Современная биология . 27 (1): R1–R4. дои : 10.1016/j.cub.2016.12.034 .
  105. ^ «Как пузыри фильтров искажают реальность: все, что вам нужно знать» . Фарнам-стрит . 31 июля 2017 года. Архивировано из оригинала 20 мая 2019 года . Проверено 21 мая 2019 г.
  106. ^ Блюдо, The Daily (10 октября 2010 г.). «Пузырь фильтров» . Атлантика . Архивировано из оригинала 22 августа 2017 года . Проверено 21 мая 2019 г.
  107. ^ Перейти обратно: а б «Пузыри фильтров и предвзятость подтверждения — фейковые новости (и как с ними бороться) — LibGuides в учебных ресурсах колледжа Майами-Дейд» . Архивировано из оригинала 23 октября 2020 года . Проверено 22 октября 2020 г.

Дальнейшее чтение

[ редактировать ]
[ редактировать ]
Arc.Ask3.Ru: конец переведенного документа.
Arc.Ask3.Ru
Номер скриншота №: c35c046ce3dfc91317b34f1426a5f21a__1721034660
URL1:https://arc.ask3.ru/arc/aa/c3/1a/c35c046ce3dfc91317b34f1426a5f21a.html
Заголовок, (Title) документа по адресу, URL1:
Filter bubble - Wikipedia
Данный printscreen веб страницы (снимок веб страницы, скриншот веб страницы), визуально-программная копия документа расположенного по адресу URL1 и сохраненная в файл, имеет: квалифицированную, усовершенствованную (подтверждены: метки времени, валидность сертификата), открепленную ЭЦП (приложена к данному файлу), что может быть использовано для подтверждения содержания и факта существования документа в этот момент времени. Права на данный скриншот принадлежат администрации Ask3.ru, использование в качестве доказательства только с письменного разрешения правообладателя скриншота. Администрация Ask3.ru не несет ответственности за информацию размещенную на данном скриншоте. Права на прочие зарегистрированные элементы любого права, изображенные на снимках принадлежат их владельцам. Качество перевода предоставляется как есть. Любые претензии, иски не могут быть предъявлены. Если вы не согласны с любым пунктом перечисленным выше, вы не можете использовать данный сайт и информация размещенную на нем (сайте/странице), немедленно покиньте данный сайт. В случае нарушения любого пункта перечисленного выше, штраф 55! (Пятьдесят пять факториал, Денежную единицу (имеющую самостоятельную стоимость) можете выбрать самостоятельно, выплаичвается товарами в течение 7 дней с момента нарушения.)