Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску
Термин был придуман интернет-активистом Эли Паризером примерно в 2010 году.

Фильтр пузыря является термин термин , придуманный интернет активист Эли Паризер ссылаться на состояние интеллектуальной изоляции [1] , что может быть результатом персонифицированных поисков , когда веб - сайт алгоритм выборочно догадывается , какую информацию пользователь хотел бы видеть , основываясь на информации о пользователя, например местоположение, предыдущие клики и история поиска. [2] [3] [4] В результате пользователи отделяются от информации, которая не соответствует их точкам зрения, эффективно изолируя их в своих культурных или идеологических пузырях. [5] Выбор, сделанный этими алгоритмами, непрозрачен. [6] Яркие примеры включаютGoogle персонализированный поиск результатов и Facebook «s персонализированные новости потока . По мнению Паризера, эффект пузыря может иметь негативные последствия для гражданского дискурса , но противоположные точки зрения считают его минимальным [7] и решаемым. [8] Результаты президентских выборов в США в 2016 году были связаны с влиянием социальных сетей, таких как Twitter и Facebook, [9] [10] и, как следствие, поставили под сомнение эффект «пузыря фильтров» явление, связанное с воздействием на пользователя фейковых новостей и эхо-камер , [11]пробуждая новый интерес к этому термину [12] , поскольку многие обеспокоены тем, что это явление может нанести вред демократии и благополучию , усугубляя последствия дезинформации. [13] [14] [12] [15] [16] [17]

(Такие технологии, как социальные сети) «позволяют вам общаться с единомышленниками, поэтому вы не смешиваете, не делитесь и не понимаете другие точки зрения ... Это очень важно. Это оказалось большей проблемой, чем я или многие другие ожидали ».

Концепция [ править ]

По словам Паризера, социальные сети, стремясь угодить пользователям, могут скрывать информацию, которую, по их мнению, пользователям понравится слышать, но непреднамеренно изолировать то, что они знают, в своих собственных пузырьках фильтров .

Этот термин был придуман интернет-активистом Эли Паризером примерно в 2010 году и обсуждался в его одноименной книге 2011 года; Согласно Паризеру, пользователи меньше сталкиваются с противоречивыми точками зрения и интеллектуально изолированы в собственном информационном пузыре. [19] Он привел пример, в котором один пользователь искал в Google по запросу «ВР» и получил инвестиционные новости о British Petroleum , в то время как другой искатель получил информацию о разливе нефти Deepwater Horizon и отметил, что две страницы результатов поиска «разительно отличаются» . [19] [20] [21] [7]

Паризер определил свою концепцию фильтра пузыря в более формальных терминах , как «эта личная экосистема из информации , которая была обслуживала эти алгоритмы». [19] История просмотров и поиска пользователей Интернета накапливается с течением времени, когда они показывают интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и так далее. [22] Интернет-компания затем использует эту информацию для таргетинга рекламы на пользователя или для более заметного отображения определенных типов информации на страницах результатов поиска . [22]

Этот процесс не является случайным, поскольку он осуществляется в рамках трехэтапного процесса, согласно Паризеру, который утверждает: «Сначала вы выясняете, кто такие люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь так, чтобы идеально подходить. Ваша личность формирует ваши медиа ". [23] Паризер также сообщает:

Согласно одному исследованию Wall Street Journal , 50 ведущих интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем по 64 файла cookie с данными и персональные маяки отслеживания. Найдите на Dictionary.com такое слово, как «депрессия», и этот сайт установит на ваш компьютер до 223 файлов cookie и маяков, чтобы другие веб-сайты могли нацелить вас на прием антидепрессантов. Поделитесь статьей о кулинарии в ABC News, и в Интернете вас могут преследовать объявления о кастрюлях с тефлоновым покрытием. Откройте - хотя бы на мгновение - страницу со списком признаков того, что ваш (а) супруг (а), возможно, изменяет, и приготовьтесь к тому, что вас преследуют объявления с тестами на отцовство ДНК. [24]

Доступ к данным о кликах по ссылкам, отображаемых с помощью измерений посещаемости сайта, позволяет определить, какие пузыри фильтров могут быть коллективными или индивидуальными. [25]

По состоянию на 2011 год один инженер сказал Паризеру, что Google изучил 57 различных фрагментов данных, чтобы персонально адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя. [26]

Для описания этого явления использовались и другие термины, в том числе « идеологические рамки » [20] и «образная сфера, окружающая вас при поиске в Интернете». [22] Родственный термин «эхо-камера» первоначально применялся к средствам массовой информации [27] [28], но теперь применяется и к социальным сетям. [29] [30]

Идея Пэрисера о пузырьках с фильтрами была популяризирована после выступления на TED в мае 2011 года, в котором он приводит примеры того, как работают пузыри с фильтрами и где их можно увидеть. В ходе теста, стремящегося продемонстрировать эффект пузыря фильтра, Паризер попросил нескольких друзей поискать слово «Египет» в Google и прислать ему результаты. Сравнивая две первые страницы результатов друзей, хотя они частично совпадали по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о продолжавшейся тогда египетской революции 2011 года , а первая страница результатов другого друга не включил такие ссылки. [31]

В «Пузыре фильтров» Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нас для новых идей, тем и важной информации» [32] и «создает впечатление, что наш узкий личный интерес - это все, что существует. ". [20] По его мнению, это потенциально вредно как для людей, так и для общества. Он раскритиковал Google и Facebook за то, что они предлагают пользователям «слишком много конфет и недостаточно моркови». [33] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить наши взгляды. [33]По словам Паризера, пагубные последствия пузырей фильтров включают вред для общества в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций». [20] Он писал:

Мир, созданный из знакомого, - это мир, в котором нечему учиться ... (поскольку существует) невидимая автопропаганда, внушающая нам наши собственные идеи.

-  Эли Паризер в The Economist , 2011 [34]

Многие люди даже не подозревают о существовании пузырей фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook совершенно не знают о каких-либо действиях на Facebook, вместо этого полагая, что каждая история от их друзей и страниц, на которые они подписаны, появляются в их Новостная лента." [35] Краткое объяснение того, как Facebook решает, что публикуется в новостной ленте пользователя, осуществляется с помощью алгоритма, который учитывает, «как вы взаимодействовали с похожими сообщениями в прошлом». [35]

Фильтр пузырь был описан как усугубляют явление , которое было под названием splinternet или cyberbalkanization , [Примечание 1] , которое происходит , когда Интернет становится разделена на подгруппы единомышленников , которые становятся изолированными в своей собственной интернет - сообщества и не в состоянии получить доступ к различным взглядам. Эта озабоченность возникла на заре появления общедоступного Интернета, когда термин «кибербалканизация» был введен в обращение в 1996 году. [36] [37] [38]

Подобные концепции [ править ]

В новостных СМИ , эхо - камера является метафорическим описанием ситуации , в которой верования усиливаются или армированная связью и повторением внутри замкнутой системы. Посещая «эхо-камеру», люди могут искать информацию, которая подкрепляет их существующие взгляды, потенциально как бессознательное упражнение в предвзятости подтверждения . Это может усилить политическую и социальную поляризацию и экстремизм. Этот термин представляет собой метафору, основанную на акустической эхо-камере, в которой звуки отражаются в полом корпусе. «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Их окружают те, кто признает и придерживается одной и той же точки зрения. [39]

В прощальном обращении Барака Обамы аналогичная концепция фильтрации пузырей обозначена как «угроза [американской] демократии», то есть «отступление в наши собственные пузыри ... особенно в ленты наших социальных сетей в окружении людей, похожих на нас и разделяем одни и те же политические взгляды и никогда не оспариваем наши предположения ... И все больше мы становимся настолько безопасными в своих пузырях, что начинаем принимать только информацию, правда она или нет, которая соответствует нашему мнению, вместо того, чтобы основывать свое мнение на имеющихся доказательствах. там. " [40]

Реакции и исследования [ править ]

Реакция СМИ [ править ]

Существуют противоречивые отчеты о том, в какой степени происходит персонализированная фильтрация и является ли такая деятельность полезной или вредной. Аналитик Джейкоб Вайсберг, писавший в июне 2011 года для Slate , провел небольшой ненаучный эксперимент для проверки теории Паризера, в котором участвовали пять сотрудников с различным идеологическим прошлым, проводившие серию поисков: « Джон Бонер », « Барни Франк », « план Райана ». , и " Obamacare", и отправив Вайсбергу скриншоты своих результатов. Результаты различались лишь в незначительных аспектах от человека к человеку, и любые различия, похоже, не были связаны с идеологией, что привело Вайсбергу к выводу, что пузырек фильтров не действовал, и написал что идея , что большинство интернет - пользователей были «подающим в корыто с Daily Me » была преувеличена. [20] Вайсберг попросили Google для комментариев, и представитель заявил , что алгоритмы были на месте , чтобы преднамеренно «предельной персонификации и продвигать разнообразие». [ 20] Книжный рецензент Пол Бутен провел эксперимент, аналогичный эксперименту Вейсберга, среди людей с разной историей поиска и снова обнаружил, что разные искатели получали почти идентичные результаты поиска. [7]Беседуя с программистами в Google, журналист Пер Гранквист обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google в ходе тестирования обнаружил, что поисковый запрос, безусловно, является лучшим фактором, определяющим, какие результаты отображать. [41]

Есть сообщения о том, что Google и другие сайты хранят обширные "досье" информации о своих пользователях, которые могут позволить им дополнительно персонализировать индивидуальный опыт работы в Интернете, если они захотят это сделать. Например, для Google существует технология, позволяющая отслеживать прошлые истории пользователей, даже если у них нет личной учетной записи Google или не вошли в нее. [7] В одном отчете говорилось, что Google собрал «за 10 лет» информацию, собранную из различных источников, таких как Gmail , Google Maps и других служб, помимо своей поисковой системы, [21] [ неудачная проверка ]хотя сообщалось об обратном, попытка персонализировать Интернет для каждого пользователя была технически сложной задачей для интернет-фирмы, несмотря на огромное количество доступных данных. [ необходима цитата ] Аналитик Дуг Гросс из CNN предположил, что отфильтрованный поиск кажется более полезным для потребителей, чем для граждан , и поможет потребителю, ищущему "пиццу", найти варианты местной доставки на основе персонализированного поиска и соответствующим образом отфильтровать далекие магазины пиццы . [21] [ не удалось проверить ] Такие организации, как Washington Post , The New York Times, и другие экспериментировали с созданием новых персонализированных информационных служб с целью адаптации результатов поиска к тем, которые пользователям могут понравиться или с которыми они согласятся. [20]

Академические исследования и реакции [ править ]

В книге «Общественность больших данных и ее проблемы» Тауэль Харпер предполагает, что потеря редакционной субсидии на самом деле приводит к более однородной и нормализованной общественной сфере, чем традиционные печатные СМИ. [42] Процесс выбора значимости, закон больших чисел и мощность ранее существовавших сетей означает, что алгоритмический выбор имеет тенденцию укреплять нормы и еще больше маргинализировать различия в цифровой публике.

Научное исследование Wharton, в котором анализировались персонализированные рекомендации, также показало, что эти фильтры действительно могут создавать общность, а не фрагментацию во вкусе онлайн-музыки. [43] Сообщается, что потребители используют фильтры, чтобы расширить свой вкус, а не ограничить его. [43] Профессор права из Гарварда Джонатан Зиттрейн оспаривает степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «влияние персонализации поиска было незначительным». [20] Кроме того, Google предоставляет пользователям возможность отключать функции персонализации, если они того пожелают, [44]путем удаления записи Google об их истории поиска и настройки Google не запоминать их ключевые слова для поиска и посещенные ссылки в будущем. [7]

В исследовании Internet Policy Review рассматривается отсутствие четкого и поддающегося проверке определения пузырей фильтров по дисциплинам; это часто приводит к тому, что исследователи по-разному определяют и изучают пузырьки-фильтры. [45] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах [11] и предположило, что эффекты, приписываемые им, могут происходить больше из уже существовавших идеологических предубеждений, чем из алгоритмов. Подобные взгляды можно найти и в других академических проектах, которые также обращаются к проблемам с определениями пузырей фильтров и взаимосвязями между идеологическими и технологическими факторами, связанными с ними. [46]

Исследование, проведенное учеными из Оксфорда, Стэнфорда и Microsoft, изучило истории просмотров 1,2 миллиона пользователей панели инструментов Bing в США.надстройка для Internet Explorer в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными потребителями новостей, а затем классифицировали, являются ли новостные агентства, которые они посещали, левыми или правыми, в зависимости от того, большинство ли проголосовавших в округа, связанные с IP-адресами пользователей, голосовали за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, читались ли новости после прямого доступа к сайту издателя, через службу агрегирования новостей Google, через поиск в Интернете или через социальные сети. Исследователи обнаружили, что, хотя поиск в Интернете и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления новостей в Интернете состояло из пользователей, которые напрямую посещали основные новостные сайты левого или правого толка,и, следовательно, подвергаться почти исключительно взглядам с одной стороны политического спектра. Ограничения исследования включали проблемы отбора, такие как возрастные отклонения пользователей Internet Explorer выше, чем у всего интернет-населения; Использование панели инструментов Bing и добровольное (или незнание) предоставление доступа к истории просмотров для пользователей, которые меньше озабочены конфиденциальностью; предположение, что все статьи в левых публикациях левые, и то же самое для правых; и возможность того, что пользователи, которыепредположение, что все статьи в левых публикациях левые, и то же самое для правых; и возможность того, что пользователи, которыепредположение, что все статьи в левых публикациях левые, и то же самое для правых; и возможность того, что пользователи, которыене активные потребители новостей могут получить большую часть своих новостей через социальный медиа, и , таким образом , испытывают более сильное воздействие социальной или алгоритмической предвзятости , чем те пользователи , которые в основном самостоятельно выбирать свои предубеждения по своему выбору новостных изданий (при условии , что они знают о смещает публикации ). [47]

Платформенные исследования [ править ]

Хотя алгоритмы действительно ограничивают политическое разнообразие, часть пузыря фильтров является результатом выбора пользователя. [48] Исследование, проведенное специалистами по данным в Facebook, показало, что на каждые четыре друга Facebook, разделяющих идеологию, приходится один друг с противоположными взглядами. [49] [50] Независимо от того, какой алгоритм использует Facebook для своей ленты новостей , люди просто с большей вероятностью будут дружить / подписываться на людей, которые разделяют схожие убеждения. [49] Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного содержания на 5 процентов для консерваторов и на 8 процентов для либералов». [49]Однако даже когда людям предоставляется возможность щелкнуть ссылку, предлагающую противоположные взгляды, они по-прежнему выбирают наиболее просматриваемые источники. [49] «[U] ser выбор снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов». [49] Сквозная ссылка - это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт считает убеждениями пользователя. [51] Недавнее исследование Леви Бокселла, Мэтью Генцкова и Джесси М. Шапиро предполагает, что онлайн-СМИ не являются движущей силой политической поляризации. [52]В документе утверждается, что поляризация была вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический раскол наблюдается среди американцев старше 75 лет, в то время как только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные показывают, что более молодые демографические В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайн-СМИ практически не существовали. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая соответствует их предубеждениям. Американцы старшего возраста обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для молодежи.Хотя алгоритмы и пузыри фильтров ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь вызваны уже существующими взглядами и неспособностью распознать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии большой пятерки для проверки влияния индивидуальной личности, демографии и идеологий на потребление новостей пользователями.[53] Основываясь на своем исследовании на представлении о том, что количество источников новостей, которые потребляют пользователи, влияет на их вероятность попасть в пузырек фильтров (более широкое разнообразие СМИ снижает шансы), их результаты предполагают, что определенная демография (старший возраст и мужчины) наряду с с определенными личностными чертами (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых отдельными людьми. Исследование также обнаружило негативную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных факторов пользователя, которые могут влиять на выбор роли, это исследование также поднимает вопросы и вызывает ассоциации между вероятностью попадания пользователей в пузыри фильтров и поведением пользователей при голосовании. [53]

Исследование Facebook показало, что было «неубедительным», играет ли алгоритм такую ​​большую роль в фильтрации новостных лент, как предполагали люди. [54] Исследование также показало, что «индивидуальный выбор» или предвзятость подтверждения также влияет на то, что отфильтровывается из лент новостей. [54] Некоторые социологи подвергли этот вывод критике, поскольку протест против пузыря фильтров состоит в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новостные ленты. [55]Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «не воспроизводятся» из-за того, что исследование было проведено «учеными Facebook», которые имели доступ к данные, которые Facebook не предоставляет сторонним исследователям. [56]

Хотя исследование показало, что только около 15–20% друзей среднего пользователя Facebook подписываются на противоположную сторону политического спектра, Джулия Каман из Vox предположила, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли расскажем о нашей политике без Интернета. Facebook может создать уникальную среду, в которой пользователь видит и, возможно, взаимодействует с контентом, размещенным или повторно размещенным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативными, а 38 процентов новостей, которые видели консерваторы, были либеральными». [57]«Либералы, как правило, связаны с меньшим количеством друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами». [58] Это взаимодействие позволяет предоставлять разнообразную информацию и источники, которые могут модерировать мнения пользователей.

Точно так же исследование пузырей фильтров Twitter, проведенное Нью-Йоркским университетом, показало, что «люди теперь имеют доступ к более широкому кругу точек зрения на новостные события, и большая часть этой информации поступает не по традиционным каналам, а напрямую от политических деятелей. или через своих друзей и родственников. Кроме того, интерактивный характер социальных сетей дает людям возможность обсуждать политические события со своими сверстниками, включая тех, с кем они имеют слабые социальные связи ". [59] Согласно этим исследованиям, социальные сети могут разнообразить информацию и мнения, с которыми пользователи контактируют, хотя существует много предположений о пузырях фильтров и их способности создавать более глубокиеполитическая поляризация .

Один из драйверов и возможное решение проблемы - это роль эмоций в онлайн-контенте. Исследование 2018 года показывает, что различные эмоции сообщений могут привести к поляризации или конвергенции: радость преобладает в эмоциональной поляризации, в то время как печаль и страх играют важную роль в эмоциональной конвергенции. [60] Так как эмоциональное содержание сообщений относительно легко обнаружить, эти результаты могут помочь в разработке более социально ответственных алгоритмов, сосредоточив внимание на эмоциональном содержании алгоритмических рекомендаций.

Визуализация процесса и роста двух ботов для социальных сетей, использованных в исследовании Weibo 2019 . Согласно исследованию, диаграммы представляют два аспекта структуры пузырей фильтров: большая концентрация пользователей вокруг отдельных тем и однонаправленная звездообразная структура, влияющая на ключевые информационные потоки.

Различные исследователи использовали социальных ботов для тестирования поляризации и связанных с ней эффектов, которые приписываются фильтрующим пузырям и эхо-камерам. [61] [62] В исследовании 2018 года использовались социальные боты в Твиттере для проверки намеренного воздействия на пользователей пристрастных точек зрения. [61] В исследовании утверждалось, что оно продемонстрировало пристрастные различия между воздействием различных взглядов, хотя и предупреждалось, что результаты должны быть ограничены зарегистрированными партиями американских пользователей Twitter. Один из основных выводов заключался в том, что после воздействия различных взглядов (предоставленных ботами) саморегистрирующиеся республиканцы стали более консервативными, в то время как саморегистрируемые либералы продемонстрировали меньше идеологических изменений, если вообще не изменились. Другое исследование, проведенное в Китайской Народной Республике, использовало социальных ботов наWeibo - крупнейшая платформа социальных сетей в Китае - для изучения структуры пузырей фильтров с точки зрения их влияния на поляризацию. [62]В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди с похожими взглядами объединяются в группы, разделяют схожие мнения и блокируют разные точки зрения (поляризация мнений), а во втором - люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не основанной на мнении, исследователи пришли к выводу, что существует два основных элемента пузыря фильтров: большая концентрация пользователей вокруг одной темы и однонаправленная звезда. -подобная структура, влияющая на ключевые информационные потоки.

В июне 2018 года платформа DuckDuckGo провела исследование на платформе веб-браузера Google. В рамках этого исследования 87 взрослых людей из разных уголков континентальной части США одновременно вводили в Google три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели результаты, уникальные для них. Google включил определенные ссылки для некоторых, но не включил для других участников, а информационные поля «Новости» и «Видео» значительно различались. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) - это в основном миф. Сотрудник службы поиска Google Дэнни Салливан заявил: «С годами сложился миф о том, что поиск Google настолько персонализирует, что для одного и того же запроса разные люди могут получать существенно разные результаты друг от друга.Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам ».[63]

Когда пузырьки фильтра находятся на месте, они могут создавать особые моменты, которые ученые называют моментами «Вау». Момент «Вау» - это когда на вашем компьютере появляется статья, реклама, пост и т. Д., Которые связаны с текущим действием или текущим использованием объекта. Ученые обнаружили этот термин после того, как молодая женщина выполняла свой распорядок дня, в том числе пила кофе, когда она открыла свой компьютер и заметила рекламу той же марки кофе, которую пила. «Сел и открыл Facebook сегодня утром за чашкой кофе, и там было две рекламы Nespresso . Это что-то вроде« эй », когда продукт, который вы пьете, появляется на экране перед вами». [64]Бывают моменты «ох», когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при клике», чтобы увеличить их доход от продаж. Моменты «вау» также могут воспламенить дисциплину в пользователях, чтобы они придерживались рутины и общности с продуктом.

Несколько дизайнеров разработали инструменты для противодействия эффекту пузырей фильтров (см. § Контрмеры ). [65] Швейцарская радиостанция SRF выбрала слово filterblase (немецкий перевод слова «пузырь с фильтрами») словом года 2016. [66]

Контрмеры [ править ]

Частными лицами [ править ]

В фильтре Bubble: Что Интернет скрывает от вас , [67] Интернет - активист Эли Паризер показывает , как увеличение появления фильтра пузырьков еще больше подчеркивает значение своего мостиковых социального капитала , как это определено Роберт Путман. В самом деле, в то время как объединение капитала соответствует, с одной стороны, установлению прочных связей между единомышленниками, таким образом усиливая некоторое чувство социальной однородности, объединение социального капитала, с другой стороны, представляет собой создание слабых связей между людьми с потенциально расходящимися интересами и точки зрения, что вносит значительно большую неоднородность. [68]В этом смысле высокий промежуточный капитал с большей вероятностью будет способствовать социальной интеграции за счет увеличения нашего присутствия в пространстве, где мы решаем проблемы, выходящие за рамки наших ниш и узких личных интересов. Таким образом, наращивание своего связующего капитала, например, путем общения с большим количеством людей в неформальной обстановке, может быть эффективным способом уменьшить влияние феномена пузыря фильтров.

Фактически, пользователи могут предпринять множество действий, чтобы прорваться сквозь пузыри фильтров, например, приложив сознательные усилия для оценки информации, которой они подвергаются, и критически оценив, взаимодействуют ли они с широким спектром контента. [69] Эта точка зрения утверждает, что пользователи должны изменить психологию своего подхода к СМИ, а не полагаться на технологии для противодействия своим предубеждениям. Пользователи могут сознательно избегать неподдающихся проверке или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование сайтов проверки фактов для выявления фейковых новостей. [70] Технологии также могут играть ценную роль в борьбе с пузырьками на фильтрах. [71]

Такие веб-сайты, как allsides.com , theflipside.io , hifromtheotherside.com и factualsearch.news, стремятся познакомить читателей с различными точками зрения с разнообразным содержанием. Некоторые дополнительные плагины , такие как Media Bias Fact Check [72], были нацелены на то, чтобы помочь людям выйти из своих пузырей фильтров и рассказать им об их личных перспективах; таким образом, эти СМИ показывают контент, противоречащий их убеждениям и мнениям. Например, Escape Your Bubble просит пользователей указать конкретную политическую партию, о которой они хотят быть более информированными. [73]Затем плагин предложит прочитать статьи из авторитетных источников, относящиеся к этой политической партии, побуждая пользователей больше узнать о другой партии. [73] Помимо плагинов, существуют приложения, созданные с целью побудить пользователей открывать свои эхо-камеры. UnFound.news предлагает читателям новостное приложение, созданное с помощью ИИ ( искусственного интеллекта ), которое представляет им новости с различных и различных точек зрения, помогая им формировать обоснование и информированное мнение, а не поддаваться собственным предубеждениям. Это также подталкивает читателей к чтению с разных точек зрения, если их модель чтения смещена в сторону одной стороны / идеологии. [74] [75] Читать через проход- это новостное приложение, которое показывает, читают ли пользователи из разных новых источников, которые включают разные точки зрения. [76] Каждый источник скоординирован по цвету, что отражает политическую направленность каждой статьи. [76] Когда пользователи читают новости только с одной точки зрения, приложение сообщает об этом пользователю и побуждает читателей исследовать другие источники с противоположных точек зрения. [76] Хотя приложения и плагины - это инструменты, которые могут использовать люди, Эли Паризер заявил, что «безусловно, здесь есть некоторая индивидуальная ответственность за поиск новых источников и людей, которые не похожи на вас». [48]

Поскольку интернет-реклама может усиливать эффект пузырей фильтров, открывая для пользователей большее количество одного и того же контента, пользователи могут блокировать большую часть рекламы, удаляя историю поиска, отключая целевую рекламу и загружая расширения браузера. [77] [78] Расширения, такие как Escape your Bubble [79] для Google Chrome, нацелены на то, чтобы помочь контролировать контент и предотвратить доступ пользователей только к предвзятой информации, в то время как расширения Mozilla Firefox, такие как Lightbeam [80] и самоуничтожающиеся файлы cookie [ 81] позволяют пользователям визуализировать, как отслеживаются их данные, и позволяет им удалять некоторые из отслеживающих файлов cookie . Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy ,DuckDuckGo , Qwant , Startpage.com , Disconnect и Searx , чтобы не дать компаниям собирать данные своего веб-поиска. Швейцарская ежедневная газета Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для работы с новостями, которое использует машинное обучение, чтобы угадать, какой контент интересует пользователя, при этом «всегда включающий элемент неожиданности»; идея состоит в том, чтобы смешивать истории, за которыми пользователь вряд ли следил в прошлом. [82]

Европейский Союз принимает меры, чтобы уменьшить эффект пузыря фильтра. Европарламент спонсирует запросы в то, как пузырьки фильтра влияют на способность людей получить доступ к разнообразным новостям. [83] Кроме того, он представил программу, направленную на информирование граждан о социальных сетях. [84]В США панель CSCW предлагает использовать приложения-агрегаторы новостей для расширения приема новостей потребителями СМИ. Приложения агрегатора новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения по определенной теме. Пользователи также могут использовать разнообразный балансировщик новостей, который визуально показывает потребителю СМИ, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая на наклон вправо с большей красной полосой или влево с большей синей полосой. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении читателя в сторону более сбалансированного воздействия среди пользователей, наблюдающих обратную связь, по сравнению с контрольной группой». [85]

Медиа-компаниями [ править ]

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их удалению. [86] В январе 2017 года Facebook удалил персонализацию из списка «Трендовые темы» из-за проблем, связанных с тем, что некоторые пользователи не видели там широко обсуждаемых событий. [87] Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», которую он реализовал в 2013 году, которая публиковала бы связанные новости после того, как пользователь прочитал общую статью. Теперь обновленная стратегия изменила бы этот процесс и публиковала статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут отображаться только статьи из авторитетных источников. Вместе с основателемCraigslist и некоторые другие, Facebook инвестировал 14 миллионов долларов в усилия, «чтобы повысить доверие к журналистике во всем мире и лучше информировать общественность». [86] Идея заключается в том, что даже если люди читают только сообщения, которыми поделились их друзья, по крайней мере, эти сообщения будут вызывать доверие.

Точно так же Google по состоянию на 30 января 2018 года также признал наличие проблем с фильтром на своей платформе. Поскольку в настоящее время поисковые запросы Google получают результаты с алгоритмическим ранжированием на основе «авторитетности» и «релевантности», которые показывают и скрывают определенные результаты поиска, Google стремится бороться с этим. Обучая свою поисковую систему распознавать намеренияпоискового запроса, а не буквального синтаксиса вопроса, Google пытается ограничить размер пузырьков фильтра. На данный момент начальная фаза этого обучения будет введена во втором квартале 2018 года. Вопросы, которые связаны с предвзятостью и / или противоречивыми мнениями, не будут рассматриваться до более позднего времени, вызывая более серьезную проблему, которая все еще существует: действует либо как арбитр истины, либо как знающий проводник для принятия решений. [88]

В апреле 2017 года появилась новость о том, что Facebook, Mozilla и Craigslist внесли большую часть пожертвования в размере 14 миллионов долларов на «Инициативу целостности новостей» CUNY , направленную на устранение фальшивых новостей и создание более честных СМИ. [89]

Позже, в августе, Mozilla, создатель веб-браузера Firefox , объявила о создании Mozilla Information Trust Initiative (MITI). + MITI будет служить коллективным усилием по разработке продуктов, исследований и решений на уровне сообществ для борьбы с эффектом пузырей фильтров и распространением фейковых новостей. Команда открытых инноваций Mozilla возглавляет инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту с точки зрения грамотности, исследований и творческого вмешательства. [90]

Этические последствия [ править ]

Ожидается, что по мере роста популярности облачных сервисов персонализированные алгоритмы, используемые для построения пузырей фильтров, станут более распространенными. [91] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальных сетей с этической точки зрения , особенно в области личной свободы , безопасности и предвзятости в информации . [92] Пузырьки фильтров в популярных социальных сетях и на сайтах персонализированного поиска могут определять конкретный контент, просматриваемый пользователями, часто без их прямого согласия или ведома, [91]из-за алгоритмов, используемых для обработки этого контента. Самостоятельно созданный контент, проявляющийся в поведенческих моделях, может привести к частичной информационной слепоте. [93] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию по отношению к собственному опыту в социальных сетях, и их идентичность будет социально сконструирована в результате распространения пузырей фильтров. [91]

Технологи, инженеры по социальным сетям и компьютерные специалисты также исследовали распространенность пузырей фильтров. [94] Марк Цукерберг , основатель Facebook, и Эли Паризер, автор The Filter Bubble , выразили обеспокоенность по поводу рисков конфиденциальности и поляризации информации. [95] [96] Информация пользователей персонализированных поисковых систем и платформ социальных сетей не является частной, хотя некоторые люди считают, что это должно быть. [95] Обеспокоенность по поводу конфиденциальности привела к дебатам о том, является ли моральным со стороны информационных технологов брать активность пользователей в сети и манипулировать будущей доступностью соответствующей информации. [96]

Некоторые ученые выразили озабоченность по поводу воздействия пузырей фильтров на индивидуальное и социальное благополучие, т. Е. Распространение информации о здоровье среди широкой публики и потенциальное влияние поисковых систем в Интернете на изменение поведения, связанного со здоровьем. [15] [16] [17] [97] В междисциплинарной книге 2019 года сообщалось об исследованиях и перспективах роли пузырей фильтров в отношении дезинформации о здоровье. [17]Основываясь на различных областях, таких как журналистика, право, медицина и психология здоровья, книга обращается к различным противоречивым убеждениям в отношении здоровья (например, альтернативной медицине и псевдонауке), а также к потенциальным средствам защиты от негативного воздействия пузырьков фильтров и эхо-камер на различные темы в области здравоохранения. дискурс. Исследование, проведенное в 2016 году о потенциальном влиянии пузырьков фильтров на результаты поисковых систем, связанных с самоубийством, показало, что алгоритмы играют важную роль в том, будут ли отображаться телефоны доверия и аналогичные результаты поиска для пользователей, и обсудило последствия их исследования для политики здравоохранения. [16]В другом исследовании, проведенном в 2016 году хорватским медицинским журналом, были предложены некоторые стратегии смягчения потенциально вредного воздействия пузырей фильтров на информацию о здоровье, например: информирование общественности о пузырях фильтров и связанных с ними эффектах; пользователи предпочитают попробовать альтернативу поисковым системам [для Google] , а также дополнительные объяснения процессов, которые используются поисковыми системами для определения отображаемых результатов. [15]

Поскольку на контент, просматриваемый отдельными пользователями социальных сетей, влияют алгоритмы, которые создают пузыри фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения [98] и могут подвергаться предвзятой, вводящей в заблуждение информации. [99] Социальная сортировка и другие непреднамеренные дискриминационные практики также ожидаются в результате персонализированной фильтрации. [100]

В свете президентских выборов в США в 2016 году ученые также выразили обеспокоенность по поводу влияния пузырей фильтров на демократию и демократические процессы, а также по поводу появления «идеологических СМИ». [10] Эти ученые опасаются, что пользователи не смогут «[мыслить] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ. [101] По этой причине все чаще обсуждается возможность разработки социальных сетей с большей интуицией, то есть проактивно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставить расширяющие возможности фильтры и инструменты для пользователей.[102] [103] [104] Фактически, озабоченность вызывает то, как пузыри фильтров способствуют распространению « фейковых новостей » и как это может повлиять на политические взгляды, в том числе на то, как пользователи голосуют. [10] [105] [106]

Разоблачения в марте 2018 года о сборе и использовании компанией Cambridge Analytica пользовательских данных для не менее 87 миллионов профилей в Facebook во время президентских выборов 2016 года подчеркивают этические последствия пузырей фильтров. [107] Соучредитель и информатор Cambridge Analytica Кристофер Уайли подробно рассказал, как эта фирма смогла разработать «психографические» профили этих пользователей и использовать эту информацию для формирования их поведения при голосовании. [108] Доступ к пользовательским данным со стороны третьих лиц, таких как Cambridge Analytica, может привести к раздражению и усилению существующих пузырей фильтров, созданных пользователями, искусственно увеличивая существующие предубеждения и еще больше разделяя общества.

Опасности [ править ]

Пузырьки фильтров возникли из-за всплеска персонализации медиа, который может задерживать пользователей. Использование искусственного интеллекта для персонализации предложений может привести к тому, что пользователи будут просматривать только контент, который укрепляет их собственные точки зрения, не вызывая у них никаких сомнений. Веб-сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, чтобы пользователям было сложно определить источник контента, что заставляет их самостоятельно решать, является ли источник надежным или поддельным. [109] Таф может привести к тому, что люди привыкнут слышать то, что они хотят слышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтра может заставить человека рассматривать любые противоположные точки зрения как неправильные и, таким образом, может позволить СМИ навязывать взгляды потребителям. [110] [109] [111]

Исследования объясняют, что пузырек фильтров усиливает то, о чем человек уже думает. [112] Вот почему чрезвычайно важно использовать ресурсы, предлагающие различные точки зрения. [112] [113]

Расширения концепции [ править ]

Концепция фильтрующего пузыря была распространена на другие области, чтобы описать общества, которые саморазделяются согласно политическим взглядам, а также экономическим, социальным и культурным ситуациям. [114] Этот всплеск приводит к потере более широкого сообщества и создает ощущение, что, например, детям не место на общественных мероприятиях, если только эти мероприятия не были специально спланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей. [114]

См. Также [ править ]

  • Аллегория пещеры
  • Коммунальное усиление
  • Контент-ферма
  • Дерадикализация
  • Эффект ложного консенсуса
  • Групповая поляризация
  • Медиа потребление
  • Эффект манипулирования поисковой системой
  • Теория селективного воздействия
  • Случайное открытие, антитеза пузыря фильтров
  • Стереотип

Примечания [ править ]

  1. ^ Термин кибербалканизация (иногда с дефисом) - это гибрид кибернетики , относящейся к Интернету, и балканизации , относящийся к тому региону Европы, который исторически был разделен по языкам, религиям и культурам; термин был введен вобращение исследователями Массачусетского технологического института Ван Алстайном и Бриньолфссоном.

Ссылки [ править ]

  1. ^ Технопедия, Определение - Что означает «пузырьковый фильтр»? Архивировано 10 октября 2017 годана Wayback Machine ,получено10 октября 2017 года, ".... Пузырь фильтра - это интеллектуальная изоляция, которая может возникнуть, когда веб-сайты используют алгоритмы, чтобы выборочно принимать информацию, которую пользователь хотел бы видеть, а затем предоставить информацию пользователю в соответствии с этим предположением ... Таким образом, пузырек фильтра может привести к тому, что пользователи будут значительно меньше контактировать с противоречащими точками зрения, в результате чего пользователь станет интеллектуально изолированным ... "
  2. ^ Боздаг, Engin (сентябрь 2013). «Предвзятость в алгоритмической фильтрации и персонализации». Этика и информационные технологии . 15 (3): 209–227. DOI : 10.1007 / s10676-013-9321-6 . S2CID  14970635 .
  3. ^ Веб-ошибка (сленг)
  4. ^ Отслеживание посетителей веб-сайта
  5. ^ Huffington Post, The Huffington Post "Пузыри фильтров сжимают наши умы?" Архивировано 3 ноября 2016 года в Wayback Machine.
  6. ^ Шифрование, поиск (26.02.2019). «Что такое пузырьки фильтра и как их избежать» . Поиск по блогу шифрования . Архивировано 25 февраля 2019 года . Проверено 19 марта 2019 .
  7. ^ a b c d e Бутин, Пол (20 мая 2011 г.). «Ваши результаты могут отличаться: превратится ли информационная магистраль в тупик из-за автоматических фильтров?» . The Wall Street Journal . Архивировано 5 апреля 2015 года . Проверено 15 августа 2011 года . Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google может персонализировать результаты даже для пользователей, которые не создают личную учетную запись Google или не вошли в нее. ...
  8. ^ Чжан, Юань Цао; Séaghdha, Diarmuid Ó; Quercia, Даниэле; Джамбор, Тамас (2012). «Ауралист: привнесение интуиции в музыкальные рекомендации». Труды Пятой Международной конференции ACM по веб - поиска и интеллектуального анализа данных - WSDM '12 : 13. DOI : 10,1145 / 2124295,2124300 . S2CID 2956587 . 
  9. ^ "Автор Пузыря фильтров о том, как фейковые новости подрывают доверие к журналистике" . Грань . 2016-11-16. Архивировано 19 апреля 2017 года . Проверено 19 апреля 2017 .
  10. ^ a b c Баэр, Дрейк. «Пузырь с фильтром объясняет, почему Трамп победил, а вы этого не видели» . Наука о нас . Архивировано 19 апреля 2017 года . Проверено 19 апреля 2017 .
  11. ^ а б ДиФранцо, Доминик; Глория-Гарсия, Кристина (5 апреля 2017 г.). «Фильтр пузырей и фейковых новостей». XRDS . 23 (3): 32–35. DOI : 10.1145 / 3055153 . S2CID 7069187 . 
  12. ^ a b Джаспер Джексон (8 января 2017 г.). «Эли Паризер: активист, чьи предупреждения о пузыре фильтров предвещали Трампа и Брексит: руководитель Upworthy предупреждал об опасностях эхо-камер Интернета за пять лет до голосования 2016 года» . Хранитель . Архивировано 7 марта 2017 года . Проверено 3 марта 2017 года . ... «Если вы видите сообщения только от людей, которые похожи на вас, вы будете удивлены, когда кто-то, очень непохожий на вас, станет президентом», - говорит Паризер Guardian.
  13. ^ Мостафа М. Эль-Bermawy (18 ноября 2016). «Ваш фильтр-пузырь разрушает демократию» . Проводной . Архивировано 9 марта 2017 года . Проверено 3 марта 2017 года . ... Глобальная деревня, которая когда-то была Интернетом ... цифровые острова изоляции, которые с каждым днем ​​отдаляются друг от друга ... ваш опыт в Интернете становится все более индивидуальным ...
  14. Дрейк Баер (9 ноября 2016 г.). «Пузырь с фильтром объясняет, почему Трамп победил, а вы этого не видели» . New York Magazine . Архивировано 26 февраля 2017 года . Проверено 3 марта 2017 года . ... Победа Трампа ошеломляет ... потому что, как это понимают исследователи СМИ, мы все чаще живем в "пузыре фильтров": информация, которую мы получаем, настолько персонализирована, что мы не видим других точек зрения ...
  15. ^ a b c Холоне, Харальд (июнь 2016 г.). «Пузырь фильтров и его влияние на личную медицинскую информацию в Интернете» . Хорватский медицинский журнал . 57 (3): 298–301. DOI : 10,3325 / cmj.2016.57.298 . PMC 4937233 . PMID 27374832 .  
  16. ^ a b c Хаим, Марио; Арендт, Флориан; Шерр, Себастьян (февраль 2017 г.). «Бездна или убежище? О релевантности результатов поиска в поисковых системах, когда люди ищут самоубийства в Google». Связь здоровья . 32 (2): 253–258. DOI : 10.1080 / 10410236.2015.1113484 . PMID 27196394 . S2CID 3399012 .  
  17. ^ a b c «Медицинская дезинформация и социальный вред в практике здравоохранения, не основанной на науке: мультидисциплинарная перспектива» . CRC Press . Архивировано 4 августа 2020 года . Проверено 22 апреля 2020 .
  18. Кевин Дж. Делани (21 февраля 2017 г.). «Пузырьки на фильтрах - серьезная проблема для новостей, - говорит Билл Гейтс» . Кварц . Архивировано 4 марта 2017 года . Проверено 3 марта 2017 года . ... Гейтс - один из растущего числа технологических лидеров, борющихся с проблемой пузырей фильтров, ...
  19. ^ a b c Паррамор, Линн (10 октября 2010 г.). "Фильтр-пузырь" . Атлантика . Архивировано 22 августа 2017 года . Проверено 20 апреля 2011 года . С 4 декабря 2009 года Google стал персонализированным для всех. Итак, когда этой весной у меня было двое друзей из Google «ВР», один из них получил набор ссылок, посвященных инвестиционным возможностям в ВР. Другой получил информацию о разливе нефти ....
  20. ^ a b c d e f g h Вейсберг, Джейкоб (10 июня 2011 г.). «Проблема с пузырями: превращает ли веб-персонализация нас в солипсистов?» . Шифер . Архивировано 12 июня 2011 года . Проверено 15 августа 2011 года .
  21. ^ a b c Гросс, Дуг (19 мая 2011 г.). «Что от вас скрывает Интернет» . CNN. Архивировано 9 апреля 2016 года . Проверено 15 августа 2011 года . Когда происходил разлив нефти, у меня были друзья Google BP. Это две женщины, которые во многом были очень похожи. Было получено множество результатов об экологических последствиях происходящего и разлива. Другой только что получил информацию об инвестициях и вообще ничего о разливе.
  22. ^ a b c Лазар, Шира (1 июня 2011 г.). «Алгоритмы и пузырь фильтров, разрушающий ваш онлайн-опыт?» . Huffington Post . Архивировано 13 апреля 2016 года . Проверено 15 августа 2011 года . пузырек фильтра - это образная сфера, окружающая вас при поиске в Интернете.
  23. ^ Паризер, Эли (2011-05-12). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Пингвин. ISBN 9781101515129. Архивировано 19 января 2021 года . Проверено 11 октября 2020 .
  24. ^ «Как пузыри фильтра искажают реальность: все, что вам нужно знать» . 2017-07-31. Архивировано 3 июля 2019 года . Проверено 23 июня 2019 .
  25. ^ Николов, Димитар; Оливейра, Диего FM; Фламмини, Алессандро; Менцер, Филиппо (2 декабря 2015 г.). «Измерение социальных пузырей в Интернете» . PeerJ Computer Science . 1 : e38. arXiv : 1502.07162 . Bibcode : 2015arXiv150207162N . DOI : 10.7717 / peerj-cs.38 .
  26. ^ Паризер, Эли (март 2011). «Остерегайтесь онлайн„фильтр пузыри » . Архивировано 28 мая 2018 года . Проверено 30 мая 2018 .
  27. ^ sdf (23.06.2004). «Джон Горенфельд, Мессия Луна и Медиа-эхо-камера» . Daily Kos . Архивировано 2 мая 2016 года . Проверено 24 сентября 2017 .
  28. ^ Джеймисон, Кэтлин Холл ; Капелла, Джозеф Н. (22 июля 2008 г.). Эхо-камера: Раш Лимбо и консервативный истеблишмент СМИ . Издательство Оксфордского университета . ISBN 978-0-19-536682-2. Проверено 24 сентября 2017 .
  29. ^ Hosanagar, Картик (2016-11-25). «Во всем виноват Echo Chamber на Facebook. Но вините и себя» . Проводной . Архивировано 25 сентября 2017 года . Проверено 24 сентября 2017 .
  30. ^ DiFonzo, Николай (2011-04-21). «Эффект эхокамеры» . Нью-Йорк Таймс . Архивировано 13 июня 2017 года . Проверено 24 сентября 2017 .
  31. ^ Паризер, Эли (март 2011). «Остерегайтесь онлайн„пузыри фильтра » . TED.com . Архивировано 22 сентября 2017 года . Проверено 24 сентября 2017 .
  32. ^ «Первый понедельник: Что в этом месяце показывают по телевидению, в фильмах и книгах: Пузырь с фильтрами Эли Паризера» . USA Today . 2011. Архивировано 03 мая 2011 года . Проверено 20 апреля 2011 года . Паризер объясняет, что кормление нас только тем, что нам знакомо и удобно, закрывает нам доступ к новым идеям, предметам и важной информации.
  33. ^ a b Боскер, Бьянка (7 марта 2011 г.). «Facebook, Google дает нам информацию, нездоровая пища, Эли Паризер предупреждает» . Huffington Post . Архивировано 13 марта 2011 года . Проверено 20 апреля 2011 года . Что касается контента, Google и Facebook предлагают нам слишком много конфет и мало моркови.
  34. ^ «Невидимое сито: спрятано специально для вас» . Экономист . 30 июня 2011. Архивировано 3 июля 2011 года . Проверено 27 июня 2011 года . Книга г-на Пэрисера представляет собой обзор эволюции Интернета в направлении персонализации, исследует, как представление информации меняет способ ее восприятия, и завершается рекомендациями по разрушению пузыря фильтров, окружающего каждого пользователя.
  35. ^ а б Херн (2017-05-22). «Как пузыри и алгоритмы фильтров социальных сетей влияют на выборы» . Хранитель . Архивировано 31 мая 2018 года . Проверено 30 мая 2018 .
  36. ^ Ван Алстайн, Маршалл; Бриньолфссон, Эрик (март 1997 г.) [Авторское право 1996 г.]. «Электронные сообщества: глобальная деревня или кибербалканы?» (PDF) . Архивировано (PDF) из оригинала 05.04.2016 . Проверено 24 сентября 2017 .
  37. ^ Ван Алстайн, Маршалл; Бриньолфссон, Эрик (ноябрь 1996 г.). «Может ли Интернет балканизировать науку?». Наука . 274 (5292): 1479–1480. Bibcode : 1996Sci ... 274.1479V . DOI : 10.1126 / science.274.5292.1479 . S2CID 62546078 . 
  38. Алекс Фам и Джон Хили, Tribune Newspapers: Los Angeles Times (24 сентября 2005 г.). «Системы надеются сказать вам, что вы хотите:« Механизмы предпочтений »направляют пользователей через поток контента» . Чикаго Трибьюн . Архивировано 8 декабря 2015 года . Проверено 4 декабря 2015 года . ... если бы рекомендации были безупречными, я мог бы иметь возможность разговаривать только с такими же людьми, как я ... Кибербалканизация, как придумал сценарий Бриньольфссон, не является неизбежным эффектом рекомендательных инструментов.CS1 maint: uses authors parameter (link)
  39. ^ Коллеони, Розза и Арвидссон (2014). «Эхо-палата или общественная сфера? Прогнозирование политической ориентации и измерение политической гомофилии в Twitter с использованием больших данных» (64): 317–332. Cite journal requires |journal= (help)CS1 maint: multiple names: authors list (link)
  40. Обама, Барак (10 января 2017 г.). Прощальное обращение президента Обамы (выступление). Вашингтон, округ Колумбия. Архивировано 24 января 2017 года . Проверено 24 января 2017 года .
  41. ^ Гранквист, Пер (2018-02-08). Большой пузырь: как технологии усложняют понимание мира . Издательство United Stories. п. 179. ISBN 978-91-639-5990-5.
  42. ^ Харпер, Тауэль (сентябрь 2017 г.). «Общественность больших данных и их проблемы: большие данные и структурная трансформация публичной сферы». Новые СМИ и общество . 19 (9): 1424–1439. DOI : 10.1177 / 1461444816642167 . S2CID 35772799 . 
  43. ^ а б Хосанагар, Картик; Фледер, Даниэль; Ли, Докюн; Буя, Андреас (декабрь 2013 г.). «Будет ли глобальная деревня распадаться на племена: рекомендательные системы и их влияние на потребителей». Наука управления, готовится к печати . SSRN 1321962 . 
  44. ^ Людвиг, Эмбер. "Персонализация Google в результатах поиска плюс как ее отключить" . NGNG. Архивировано из оригинального 17 августа 2011 года . Проверено 15 августа 2011 года . Настройка результатов поиска Google выполняется автоматически, но вы можете отключить эту функцию.
  45. Bruns, Axel (29 ноября 2019 г.). «Фильтр-пузырь» . Обзор интернет-политики . 8 (4). DOI : 10.14763 / 2019.4.1426 .
  46. ^ Дэвис, Хью C (сентябрь 2018 г.). «Переосмысление пузырей фильтров как (ускользающей) социально-технической рекурсии» . Социологические исследования в Интернете . 23 (3): 637–654. DOI : 10.1177 / 1360780418763824 . S2CID 149367030 . Архивировано 19 января 2021 года . Проверено 29 августа 2020 . 
  47. ^ Флаксман, Сет; Гоэль, Шарад; Рао, Джастин М. (2016). «Пузырьки фильтров, эхо-камеры и потребление новостей в Интернете». Общественное мнение ежеквартально . 80 (S1): 298–320. DOI : 10.1093 / POQ / nfw006 . S2CID 2386849 . 
  48. ^ a b «5 вопросов к Эли Паризеру, автору« Пузыря фильтров » » . Время . 16 мая 2011. Архивировано 14 апреля 2017 года . Дата обращения 24 мая 2017 .
  49. ^ a b c d e Блейберг, Джошуа; Уэст, Даррелл М. (24 мая 2017 г.). «Политическая поляризация в Facebook» . Институт Брукингса . Архивировано 10 октября 2017 года . Проверено 24 мая 2017 .
  50. ^ Бакши, E .; Мессинг, С .; Адамич, Луизиана (5 июня 2015 г.). «Знакомство с идеологически разнообразными новостями и мнениями в Facebook». Наука . 348 (6239): 1130–1132. Bibcode : 2015Sci ... 348.1130B . DOI : 10.1126 / science.aaa1160 . PMID 25953820 . S2CID 206632821 .  
  51. ^ Lumb (2015-05-08). «Почему ученые расстроены исследованием пузыря фильтров Facebook» . Архивировано 11 ноября 2017 года . Проверено 10 ноября 2017 .
  52. ^ Оремус, Will (5 апреля 2017). «Возвращение к пузырю фильтров» . Журнал Slate . Архивировано 6 февраля 2020 года . Проверено 2 марта 2020 года .
  53. ^ a b Зиндерманн, Корнелия; Эльхай, Джон Д .; Мошаген, Мортен; Монтэг, Кристиан (январь 2020 г.). «Возраст, пол, личность, идеологические взгляды и индивидуальные различия в спектре новостей человека: сколько и кто может быть склонен к« фильтрующим пузырям »и« эхо-камерам »в Интернете?» . Гелион . 6 (1): e03214. DOI : 10.1016 / j.heliyon.2020.e03214 . PMC 7002846 . PMID 32051860 .  
  54. ↑ a b Pariser, Eli (7 мая 2015 г.). «Интересные факты из нового исследования пузырей фильтров Facebook» . Средний . Архивировано 11 ноября 2017 года . Проверено 24 октября 2017 года .
  55. ^ Ламб, Дэвид (8 мая 2015). «Почему ученые расстроены исследованием пузыря фильтров Facebook» . Быстрая компания . Архивировано 23 октября 2017 года . Проверено 24 октября 2017 года .
  56. ^ Паризер, Eli (7 мая 2015). «Убило ли большое исследование Facebook мой тезис о пузыре фильтров?» . Проводной . Архивировано 11 ноября 2017 года . Проверено 24 октября 2017 года .
  57. ^ «Вопреки тому , что вы слышали, Facebook может помочь пункции наши политические„пузыри » . Vox . Архивировано 13 июня 2018 года . Проверено 30 мая 2018 .
  58. ^ Бакши, E .; Мессинг, С .; Адамич, Л.А. (2015). «Знакомство с идеологически разнообразными новостями и мнениями в Facebook». Наука . 348 (6239): 1130–1132. Bibcode : 2015Sci ... 348.1130B . DOI : 10.1126 / science.aaa1160 . PMID 25953820 . S2CID 206632821 .  
  59. ^ Барбера, PABLO (август 2015). «Как социальные сети уменьшают массовую политическую поляризацию. Данные из Германии, Испании и США». Wall Street Journal . CiteSeerX 10.1.1.658.5476 . 
  60. Перейти ↑ Hilbert, M., Ahmed, S., Cho, J., Liu, B., & Luu, J. (2018). Общение с алгоритмами: анализ энтропии переноса основанных на эмоциях побегов из онлайн-эхо-камер. Коммуникационные методы и меры, 12 (4), 260–275. https://doi.org/10.1080/19312458.2018.1479843 Архивировано 19 января 2021 года в Wayback Machine  ; https://www.martinhilbert.net/communicating-with-algorithms/ Архивировано 9 мая 2019 г. в Wayback Machine
  61. ^ Б Бейл, Кристофер; Аргайл, Лиза; Браун, Тейлор; Чен, Хаохань; Хунзакер, МБФ; Ли, Джемин (2018). «Изложение противоположных взглядов в социальных сетях может усилить политическую поляризацию» (PDF) . SocArXiv . 115 (37): 9216–9221. DOI : 10.1073 / pnas.1804840115 . PMC 6140520 . PMID 30154168 . Архивировано (PDF) из оригинала 10.04.2020 . Проверено 22 апреля 2020 .   
  62. ^ а б Мин, Йонг; Цзян, Тинцзюнь; Джин, Ченг; Ли, Цюй; Цзинь, Сяоган (2019). «Эндогенетическая структура фильтрующего пузыря в социальных сетях» . Королевское общество открытой науки . 6 (11): 190868. arXiv : 1907.02703 . Bibcode : 2019RSOS .... 690868M . DOI : 10,1098 / rsos.190868 . PMC 6894573 . PMID 31827834 .  
  63. ^ Статт, Ник (2018-12-04). «Google персонализирует результаты поиска, даже если вы вышли из системы, - утверждает новое исследование» . Грань . Архивировано 31 июля 2020 года . Проверено 22 апреля 2020 .
  64. Бучер, Тайна (25 февраля 2016 г.). «Алгоритмическое воображаемое: изучение обычных эффектов алгоритмов Facebook». Информация, коммуникация и общество . 20 - через Taylor & Francis Online.
  65. ^ "Как нам разрушить пузырь фильтров и создать демократический дизайн?" . 3 марта 2017 года. Архивировано 3 марта 2017 года . Проверено 3 марта 2017 года .
  66. ^ " " Filterblase "ist das Wort des Jahres 2016" . 7 декабря 2016 года. Архивировано 20 декабря 2016 года . Проверено 27 декабря 2016 года .
  67. Эли Паризер (май 2011 г.). Пузырь с фильтрами: что от вас скрывает Интернет . Нью-Йорк: Penguin Press. п. 17 . ISBN 978-1-59420-300-8.
  68. ^ Стивен Барон; Джон Филд; Том Шуллер (30 ноября 2000 г.). «Социальный капитал: обзор и критика». Социальный капитал: критические перспективы . Издательство Оксфордского университета. ISBN 9780199243679.
  69. ^ «Мы застряли в пузырях фильтров? Вот пять возможных путей выхода» . Nieman Lab . Архивировано 4 марта 2017 года . Проверено 3 марта 2017 .
  70. ^ Глушко, Крис (2017-02-08). «Лопните пузыри фильтра персонализации и сохраните онлайн-разнообразие» . Маркетинговая земля . Архивировано 15 марта 2017 года . Дата обращения 22 мая 2017 .
  71. ^ Ризолц, Барри. «Попробуйте разбить пузырь медиа-фильтра» . Блумберг . Архивировано 21 августа 2017 года . Дата обращения 22 мая 2017 .
  72. ^ "Официальный значок проверки фактов предвзятости СМИ" . chrome.google.com . Архивировано 13 марта 2020 года . Проверено 30 апреля 2020 .
  73. ^ a b «Будьте более терпимыми к другим - EscapeYourBubble» . escapeyourbubble.com . Архивировано 19 мая 2017 года . Проверено 24 мая 2017 .
  74. ^ «AI встречает новости» . не найдены . новости . Архивировано 11 июня 2018 года . Проверено 12 июня 2018 .
  75. ^ «Эхо-камеры, алгоритмы и запуски» . LiveMint . Архивировано 2 октября 2018 года . Проверено 12 июня 2018 .
  76. ^ a b c «Новостное приложение призвано лопнуть пузыри фильтров, подталкивая читателей к более« сбалансированной »медиа-диете» . Nieman Lab . Архивировано 15 мая 2017 года . Проверено 24 мая 2017 .
  77. ^ «uBlock Origin - эффективный блокировщик для Chromium и Firefox. Быстрый и компактный» . 2018-11-14. Архивировано 25 февраля 2017 года . Проверено 3 марта 2017 .
  78. ^ "Барсук конфиденциальности" . 2018-07-10. Архивировано 26 июля 2015 года . Проверено 3 марта 2017 .
  79. ^ "Кого вы хотите знать лучше?" . Спасайтесь от пузыря . Архивировано 4 марта 2017 года . Проверено 3 марта 2017 .
  80. ^ "Пролить свет на тех, кто наблюдает за тобой" . Луч света . Архивировано 4 марта 2017 года . Проверено 3 марта 2017 .
  81. ^ "Самоуничтожающиеся куки" . Дополнения . Архивировано 13 марта 2017 года . Проверено 3 марта 2017 .
  82. ^ Мадалины Чобану (3 марта 2017). «NZZ разрабатывает приложение, которое предоставляет читателям персонализированные новости без создания пузыря фильтров: приложение использует машинное обучение, чтобы дать читателям поток из 25 историй, которые могут быть им интересны в зависимости от их предпочтений, но« всегда включающих элемент неожиданности » » . Journalism.co.uk. Архивировано 3 марта 2017 года . Проверено 3 марта 2017 года . ... если, исходя из истории потребления, кто-то не проявил интереса к спорту, в его ленту будут включены новости о важных и важных событиях, связанных со спортом, ...
  83. ^ Каталина Albeanu (17 ноября 2016). «Разрыв пузыря фильтров после выборов в США: СМИ обречены на провал? На мероприятии в Брюсселе на этой неделе СМИ и политики обсуждали эхо-камеры в социальных сетях и борьбу с фальшивыми новостями» . Journalism.co.uk. Архивировано 10 марта 2017 года . Проверено 3 марта 2017 года . ... Референдум ЕС в Великобритании на панели на мероприятии "Политики в коммуникационном шторме" ... Помимо пузыря фильтров, партизанские страницы в Facebook также содержали диету, изобилующую фейковыми новостями ....
  84. ^ «Европейская комиссия» . Архивировано 4 марта 2017 года . Проверено 3 марта 2017 .
  85. ^ Резник, Пол; Гаррет, Р. Келли; Криплин, Трэвис; Мансон, Шон А .; Страуд, Натали Джомини (2013). «Разорвав свой (Фильтр) пузырь». Материалы конференции 2013 г., посвященной совместной работе с компьютерной поддержкой - CSCW '13 . п. 95. DOI : 10,1145 / 2441955,2441981 . ISBN 978-1-4503-1332-2. S2CID  20865375 .
  86. ^ a b Ванян, Джонатан (2017-04-25). «Facebook Тестирует статьи по теме для борьбы с пузырями фильтров» . Fortune.com . Архивировано 25 сентября 2017 года . Проверено 24 сентября 2017 .
  87. ^ Sydell, Лаура (25 января 2017). «Facebook изменяет алгоритм« Трендовых тем », чтобы лучше отражать реальные новости» . KQED Public Media. ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР. Архивировано 26 февраля 2018 года . Проверено 5 апреля 2018 года .
  88. Хао, Карен. «Google наконец-то признает, что у него есть проблема с фильтром» . Кварц . Архивировано 4 мая 2018 года . Проверено 30 мая 2018 .
  89. ^ «Facebook, Mozilla и Craigslist Крейг финансируют пожарных по фальшивым новостям» . Архивировано 23 ноября 2018 года . Проверено 14 января 2019 .
  90. ^ «Инициатива Mozilla Information Trust: создание движения по борьбе с дезинформацией в Интернете» . Блог Mozilla . Архивировано 14 января 2019 года . Проверено 14 января 2019 .
  91. ^ a b c Боздаг, Энгин; Тиммерман, Иов. «Ценности в пузыре фильтров. Этика алгоритмов персонализации в облачных вычислениях» . Исследовательские ворота . Архивировано 14 декабря 2020 года . Проверено 6 марта 2017 года .
  92. ^ Al-Rodhan, Nayef. «Многие этические последствия появления новых технологий» . Scientific American . Архивировано 8 апреля 2017 года . Проверено 6 марта 2017 года .
  93. ^ Хаим, Марио; Грефе, Андреас; Брозиус, Ханс-Бернд (16 марта 2018 г.). «Взрыв пузыря фильтра?». Цифровая журналистика . 6 (3): 330–343. DOI : 10.1080 / 21670811.2017.1338145 . S2CID 168906316 . 
  94. ^ «Пузырь фильтров поднимает важные вопросы - вам просто нужно отфильтровать их для себя» . Сеть действий тропического леса . Архивировано 8 апреля 2017 года . Проверено 6 марта 2017 года .
  95. ^ a b Стерлинг, Грег (2017-02-20). «Манифест Марка Цукерберга: Как Facebook соединит мир, победит фальшивые новости и лопнет пузырь фильтров» . Маркетинговая земля . Архивировано 8 марта 2017 года . Проверено 6 марта 2017 года .
  96. ^ a b Морозов, Евгений (10.06.2011). «Собственные факты» . Нью-Йорк Таймс . Архивировано 4 марта 2017 года . Проверено 6 марта 2017 года .
  97. ^ Hesse, Bradford W .; Нельсон, Дэвид Э .; Крепс, Гэри Л .; Кройл, Роберт Т .; Arora, Neeraj K .; Rimer, Barbara K .; Вишванат, Касисомаяджула (12 декабря 2005 г.). «Доверие и источники медицинской информации: влияние Интернета и его последствия для поставщиков медицинских услуг: результаты первого исследования национальных тенденций в области здравоохранения» . Архивы внутренней медицины . 165 (22): 2618–24. DOI : 10,1001 / archinte.165.22.2618 . PMID 16344419 . 
  98. ^ Эль-Bermawy Мостафа (2016-11-18). «Ваш пузырек фильтров разрушает демократию» . Проводной . Архивировано 9 марта 2017 года . Проверено 6 марта 2017 года .
  99. ^ «Как разорвать« пузырь фильтра », который защищает нас от противоположных взглядов» . MIT Technology Review . Архивировано 19 января 2021 года . Проверено 6 марта 2017 года .
  100. ^ Borgesius, Фредерик; Триллинг, Дамиан; Мёллер, Юдифь; Бодо, Балаж; де Вриз, Клаас; Хельбергер, Натали (31 марта 2016 г.). "Стоит ли беспокоиться о пузырьках на фильтре?" . Обзор интернет-политики . Архивировано 20 марта 2017 года . Проверено 6 марта 2017 года .
  101. ^ Паризер, Eli (2011). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем . Нью-Йорк: Penguin Press. ISBN 978-1-59420-300-8.
  102. ^ "Во славу интуитивной прозорливости" . Экономист . 9 марта 2017. Архивировано 15 января 2019 года . Проверено 14 января 2019 .
  103. ^ Reviglio, Urbano (июнь 2019). «Интуиция как развивающийся принцип построения инфосферы: проблемы и возможности». Этика и информационные технологии . 21 (2): 151–166. DOI : 10.1007 / s10676-018-9496-у . S2CID 57426650 . 
  104. ^ Харамбам, Джарон; Хельбергер, Натали; ван Хобокен, Йорис (28 ноября 2018 г.). «Демократизация алгоритмических рекомендателей новостей: как материализовать голос в технологически насыщенной медиа-экосистеме» . Философские труды Королевского общества A: математические, физические и технические науки . 376 (2133): 20180088. Bibcode : 2018RSPTA.37680088H . DOI : 10,1098 / rsta.2018.0088 . PMC 6191663 . PMID 30323002 .  
  105. ^ Herrman, Джон (24 августа 2016). «Внутри (Совершенно безумной, непреднамеренно гигантской, гиперпартийной) политико-медиа машины Facebook» . Нью-Йорк Таймс . Архивировано 19 октября 2017 года . Проверено 24 октября 2017 года .
  106. ^ Дель Викарио, Микела; Бесси, Алессандро; Золло, Фабиана; Петрони, Фабио; Скала, Антонио; Калдарелли, Гвидо; Стэнли, Х. Юджин; Quattrociocchi, Вальтер (19 января 2016 г.). «Распространение дезинформации в сети» . Труды Национальной академии наук . 113 (3): 554–559. Bibcode : 2016PNAS..113..554D . DOI : 10.1073 / pnas.1517441113 . PMC 4725489 . PMID 26729863 .  
  107. Granville, Кевин (19 марта 2018 г.). «Facebook и Cambridge Analytica: что нужно знать о расширении Fallout» . Нью-Йорк Таймс . Архивировано 19 октября 2018 года . Проверено 19 октября 2018 года .
  108. Мередит, Сэм (10 апреля 2018 г.). «Facebook-Cambridge Analytica: хронология скандала с похищением данных» . Архивировано 19 октября 2018 года . Проверено 19 октября 2018 года .
  109. ^ a b Гросс, Майкл (январь 2017 г.). «Опасности постправдивого мира» . Текущая биология . 27 (1): R1 – R4. DOI : 10.1016 / j.cub.2016.12.034 .
  110. ^ «Как пузыри фильтра искажают реальность: все, что вам нужно знать» . Фарнам-стрит . 2017-07-31. Архивировано 20 мая 2019 года . Проверено 21 мая 2019 .
  111. ^ Блюдо, The Daily (2010-10-10). «Фильтр-пузырь» . Атлантика . Архивировано 22 августа 2017 года . Проверено 21 мая 2019 .
  112. ^ a b «Архивная копия» . Архивировано 23 октября 2020 года . Проверено 22 октября 2020 .CS1 maint: archived copy as title (link)
  113. ^ "Архивная копия" . Архивировано 22 октября 2020 года . Проверено 22 октября 2020 .CS1 maint: archived copy as title (link)
  114. ^ a b Менкедик, Сара (14 мая 2020 г.). «Почему к американским детям относятся как к особому виду, нежели к взрослым?» . Эон . Архивировано 15 мая 2020 года . Проверено 15 мая 2020 .

Дальнейшее чтение [ править ]

  • Паризер, Эли. Пузырь фильтров: что Интернет скрывает от вас , Penguin Press (Нью-Йорк, май 2011 г.) ISBN 978-1-59420-300-8 
  • Грин, Холли (29 августа 2011 г.). "Вырваться из вашего пузыря интернет-фильтров" . Forbes . Проверено 4 декабря 2011 года .
  • Фридман, Энн (2014). "Вирусный рост". Columbia Journalism Review . 52 (6): 33–34.
  • Боздаг, Энгин; ван ден Ховен, Йерун (декабрь 2015 г.). «Разрушение пузыря фильтров: демократия и дизайн» . Этика и информационные технологии . 17 (4): 249–265. DOI : 10.1007 / s10676-015-9380-у .
  • boyd, danah m .; Эллисон, Николь Б. (октябрь 2007 г.). «Сайты социальных сетей: определение, история и наука» . Журнал компьютерных коммуникаций . 13 (1): 210–230. DOI : 10.1111 / j.1083-6101.2007.00393.x . S2CID  52810295 .
  • Nguyen, Tien T .; Хуэй, Пик-Май; Харпер, Ф. Максвелл; Тервин, Лорен; Констан, Джозеф А. (2014). «Изучение пузыря фильтров: влияние использования рекомендательных систем на разнообразие контента». Материалы 23-й Международной конференции по всемирной паутине - WWW '14 : 677–686. DOI : 10.1145 / 2566486.2568012 . S2CID  16747810 .
  • Резник, Пол; Гаррет, Р. Келли; Криплин, Трэвис; Мансон, Шон А .; Страуд, Натали Джомини (2013). «Лопнув свой (фильтрующий) пузырь: стратегии продвижения разнообразного воздействия». Материалы конференции 2013 г. по компаньону для совместной работы с компьютерной поддержкой - CSCW '13 : 95. doi : 10.1145 / 2441955.2441981 . S2CID  20865375 .
  • Ляо, К. Вера; Фу, Вай-Тат (2013). «За пределами пузыря фильтров: интерактивные эффекты предполагаемой угрозы и вовлеченности темы при выборочном воздействии на информацию». Материалы конференции SIGCHI по человеческому фактору в вычислительных системах - CHI '13 : 2359. doi : 10.1145 / 2470654.2481326 . S2CID  8504434 .
  • Холоне, Харальд (2016). «Пузырь фильтров и его влияние на личную медицинскую информацию в Интернете» . Хорватский медицинский журнал . 57 (3): 298–301. DOI : 10,3325 / cmj.2016.57.298 . PMC  4937233 . PMID  27374832 .

Внешние ссылки [ править ]

  • Остерегайтесь пузырей онлайн-фильтров . TED Talks , март 2011 г.