WikiDer > Пузырь с фильтром - Википедия

Filter bubble - Wikipedia
Термин был придуман интернет-активистом Эли Паризер около 2010 г.

А пузырьковый фильтр - термин, придуманный интернет-активистом Эли Паризер - это состояние интеллектуальной изоляции[1] что может быть результатом персонализированный поиск когда сайт алгоритм выборочно угадывает, какую информацию пользователь хотел бы видеть, основываясь на информации о пользователе, такой как местоположение, прошлые клики и история поиска.[2][3][4] В результате пользователи отделяются от информации, которая не соответствует их точкам зрения, эффективно изолируя их в своих культурных или идеологических пузырях.[5] Выбор, сделанный этими алгоритмами, непрозрачен.[6] Яркие примеры включают Персонализированный поиск Google результаты и Facebookс персонализированный новостной поток. Эффект пузыря может иметь негативные последствия для гражданского общества. дискурс, по словам Паризера, но противоположные мнения считают эффект минимальным.[7] и адресный.[8] Результаты Президентские выборы в США в 2016 году были связаны с влиянием социальных сетей, таких как Twitter и Facebook,[9][10] и в результате поставили под сомнение влияние феномена "пузыря фильтра" на воздействие на пользователя фальшивые новости и эхо-камеры,[11] пробуждая новый интерес к сроку,[12] многие обеспокоены тем, что это явление может нанести вред демократии и благополучие усугубляя последствия дезинформации.[13][14][12][15][16][17]

(Такие технологии, как социальные сети) «позволяют вам общаться с единомышленниками, поэтому вы не смешиваете, не разделяете и не понимаете другие точки зрения ... Это очень важно. Это оказалось большей проблемой, чем я или многие другие ожидали ».

Концепция

Социальные сети, стремясь угодить пользователям, могут скрывать информацию, которую, по их мнению, пользователям понравится слышать, но непреднамеренно изолировать то, что они знают, в свою собственную. фильтровать пузыри, по словам Паризера.

Термин был придуман интернет-активист Эли Паризер около 2010 года и обсуждалось в его одноименной книге 2011 года; Согласно Паризеру, пользователи меньше сталкиваются с противоречивыми точками зрения и интеллектуально изолированы в собственном информационном пузыре.[19] Он привел пример, в котором один пользователь искал в Google по запросу "ВР" и получил новости об инвестициях в British Petroleum, а другой поисковик получил информацию о Разлив нефти Deepwater Horizon, и отметил, что две страницы результатов поиска были «разительно разными».[19][20][21][7]

Паризер определил свою концепцию пузыря фильтров в более формальных терминах как «этот личный экосистема из Информация это обслуживается этими алгоритмами ".[19] История просмотров и поиска пользователей Интернета накапливается с течением времени, когда они показывают интерес к темам, «щелкая ссылки, просматривая друзей, помещая фильмы в [свою] очередь, читая новости» и т. Д.[22] Затем интернет-компания использует эту информацию для целевая реклама пользователю, или сделать определенные типы информации более заметными в страницы результатов поиска.[22]

Этот процесс не является случайным, поскольку он осуществляется в рамках трехэтапного процесса, согласно Паризеру, который утверждает: «Сначала вы выясняете, кто такие люди и что им нравится. Затем вы предоставляете им контент и услуги, которые им лучше всего подходят. Наконец, вы настраиваетесь так, чтобы идеально подходить. Ваша личность формирует ваши медиа ".[23] Паризер также сообщает:

По словам одного Исследование Wall Street Journal50 ведущих интернет-сайтов, от CNN до Yahoo и MSN, устанавливают в среднем по 64 файла cookie с данными и персональные маяки отслеживания. Поищите на Dictionary.com такое слово, как «депрессия», и этот сайт установит на ваш компьютер до 223 файлов cookie и маяков для отслеживания, чтобы другие веб-сайты могли назначить вам антидепрессанты. Поделитесь статьей о кулинарии в ABC News, и в Интернете вас могут преследовать объявления о кастрюлях с тефлоновым покрытием. Откройте - хотя бы на мгновение - страницу со списком признаков того, что ваш (а) супруг (а), возможно, изменяет, и приготовьтесь к тому, что вас преследуют объявления с тестами на отцовство ДНК.[24]

Доступ к данным о кликах по ссылкам, отображаемых с помощью измерений посещаемости сайта, позволяет определить, какие пузыри фильтров могут быть коллективными или индивидуальными.

[25]

По состоянию на 2011 год один инженер сказал Паризеру, что Google изучил 57 различных фрагментов данных, чтобы персонально адаптировать результаты поиска пользователя, включая данные, не относящиеся к файлам cookie, такие как тип используемого компьютера и физическое местоположение пользователя.[26]

Для описания этого явления использовались и другие термины, в том числе "идеологические рамки"[20] и «образная сфера, окружающая вас, когда вы ищете в Интернете».[22] Родственный термин «эхо-камера» изначально применялся к средствам массовой информации,[27][28] но теперь применяется и к социальным сетям.[29][30]

Идея Паризера о пузыре фильтров была популяризирована после Выступление на TED он дал в мае 2011 года, в котором он приводит примеры того, как работают пузырьки-фильтры и где их можно увидеть. В ходе теста, стремящегося продемонстрировать эффект пузыря фильтра, Паризер попросил нескольких друзей поискать слово «Египет» в Google и прислать ему результаты. Сравнивая две первые страницы результатов друзей, хотя они частично пересекались по таким темам, как новости и путешествия, результаты одного друга заметно включали ссылки на информацию о текущих в то время Египетская революция 2011 года, в то время как первая страница результатов другого друга не содержала таких ссылок.[31]

В Пузырь фильтра, Паризер предупреждает, что потенциальным недостатком фильтрованного поиска является то, что он «закрывает нам доступ к новым идеям, темам и важной информации»,[32] и «создает впечатление, что наши узкие интересы - это все, что существует».[20] По его мнению, это потенциально вредно как для людей, так и для общества. Он критиковал Google и Facebook за предложение пользователям «слишком много конфет и мало моркови».[33] Он предупредил, что «невидимое алгоритмическое редактирование сети» может ограничить доступ к новой информации и сузить кругозор.[33] По словам Паризера, пагубные последствия пузырей фильтров включают вред для общества в целом в том смысле, что они могут «подорвать гражданский дискурс» и сделать людей более уязвимыми для «пропаганды и манипуляций».[20] Он написал:

Мир, созданный из знакомого, - это мир, в котором нечему учиться ... (поскольку существует) невидимая автопропаганда, внушающая нам наши собственные идеи.

— Эли Паризер в Экономист, 2011[34]

Многие люди даже не подозревают о существовании пузырей фильтров. Это можно увидеть в статье в The Guardian, в которой упоминается тот факт, что «более 60% пользователей Facebook совершенно не знают о каких-либо действиях на Facebook, вместо этого полагая, что каждая история от их друзей и страниц, на которые они подписаны, появляются в их Новостная лента."[35] Краткое объяснение того, как Facebook решает, что публикуется в новостной ленте, дается с помощью алгоритма, который учитывает, «как вы взаимодействовали с похожими сообщениями в прошлом».[35]

Пузырь на фильтре был описан как обострение явления, которое было названо splinternet или же кибербалканизация,[Примечание 1] что происходит, когда Интернет разделяется на подгруппы единомышленников, которые становятся изолированными внутри своего собственного онлайн-сообщества и не могут получить доступ к различным взглядам. Это беспокойство возникло на заре появления общедоступного Интернета, когда термин «кибербалканизация» был придуман в 1996 году.[36][37][38]

Подобные концепции

В СМИ, эхо-камера - метафорическое описание ситуации, в которой убеждения усиливаются или подкрепляются общением и повторением внутри замкнутой системы. Посещая «эхо-камеру», люди могут искать информацию, которая подкрепляет их существующие взгляды, потенциально как бессознательное упражнение Подтверждение смещения. Это может усилить политическую и социальную поляризацию и экстремизм. Этот термин представляет собой метафору, основанную на акустической эхо-камере, где звуки отразиться в пустотелом корпусе. «Эхо-камеры» укрепляют убеждения человека без фактической поддержки. Их окружают те, кто признает и придерживается одной и той же точки зрения.[39]

Прощальное обращение Барака Обамы определили аналогичную концепцию фильтрации пузырей как «угрозу [американской] демократии», то есть «отступление в наши собственные пузыри ... особенно в наши каналы социальных сетей в окружении людей, которые похожи на нас и разделяют те же политические взгляды. мировоззрения и никогда не оспаривать наши предположения ... И все больше мы становимся настолько безопасными в своих пузырях, что начинаем принимать только информацию, правда она или нет, которая соответствует нашему мнению, вместо того, чтобы основывать свое мнение на имеющихся доказательствах ".[40]

Реакции и исследования

Реакция СМИ

Существуют противоречивые отчеты о том, в какой степени происходит персонализированная фильтрация и является ли такая деятельность полезной или вредной. Аналитик Якоб Вайсберг, в июне 2011 г. Шифер, провел небольшой ненаучный эксперимент по проверке теории Паризера, в котором участвовали пять сотрудников с различным идеологическим прошлым, проводившие серию поисков »,Джон Бонер", "Барни Франк", "План Райана", и "Obamacare", и отправив Вайсбергу скриншоты своих результатов. Результаты различались лишь в незначительных аспектах от человека к человеку, и любые различия, похоже, не были связаны с идеологией, что привело Вайсбергу к выводу, что пузырек фильтров не действовал, и написал что идея о том, что большинство пользователей Интернета «кормилась на корню Ежедневно меня"было преувеличено.[20] Вайсберг попросил Google прокомментировать, и представитель компании заявил, что существуют алгоритмы, которые намеренно «ограничивают персонализацию и способствуют разнообразию».[20] Рецензент Пол Бутен провел эксперимент, аналогичный эксперименту Вейсберга, среди людей с разной историей поиска и снова обнаружил, что разные искатели получали почти одинаковые результаты поиска.[7] Беседуя с программистами в Google, журналист Пер Гранквист обнаружил, что пользовательские данные раньше играли большую роль в определении результатов поиска, но Google в ходе тестирования обнаружил, что поисковый запрос, безусловно, является лучшим фактором, определяющим, какие результаты отображать.[41]

Есть сообщения о том, что Google и другие сайты хранят обширные "досье" информации о своих пользователях, которые могут позволить им дополнительно персонализировать индивидуальный опыт работы в Интернете, если они захотят это сделать. Например, существует технология, позволяющая Google отслеживать прошлые истории пользователей, даже если у них нет личной учетной записи Google или они не вошли в нее.[7] В одном из отчетов говорилось, что Google собрал «за 10 лет» информацию, собранную из различных источников, таких как Gmail, Карты Гугл, и другие службы помимо поисковой системы,[21][неудачная проверка] хотя сообщалось об обратном, попытка персонализировать Интернет для каждого пользователя была технически сложной задачей для интернет-фирмы, несмотря на огромное количество доступных данных.[нужна цитата] Аналитик Дуг Гросс из CNN предположил, что отфильтрованный поиск кажется более полезным для потребители чем для граждане, и поможет потребителю, ищущему "пиццу", найти варианты местной доставки на основе персонализированного поиска и соответствующим образом отфильтровать удаленные магазины пиццы.[21][неудачная проверка] Такие организации, как Вашингтон Пост, Нью-Йорк Таймс, и другие экспериментировали с созданием новых персонализированных информационных служб с целью адаптации результатов поиска к тем, которые пользователям могут понравиться или с которыми они согласятся.[20]

Академические исследования и реакции

В книге «Общественность больших данных и ее проблемы» Тауэль Харпер предполагает, что потеря редакционной субсидии на самом деле создает более однородную и нормализованную общественную сферу, чем традиционные печатные СМИ.[42] Процесс выбора значимости, закон больших чисел и мощность ранее существовавших сетей означает, что алгоритмический выбор имеет тенденцию укреплять нормы и еще больше маргинализировать различия в цифровых публикациях.

Научное исследование от Wharton это проанализировано персональные рекомендации также обнаружил, что эти фильтры действительно могут создавать общность, а не фрагментацию во вкусе онлайн-музыки.[43] Сообщается, что потребители используют фильтры для расширения своего вкуса, а не для его ограничения.[43] Профессор права Гарварда Джонатан Зиттрейн оспаривал степень, в которой фильтры персонализации искажают результаты поиска Google, заявив, что «влияние персонализации поиска было незначительным».[20] Кроме того, Google предоставляет пользователям возможность отключать функции персонализации, если они того пожелают,[44] путем удаления записи Google об их истории поиска и настройки Google не запоминать их ключевые слова для поиска и посещенные ссылки в будущем.[7]

Исследование от Обзор интернет-политики устранена проблема отсутствия четкого и проверяемого определения пузырей фильтров по дисциплинам; это часто приводит к тому, что исследователи по-разному определяют и изучают пузырьки-фильтры.[45] Впоследствии исследование объяснило отсутствие эмпирических данных о существовании пузырей фильтров в разных дисциплинах.[11] и предположил, что приписываемые им эффекты могут происходить скорее из уже существовавших идеологических предубеждений, чем из алгоритмов. Подобные взгляды можно найти и в других академических проектах, которые также обращаются к проблемам с определениями пузырей фильтров и взаимосвязями между идеологическими и технологическими факторами, связанными с ними.[46]

В исследовании, проведенном учеными из Оксфорда, Стэнфорда и Microsoft, были изучены истории просмотров 1,2 миллиона пользователей из США. Панель инструментов Bing надстройка для Internet Explorer в период с марта по май 2013 года. Они выбрали 50 000 из тех пользователей, которые были активными потребителями новостей, а затем классифицировали, являются ли новостные агентства, которые они посещали, левыми или правыми, в зависимости от того, большинство ли проголосовавших в округа, связанные с IP-адресами пользователей, голосовали за Обаму или Ромни на президентских выборах 2012 года. Затем они определили, читались ли новости после прямого доступа к сайту издателя, через службу агрегирования новостей Google, через поиск в Интернете или через социальные сети. Исследователи обнаружили, что, хотя веб-поиск и социальные сети действительно способствуют идеологической сегрегации, подавляющее большинство потребления новостей в Интернете состояло из пользователей, которые напрямую посещали левые или правые основные новостные сайты, и, следовательно, были доступны почти исключительно для взглядов с одной стороны. политического спектра. Ограничения исследования включали проблемы отбора, такие как возрастные отклонения пользователей Internet Explorer выше, чем у всего интернет-населения; Использование панели инструментов Bing и добровольное (или незнание) предоставление доступа к истории просмотров для пользователей, которые меньше озабочены конфиденциальностью; предположение, что все статьи в левых публикациях левые, и то же самое для правых; и возможность того, что пользователи, которые нет активные потребители новостей могут получать большую часть своих новостей через социальные сети и, таким образом, испытывать более сильное влияние социальных или алгоритмический уклон чем те пользователи, которые, по сути, сами выбирают свою предвзятость посредством выбора новостных публикаций (при условии, что они знают о предвзятости публикаций).[47]

Платформенные исследования

Хотя алгоритмы действительно ограничивают политическое разнообразие, часть пузыря фильтров является результатом выбора пользователя.[48] Исследование, проведенное специалистами по данным в Facebook, показало, что на каждые четыре друга Facebook, разделяющих идеологию, приходится один друг с противоположными взглядами.[49][50] Независимо от того, какой алгоритм Facebook использует Новостная лента То есть люди просто с большей вероятностью будут дружить / следовать за людьми, разделяющими схожие убеждения.[49] Суть алгоритма заключается в том, что он ранжирует истории на основе истории пользователя, что приводит к сокращению «политически сквозного содержания на 5 процентов для консерваторов и на 8 процентов для либералов».[49] Однако даже когда людям предоставляется возможность щелкнуть ссылку, предлагающую противоположные взгляды, они по-прежнему выбирают наиболее просматриваемые источники.[49] «[U] ser выбор снижает вероятность нажатия на сквозную ссылку на 17 процентов для консерваторов и на 6 процентов для либералов».[49] Сквозная ссылка - это ссылка, которая представляет точку зрения, отличную от предполагаемой точки зрения пользователя или того, что веб-сайт считает убеждениями пользователя.[51] Недавнее исследование Леви Бокселла, Мэтью Генцкова и Джесси М. Шапиро предполагает, что онлайн-СМИ не являются движущей силой политической поляризации.[52] В документе утверждается, что поляризация была вызвана демографическими группами, которые проводят меньше всего времени в Интернете. Наибольший идеологический раскол наблюдается среди американцев старше 75 лет, в то время как только 20% сообщили об использовании социальных сетей по состоянию на 2012 год. Напротив, 80% американцев в возрасте 18–39 лет сообщили об использовании социальных сетей по состоянию на 2012 год. Данные свидетельствуют о том, что более молодые демографические В 2012 году поляризация не стала более поляризованной, чем в 1996 году, когда онлайновые СМИ практически не существовали. Исследование подчеркивает различия между возрастными группами и то, как потребление новостей остается поляризованным, поскольку люди ищут информацию, которая соответствует их предубеждениям. Американцы старшего возраста обычно остаются неизменными в своих политических взглядах, поскольку традиционные средства массовой информации продолжают оставаться основным источником новостей, в то время как онлайн-СМИ являются ведущим источником для молодежи. Хотя алгоритмы и пузыри фильтров ослабляют разнообразие контента, это исследование показывает, что тенденции политической поляризации в первую очередь обусловлены существовавшими ранее взглядами и неспособностью распознать внешние источники. В исследовании 2020 года, проведенном в Германии, использовалась модель психологии большой пятерки для проверки влияния индивидуальной личности, демографии и идеологий на потребление новостей пользователями.[53] Основываясь на своем исследовании, основанном на представлении о том, что количество источников новостей, которые используют пользователи, влияет на их вероятность оказаться в пузыре фильтров (более широкое разнообразие СМИ снижает шансы), их результаты предполагают, что определенные демографические данные (более высокий возраст и мужчины) наряду с определенной личностью характеристики (высокая открытость) положительно коррелируют с количеством источников новостей, потребляемых отдельными лицами. Исследование также обнаружило негативную идеологическую связь между разнообразием СМИ и степенью приверженности пользователей правому авторитаризму. Помимо предложения различных индивидуальных факторов пользователя, которые могут влиять на выбор роли, это исследование также поднимает вопросы и вызывает ассоциации между вероятностью попадания пользователей в пузыри фильтров и поведением пользователей при голосовании.[53]

Исследование Facebook показало, что было «неубедительным», играет ли алгоритм такую ​​большую роль в фильтрации. Ленты новостей как люди предполагали.[54] Исследование также показало, что "индивидуальный выбор" или предвзятость подтверждения также влияет на то, что отфильтровывается из лент новостей.[54] Некоторые социологи раскритиковали этот вывод, потому что протест против пузыря фильтров состоит в том, что алгоритмы и индивидуальный выбор работают вместе, чтобы отфильтровать новостные ленты.[55] Они также раскритиковали небольшой размер выборки Facebook, который составляет около «9% реальных пользователей Facebook», и тот факт, что результаты исследования «не воспроизводятся» из-за того, что исследование было проведено «учеными Facebook», которые имели доступ к данные, которые Facebook не предоставляет сторонним исследователям.[56]

Хотя исследование показало, что только около 15–20% друзей среднего пользователя Facebook подписываются на противоположную сторону политического спектра, Юлия Каман из Vox предположил, что это может иметь потенциально положительные последствия для разнообразия точек зрения. Эти «друзья» часто являются знакомыми, с которыми мы вряд ли расскажем о нашей политике без Интернета. Facebook может создать уникальную среду, в которой пользователь видит и, возможно, взаимодействует с контентом, размещенным или повторно размещенным этими друзьями «второго уровня». Исследование показало, что «24 процента новостей, которые видели либералы, были консервативными, а 38 процентов новостей, которые видели консерваторы, были либеральными».[57] «Либералы, как правило, связаны с меньшим количеством друзей, которые делятся информацией с другой стороны, по сравнению с их консервативными коллегами».[58] Это взаимодействие позволяет предоставлять разнообразную информацию и источники, которые могут модерировать мнения пользователей.

Точно так же исследование Twitterфильтрует пузыри от Нью-Йоркский университет пришел к выводу, что «люди теперь имеют доступ к более широкому кругу точек зрения на новостные события, и большая часть этой информации поступает не по традиционным каналам, а напрямую от политических деятелей или через их друзей и родственников. Кроме того, интерактивный характер социальные медиа создает возможности для людей обсуждать политические события со своими сверстниками, в том числе с теми, с кем у них слабые социальные связи ".[59] Согласно этим исследованиям, социальные сети могут разнообразить информацию и мнения, с которыми пользователи контактируют, хотя существует много предположений о пузырях фильтров и их способности создавать более глубокие политическая поляризация.

Визуализация процесса и роста двух социальных сетей-ботов, использованных в 2019 году Weibo изучать. Согласно исследованию, диаграммы представляют два аспекта структуры пузырей фильтров: большая концентрация пользователей вокруг отдельных тем и однонаправленная звездообразная структура, влияющая на ключевые информационные потоки.

Социальные боты были использованы различными исследователями для проверки поляризации и связанных с ней эффектов, которые приписываются фильтрующим пузырькам и эхо-камерам.[60][61] В исследовании 2018 года в Твиттере использовались социальные боты для проверки преднамеренного воздействия на пользователей сторонних взглядов.[60] В исследовании утверждалось, что оно продемонстрировало пристрастные различия между воздействием различных взглядов, хотя и предупреждалось, что результаты должны быть ограничены зарегистрированными партиями американских пользователей Twitter. Один из основных выводов заключался в том, что после воздействия различных взглядов (предоставленных ботами) саморегистрирующиеся республиканцы стали более консервативными, в то время как саморегистрируемые либералы продемонстрировали меньше идеологических изменений, если вообще не изменились. Другое исследование, проведенное в Китайской Народной Республике, использовало социальных ботов на Weibo- крупнейшая платформа социальных сетей в Китае - для изучения структуры пузырей фильтров с точки зрения их влияния на поляризацию.[61] В исследовании проводится различие между двумя концепциями поляризации. В одном случае люди с похожими взглядами объединяются в группы, разделяют схожие мнения и блокируют разные точки зрения (поляризация мнений), а во втором - люди не имеют доступа к разнообразному контенту и источникам информации (поляризация информации). Используя социальных ботов вместо людей-добровольцев и уделяя больше внимания поляризации информации, а не основанной на мнении, исследователи пришли к выводу, что существует два основных элемента пузыря фильтров: большая концентрация пользователей вокруг одной темы и однонаправленная звезда. -подобная структура, влияющая на ключевые информационные потоки.

В июне 2018 года платформа DuckDuckGo провела исследование на платформе веб-браузера Google. В рамках этого исследования 87 взрослых людей из разных уголков континентальной части США в одно и то же время гуглили три ключевых слова: иммиграция, контроль над огнестрельным оружием и вакцинация. Даже в режиме приватного просмотра большинство людей видели результаты, уникальные для них. Google включил определенные ссылки для некоторых, но не включил для других участников, а информационные окна "Новости" и "Видео" значительно различались. Google публично оспорил эти результаты, заявив, что персонализация страницы результатов поисковой системы (SERP) в основном является мифом. Сотрудник службы поддержки Google Search, Дэнни Салливан, заявил: «С годами сложился миф о том, что поиск Google настолько персонализируется, что для одного и того же запроса разные люди могут получать существенно разные результаты друг от друга. Это не так. Результаты могут отличаться, но обычно по неперсонализированным причинам ».[62]

Когда пузырьки фильтра находятся на месте, они могут создавать особые моменты, которые ученые называют моментами «Вау». Момент «Вау» - это когда на вашем компьютере появляется статья, реклама, пост и т. Д., Которые связаны с текущим действием или текущим использованием объекта. Ученые обнаружили этот термин после того, как молодая женщина выполняла свой распорядок дня, в том числе пила кофе, когда она открыла свой компьютер и заметила рекламу той же марки кофе, которую пила. "Сел и открыл Facebook сегодня утром, пока пил кофе, и там были две рекламы для Nespresso. Что-то вроде «эй», когда продукт, который вы пьете, появляется на экране перед вами ».[63] Бывают моменты «ох», когда людей «находят». Это означает, что рекламные алгоритмы нацелены на конкретных пользователей на основе их «поведения при клике», чтобы увеличить их доход от продаж. Моменты «вау» также могут воспламенить дисциплину в пользователях, чтобы они придерживались рутины и общности с продуктом.

Несколько дизайнеров разработали инструменты для противодействия эффекту пузырей фильтров (см. § Контрмеры).[64] Швейцарская радиостанция SRF проголосовал за слово фильтр (немецкий перевод пузыря фильтров) слово года 2016.[65]

Контрмеры

Физическими лицами

В Пузырь с фильтрами: что от вас скрывает Интернет,[66] интернет-активист Эли Паризер подчеркивает, как учащение пузырей фильтров еще больше подчеркивает ценность преодоления препятствий социальный капитал по определению Роберта Путмана. В самом деле, в то время как объединение капитала соответствует, с одной стороны, установлению прочных связей между единомышленниками, таким образом усиливая некоторое чувство социальной однородности, объединение социального капитала, с другой стороны, представляет собой создание слабых связей между людьми с потенциально расходящимися интересами и точки зрения, что вносит значительно большую неоднородность.[67] В этом смысле высокий промежуточный капитал с большей вероятностью будет способствовать социальной интеграции за счет увеличения нашего присутствия в пространстве, где мы решаем проблемы, выходящие за рамки наших ниш и узких личных интересов. Таким образом, наращивание своего связующего капитала - например, путем общения с большим количеством людей в неформальной обстановке - может быть эффективным способом уменьшить влияние феномена пузыря фильтров.

Фактически, пользователи могут предпринять множество действий, чтобы прорваться сквозь пузыри фильтров, например, приложив сознательные усилия для оценки информации, которой они подвергаются, и критически оценив, взаимодействуют ли они с широким спектром контента.[68] Эта точка зрения утверждает, что пользователи должны изменить психологию своего подхода к СМИ, а не полагаться на технологии для противодействия их предубеждениям. Пользователи могут сознательно избегать неподдающихся проверке или слабых источников новостей. Крис Глушко, вице-президент по маркетингу IAB, выступает за использование проверка фактов сайты для выявления фейковых новостей.[69] Технологии также могут сыграть важную роль в борьбе с пузырями на фильтрах.[70]

Такие сайты, как allsides.com,theflipside.io, hifromtheotherside.com, и factualsearch.news стремятся познакомить читателей с разными точками зрения с разнообразным содержанием. Некоторые дополнительные плагины, например, Проверка фактов о предвзятости СМИ,[71] направлены на то, чтобы помочь людям выйти из своих пузырей фильтров и рассказать им об их личных перспективах; таким образом, эти СМИ показывают контент, противоречащий их убеждениям и мнениям. Например, Escape Your Bubble просит пользователей указать конкретную политическую партию, о которой они хотят быть более информированными.[72] Затем плагин предложит прочитать статьи из авторитетных источников, относящиеся к этой политической партии, побуждая пользователей больше узнать о другой партии.[72] Помимо плагинов, существуют приложения, созданные с целью побудить пользователей открывать свои эхо-камеры. UnFound.news предлагает ИИ (Искусственный интеллект) кураторское новостное приложение для читателей, представляющее им новости с разных и разных точек зрения, помогая им формировать обоснование и информированное мнение, а не поддаваться собственным предубеждениям.Это также подталкивает читателей к прочтению различных точек зрения, если их модель чтения смещена в сторону одной стороны / идеологии.[73][74] Читать через проход - это новостное приложение, которое показывает, читают ли пользователи из разных новых источников, которые включают разные точки зрения.[75] Каждый источник скоординирован по цвету, что отражает политическую направленность каждой статьи.[75] Когда пользователи читают новости только с одной точки зрения, приложение сообщает об этом пользователю и побуждает читателей исследовать другие источники с противоположных точек зрения.[75] Хотя приложения и плагины - это инструменты, которые могут использовать люди, Эли Паризер заявил, что «безусловно, здесь есть некоторая индивидуальная ответственность за поиск новых источников и людей, которые не похожи на вас».[48]

Поскольку интернет-реклама может усиливать эффект пузырей фильтров, открывая для пользователей большее количество одного и того же контента, пользователи могут блокировать большую часть рекламы, удаляя историю поиска, отключая целевую рекламу и загружая расширения браузера.[76][77] Расширения, такие как Escape your Bubble[78] для Google Chrome направлены на то, чтобы помогать курировать контент и предотвращать доступ пользователей только к предвзятой информации, в то время как расширения Mozilla Firefox, такие как Lightbeam[79] и самоуничтожающиеся файлы cookie[80] позволяют пользователям визуализировать, как отслеживаются их данные, и позволяет им удалить часть отслеживания печенье. Некоторые используют анонимные или неперсонализированные поисковые системы, такие как YaCy, УткаУтка, Qwant, Startpage.com, Отключить, и Searx для того, чтобы компании не могли собирать данные своего веб-поиска. Swiss daily Neue Zürcher Zeitung проводит бета-тестирование персонализированного приложения для работы с новостями, которое использует машинное обучение, чтобы угадывать, какой контент интересует пользователя, при этом «всегда включая элемент неожиданности»; идея состоит в том, чтобы смешивать истории, за которыми пользователь вряд ли следил в прошлом.[81]

Европейский Союз принимает меры, чтобы уменьшить эффект пузыря фильтра. В Европейский парламент спонсирует исследования того, как пузыри фильтров влияют на способность людей получать доступ к разнообразным новостям.[82] Кроме того, он представил программу, направленную на информирование граждан о социальных сетях.[83] В США панель CSCW предлагает использовать приложения-агрегаторы новостей для расширения приема новостей потребителями СМИ. Приложения-агрегаторы новостей сканируют все текущие новостные статьи и направляют вас к различным точкам зрения по определенной теме. Пользователи также могут использовать разнообразный балансировщик новостей, который визуально показывает потребителю СМИ, наклоняется ли он влево или вправо, когда дело доходит до чтения новостей, указывая на наклон вправо с большей красной полосой или влево с большей синей полосой. Исследование, оценивающее этот балансировщик новостей, обнаружило «небольшое, но заметное изменение в поведении читателя в сторону более сбалансированного воздействия среди пользователей, наблюдающих обратную связь, по сравнению с контрольной группой».[84]

Медиа-компаниями

В свете недавних опасений по поводу фильтрации информации в социальных сетях Facebook признал наличие пузырей фильтров и предпринял шаги по их удалению.[85] В январе 2017 года Facebook удалил персонализацию из своего списка популярных тем из-за проблем, связанных с тем, что некоторые пользователи не видели там обсуждаемых событий.[86] Стратегия Facebook состоит в том, чтобы отменить функцию «Похожие статьи», которую он реализовал в 2013 году, которая будет публиковать связанные новости после того, как пользователь прочитает общую статью. Теперь обновленная стратегия изменила бы этот процесс и публиковала статьи с разных точек зрения на одну и ту же тему. Facebook также пытается пройти процедуру проверки, при которой будут отображаться только статьи из авторитетных источников. Вместе с основателем Craigslist и некоторые другие, Facebook инвестировал 14 миллионов долларов в усилия, «чтобы повысить доверие к журналистике во всем мире и лучше информировать общественность».[85] Идея заключается в том, что даже если люди читают только сообщения, которыми поделились их друзья, по крайней мере, эти сообщения будут заслуживающими доверия.

Точно так же Google по состоянию на 30 января 2018 года также признал наличие проблем с фильтром на своей платформе. Поскольку в настоящее время поисковые запросы Google получают результаты с алгоритмическим ранжированием на основе «авторитетности» и «релевантности», которые показывают и скрывают определенные результаты поиска, Google стремится бороться с этим. Обучая свою поисковую систему распознавать цель поискового запроса, а не буквальный синтаксис вопроса, Google пытается ограничить размер пузырей фильтров. На данный момент начальная фаза этого обучения будет введена во втором квартале 2018 года. Вопросы, которые связаны с предвзятостью и / или противоречивыми мнениями, не будут рассматриваться до более позднего времени, вызывая более серьезную проблему, которая все еще существует: действует либо как арбитр истины, либо как знающий проводник для принятия решений.[87]

В апреле 2017 года появилась новость о том, что Facebook, Mozilla, а Craigslist внес большую часть пожертвования в размере 14 миллионов долларов CUNY"Инициатива целостности новостей", направленная на устранение фейковых новостей и создание более честных СМИ.[88]

Позже, в августе, Mozilla, создатели Fire Fox веб-браузер объявил о создании Mozilla Information Trust Initiative (MITI). + MITI будет служить коллективным усилием по разработке продуктов, исследований и решений на уровне сообществ для борьбы с эффектами пузырей фильтров и распространением фейковых новостей. Команда открытых инноваций Mozilla возглавляет инициативу, стремясь бороться с дезинформацией, уделяя особое внимание продукту с точки зрения грамотности, исследований и творческого вмешательства.[89]

Этические последствия

Поскольку популярность облачные сервисы увеличивается, персонализированный алгоритмы , используемые для создания фильтрующих пузырей, станут более распространенными.[90] Ученые начали рассматривать влияние пузырей фильтров на пользователей социальные медиа из этическая точка зрения, особенно в области личная свобода, безопасность, и информационная предвзятость.[91] Пузырьки фильтров в популярных социальных сетях и на сайтах персонализированного поиска могут определять конкретный контент, просматриваемый пользователями, часто без их прямого согласия или ведома,[90] из-за алгоритмов, используемых для обработки этого контента. Самостоятельно созданный контент, проявленный на основе моделей поведения, может привести к частичной информационной слепоте.[92] Критики использования пузырей фильтров предполагают, что люди могут потерять автономию по отношению к собственному опыту в социальных сетях, а их идентичность будет социально сконструирована в результате повсеместного распространения пузырей фильтров.[90]

Технологи, инженеры по социальным сетям и компьютерные специалисты также изучали распространенность пузырей фильтров.[93] Марк Цукерберг, основатель Facebook, и Эли Паризер, автор книги Пузырь фильтра, выразили озабоченность по поводу рисков конфиденциальности и поляризации информации.[94][95] Информация пользователей персонализированных поисковых систем и платформ социальных сетей не является частной, хотя некоторые люди считают, что это должно быть.[94] Обеспокоенность по поводу конфиденциальности привела к спорам о том, морально ли для информационных технологов брать активность пользователей в сети и манипулировать будущей доступностью соответствующей информации.[95]

Некоторые ученые выразили озабоченность по поводу воздействия пузырей фильтров на индивидуальное и социальное благополучие, т.е.распространение информации о здоровье среди широкой публики и потенциальное влияние поисковых систем в Интернете на изменение поведения, связанного со здоровьем.[15][16][17][96] В междисциплинарной книге 2019 года сообщалось об исследованиях и перспективах роли пузырей фильтров в отношении дезинформации о здоровье.[17] Основываясь на различных областях, таких как журналистика, право, медицина и психология здоровья, книга обращается к различным противоречивым убеждениям в отношении здоровья (например, альтернативной медицине и псевдонауке), а также к потенциальным средствам правовой защиты от негативного воздействия пузырей фильтров и эхо-камер на различные темы в области здравоохранения. дискурс. Исследование, проведенное в 2016 году о потенциальном влиянии пузырьков фильтров на результаты поисковых систем, связанных с самоубийством, показало, что алгоритмы играют важную роль в том, будут ли отображаться телефоны доверия и аналогичные результаты поиска для пользователей, и обсудило последствия их исследования для политики здравоохранения.[16] В другом исследовании, проведенном в 2016 году хорватским медицинским журналом, были предложены некоторые стратегии смягчения потенциально вредного воздействия пузырей фильтров на информацию о здоровье, например: информирование общественности о пузырях фильтров и связанных с ними эффектах; пользователи предпочитают попробовать альтернативу поисковым системам [для Google] , а также дополнительные объяснения процессов, которые используются поисковыми системами для определения отображаемых результатов.[15]

Поскольку на контент, просматриваемый отдельными пользователями социальных сетей, влияют алгоритмы, создающие пузыри фильтров, пользователи платформ социальных сетей более подвержены предвзятости подтверждения,[97] и могут быть подвержены предвзятой, вводящей в заблуждение информации.[98] Социальная сортировка и другие непреднамеренные дискриминационная практика также ожидаются в результате персонализированной фильтрации.[99]

В свете 2016 президентские выборы в США ученые также выразили озабоченность по поводу влияния пузырьков фильтра на демократия и демократические процессы, а также рост «идеологических СМИ».[10] Эти ученые опасаются, что пользователи не смогут «[мыслить] за пределами [своих] узких личных интересов», поскольку пузыри фильтров создают персонализированные социальные каналы, изолируя их от различных точек зрения и окружающих их сообществ.[100] По этой причине все чаще обсуждается возможность проектирования социальных сетей с большей интуицией, то есть проактивно рекомендовать контент, который находится за пределами пузыря фильтров, включая сложную политическую информацию, и, в конечном итоге, предоставлять пользователям расширяющие возможности фильтры и инструменты.[101][102][103] Связанная с этим проблема на самом деле заключается в том, как пузырьки на фильтрах способствуют распространению "фальшивые новости"и как это может повлиять на политические взгляды, в том числе на то, как пользователи голосуют.[10][104][105]

Откровения в марте 2018 г. Cambridge Analyticaсбор и использование пользовательских данных по меньшей мере для 87 миллионов профилей в Facebook во время президентских выборов 2016 года подчеркивает этические последствия пузырей фильтров.[106] Соучредитель и информатор Cambridge Analytica Кристофер Уайли подробно рассказал, как у фирмы была возможность создавать «психографические» профили этих пользователей и использовать эту информацию для формирования их поведения при голосовании.[107] Доступ к пользовательским данным со стороны третьих лиц, таких как Cambridge Analytica, может привести к раздражению и усилению существующих пузырей фильтров, созданных пользователями, искусственно увеличивая существующие предубеждения и еще больше разделяя общества.

Опасности пузырей на фильтре

Пузырьки фильтров возникли из-за всплеска персонализации СМИ, который может увести пользователей в ловушку. Использование ИИ для персонализации предложений может привести к тому, что пользователь будет просматривать только контент, который только укрепляет их собственные точки зрения, не оспаривая их. Веб-сайты социальных сетей, такие как Facebook, также могут представлять контент таким образом, чтобы пользователю было сложно определить источник контента, что заставляло их решать для себя, является ли источник надежным или поддельным.[108] Это может привести к тому, что люди привыкнут слышать то, что они хотят слышать, что может заставить их реагировать более радикально, когда они видят противоположную точку зрения. Пузырь фильтра может заставить человека рассматривать любые противоположные точки зрения как неправильные и может позволить СМИ навязывать взгляды потребителям.[109][108][110]

Исследования объясняют, что пузырек фильтров усиливает то, о чем человек уже думает.[111] Вот почему чрезвычайно важно использовать ресурсы, предлагающие различные точки зрения.[111][112]

Расширения концепции

Концепция фильтрующего пузыря была распространена на другие области, чтобы описать общества, которые саморазделяются не только в соответствии с политическими взглядами, но также в соответствии с экономической, социальной и культурной ситуацией.[113] Этот всплеск приводит к потере более широкого сообщества и создает ощущение, что, например, детям не место на общественных мероприятиях, если только эти мероприятия не были специально спланированы так, чтобы быть привлекательными для детей и непривлекательными для взрослых без детей.[113]

Смотрите также

Примечания

  1. ^ Период, термин кибербалканизация (иногда с дефисом) представляет собой гибрид кибер, относящиеся к Интернету, и Балканизация, относящийся к тому региону Европы, который исторически был разделен по языкам, религиям и культурам; термин был придуман в статье Массачусетский технологический институт исследователи Ван Алстайн и Бриньолфссон.

Рекомендации

  1. ^ Технопедия, Определение - Что означает «пузырьковый фильтр»?, Проверено 10 октября 2017 г. ".... Пузырь фильтра - это интеллектуальная изоляция, которая может возникнуть, когда веб-сайты используют алгоритмы, чтобы выборочно принимать информацию, которую пользователь хотел бы видеть, а затем предоставлять информацию пользователю в соответствии с этим предположение ... Пузырь фильтра, следовательно, может привести к тому, что пользователи будут значительно меньше контактировать с противоречащими точками зрения, что приведет к интеллектуальной изоляции пользователя ... "
  2. ^ Боздаг, Энгин (сентябрь 2013 г.). «Предвзятость в алгоритмической фильтрации и персонализации». Этика и информационные технологии. 15 (3): 209–227. Дои:10.1007 / s10676-013-9321-6. S2CID 14970635.
  3. ^ Веб-ошибка (сленг)
  4. ^ Отслеживание посетителей веб-сайта
  5. ^ Хаффингтон Пост, The Huffington Post "Пузыри фильтров сжимают наши умы?" В архиве 2016-11-03 в Wayback Machine
  6. ^ Шифрование, поиск (26.02.2019). «Что такое пузырьки в фильтре и как их избежать». Блог Search Encrypt. Получено 2019-03-19.
  7. ^ а б c d е Бутин, Пол (20 мая 2011 г.). «Ваши результаты могут отличаться: превратится ли информационная магистраль в тупик из-за автоматических фильтров?». Журнал "Уолл Стрит. Получено 15 августа, 2011. Отслеживая отдельные веб-браузеры с помощью файлов cookie, Google может персонализировать результаты даже для пользователей, которые не создают личную учетную запись Google или не вошли в нее. ...
  8. ^ Чжан, Юань Цао; Séaghdha, Diarmuid Ó; Quercia, Даниэле; Джамбор, Тамас (2012). «Ауралист: привнесение интуиции в музыкальные рекомендации». Материалы пятой международной конференции ACM по веб-поиску и интеллектуальному анализу данных - WSDM '12: 13. Дои:10.1145/2124295.2124300. S2CID 2956587.
  9. ^ «Автор« Пузыря фильтров »о том, как фейковые новости подрывают доверие к журналистике». Грани. 2016-11-16. Получено 2017-04-19.
  10. ^ а б c Баер, Дрейк. «Пузырь с фильтром объясняет, почему Трамп победил, а вы не видели этого». Наука о нас. Получено 2017-04-19.
  11. ^ а б ДиФранцо, Доминик; Глория-Гарсия, Кристина (5 апреля 2017 г.). «Фильтр пузырей и фейковых новостей». XRDS. 23 (3): 32–35. Дои:10.1145/3055153. S2CID 7069187.
  12. ^ а б Джаспер Джексон (8 января 2017 г.). «Эли Паризер: активист, чьи предупреждения пузыря фильтров предвещали Трампа и Брексит: руководитель Upworthy предупреждал об опасностях эхо-камер Интернета за пять лет до голосования 2016 года». Хранитель. Получено 3 марта, 2017. ... "Если вы видите сообщения только от людей, которые похожи на вас, вы будете удивлены, когда кто-то, очень непохожий на вас, станет президентом", - говорит Паризер Guardian.
  13. ^ Мостафа М. Эль-Бермави (18 ноября 2016 г.). «Ваш пузырчатый фильтр разрушает демократию». Проводной. Получено 3 марта, 2017. ... Глобальная деревня, которая когда-то была Интернетом ... цифровые острова изоляции, которые с каждым днем ​​отдаляются все дальше друг от друга ... ваш опыт в Интернете становится все более персонализированным ...
  14. ^ Дрейк Баер (9 ноября 2016 г.). «Пузырь с фильтром объясняет, почему Трамп победил, а вы не видели этого». New York Magazine. Получено 3 марта, 2017. ... Победа Трампа ошеломляет ... потому что, как это понимают исследователи СМИ, мы все чаще живем в "пузыре фильтров": информация, которую мы получаем, настолько персонализирована, что мы не видим других точек зрения ...
  15. ^ а б c Холоне, Харальд (июнь 2016 г.). «Пузырь с фильтром и его влияние на личную медицинскую информацию в Интернете». Хорватский медицинский журнал. 57 (3): 298–301. Дои:10.3325 / cmj.2016.57.298. ЧВК 4937233. PMID 27374832.
  16. ^ а б c Хаим, Марио; Арендт, Флориан; Шерр, Себастьян (февраль 2017 г.). «Бездна или убежище? О релевантности результатов поиска в поисковых системах, когда люди ищут самоубийства в Google». Связь по вопросам здоровья. 32 (2): 253–258. Дои:10.1080/10410236.2015.1113484. PMID 27196394. S2CID 3399012.
  17. ^ а б c «Медицинская дезинформация и социальный вред в практиках здравоохранения, не основанных на науке: мультидисциплинарная перспектива». CRC Press. Получено 2020-04-22.
  18. ^ Кевин Дж. Делани (21 февраля 2017 г.). «Пузырьки на фильтрах - серьезная проблема для новостей, - говорит Билл Гейтс».. Кварцевый. Получено 3 марта, 2017. ... Гейтс - один из растущего числа технологических лидеров, борющихся с проблемой пузырей фильтров, ...
  19. ^ а б c Паррамор, Линн (10 октября 2010 г.). "Пузырь фильтра". Атлантический океан. Получено 20 апреля, 2011. С 4 декабря 2009 года Google стал персонализированным для всех. Итак, когда этой весной у меня было двое друзей из Google «ВР», один из них получил набор ссылок, посвященных инвестиционным возможностям в ВР. Другой получил информацию о разливе нефти ....
  20. ^ а б c d е ж грамм час Вайсберг, Джейкоб (10 июня 2011 г.). «Проблема с пузырями: превращает ли веб-персонализация нас в солипсистов?». Шифер. Получено 15 августа, 2011.
  21. ^ а б c Гросс, Дуг (19 мая 2011 г.). «Что от вас скрывает Интернет». CNN. Получено 15 августа, 2011. Когда происходил разлив нефти, у меня были друзья Google BP. Это две женщины, которые во многом были очень похожи. Было получено множество результатов об экологических последствиях происходящего и разлива. Другой только что получил информацию об инвестициях и вообще ничего о разливе.
  22. ^ а б c Лазар, Шира (1 июня 2011 г.). «Алгоритмы и пузырь фильтров, разрушающий ваш онлайн-опыт?». Huffington Post. Получено 15 августа, 2011. пузырек фильтра - это образная сфера, окружающая вас при поиске в Интернете.
  23. ^ Паризер, Эли (2011-05-12). Пузырь с фильтрами: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем. Пингвин. ISBN 9781101515129.
  24. ^ «Как пузырьки-фильтры искажают реальность: все, что вам нужно знать». 2017-07-31. Получено 2019-06-23.
  25. ^ Николов, Димитар; Oliveira, Diego F.M .; Фламмини, Алессандро; Менцер, Филиппо (2 декабря 2015 г.). "Измерение социальных пузырей в Интернете". PeerJ Компьютерные науки. 1: e38. arXiv:1502.07162. Bibcode:2015arXiv150207162N. Дои:10.7717 / peerj-cs.38.
  26. ^ Паризер, Эли (март 2011 г.). Пузырьки с фильтром "Осторожно онлайн""". Получено 2018-05-30.
  27. ^ sdf (23.06.2004). "Джон Горенфельд, Мессия Луна и Медиа-эхо-камера". Daily Kos. Получено 2017-09-24.
  28. ^ Джеймисон, Кэтлин Холл; Капелла, Джозеф Н. (22 июля 2008 г.). Echo Chamber: Раш Лимбо и истеблишмент консервативных СМИ. Oxford University Press. ISBN 978-0-19-536682-2. Получено 2017-09-24.
  29. ^ Хосанагар, Картик (25 ноября 2016 г.). «Обвините Echo Chamber на Facebook. Но вините и себя». Проводной. Получено 2017-09-24.
  30. ^ ДиФонцо, Николас (21.04.2011). «Эффект эхокамеры». Нью-Йорк Таймс. Получено 2017-09-24.
  31. ^ Паризер, Эли (март 2011 г.). Пузырьки с фильтрами "Осторожно, онлайн"'". TED.com. Получено 2017-09-24.
  32. ^ «Первый понедельник: что в этом месяце показывают по телевидению, в фильмах и книгах:« Пузырь с фильтрами »Элая Паризера». USA Today. 2011. Получено 20 апреля, 2011. Паризер объясняет, что кормление нас только тем, что нам знакомо и удобно, закрывает нам доступ к новым идеям, предметам и важной информации.
  33. ^ а б Боскер, Бьянка (7 марта 2011 г.). "Facebook, Google дает нам информацию, нездоровая пища, предупреждает Эли Паризер". Huffington Post. Получено 20 апреля, 2011. Что касается контента, Google и Facebook предлагают нам слишком много конфет и мало моркови.
  34. ^ «Невидимое сито: спрятано специально для вас». Экономист. 30 июня 2011 г.. Получено 27 июня, 2011. Книга г-на Пэрисера представляет собой обзор эволюции Интернета в направлении персонализации, исследует, как представление информации меняет способ ее восприятия, и завершается рекомендациями по разрушению пузыря фильтров, окружающего каждого пользователя.
  35. ^ а б Херн (22.05.2017). «Как пузыри и алгоритмы фильтров социальных сетей влияют на выборы». Хранитель.
  36. ^ Ван Альстайн, Маршалл; Бриньолфссон, Эрик (март 1997 г.) [Авторское право 1996 г.]. «Электронные сообщества: глобальная деревня или кибербалканы?» (PDF). Получено 2017-09-24.
  37. ^ Ван Альстайн, Маршалл; Бриньолфссон, Эрик (ноябрь 1996 г.). «Может ли Интернет балканизировать науку?». Наука. 274 (5292): 1479–1480. Bibcode:1996Научный ... 274.1479V. Дои:10.1126 / science.274.5292.1479. S2CID 62546078.
  38. ^ Алекс Фам и Джон Хили, Tribune Newspapers: Los Angeles Times (24 сентября 2005 г.). «Системы надеются сказать вам, что вы хотите:« Механизмы предпочтений »направляют пользователей через поток контента». Чикаго Трибьюн. Получено 4 декабря, 2015. ... если бы рекомендации были безупречными, я мог бы иметь возможность разговаривать только с такими же людьми, как я ... Кибербалканизация, как придумал сценарий Бриньольфссон, не является неизбежным эффектом рекомендательных инструментов.CS1 maint: использует параметр авторов (связь)
  39. ^ Коллеони, Розза и Арвидссон (2014). «Эхо-палата или общественная сфера? Прогнозирование политической ориентации и измерение политической гомофилии в Twitter с использованием больших данных» (64): 317–332. Цитировать журнал требует | журнал = (помощь)CS1 maint: несколько имен: список авторов (связь)
  40. ^ Обама, Барак (10 января 2017 г.). Прощальное обращение президента Обамы (Речь). Вашингтон, округ Колумбия. Получено 24 января 2017.
  41. ^ Гранквист, Пер (2018-02-08). Большой пузырь: как технологии усложняют понимание мира. Издательство United Stories. п. 179. ISBN 978-91-639-5990-5.
  42. ^ Харпер, Тауэль (сентябрь 2017 г.). «Общественность больших данных и их проблемы: большие данные и структурная трансформация публичной сферы». Новые СМИ и общество. 19 (9): 1424–1439. Дои:10.1177/1461444816642167. S2CID 35772799.
  43. ^ а б Хосанагар, Картик; Фледер, Даниэль; Ли, Докюн; Буя, Андреас (декабрь 2013 г.). «Будет ли глобальная деревня распадаться на племена: рекомендательные системы и их влияние на потребителей». Наука управления, Скоро. SSRN 1321962.
  44. ^ Людвиг, Эмбер. "Персонализация Google в результатах поиска плюс как ее отключить". NGNG. Архивировано из оригинал 17 августа 2011 г.. Получено 15 августа, 2011. Настройка результатов поиска Google выполняется автоматически, но вы можете отключить эту функцию.
  45. ^ Брунс, Аксель (29 ноября 2019 г.). «Фильтр-пузырь». Обзор интернет-политики. 8 (4). Дои:10.14763/2019.4.1426.
  46. ^ Дэвис, Хью С. (сентябрь 2018 г.). «Переосмысление пузырей фильтров как (ускользающей) социально-технической рекурсии». Социологические исследования онлайн. 23 (3): 637–654. Дои:10.1177/1360780418763824. S2CID 149367030.
  47. ^ Флаксман, Сет; Гоэль, Шарад; Рао, Джастин М. (2016). «Пузырьки фильтров, эхо-камеры и потребление новостей в Интернете». Общественное мнение Ежеквартально. 80 (S1): 298–320. Дои:10.1093 / poq / nfw006. S2CID 2386849.
  48. ^ а б "5 вопросов к Эли Паризеру, автору книги" Пузырь фильтров "'". Время. 16 мая 2011 г.
  49. ^ а б c d е Блайберг, Джошуа; Уэст, Даррелл М. (24 мая 2017 г.). «Политическая поляризация в Facebook». Институт Брукингса. Получено 2017-05-24.
  50. ^ Бакши, Э .; Мессинг, С .; Адамич, Л. А. (5 июня 2015 г.). «Знакомство с идеологически разнообразными новостями и мнениями в Facebook». Наука. 348 (6239): 1130–1132. Bibcode:2015Научный ... 348.1130B. Дои:10.1126 / science.aaa1160. PMID 25953820. S2CID 206632821.
  51. ^ Lumb (08.05.2015). «Почему ученые расстроены исследованием пузыря фильтров Facebook».
  52. ^ Оремус, Уилл (5 апреля 2017 г.). "Возвращение к пузырю фильтров". Slate Magazine. Получено 2 марта, 2020.
  53. ^ а б Зиндерманн, Корнелия; Эльхай, Джон Д .; Мошаген, Мортен; Монтэг, Кристиан (январь 2020 г.). «Возраст, пол, личность, идеологические установки и индивидуальные различия в спектре новостей человека: сколько и кто может быть склонен к« фильтрующим пузырям »и« эхо-камерам »в Интернете?». Гелион. 6 (1): e03214. Дои:10.1016 / j.heliyon.2020.e03214. ЧВК 7002846. PMID 32051860.
  54. ^ а б Паризер, Эли (7 мая 2015 г.). «Интересные факты из нового исследования пузырей фильтров Facebook». Середина. Получено 24 октября, 2017.
  55. ^ Люмб, Дэвид (8 мая 2015 г.). «Почему ученые расстроены исследованием пузыря фильтров Facebook». Быстрая Компания. Получено 24 октября, 2017.
  56. ^ Паризер, Эли (7 мая 2015 г.). «Убило ли большое исследование Facebook мой тезис о пузыре фильтров?». Проводной. Получено 24 октября, 2017.
  57. ^ «Вопреки тому, что вы слышали, Facebook может помочь пробить наши политические» пузыри"". Vox. Получено 2018-05-30.
  58. ^ Бакши, Э .; Мессинг, С .; Адамич, Л. А. (2015). «Знакомство с идеологически разнообразными новостями и мнениями в Facebook». Наука. 348 (6239): 1130–1132. Bibcode:2015Научный ... 348.1130B. Дои:10.1126 / science.aaa1160. PMID 25953820. S2CID 206632821.
  59. ^ Барбера, Пабло (август 2015 г.). «Как социальные сети уменьшают массовую политическую поляризацию. Данные из Германии, Испании и США». Wall Street Journal. CiteSeerX 10.1.1.658.5476.
  60. ^ а б Бейл, Кристофер; Аргайл, Лиза; Браун, Тейлор; Чен, Хаохань; Hunzaker, M.B.F .; Ли, Джемин (2018). «Изложение противоположных взглядов в социальных сетях может усилить политическую поляризацию» (PDF). SocArXiv. 115 (37): 9216–9221. Дои:10.1073 / pnas.1804840115. ЧВК 6140520. PMID 30154168.
  61. ^ а б Мин, Йонг; Цзян, Тинцзюнь; Джин, Ченг; Ли, Цюй; Цзинь, Сяоган (2019). «Эндогенетическая структура пузыря фильтров в социальных сетях». Королевское общество открытой науки. 6 (11): 190868. arXiv:1907.02703. Bibcode:2019RSOS .... 690868M. Дои:10.1098 / rsos.190868. ЧВК 6894573. PMID 31827834.
  62. ^ Статт, Ник (2018-12-04). «Google персонализирует результаты поиска, даже когда вы не в системе, утверждает новое исследование». Грани. Получено 2020-04-22.
  63. ^ Бухер, Тайна (25 февраля 2016 г.). «Алгоритмическое воображаемое: изучение обычных эффектов алгоритмов Facebook». Информация, коммуникация и общество. 20 - через Taylor & Francis Online.
  64. ^ «Как нам разрушить пузырь фильтров и создать демократический дизайн?». 3 марта 2017 г.. Получено 3 марта, 2017.
  65. ^ ""Filterblase "ist das Wort des Jahres 2016". 7 декабря 2016 г.. Получено 27 декабря, 2016.
  66. ^ Эли Паризер (Май 2011 г.). Пузырь с фильтрами: что от вас скрывает Интернет. Нью-Йорк: Penguin Press. п.17. ISBN 978-1-59420-300-8.
  67. ^ Стивен Барон; Джон Филд; Том Шуллер (30 ноября 2000 г.). «Социальный капитал: обзор и критика». Социальный капитал: критические перспективы. Издательство Оксфордского университета. ISBN 9780199243679.
  68. ^ «Мы застряли в пузырях фильтров? Вот пять возможных выходов». Лаборатория Нимана.
  69. ^ Глушко, Крис (2017-02-08). «Удалите пузыри с фильтром персонализации и сохраните разнообразие в Интернете». Маркетинговая земля. Получено 22 мая 2017.
  70. ^ Ритольц, Барри. "Попробуйте разбить пузырь вашего медиа-фильтра". Bloomberg. Получено 22 мая 2017.
  71. ^ "Значок проверки фактов официального СМИ". chrome.google.com.
  72. ^ а б «Будьте более восприимчивыми к другим - EscapeYourBubble». escapeyourbubble.com. Получено 2017-05-24.
  73. ^ «AI встречает новости». не найдены. новости. Получено 2018-06-12.
  74. ^ «Эхо-камеры, алгоритмы и стартапы». LiveMint. Получено 2018-06-12.
  75. ^ а б c "Новостное приложение призвано лопнуть пузыри фильтров, подталкивая читателей к более" сбалансированной "медиа-диете". Лаборатория Нимана. Получено 2017-05-24.
  76. ^ «uBlock Origin - эффективный блокировщик для Chromium и Firefox. Быстрый и компактный». 2018-11-14.
  77. ^ "Барсук конфиденциальности". 2018-07-10.
  78. ^ "Кого вы хотите знать лучше?". Побег из пузыря.
  79. ^ "Пролей свет на тех, кто наблюдает за тобой". Световой луч.
  80. ^ «Самоуничтожающиеся файлы cookie». Дополнения.
  81. ^ Мэдэлина Чобану (3 марта 2017 г.). "NZZ разрабатывает приложение, которое предоставляет читателям персонализированные новости без создания пузыря фильтров: приложение использует машинное обучение, чтобы дать читателям поток из 25 историй, которые могут быть им интересны в зависимости от их предпочтений, но всегда включающих элемент неожиданности'". Journalism.co.uk. Получено 3 марта, 2017. ... если, судя по истории потребления, кто-то не проявил интереса к спорту, в его ленту будут включены новости о больших и важных событиях, связанных со спортом, ...
  82. ^ Каталина Альбеану (17 ноября 2016 г.). «Разрыв пузыря фильтров после выборов в США: СМИ обречены на провал? На мероприятии в Брюсселе на этой неделе СМИ и политики обсуждали эхо-камеры в социальных сетях и борьбу с фейковыми новостями». Journalism.co.uk. Получено 3 марта, 2017. ... Референдум ЕС в Великобритании на панели на мероприятии "Политики в коммуникационном шторме" ... Помимо пузыря фильтров, партизанские страницы в Facebook также содержали диету, изобилующую фейковыми новостями ....
  83. ^ "Европейская комиссия".
  84. ^ Резник, Пол; Гаррет, Р. Келли; Криплин, Трэвис; Мансон, Шон А .; Страуд, Натали Джомини (2013).«Разорвав свой (Фильтр) пузырь». Материалы конференции 2013 г. по компьютерной поддержке совместной работы companion - CSCW '13. п. 95. Дои:10.1145/2441955.2441981. ISBN 978-1-4503-1332-2. S2CID 20865375.
  85. ^ а б Ваниан, Джонатан (2017-04-25). «Facebook Тестирует статьи по теме для борьбы с пузырями фильтров». Fortune.com. Получено 2017-09-24.
  86. ^ Сиделл, Лаура (25 января 2017 г.). «Facebook изменяет алгоритм« Трендовых тем », чтобы лучше отражать реальные новости». KQED Public Media. ЭНЕРГЕТИЧЕСКИЙ ЯДЕРНЫЙ РЕАКТОР.
  87. ^ Хао, Карен. "Google наконец-то признает, что у него есть проблема с фильтром". Кварцевый. Получено 2018-05-30.
  88. ^ "Facebook, Mozilla и Craigslist Крэйг финансируют пожарных по фальшивым новостям". Получено 2019-01-14.
  89. ^ «Инициатива Mozilla Information Trust: создание движения по борьбе с дезинформацией в Интернете». Блог Mozilla. Получено 2019-01-14.
  90. ^ а б c Боздаг, Энгин; Тиммерман, Иов. «Ценности в пузыре фильтров. Этика алгоритмов персонализации в облачных вычислениях». Исследовательские ворота. Получено 6 марта 2017.
  91. ^ Аль-Родхан, Найеф. «Множество этических последствий появления новых технологий». Scientific American. Получено 6 марта 2017.
  92. ^ Хаим, Марио; Грефе, Андреас; Брозиус, Ханс-Бернд (16 марта 2018 г.). «Взрыв пузыря фильтра?». Цифровая журналистика. 6 (3): 330–343. Дои:10.1080/21670811.2017.1338145. S2CID 168906316.
  93. ^ «Пузырь с фильтром поднимает важные вопросы - вам просто нужно отфильтровать их для себя». Сеть действий тропического леса. Получено 6 марта 2017.
  94. ^ а б Стерлинг, Грег (2017-02-20). «Манифест Марка Цукерберга: как Facebook соединит мир, победит фальшивые новости и лопнет пузырь фильтров». Маркетинговая земля. Получено 6 марта 2017.
  95. ^ а б Морозов, Евгений (10.06.2011). «Собственные факты». Нью-Йорк Таймс. Получено 6 марта 2017.
  96. ^ Hesse, Bradford W .; Нельсон, Дэвид Э .; Крепс, Гэри Л .; Кройл, Роберт Т .; Arora, Neeraj K .; Rimer, Barbara K .; Вишванат, Касисомаяджула (12 декабря 2005 г.). «Доверие и источники медицинской информации: влияние Интернета и его влияние на поставщиков медицинских услуг: результаты первого исследования национальных тенденций в области здравоохранения». Архивы внутренней медицины. 165 (22): 2618–24. Дои:10.1001 / archinte.165.22.2618. PMID 16344419.
  97. ^ Эль-Бермави, Мостафа (18 ноября 2016 г.). «Ваш пузырек фильтров разрушает демократию». Проводной. Получено 6 марта 2017.
  98. ^ «Как избавиться от« пузыря фильтра », который защищает нас от противоположных взглядов». Обзор технологий MIT. Получено 6 марта 2017.
  99. ^ Борхезиус, Фредерик; Триллинг, Дамиан; Мёллер, Юдифь; Бодо, Балаж; де Вриз, Клаас; Хельбергер, Натали (31 марта 2016 г.). "Стоит ли беспокоиться о пузырьках на фильтре?". Обзор интернет-политики. Получено 6 марта 2017.
  100. ^ Паризер, Эли (2011). Пузырь фильтров: как новый персонализированный Интернет меняет то, что мы читаем и как мы думаем. Нью-Йорк: Penguin Press. ISBN 978-1-59420-300-8.
  101. ^ "Во славу интуиции". Экономист. 9 марта 2017.
  102. ^ Ревильо, Урбано (июнь 2019 г.). «Интуиция как развивающийся принцип построения инфосферы: проблемы и возможности». Этика и информационные технологии. 21 (2): 151–166. Дои:10.1007 / s10676-018-9496-у. S2CID 57426650.
  103. ^ Харамбам, Джарон; Хельбергер, Натали; ван Хобокен, Йорис (28 ноября 2018 г.). «Демократизация алгоритмических рекомендателей новостей: как материализовать голос в технологически насыщенной медиа-экосистеме». Философские труды Королевского общества A: математические, физические и инженерные науки. 376 (2133): 20180088. Bibcode:2018RSPTA.37680088H. Дои:10.1098 / rsta.2018.0088. ЧВК 6191663. PMID 30323002.
  104. ^ Херрман, Джон (24 августа 2016 г.). "Внутри (совершенно безумной, непреднамеренно гигантской, гиперпартийной) политико-медиа машины Facebook". Нью-Йорк Таймс. Получено 24 октября, 2017.
  105. ^ Дель Викарио, Микела; Бесси, Алессандро; Золло, Фабиана; Петрони, Фабио; Скала, Антонио; Калдарелли, Гвидо; Стэнли, Х. Юджин; Quattrociocchi, Вальтер (19 января 2016 г.). «Распространение дезинформации в Интернете». Труды Национальной академии наук. 113 (3): 554–559. Bibcode:2016ПНАС..113..554Д. Дои:10.1073 / pnas.1517441113. ЧВК 4725489. PMID 26729863.
  106. ^ Грэнвилл, Кевин (19 марта 2018 г.). «Facebook и Cambridge Analytica: что нужно знать о расширении Fallout». Нью-Йорк Таймс.
  107. ^ Мередит, Сэм (10 апреля 2018 г.). «Facebook-Cambridge Analytica: хронология скандала с перехватом данных».
  108. ^ а б Гросс, Майкл (январь 2017 г.). «Опасности постправдивого мира». Текущая биология. 27 (1): R1 – R4. Дои:10.1016 / j.cub.2016.12.034.
  109. ^ «Как пузырьки-фильтры искажают реальность: все, что вам нужно знать». Фарнам-стрит. 2017-07-31. Получено 2019-05-21.
  110. ^ Блюдо, The Daily (2010-10-10). "Пузырь фильтра". Атлантический океан. Получено 2019-05-21.
  111. ^ а б https://libraryguides.mdc.edu/FakeNews/FilterBubbles
  112. ^ https://www.allsides.com/unbiased-balanced-news
  113. ^ а б Менкедик, Сара (14 мая 2020 г.). «Почему к американским детям относятся как к особому виду, нежели к взрослым?». Эон. Получено 2020-05-15.

дальнейшее чтение

внешняя ссылка