Мой пузырь фильтров — наглядный пример того, что многие пузыри только на первый взгляд выглядят политически безобидными. Казалось бы, что в нем может быть плохого? Как комментарии психологов и исследователей мозга в моей ленте связаны с политикой? Однако известное исследование показало, что психологи, специализирующиеся на личностной и социальной психологии, гораздо чаще придерживаются либеральных, а не консервативных взглядов[388]
. Логично предположить, что эта политическая предвзятость может распространиться и на мою ленту в твиттере, то есть в «академическом пузыре» я с большей вероятностью буду сталкиваться с либеральными идеями. Следовательно, мне важно это учитывать и не основывать свои политические взгляды исключительно на новостях (и мнениях) из моей новостной ленты. Что же делать? Взглянуть на мир шире помогают разные источники информации. Например, я люблю читать англоязычный журналИтак, мы выяснили, что пузыри фильтров могут влиять на формирование политических взглядов: опасная тенденция, особенно если речь идет о взглядах, не совместимых с Основным законом Германии[389]
. Теперь нам понятны методы работы алгоритмов социальных сетей. Тем не менее остается еще один вопрос.Начнем с эмпирических исследований, в которых рассматривалась возможность возникновения пузырей фильтров в Google. Отфильтрует ли корпорация мои поисковые результаты, если я каждый день буду сообщать ей о своих интересах?
На самом деле данные здесь несколько менее тревожные, чем можно было бы ожидать. В исследовании Седрика Куртуа и др.[390]
не было обнаружено никаких доказательств, что история поисковых запросов влияет на то, какие результаты поиска будет Google выдавать пользователю, в частности по общественно-политическим темам[391]. Исследование службы новостей Google, проведенное в Германии Марио Хаймом и его коллегами, также дало весьма позитивные результаты[392]. Google News — сервис, предоставляющий пользователям новости из различных источников и по целому спектру тем (политика, спорт, развлечения и прочие). Если завести в нем аккаунт, при поисковом запросе результаты получаются схожими независимо от предыдущей истории поиска. В 1200 сравнениях между четырьмя фиктивными пользователями различия были обнаружены только в 30 отображенных новостных статьях (то есть в 2,5 % случаев). Однако исследование выявило другую интересную тенденцию: Google News выдавал сообщения от новостных служб Германии, которые довольно слабо представлены в ежедневной новостной повестке. Так, в результатах поиска отображались новости из ежедневных газетЧто касается радикализации, ученые уже несколько лет спорят о масштабах проблем, которые создают (политические) пузыри фильтров. Насколько значим их эффект, если фильтрация информации способствует сплочению единомышленников и изоляции от людей с другим мнением? Даже если пузыри фильтров и могут разделять группы пользователей в соответствии с их взглядами (см., например, исследование польских коллег[393]
), согласно американским ученым, пузыри фильтров лишь умеренно влияют на идеологическую поляризацию[394].Результаты исследования, проведенного командой Маноэля Орта Рибейро[395]
, выглядят более впечатляюще. Проанализировав более 72 миллионов комментариев к более чем 330 000 видео на 349 различных ютуб-каналах, ученые пришли к выводу, что пользователи со временем переходят от просмотра более мягкого видеоконтента к более радикальному (хотя неясно, приводит ли это к изменению взглядов, и если да, то каким образом). Примечательно, что такая тенденция прослеживалась в первую очередь при анализе поведения пользователей, предпочитающих правую часть политического спектра. Похоже, алгоритм рекомендаций ютуба здесь оказывает токсичный эффект. Система использует слабость человеческой натуры и, провоцируя наше любопытство, шаг за шагом предлагает все более жесткие видеоролики[396].