Люди с разными политическими взглядами как будто бы живут в разных мирах, особенно в сети.
В этом часто обвиняют алгоритмы — неизвестные нам наборы правил, формирующие онлайн ландшафт в социальных сетях и поисковых системах: они создают информационные пузыри, предлагая контент, который поддерживает и подтверждает уже свойственные нам убеждения и интересы.
Алгоритмы всегда предвзяты. Исследования показывают, что реклама в Фейс-сети направлена на определенные расовые и гендерные демографики.
Приложения для знакомств подбирают подходящих партнеров на основании предыдущих действий пользователя.
Поисковые системы расставляют приоритеты между ссылками на основании того, что они считают наиболее релевантным. Но согласно новым исследованиям, не все алгоритмы приводят к политической поляризации.
Исследование, недавно опубликованное в Nature, показало, что Google не отдает излишнего предпочтения идеологизированным сайтам. Напротив: политически поляризованные пользователи обычно сами кликают по ссылкам на новостные сайты, соответствующие их убеждениям.
Получается, что, по крайней мере в поисковой выдаче Google, пользователям проще избежать эхо-камер — но только если они этого захотят.
Алгоритмы проникают в почти каждый аспект нашей жизни в сети — и они способны формировать наш взгляд на окружающий мир.
«Они действительно влияют на то, как мы потребляем информацию, и, следовательно, на наши мнения», — говорит Кэтрин Огнянова, исследователь коммуникаций из Ратгерского университета и соавтор нового исследования
Тем не менее оценить, насколько алгоритмы влияют на политическую поляризацию, не так-то просто.
По словам Огняновой, алгоритм может учитывать, «кто вы, где вы находитесь, каким устройством вы пользуетесь, ваше географическое положение и язык. Но мы не знаем наверняка, как работает алгоритм. Это черный ящик».
Большинство исследований, касающихся политической поляризации по вине алгоритмов, сосредоточено на социальных платформах, таких как Twitter и Фейс-сеть, а не на поисковых системах.
Дело в том, что до недавнего времени исследователем было проще получить пригодные для работы данные социальных платформ, у которых есть общедоступные программные интерфейсы. Для поисковых систем таких инструментов нет.
Но Огнянова и ее соавторы нашли способ обойти эту проблему. Вместо того чтобы полагаться на обезличенные данные пользователей, они отправили волонтерам расширение для браузера, которое записывало все их результаты поиска в Google и ссылки, по которым они кликали, в течение нескольких месяцев.
Расширение работало по тому же принципу, что и фотоловушки, следящие за животными: оно делало снимки сетевой жизни каждого участника. Изображение: Unsplash
Исследователи собрали данные тысяч пользователей Google за 3 месяца перед промежуточными выборами 2018 года и за 9 месяцев до президентских выборов 2020 года в США.
Затем исследователи проанализировали собранные данные в отношении к возрасту участников и политическим взглядам, которые они указали в анкете, — от убежденных демократов до убежденных республиканцев по шкале от 1 до 7.
Йотам Шмаргад, ученый из сферы социальной статистики из университета Аризоны, который не был членом исследовательской команды, назвал этот подход революционным из-за сочетания реальных поведенческих данных о том, как участники пользуются поисковыми системами, с опросной информацией об их политических взглядах.
Исследователь кибербезопасности Нома Хоссейнмарди, которая тоже не принимала участия в исследовании, говорит, что рабочие данные такого типа также необыкновенно ценны с точки зрения разработки регламентов.
Чтобы заставить поисковых гигантов, таких как Google, получающий более 8 500 000 000 запросов каждый день, действовать в интересах людей, недостаточно просто знать, как работает алгоритм. «Необходимо увидеть, как люди пользуются алгоритмом», — говорит Хоссейнмарди.
Хотя многие законодатели сейчас добиваются, чтобы крупнейшие технологические компании выкладывали обезличенные данные о пользователях в публичный доступ, некоторые исследователи беспокоятся, что такой подход подтолкнет платформы к публикации искаженной, однобокой или неполной информации.
Так, Meta (признана экстремистской и запрещена на территории России) наняла команду ученых, чтобы исследовать отношение платформы к демократии и политической поляризации, а затем не предоставила половину данных, которыми обещала поделиться.
«Я думаю, что гораздо логичнее обратиться напрямую к пользователю», — говорит Рональд Робертсон, ученый из сферы нетворкинга из Стэнфордского университета и ведущий автор нового исследования.
Итак, исследователи обнаружили, что быстрый поиск в Google не предлагал пользователям подборку новостных сюжетов на основании их политических убеждений.
«Google в принципе не увлекается персонализацией. А если персонализация низка, то, может быть, алгоритм в целом не слишком меняет страницу», — говорит Робертсон.
С другой стороны, пользователи с сильными политическими убеждениями с большей вероятностью кликали по ссылкам на идеологизированные сайты, соответствующие их мировоззрению.
Это не значит, что алгоритм Google безупречен. Исследователи заметили, что сомнительные или откровенно лживые источники новостей все равно появлялись в результатах независимо от того, взаимодействовал ли пользователь с ними.
«Это не единственный случай, когда Google принимает очень спорные решения», — говорит Робертсон, в частности, о том, что в поисковой выдаче изображений очень мало цветных женщин.
Представитель Google сказал, что компания ценит результаты нового исследования. В заявлении компании говорится, что Google старается сделать свой алгоритм и релевантным, и надежным, и поисковик не должен собирать личные данные, такие как раса, религиозные или политические убеждения.
Шмаргад говорит, что данные исследования нельзя назвать полностью объективными, если рассматривать их более детально: «По-видимому, нет особенного алгоритмического уклона в отношении политических убеждений, но он может появляться в отношении возрастных групп».
Пользователи 65 лет и старше видели в выдаче Google больше ссылок на сайты правого толка, чем все остальные возрастные группы независимо от их политических убеждений.
Но поскольку отклонение было незначительным и группа старшего возраста составляла не более пятой части от общего количества участников, влияние этого отклонения на результаты исследования практически исчезло при макроанализе.
Тем не менее исследование показывает, что роль алгоритмов в создании информационных пузырей, возможно, переоценена.
«Я не против того, чтобы винить платформы, но недостаточно заставить их вести себя хорошо. Мы хотим придерживаться своих убеждений, и наша собственная мотивация читать то, что соответствует нашим убеждениям, по-прежнему сильна», — говорит Дэниел Триэлли, доцент в сфере медиа и демократии из Университета Мэриленда, не участвовавший в исследовании
Огнянова сказала, что, согласно этому исследованию, людям не настолько сложно вырваться из своего идеологического информационного пузыря. Возможно, это и так. Но сначала они должны этого захотеть.
По материалам: scientificamerican.com. Автор: Joanna Thompson