«Фейсбук» искажает восприятие реальности

01774717330300

Среди социологов в демократических странах растут опасения, что алгоритмы персонализированной фильтрации и ранжирования новостных лент, используемые «Фейсбуком» и другими соцсетями, создают так называемые «пузыри фильтров», мешающие людям знакомиться с альтернативными точками зрения.

Предполагают, что это искажает восприятие реальности и чревато негативными социально-политическими последствиями, такими как поляризация общества и утрата способности к конструктивному диалогу между людьми, придерживающимися разных взглядов на актуальные проблемы. Анализ данных по структуре «дружеских» связей и сетевой активности 10 млн американских пользователей «Фейсбука» подтвердил, что как либералы, так и консерваторы получают из своих новостных лент в основном информацию, согласующуюся с их политическими взглядами. Впрочем, эта информационная изоляция далеко не абсолютна, а создается она не столько автоматическими фильтрами, сколько сознательным выбором самих пользователей.

Что может быть естественнее, чем дружить с единомышленниками? Вероятно, люди во все времена охотнее контактировали с теми, кто думает так же, как они. Однако до наступления эры электронных социальных сетей исследовать это явление было трудно. Сегодня, когда для многих людей ссылки, которыми делятся с ними «друзья» в соцсетях, стали чуть ли не главным источником сведений об окружающем мире, детальный количественный анализ потоков информации, которой обмениваются друг с другом миллионы людей, стал выполнимой задачей. Особенно если за дело берутся сотрудники исследовательского отдела крупной соцсети, имеющие доступ ко всем данным, необходимым для такого исследования.

Как известно, многие крупные поисковики (такие как Google) и соцсети (такие как Facebook) фильтруют и ранжируют данные, предоставляемые пользователю, пытаясь «угадать» его желания. Догадки строятся, помимо прочего, на прежних действиях пользователя: какие запросы он делал, какие из предложенных ссылок выбирал и т. п. Это бывает удобно, если ваша цель — заказать пиццу или найти интересный (лично вам) фильм.

Однако у такого удобства есть и обратная сторона. Допустим, вы пытаетесь объективно оценить спектр мнений по поводу какой-нибудь важной политической новости. Если услужливые алгоритмы будут подсовывать вам лишь те мнения, с которыми вы, скорее всего, согласны, у вас в конце концов сложится искаженная картина реальности. Пользователь может оказаться в так называемой «эхо-камере», то есть в замкнутом сообществе, внутри которого единомышленники обмениваются мнениями, с которыми все они согласны и куда нет доступа альтернативным точкам зрения. В итоге человек начинает думать, что его позиция — единственно верная и никаких других взглядов на данную проблему быть не должно. Некоторые социологи в развитых странах усматривают в этом потенциальную угрозу для демократии, поскольку разделение медийного пространства на замкнутые «пузыри» чревато поляризацией общества и утратой способности к конструктивному диалогу с теми, кто думает иначе.

Группа исследователей — сотрудников «Фейсбука» — попыталась оценить масштабы бедствия на основе анализа большого массива данных по сетевой активности 10 миллионов американцев — пользователей этой крупнейшей соцсети. Учитывались только активные пользователи от 18 лет и старше, прямо указавшие в профиле свои политические взгляды. Авторы проранжировали 500 наиболее распространенных формулировок собственных взглядов, определив для каждого пользователя его балл по пятибалльной либерально-консервативной шкале, где — 2 соответствует «крайне либеральным взглядам», 0 — «нейтральным», +2 — «крайне консервативным». Опрос 70 000 пользователей, в ходе которого их просили самостоятельно указать свое место на этой шкале, подтвердил адекватность процедуры автоматического ранжирования.

В исходный массив данных попали 7 миллионов интернет-адресов (URLs), ссылками на которые пользователи поделились за полугодовой период (с 7 июля 2014-го по 7 января 2015-го). Тексты, открывающиеся по ссылкам, исследователи поделили на две группы. В первую попали материалы с политическим оттенком (обсуждения законопроектов, социальных проблем, событий в стране и в мире и т. п.), во вторую — тексты на нейтральные темы: спорт, досуг, путешествия. Тексты классифицировались с помощью большого набора ключевых слов.

Для анализа использовались ссылки первой группы («политические»), которыми за изученный период поделились как минимум 20 пользователей. Таких ссылок набралось 226 000. Для каждой из них был вычислен «показатель идеологической приуроченности» (ideological alignment score), представляющий собой среднюю оценку политических взглядов тех пользователей, которые поделились данной ссылкой. Авторы подчеркивают, что показатель отражает не идеологическую направленность самого материала, а лишь идеологию пользователей, поделившихся ссылкой на него (что в большинстве случаев совпадает, но не всегда). Если данный показатель у ссылки отрицательный, это значит, что ей делились преимущественно либералы, если положительный — консерваторы. Затем был построен график, на котором по горизонтальной оси откладывался показатель идеологической приуроченности, а по вертикальной — популярность ссылок с таким показателем (сколько раз пользователи поделились ссылками с данным значением показателя). Двугорбое распределение, демонстрируемое графиком, отражает поляризацию мнений: люди намного чаще делятся ссылками с сильно выраженной идеологической приуроченностью, чем идеологически нейтральными. При этом либералы активно делятся одними материалами, консерваторы — другими. Для сравнения был построен аналогичный график для ссылок второй группы (не имеющих отношения к политике). Распределение получилось совсем другим, одногорбым: самые популярные из ссылок второй группы оказались в равной мере популярными среди либералов и консерваторов.

Как и следовало ожидать, у либералов в «друзьях» преобладают либералы, у консерваторов — консерваторы. Впрочем, примерно по 20% друзей у тех и других составляют пользователи с противоположными политическими взглядами. Очевидно, что, сознательно выбирая друзей-единомышленников, люди сами ограничивают доступ в свою новостную ленту альтернативным взглядам (в данном случае — ссылкам, популярным у противоположной партии). Но на этом фильтрация данных не заканчивается. Следующий этап отбора осуществляют те самые алгоритмы автоматического ранжирования записей в новостной ленте, которые пытаются «угадать», что интересно пользователю, исходя из его предыдущих действий. Последний, третий этап фильтрации опять осуществляется пользователем, который либо идет по ссылке, которую видит в ленте, либо игнорирует ее.

Авторы располагали всеми необходимыми сведениями, чтобы точно рассчитать, какое количество «идеологически чуждой» информации отсекается на каждом из этапов. В их распоряжении находились данные по 3,8 млрд «потенциальных демонстраций» (случаев, когда друг пользователя поделился ссылкой, которая поэтому могла появиться в ленте пользователя), 903 млн «реальных демонстраций» (случаев, когда ссылка, успешно пройдя процедуру автоматического ранжирования, действительно выводилась на экран пользователя) и 59 млн «кликов» (когда пользователь, заинтересовавшись ссылкой, прошел по ней).

Если бы люди выбирали ссылки случайным образом у любых пользователей «Фейсбука», то 40–45% получаемой ими информации оказывалась бы не соответствующей их политическим взглядам (разумеется, речь идет только о «политической» информации, материалы про котиков не в счет). За счет того, что люди преимущественно выбирают себе в друзья единомышленников, доля «чуждых» ссылок сокращается до 35% у консерваторов и 24% у либералов (разница связана не с тем, что у консерваторов больше «идейно чуждых» друзей, а с тем, что друзья консерваторов почему-то в среднем чаще делятся «чуждыми» материалами, чем друзья либералов). На следующем этапе в игру вступают алгоритмы автоматического ранжирования. Как выяснилось, они лишь ненамного сокращают долю альтернативных материалов в ленте. На последнем, третьем этапе, пользователь сам выбирает наиболее интересные из показанных ему ссылок, отдавая предпочтение «идейно близким» материалам. В итоге среди материалов, реально просматриваемых консерваторами, «чуждые» составляют 29%, а среди того, что читают либералы, альтернативных материалов примерно 20%.

Таким образом, исследование показало, что информационное пространство «Фейсбука» действительно отчасти подразделено на либеральный и консервативный кластеры. Однако изоляция двух лагерей далеко не абсолютна: изрядное количество «идейно чуждых» материалов все-таки попадает в поле зрения пользователей. Основной вклад в идеологическую фильтрацию материалов вносит сознательный выбор пользователями друзей-единомышленников, на втором месте — выбор, опять-таки сознательный, материалов для чтения из числа представленных в ленте, и только на третьем — алгоритмы автоматического ранжирования, пытающиеся угадать желания пользователя.

Конечно, авторов можно заподозрить в предвзятости, поскольку они — сотрудники «Фейсбука», а компания, естественно, заинтересована в том, чтобы доказать общественную безопасность своих персонализированных фильтров. С другой стороны, выводы авторов могут быть проверены независимыми экспертами. Серьезные исследования соцсетей и их влияния на общественную жизнь только начинаются, и говорить об окончательных выводах пока рано.

В заключение необходимо подчеркнуть, что результаты исследования едва ли приложимы к российским реалиям — хотя бы потому, что классическая американская «либерально-консервативная» шкала политических взглядов имеет крайне мало общего с поляризацией мнений в современном российском обществе.

Eytan Bakshy, Solomon Messing, and Lada A. Adamic. Exposure to ideologically diverse news and opinion on Facebook //Science. 2015. V. 348. P. 1130–1132.

Источник

Вы можете оставить комментарий, или ссылку на Ваш сайт.

Оставить комментарий