Как боты в Twitter влияли на выборы в США

14836

Ленты Facebook и Twitter немного очистились от сплошной череды постов о Дональде Трампе и выборах в США, и мы решили исправить это досадное упущение. Доцент компьютерных наук из Университета Южной Калифорнии Эмилио Феррара опубликовал небольшое исследование об активностях ботов в Twitter во время президентской кампании Трамп vs. Клинтон.

Исследуя деятельность ботов, он пришел к неутешительному выводу: в большинстве случаев люди не способны отличить твиты ботов от твитов настоящих пользователей — это и делает данный инструмент эффективным методом манипуляции. Предлагаем перевод его статьи.

Ключ к демократии — участие общества. Люди обсуждают актуальные вопросы друг с другом открыто, честно и без внешнего влияния. Но что происходит, когда большое количество участников такой дискуссии — «предубежденные» роботы, созданные невидимыми группами с неизвестными планами? Как показало мое исследование, вот что происходило во время этой предвыборной кампании.

С 2012 года я изучал, как именно люди обсуждают социальные, политические, идеологические вопросы в онлайне. В частности, я искал, как социальные медиа используются с целью манипуляции.

Оказывается, что очень много политического контента, который американцы видят в соцмедиа каждый день, производится не людьми. Примерно каждый пятый твит, относящийся к выборам, в период с 16 сентября по 21 октября, был сгенерирован «социальными ботами».

Эти ИИ-системы могут быть довольно простыми или очень сложными, но всех их объединяет одна черта: они настроены продуцировать контент по определенной схеме и плану, разработанному группами, которые мало поддаются идентификации. Такие боты влияли на обсуждения выборов президента, включая основные темы, на то, как онлайн-активность воспринималась медиа и сообществом.

Насколько они активны?

Управлять такими системами могут политические партии, зарубежные правительства, третьи стороны или даже частные лица с интересом в определенном исходе выборов. Их работу можно оценить в как минимум 4 млн твитов, относящихся к периоду выборов, написанных примерно 400 000 социальных ботов.

Это около 15% от всех пользователей, которые обсуждали вопросы, связанные с выборами. Это примерно вдвое превышает официальные оценки общего количества ботов самой компанией Twitter — от 5% до 8,5% от всех аккаунтов.

На графике ниже представлено соотношение твитов в исследуемый период — от ботов и людей, в связи с основными событиями кампании, такими как президентские дебаты (серые зоны — нет данных):

bots_time_s

Чтобы определить, какие именно аккаунты являются ботами, мы используем сервис Bot Or Not, разработанный мною совместно с коллегами в Университете Индианы. Он использует алгоритмы машинного обучения, чтобы анализировать множество параметров, включая метаданные профиля, контент и темы, на которые пишет владелец аккаунта, структуру его социальных связей, график активности и многие другое.

После анализа около 1000 факторов Bot Or Not выдает баллы подобия, которые определяют, насколько исследуемый аккаунт похож на аккаунт бота. Он позволяет добиться 95% точности. Существует множество примеров твитов, сгенерированных ботами, поддерживающих того или иного кандидата, либо же атакующих оппонентов. Вот несколько примеров:

screenshot_20

screenshot_21

Насколько они эффективны?

Эффективность социальных ботов зависит от реакций настоящих людей. Мы узнали, к сожалению, что люди не способны игнорировать ботов либо вырабатывать к ним подобие иммунитета.

Оказалось, что большинство пользователей-людей не могут распознать твит, написанный ботом. Мы делаем такой вывод из того факта, что ботов ретвитят так же часто, как и людей. Ретвит контента, сгенерированного ботом без его верификации приводит к реальным последствиям, включая распространение слухов, конспирологические теории или неверную информацию.

Проиллюстрировать утверждение о ретвитах и реплаях между ботами и людьми помогут графики функции Complementary Cumulative Distribution Function. На графиках видно, что боты намного реже вовлекают в реплаи настоящих людей, и чаще «общаются» в реплаях с другими ботами (слева боты, справа — люди):

bots_rep_s

Зато количество ретвитов и боты, и настоящие люди получают примерно одинаковое (слева боты, справа — люди):

bots_retweets_s

Некоторые боты очень примитивны и занимаются только ретвитами контента от настоящих почитателей того или иного кандидата. Другие устроены сложнее, они производят новые твиты, присоединяются к существующим диалогам пользователей, используя популярные хештеги вроде #NeverHillary или #NeverTrump.

Настоящие пользователи, которые фоловят эти хештеги, увидят контент, сгенерированный ботами, идеально вписанный в поток твитов от обычных людей.

Боты производят контент автоматически, то есть, очень быстро и постоянно. Это означает, что они могут формировать непротиворечивые и вездесущие сегменты дискуссии на протяжении всей кампании. Как результат, они получают значительное влияние, собирая множество фоловеров, а их твиты ретвитят тысячи реальных людей.

Более глубокое понимание ботов

Наше исследование также привело к пониманию более тонких нюансов поведения ботов. Один из них: боты изначально пристрастны и это влияет на оценку ситуации. К примеру, боты в поддержку Трампа систематически генерируют гиперпозитивные твиты и эта систематическая ошибка меняет восприятие, в частности — заставляет поверить, что существует настоящее, укорененное в сообществе, позитивное отношение к тому или иному кандидату.

Если анализировать геоданные, мы усвоим еще один урок. Twitter предоставляет метаданные о физическом местонахождении устройства, которое использовали для постинга. Аггрегируя и анализируя эти «отпечатки», мы узнали, что боты распространены по США неравномерно. В некоторых штатах их значительно больше, к примеру, в Джорджии или Миссисипи. Это значит, что структуры, управляющие сетями ботов, могут располагаться в этих штатах.

bot2

Зеленым здесь обозначены штаты с наибольшим количеством политически активных в Twitter ботов, розовым — людей

Также мы обнаружили, что боты могут действовать по-разному. К примеру, когда они не заняты созданием контента в поддержку кандидата, они могут прицельно работать против оппонентов, например, писать гадости по определенным хештегам (#NeverHillary или #NeverTrump).

Эта стратегия эксплуатирует известные человеческие предубеждения. К примеру, известно, что негативный контент распространяется по социальным сетям быстрее. Мы обнаружили, что в целом негативные твиты ретвитятся в 2,5 раза более быстром темпе, чем позитивные.

Сложно просчитать влияние от деятельности ботов на результаты выборов, но допустимо предполагать, что они повлияли на количество голосов в некоторых локациях. К примеру, в определенном штате люди могут, читая Twitter, считать, что у их кандидата (или оппонента) столько поддержки, что им нет смысла идти голосовать. А на самом деле они видят искусственную волну поддержки, созданную ботами.

Наше исследование приблизилось к рамкам того, чего сегодня можно добиться в изучении ботов, используя вычислительные методы. Социальные медиа играют все большую роль в формировании политических взглядов общества, влияя на жизнь людей в офлайне и онлайне. Исследовательскому сообществу нужно продолжать исследовать эти платформы, чтобы обезопасить их пользователей от манипуляций.

Оставить комментарий

Комментарии | 0

Поиск