С конца января 2020 и по сегодняшний день Facebook ведет кампанию о корректных способах информирования пользователей о коронавирусе, потому что на волне хайпа СМИ создают фейковые сенсации, направленные на привлечение внимания, сбор кликов и увеличение прибыли.
Как еще создатели социальной сети борются с вредоносной информацией в медиапространстве, рассказала Compliance Officer Genesis Дарина Сухина.
Cогласно статистике WeAreSocial, в 2020 мы проводим онлайн около 7 часов, из них на социальные сети приходится чуть больше 2 часов. Там можно общаться с друзьями, следить за близкими или просто читать новостную ленту, не выпадая из информационного пространства.
Глобальная аудитория Facebook составляет 2,5 млрд пользователей, 1,66 млрд из которых активно пользуются соцсетью ежедневно. Медиа прекрасно осознают, что более 90% их читателей входят в эту аудиторию, и было бы глупо не использовать данный канал коммуникации, лишая себя как дополнительной аудитории, так и дохода.
Неудивительно, что для многих медиа это одна из основных площадок распространения новостей и их монетизации. Огромная аудитория и слабые регулирующие политики спровоцировали появление тысяч страниц и групп, которые генерировали миллионы статей в день без должного модерирования. Чтобы упорядочить этот массив информации, платформа ввела правила создания и распространения контента. Ведь где большой спрос, там и больше нечестной игры.
Стратегия медиабезопасности Facebook
В 2016 году Facebook разработал стратегию Remove, Reduce, Inform. Ее целью является контроль за содержанием и распространением материалов в сети. Таким образом соцсеть хочет сделать свое медиапространство более прозрачным и безопасным.
Базовые принципы:
- Remove — удаление контента, который нарушает политики платформы. Все материалы для публикации должны соответствовать Facebook Community Standards. За нарушение норм сообщества контент удаляют, а на канал распространителя накладываются санкции — от отключения монетизации до удаления или/и бана домена.
- Reduce — уменьшение распространения контента «серой» зоны. Например, сенсационные материалы, которые еще не нарушают нормы сообщества, но уже являются чувствительными и шокирующими для аудитории.
- Inform — информирование пользователей Facebook о том, что такое «серый» контент, чтобы сложить целостную картину и не поддаваться на манипуляции со стороны медиа.
В рамках этой стратегии стоит выделить два важных направления нарушений, с которыми борется Facebook — кликбейт и ложные новости.
Санкционирование кликбейта
Уверена, каждый пользователь Facebook ежедневно видит тонну публикаций с заголовками-провокаторами, вызывающими желание кликнуть. Согласно News Feed GUIDelines, Facebook выделяет два типа кликбейтовых заголовков:
- Интригующие — заголовок не дает информацию в полном объеме, заставляя пользователей кликнуть, чтобы удовлетворить любопытство. «Ты не поверишь, кто упал на красной дорожке». Не кликнешь — не узнаешь.
- СенсационныеЛожные — «кричащий» заголовок с неправдивой или преувеличенной информацией. «На самом деле яблоки вредны для вашего здоровья». Все мы прекрасно знаем, что яблоки не вредны для здоровья, если не съесть за раз несколько килограмм, но авось!
Facebook активно борется с кликбейтом еще с 2017 года, вводя санкции за его использование. В начале 2018 можно было наблюдать уникальную картину, когда благодаря смене алгоритмов, направленных на уменьшение использования кликбейтных заголовков, виральные паблишеры вроде UNILAD, 9Gag, Cosmopolitan и других существенно просели в трафике, в то время как NBC и Fox News наоборот выросли и заняли лидирующие позиции. Это осознанный шаг Facebook для защиты своих читателей. В результате виральные площадки получили урок и вернулись к адекватным показателям приблизительно через полгода.
Интересно, что в 2017-2018 годах паблишеры не могли физически проверить, применили ли к ним санкции за кликбейт. С 2019 года Facebook начал оповещать медиа о нарушении правил сообщества.
Для проверки своей страницы, зайдите во вкладку Page Quality. Если вы видите уведомление о кликбейте, то выдачу вашего контента деприоритезировали на 14 дней.
Модерация ложных новостей
До 2016 года на платформе были проблемы с распространением неправдивых новостей и не было никаких мер по борьбе с ними. Все изменилось после победы Дональда Трампа на президентских выборах США. Для общественности такой исход был неожиданным и его связали с манипулированием взглядами избирателей через СМИ. Facebook же подвергся жесткой критике за то, что не ограничил медиа в публикации ложной информации на платформе, влияя на исход выборов.
В результате соцсеть объявила о собственной инициативе по борьбе с недостоверной информацией.
Поскольку в Facebook не так много человеческих ресурсов, задачу делегировали фактчекерам — сторонним медиаорганизациям, которые занимаются в т.ч. выявлением фейков. Большинство из них являются локальными и покрывают определенную географию, чтобы упростить задачу и сфокусироваться на новостях конкретного рынка.
К тому же, Facebook уделяет много внимания фидбеку пользователей. Соцсеть оперативно реагирует на отзывы: жалобы о потенциально ложных новостях и комментарии о явных фейках. Обжалованные материалы проверяют фактчекеры и присваивают им рейтинг true, false, partly false и другие. Последствия за нарушения политик для паблишера разнятся — от деприоритезации выдачи контента до бана страницы и домена.
Важно понимать, что при этом ложные новости не удаляются — в этом и заключается функция информирования. Как правило, к ним добавляют дополнительные «разъясняющие статьи», чтобы продемонстрировать пользователю, почему данный контент является ложным, и предотвратить искривление информации. Такой вид самонаполняющегося обучающего пособия. При этом, пользователи сами могут пожаловаться на то, что медиа дезинформирует своих читателей. Так читатели вкладываются в формирование безопасного медиапространства социальной сети.
Медленная алгоритмическая борьба
В сети можно столкнуться с мнением, что система борьбы с ложными новостями неэффективна. На платформе ежедневно публикуется более миллиарда постов, при этом локальной модерацией, например, в Великобритании занимаются всего две фактчекинговые организации. В одной из них осенью 2019 года работало меньше 10 сотрудников. Такого количества человеческих ресурсов явно недостаточно для эффективной борьбы с недостоверной информацией в Великобритании.
С другой стороны, с каждым годом процесс становится более глобализированным за счет увеличения количества организаций в новых странах — только за 2019 год добавились Хорватия, Греция, Литва, Гана и другие. Это сложный процесс, требующий временных затрат.
Facebook еженедельно выпускает несколько новостных апдейтов, которые полезны медиапаблишерам, и оперативно реагирует на проблемы освещения точечных социально важных вопросов.
В связи с текущей ситуацией, соцсеть предприняла ряд активных инициатив в полномасштабной информационной и финансовой борьбе с фейковой информацией о коронавирусе и желающих заработать на пандемии. Согласно обновленным рекламным политикам, Facebook с марта запретил рекламу медицинских масок, санитайзеров и COVID-19 тестов. А если алгоритм отследит органический пост, в котором пользователю предлагают купить эти товары, он будет удален. К тому же, платформа запускает площадки для ситуативного фандрейзинга, предоставляет гранты малому бизнесу и журналистам для освещения ситуации.
Критическая ситуация отразилась и на работе модераторов. Их число значительно сократилось, и платформа полагается на модерацию AI. Кроме этого, часть медийного контента не будет монетизироваться на период пандемии, так как из-за удаленной работы у компании не хватает на это рук.
Учитывая это, мы рекомендуем редакторам держать руку на пульсе и мониторить политики и новости хотя бы несколько раз в неделю.
Новые инициативы, борьба с кликбейтом и неправдивыми новостями — это только небольшая часть правил, которые стали актуальными для медиа в последнее время. Практически каждый день мы видим новые обновления от Facebook o COVID-19 и как это влияет на работу компании, поэтому советуем бизнесам активно мониторить ситуацию.
Автор: Дарина Сухина, Compliance Officer в Genesis