Редакция AIN.UA поговорила с Лукашем Хольцером, Public Policy Manager on Content в Facebook о том, как модерируются посты в Facebook, кто отвечает за украинский контент и как сеть борется с фейками и ботами.
Как создается и воплощается политика по контенту в Facebook?
Важно понимать масштаб, на котором мы работаем. У нас — 1,56 млрд ежедневных пользователей и 2,38 млрд тех, кто использует Facebook ежемесячно. Это означает, что каждый день публикуются миллиарды постов и на миллионы поступают жалобы. Наша политика должна эффективно справляться с этим потоком. 87% аудитории — это люди не из США и Канады, мы — очень многонациональное сообщество, с различными порогами для того, что кажется приемлемым, и это тоже усложняет создание политики по контенту.
В моей команде — 10 офисов по всему миру. У нас работают люди с очень разным опытом работы (есть бывшие работники прокуратуры, сотрудники организаций, занимающихся детской безопасностью, люди из бизнеса, из сферы коммуникаций и т.д.). Различный опыт, различные навыки.
Когда мы работаем над политикой, то сотрудничаем с разными командами, а также — с людьми вне Facebook (к примеру, научными работниками, общественными организациями, даже правоохранителями). Три кита работы политики по контенту — это команды Community Integrity, Community Operations и Content Policy. Последняя — моя команда — разрабатывает для сообщества стандарты для контента, правила о том, что дозволено, а что нет. Сommunity Оperations Team занимается внедрением этих стандартов, а Community Integrity Team разрабатывает для этого технологии и инструменты.
Наши стандарты публично доступны с апреля 2018 года, они покрывают разнообразие тем (прямые угрозы, членовредительство, сексуальное насилие, нагота, язык ненависти, буллинг и харасмент, и так далее), все, что способно угрожать безопасности пользователей.
Работая над политикой, мы держим в уме три вещи. Первое: наша политика должна применяться ко всем одинаково: будь-то пользователь в Украине, Бангладеш или в США. Второе: она должна быть применимой. У нас работают тысячи модераторов (content reviewers), и мы должны удостовериться, что они все могут применять наши правила о контенте на практике. К примеру, если пост оценивают три разных модератора, они все должны прийти к одинаковому выводу. И третье: правила должны быть такими, чтобы мы могли их всем объяснить.
Приведите пример того, как ваша политика работает (и меняется)?
Например, пару лет назад был кризис с беженцами в Европе и в сети было много оскорбительного контента по отношению к мигрантам. Согласно нашей политике о языке ненависти мы удаляем любой контент, который атакует пользователя по его религиозным взглядам, национальности и т.д. Но в тот момент в наших правилах не было ничего, что бы защищало пользователей, основываясь на их миграционном статусе. Поэтому мы разработали апдейт для политики, который защищал таких людей от призывов к насилию и дегуманизационного контента в сети.
Как анализируются и удаляются посты, если кто-то подал на них жалобу? Различается ли процедура для разных рынков и как это, к примеру, работает для украинских пользователей?
Мы сейчас публично раскрываем, сколько контента мы удалили по определенным правилам. К примеру, с января по март этого года мы убрали около 4 млн постов, связанных с языком ненависти. С 2018 года количество контента, отмеченного алгоритмами Facebook, по сравнению с контентом, который отметили пользователи, превысило 50%. Около 65% всего контента по языку ненависти выявляют наши AI-системы, а не люди. Наши алгоритмы, выявляющие такие типы контента, все больше обучаются и становятся умнее.
Но очевидно контент, вроде языка ненависти, имеет много нюансов, которые зависят от локального контента. В Facebook контент модерируется круглые сутки семь дней в неделю, на более, чем 50 языках, которые также включают украинский. Когда мы нанимаем модераторов, мы ищем людей, которые знают язык, но также знают и особенности рынка. Когда нам нужен модератор контента на португальском, мы не будем нанимать бразильца, который будет работать с португальским сегментом сети.
Иногда мы допускаем ошибки, особенно по отношению к “языку ненависти”: в этом случае контент может иметь свои нюансы и чтобы понять, является ли он оскорбительным, может понадобиться больше контекста. Именно поэтому мы даем людям возможность подавать апелляцию на заблокированный контент, в таком случае, заблокированный пост пойдет на модерацию к трем разным людям. Если первый модератор решил, что он нарушает правила, а второй — что не нарушает, решение примет третий модератор.
Предположим, что вы отметили контент на украинском языке (это работает так же и для любого другого языка). Он направляется в систему, где в зависимости от типа нарушения (некоторые нарушения, к примеру, связанные с детской безопасностью, имеют приоритет для модерации) его направят к модератору. И, как я уже говорил, он должен владеть языком. Но все зависит от контента.
Если вы подаете жалобу на контент с изображением голого тела, ее не обязательно рассматривать модератору со знанием языка, чтобы вынести решение. Но если речь, к примеру, о “языке ненависти”, конечно, такой контент идет на модерацию человеку, владеющему украинским и знающему специфику рынка, поскольку здесь все очень зависит от контекста употребления. Есть и другие факторы: юмор, сатира, которые также нужно принимать во внимание.
Есть ли выделенная команда, которая занимается модерацией украинского контента?
У нас над этим работает Community Operations Team, о которой мы уже говорили. Она глобально отвечает за модерацию всего контента, отмеченного, как потенциально нарушающего правила. Неважно, откуда этот контент — из Украины или другой страны. Но в самой этой команде у нас есть модераторы, которые владеют определенными языками и анализируют контент из определенных регионов.
Во время революции 2013-2014 годов украинские блогеры говорили о том, что Facebook несправедливо блокирует их контент (из-за модерации в РФ). Украинцы даже проголосовали за вопрос Цукербергу об этом. Может ли быть, что политические посты в украинским Facebook попадали к модераторам из РФ и блокировались, исходя из предубеждения?
Я бы хотел отметить здесь несколько моментов. Первое: язык и национальность. Как я уже говорил, мы нанимаем модераторов, которые не только владеют языком, но знакомы со спецификой рынка. Мы стараемся нанимать украинцев для модерации украинского контента. И так же мы поступаем в других странах.
Второе: то, как мы справляемся с предубежденностью в модерации. Мне часто задают этот вопрос, и он действительно важен. В процессе разработки политики по контенту есть два очень важных этапа: ее запуск и пост-запуск. Во время запуска мы обучаем всех наших модераторов новым правилам и проверяем, могут ли они корректно применять их. Позже мы проводим тесты производительности модераторов и проверяем их решения. Это нужно для измерения непротиворечивости в правилах, но также — чтобы убедиться, что решения не принимаются предубежденно.
Если есть модератор, который постоянно нарушает нашу политику, мы бы об этом знали, поскольку мы проверяем решения модераторов. Модераторы связаны рамками политики и не выходят за них, за исключением случаев, когда речь идет о специфике рынка. Модератор просто не смог бы постоянно принимать предубежденные решения: в какой-то момент об этом стало бы известно.
Может ли так быть, что политический пост на русском, но написанный украинским пользователем, поступает на модерацию к российскому модератору?
Обычно нет, украинский контент идет на модерацию украинской команде. Но даже если нет, наша политика разработана так, чтобы применяться глобально и исключать предубежденный подход, о котором вы говорите. Если случилась ошибка, мы все еще предлагаем пользователю подать апелляцию на это решение. Это означает, что контент будут модерировать другие модераторы, которые и исправят ошибку.
Есть ли у Facebook инструменты для проверки политических постов (к примеру, политической рекламы, новостей, фейковых новостей), особенно в период выборов в стране?
Мы относимся к выборам очень серьезно. В нашей команде — около 15 000 модераторов, которые работают с контентом. Мы также много инвестируем в развитие AI-систем, которые все больше развиваются и все лучше находят вредный контент. Сейчас такие алгоритмы находят около 65% потенциально вредного контента, но в будущем этот показатель может вырасти до 99%.
Кроме модерации контента мы работаем с и политической рекламой. В феврале мы запустили инструменты для предотвращения иностранного вмешательства в выборы, а 15 марта мы предоставили пользователям больше информации о том, какую политическую рекламу они видят на Facebook и Instagram (ads transparency tools). Перед выборами все потенциальные рекламодатели должны были верифицироваться, а реклама, относящаяся к политике, должна была быть прозрачной.
Для некоторых локаций мы требовали у рекламодателей загружать идентифицирующие или нотариально заверенные документы, которые мы затем проверяли. Также рекламодатели должны были раскрывать данные о том, кто отвечает за рекламу.
11 июля мы также запустили новый отчет Ad Library Report, где собраны данные о политической рекламе по Украине. Он доступен по этой ссылке и обновляется каждый день. Чтобы изучить его, не надо даже логиниться на Facebook.
Расскажите о том, как Facebook работает с фактчекингом и будут ли эти инструменты доступны в Украине?
Наша стратегия по борьбе с дезинформацией на Facebook складывается из трех частей. Первое: мы удаляем контент и аккаунты, нарушающие наши стандарты или правила размещения рекламы. Второе: снизить распространение фейков или неоригинального контента (в том числе, кликбейт-контента, для которого мы снижаем охваты, чтобы его авторы не могли на нем зарабатывать). В некоторых странах мы удалили несколько миллиардов фейковых аккаунтов за последние несколько месяцев. Третье: мы информируем пользователей, предоставляя им больше данных о посте (данные о том, кто его опубликовал, например).
В некоторых странах мы работаем с подрядчиками по фактчекингу, которые сертифицированы в International Fact-Checking Network, они помогают нам выявлять и модерировать фейки. На данный момент мы не сотрудничаем с партнерами по фактчекингу в Украине, но эта наша программа быстро масштабируется. В 2018 году она выросла с 4 стран до 23 (сейчас их уже 39) и мы собираемся развивать ее глобально.
Власти РФ требуют от Facebook хранить данных пользователей на локальных серверах. Могут ли данные украинских пользователей загружаться и обрабатываться на российских серверах?
В марте Марк Цукерберг уже говорил о том, что есть важное отличие между предоставлением сервиса в стране и хранением там пользовательских данных. Мы развиваем нашу инфраструктуру по всему миру, и мы решили не развивать нашу инфраструктуру в странах, где есть свидетельства нарушения прав человека, к примеру, свободы слова. Если мы будем не просто кэшировать нечувствительные данные, а строить в таких странах дата-центры и хранить на них чувствительные данные пользователей, правительствам таких стран станет проще получить доступ к информации о пользователях.
Недавно Facebook нанял GR-cпециалиста по работе с украинскими властями. Какие шансы того, что компания откроет представительство в Украине?
Facebook нанимает специалистов по связям с правительством во множестве стран. И это по-настоящему полезно, поскольку помогает, к примеру, мне и моей команде работать над политикой по контенту, GR-специалисты сообщают нам, как обновления в политике будут взаимодействовать с локальными рынками. Касательно представительства: я могу говорить только о работе моей команды. В Facebook мы стараемся, чтобы модерация контента происходила в централизованных хабах. Причина для этого очень простая: наши обучающие и образовательные усилия в централизованных хабах дают больше синергетического эффекта. Поэтому у Facebook нет команд модерации в каждой из стран, где мы работаем.
Update: В первоначальной версии материала редактор AIN.UA допустила неточность при переводе одного из ответов спикера, она исправлена в соответствии с оригинальным текстом.