Как технологические гиганты ведут борьбу против фейков и добиваются ли успеха

2058

Правительства по всему миру все сильнее беспокоятся насчет фейковых новостей и политической пропаганды в интернете. Не меньше волнуются по этому поводу крупнейшие технологические компании: Google, Facebook и Twitter не хотят ассоциировать себя с инструментами информационной войны. Издание Bloomberg изучило, каких успехов им удалось добиться. Приводим адаптированный перевод материала.

У Facebook, Google и Twitter проблемы с оскорбительным контентом. И сейчас последствия политической дезинформации или террористического подстрекательства стали особенно заметны. В ходе трех слушаний в Конгрессе стало известно, что как минимум 126 млн пользователей Facebook видели посты, опубликованные россиянами ради вмешательства в президентские выборы 2016 года. Недавно власти Нью-Йорка рассказали, что узбекский мигрант, который убил восьмерых человек 31 октября, смотрел в интернете ролики Исламского государства. Пятью днями позже Google News наводнили фейковые истории о том, что техасский стрелок, расстрелявший 25 человек в церкви, поддерживал Хилари Клинтон и Берни Сандерса.

Эти ситуации должны подтолкнуть ведущий мировой поисковик (Google) и крупнейшие соцсети (Facebook, Twitter) к принятию большей ответственности за «информационное загрязнение» интернета. Вот как описывает возникшую проблему сенатор Демократической партии Диана Фейнстейн: «Вы создали эти платформы, а теперь они используются не по назначению. Вам необходимо предпринять что-то. Иначе за дело возьмемся мы».

Для всех обеспокоенных (компаний, их пользователей и общества) будет лучше, если Google, Facebook, и Twitter прислушаются к рекомендации Фейнстейн, запустив процесс реформ. Так они смогут избежать разговоров о давлении государства на свободу слова, а также избавиться от взаимодействия с законодателями, которые не слишком хорошо ориентируются в современных реалиях технологического мира. Тем более учитывая, что в октябре открылась новая грань вопроса о связях России и американских социальных сетей — оказалось, что ранние инвестиции в Facebook и Twitter поступали прямиком из контролируемых Кремлем финансовых источников.

По части вредоносных онлайн-материалов наглядным доказательством того, что интернет-компании добиваются прогресса служат новости об улучшении алгоритмов. Они все надежнее предупреждают пользователей о лжи и позволяют эффективнее контролировать автоматизированные системы. Как свидетельствует отчет Школы бизнеса Леонарда Н. Штерна, это лишь начало.

Но прежде чем поговорить об этом подробнее, стоит напомнить о ряде обстоятельств. Республиканский и дружественный к бизнесу Конгресс вряд ли хочет масштабно вмешиваться в работу успешнейших американских компаний вроде Facebook или Google. Не захотят трогать даже Twitter, который несмотря на менее впечатляющие финансовые результаты, однозначно находится в списке фаворитов президента.

Но где Конгресс может выступить с действиями, так это политическая реклама. Сенатор Джон МакКейн недавно продвигал закон о регулировании предвыборной онлайн-рекламы по тем же правилам, что и продвижения на телевизионных сетях. На последних слушаниях по этому вопросу юристы трех компаний заявили о намерениях добровольно принять условия, схожие с положениями закона МакКейна — невиданный и совершенно здравый пример того, как индустрия пытается обойтись без правительственных угроз. Если бы такие же усилия предприняли в 2016 году, это помогло бы остановить наплыв твитов и постов от российских активистов.

Если подходить к вопросу шире, то чтобы обелить свою репутацию, интернет-гиганты могут открыть для внешних наблюдений сведения о корпоративных операциях (но вовсе не личные данные клиентов, конечно). Пока что у исследователей просто слишком мало информации, им остается только делать смутные догадки о происходящем. Как говорит профессор университета Северной Каролины Алиса Марвик: «Только положив конец эпохе непрозрачности и секретности в отношении социальных сетей, мы сможем понять, что идет не так».

Радикальная прозрачность может столкнуться с неистребимыми корпоративными инстинктами — и должна сопровождаться тщательной защитой пользовательских данных. Но она откроет индустрию для новых идей и позволит завоевать доверие.

Twitter, к примеру, огласил, что 36 000 ботов из России постили в течение предвыборной кампании 2016 года. Но сенатор Марк Уорнер в ходе слушания первого ноября заявил, что это заниженная оценка. По его сведениям, около 15% пользовательских профилей в Twitter, то есть около 49 млн учеток, контролируются софтом, а не людьми. Лучший доступ к внутренней статистике помог бы бороться со скептицизмом Уоррена и подсказать, что компании делать со всеми этими ботами. Однако в ответ на идею о большей прозрачности, представитель Twitter ответил лаконичным заявлением: «Twitter готов к обмену информацией».

Facebook, Google, и Twitter зарабатывают на продаже рекламы. Основную работу в этом процессе выполняют алгоритмы — сложные инструкции, которые помогают компьютерам ранжировать контент. При всей их точной настройке, временами алгоритмы выводят на первые позиции откровенные фейки. Не надеясь, что алгоритмы когда-то станут идеальными (в конце концов, они же созданы людьми), можно хотя бы рассчитывать, что компании будут максимально оперативно реагировать на их ошибки.

Посмотрите на последний пример при участии Google. В апреле на внутреннем блоге компании появилась запись о том, что примерно 0,25% поисковых запросов — а это миллионы в пересчете на дневную статистику — выдают оскорбительный или откровенно лживый контент. Это наглядно иллюстрировал инцидент в декабря 2016-го, когда первой ссылкой по вопросу «Случился ли Холокост?» стала страница неонацистского сайта Stormfront с заголовком «10 причин, согласно которым Холокоста не было». Обеспокоенные этим и другими ситуациями, в Google запустили систему алгоритмической «очистки» под названием Project Owl. В мае компания рассказала, что её работа сделала появление фейков менее вероятным.

Точной сравнительной статистики с показателем в 0,25% запросов не было. Но судя по рядовым наблюдениям, Project Owl все таки подействовал на ситуацию. Корреспондент Bloomberg вновь загуглил «Случился ли Холокост?» 9 ноября. В топе находился сайт, который борется против отрицания Холокоста. Заявления Stormfront зависли где-то на середине четвертой страницы. Очевидно, движение за улучшение алгоритмов должно стать популярнее. Пока что даже в Google признаются — прогресс есть, но работы еще немало.

В некоторых регионах Facebook экспериментировал с функцией факт-чекинга в новостной ленте. Основываясь на сообщениях пользователей и других показателях, компания направляла материалы на проверку сторонним организациям вроде PolitiFact. Если они подвергали содержание сомнению, соцсеть помечала это и прилагала рекомендацию не делиться постом. Программа факт-чекинга и другие инициативы должны получить глобальное внедрение.

Когда дело доходит до контента, содержащего сцены насилия, социальные сети сталкиваются с другой проблемой — стоит только удалить ролик, как появляются десятки «перезаливов». В ответ Facebook, Google и YouTube экспериментируют с технологией «хашинга», которая позволяет следить за «цифровыми отпечатками» видеозаписей и автоматически удалять новые копии. YouTube недавно воспользовался хашингом чтобы убрать десятки тысяч записей с проповедями американского священника Анвара Аль-Авлаки, известного по вербовке террористов и погибшего в результате бомбежки дронами в 2011 году. В августе платформа также ужесточила правила для размещения радикального религиозного или ксенофобского контента, который все же не претендует на удаление: такие ролики нельзя рекомендовать, лайкать или комментировать. Их также сложнее найти в поиске, а для авторов отключена монетизация.

В схожий эксперимент вовлечена и Google, которая создает инструмент под названием Redirect Method — он призван определять возможную симпатию пользователя экстремистским материалам на основе поисковых запросов. Как только система идентифицирует такого человека, она будет чаще выводить для него ролики, изобличающие бессмысленную жестокость террористов. В ходе недельного теста, ≈ 300 000 юзеров посмотрели предложенные Redirect Method видео общей длительностью более полумиллиона минут.

Как показывают эти примеры, цифровые компании готовы улучшать свою работу, но усилия стоит нарастить. В ходе слушаний в Конгрессе представители Facebook заявили, что к концу 2018 компания увеличит до 20 000 количество сотрудников и контрактных работников, которые обеспечивают «защиту и безопасность» платформы. На отчете перед инвесторами Марк Цукерберг также предупредил, что такие вложения скажутся на доходности.

Не очень уж болезненные слова для CEO, компания в которого в тот день отчиталась о невероятных успехах. За третий квартал Facebook заработала $4,7 млрд, что на 79% выше прошлогодних результатов. Цукерберг же настаивает: «Защита нашего комьюнити важнее максимизации прибыли». Но это ложная дихотомия. В долгосрочной перспективе компании смогут привлекать новых пользователей и рекламодателей, только если справятся с нежелательным контентом. Путь к прибыли пролегает через принятие правильных решений.

Оставить комментарий

Комментарии | 0

Поиск