Twitter заплатила украинцу $3500 за обнаружение ошибок в алгоритме обрезки изображений

9827

Украинец Богдан Кулинич, ныне работающий аспирантом в швейцарском университете EFPL, продемонстрировал расистскую предвзятость в алгоритме Twitter, который используется для создания превью изображений и получит вознаграждение от компании в размере $3500.

Как отмечает The Guardian, речь идет об ошибках в алгоритме обрезки изображений, который похоже, регулярно фокусировался на белых лицах, обрезая изображение темнокожих людей — и даже на белых собаках, обрезая черных.


Проблемы с алгоритмом Twitter

Twitter давно использует автоматическую обрезку изображений, чтобы они не занимали слишком много места в основной ленте, и чтобы в одном твите можно было показывать несколько изображений. Компания использует несколько алгоритмических инструментов, чтобы сосредоточиться на наиболее важных частях изображения, оставляя лица и текст.

Но в 2020 году пользователи заметили, что алгоритмы Twitter отдают предпочтение белым людям и даже белым собакам, почти всегда обрезая именно черных.

На каждом из изображений есть альтернативный черный или темнокожий персонаж, но алгоритмы каждый раз выбирают белого.

Исследование компании также подтвердило предвзятость в пользу белых и женских лиц и Twitter запустил программу поощрения за поиск проблем в работе алгоритма, за участие в которой исследователям, продемонстрировавшим ошибки в обрезке изображений пообещали награду.

Исследование Богдана Кулинича

Изображение: Bogdan Kulynych GitHub

Кулинич доказал предвзятость, сначала искусственно сгенерировав лица с различными характеристиками, а затем пропустив их через алгоритм обрезки Twitter, чтобы увидеть, на чем фокусируется программное обеспечение.

Поскольку лица были сами по себе искусственными, можно было создавать лица, которые были почти идентичными, но в разных точках спектра тона кожи, ширины, гендерного представления или возраста — и таким образом продемонстрировать, что алгоритм фокусировался на более молодых, стройных и светлых лицах.

«Алгоритмический ущерб — это не только «ошибки». Важно отметить, что многие вредные технологии вредны не из-за несчастных случаев или непреднамеренных ошибок, а из-за самой своей конструкции. Это происходит за счет максимизации вовлеченности и, в целом, извлечения прибыли за счет переноса затрат на других. Например, усиление джентрификации, снижение заработной платы, распространение кликбейта и дезинформации необязательно связаны с «предвзятыми» алгоритмами», — отметил Богдан Кулинич.

Компания заплатила исследователю $3500 за успешное обнаружение и доказательство некорректной работы алгоритма.

Оставить комментарий

Комментарии | 0

Поиск