Украинец Богдан Кулинич, ныне работающий аспирантом в швейцарском университете EFPL, продемонстрировал расистскую предвзятость в алгоритме Twitter, который используется для создания превью изображений и получит вознаграждение от компании в размере $3500.
Как отмечает The Guardian, речь идет об ошибках в алгоритме обрезки изображений, который похоже, регулярно фокусировался на белых лицах, обрезая изображение темнокожих людей — и даже на белых собаках, обрезая черных.
Проблемы с алгоритмом Twitter
Twitter давно использует автоматическую обрезку изображений, чтобы они не занимали слишком много места в основной ленте, и чтобы в одном твите можно было показывать несколько изображений. Компания использует несколько алгоритмических инструментов, чтобы сосредоточиться на наиболее важных частях изображения, оставляя лица и текст.
Но в 2020 году пользователи заметили, что алгоритмы Twitter отдают предпочтение белым людям и даже белым собакам, почти всегда обрезая именно черных.
Исследование компании также подтвердило предвзятость в пользу белых и женских лиц и Twitter запустил программу поощрения за поиск проблем в работе алгоритма, за участие в которой исследователям, продемонстрировавшим ошибки в обрезке изображений пообещали награду.
Исследование Богдана Кулинича
Кулинич доказал предвзятость, сначала искусственно сгенерировав лица с различными характеристиками, а затем пропустив их через алгоритм обрезки Twitter, чтобы увидеть, на чем фокусируется программное обеспечение.
Поскольку лица были сами по себе искусственными, можно было создавать лица, которые были почти идентичными, но в разных точках спектра тона кожи, ширины, гендерного представления или возраста — и таким образом продемонстрировать, что алгоритм фокусировался на более молодых, стройных и светлых лицах.
«Алгоритмический ущерб — это не только «ошибки». Важно отметить, что многие вредные технологии вредны не из-за несчастных случаев или непреднамеренных ошибок, а из-за самой своей конструкции. Это происходит за счет максимизации вовлеченности и, в целом, извлечения прибыли за счет переноса затрат на других. Например, усиление джентрификации, снижение заработной платы, распространение кликбейта и дезинформации необязательно связаны с «предвзятыми» алгоритмами», — отметил Богдан Кулинич.
Компания заплатила исследователю $3500 за успешное обнаружение и доказательство некорректной работы алгоритма.