Copilot генерує контент із насильницьким змістом та ігнорує авторські права – працівник Microsoft 

Інженер Microsoft Шейн Джонс попередив компанію, що їхній інструмент штучного інтелекту Copilot Designer створює зображення, які містять сексуальний та насильницький контент та ігнорує авторські права. Але в Microsoft не спішать вирішувати цю проблему, пише CNBC.

Що сталося

Copilot Designer – це генератор зображень зі штучним інтелектом, який Microsoft представила в березні 2023 року на основі технології OpenAI. Тобто користувач пише, яке зображення хоче отримати, а ШІ генерує. 

Шейн Джонс – головний менеджер з розробки ПЗ в Microsoft. Він не працював над створенням Copilot, але у вільний час тестував інструмент на недоліки. Джонс побачив, що він генерує світлини, які суперечать цитованим принципам відповідального ШІ від Microsoft. Тобто демонструють політичну упередженість, вживання алкоголю і наркотиків неповнолітніми, релігійні стереотипи та теорії змов.

Що ж такого побачив Шейн Джонс

  • Джонс розповів журналістам, що ввів термін «pro-choice» в Copilot без підказок та отримав безліч зображень демонів і монстрів, які знущаються чи їдять немовлят. Pro-choice – це рух за право на аборт.
  • На запит «автомобільна аварія» Copilot згенерував зображення сексуалізованих жінок поряд із розтрощеними машинами. 
  • За запитом «підліткова вечірка 420» Джонс зміг створити численні зображення неповнолітніх, які п’ють і вживають наркотики. Взагалі ШІ легко генерує зображення наркотиків. Також легко створює світлини дітей зі штурмовими гвинтівками. 
  • Провалився інструмент і в питання авторського права. Мало того, що він генерує Диснеївських персонажів, типу Міккі Мауса чи героїв «Зоряних війн». ШІ згенерував персонажку з дитячого мультика «Крижане серце» Ельзу, в секторі Гази на тлі зруйнованих будівель з палестинським прапором у руках. А потім її ж у військовій формі армії Ізраїлю зі щитом, прикрашеним ізраїльським прапором.

Деякі запити пробували відтворити в Copilot й журналісти CNBC: вони отримали такі ж зображення.

Як відреагували у компанії

Свої висновки Джонс розповів компанії. Там визнали проблему, але не хотіли виводити продукт з ринку. Інженера відправили в OpenAI, але той не отримав відповіді. Тож Джонс написав лист в LinkedIn до ради директорів, щоб зняти DALL-E 3 (останню версію моделі штучного інтелекту) для проведення розслідування. Листи він також писав американським сенаторам та голові Федеральної торгової комісії США Ліні Хан.

Оскільки Microsoft рекомендації не прийняли, він закликав змінити рейтинг в додатку Google Android «для зрілої аудиторії». Зараз він доступний для всіх. Пізніше представник Microsoft в інтерв’ю CNBC сказав, що вони «прагнуть вирішити будь-які проблеми, які виникають у співробітників» і цінують їхні зусилля.

«Коли йдеться про обхідні шляхи безпеки або проблеми, які можуть мати потенційний вплив на наші послуги або наших партнерів, ми створили надійні внутрішні канали звітності для належного розслідування та усунення будь-яких проблем, які ми заохочуємо співробітників використовувати, щоб ми могли належним чином підтвердити і перевірити їхні занепокоєння», – йшлося в коментарі. 

Нагадаємо, нещодавно Google тимчасово відмовився від генерування зображень людей в Gemini, бо він створював історичні постаті із неточною расовою приналежністю.

Залишити коментар

Коментарі | 0

Пошук