Slack тренує свої моделі машинного навчання на даних користувачів без їхнього дозволу, пише Engadget. Щоб заборонити надання цих даних, треба попросити власників робочого простору написати листа з відповідним проханням у Slack та дочекатися відповіді.

Цю проблему помітив у Принципах конфіденційності Slack виконавчий директор DuckBill Group Корі Квін, про що розповів у соцмережі Х (колишній Twitter). У принципах компанії йдеться про наступне:

«Для розробки моделей AI/ML наші системи аналізують дані клієнта (наприклад, повідомлення, контент і файли), надіслані в Slack, а також іншу інформацію (включаючи інформацію про використання), як визначено в нашій Політиці конфіденційності та Угоді з клієнтом».

Враховуючи резонанс, компанія опублікувала у своєму блозі окремий допис на цю тему. За їхніми словами, клієнтські дані не використовують для навчання власного ШІ-продукту Slack AI. Натомість дані потрібні для моделей машинного навчання для покращення продуктів на кшталт «рекомендацій каналів, емодзі та результатів пошуку».

  • Компанія стверджує, що моделі машинного навчання не можуть вивчати, запам’ятовувати або відтворювати дані клієнтів. Вони «використовують деідентифіковані агреговані дані і не отримують доступ до вмісту повідомлень у приватних або публічних каналах».
  • Клієнтам можна відмовитись від того, аби Slack використовував їхні дані. Для цього треба, щоб власник організації чи робочого простору надіслав листа із відповідним проханням на адресу [email protected], вказавши URL-адресу організації та тему листа «Запит на відмову від моделі Slack Global».