Зараз багато пишуть про переваги ШІ-технологій по типу ChatGPT, а про ризики говорять трохи менше. Один із прикладів подібних ризиків: співробітники південнокорейської Samsung, імовірно, розкрили комерційну таємницю компанії, використовуючи ChatGPT для робочих завдань. Про це повідомляє The Register із посиланням на південнокорейські медіа.

  • У компанії якийсь час були обмеження на використання ChatGPT, щоб захистити дані компанії, але 11 березня 2023 року його зняли. І є ймовірність, що співробітники Samsung, використовуючи чат-бота для рутинних завдань, могли «злити» чутливу інформацію про бізнес та продукти компанії, зокрема, початковий код її сервісів та дані про її розробки, зокрема, про нові напівпровідники.
  • Співробітники почали використовувати ChatGPT, наприклад, для перевірки коду: один із них завантажив проблемний код, пов’язаний із розробками напівпровідників, і попросив чатбот знайти, в чому проблема. Ще один співробітник розповів, що підвантажив до ChatGPT програму, яка визначає дефекти в обладнанні, а третій — що надав чатботові доступ до запису бізнесових зустрічей, щоб полегшити собі укладання протоколу для них.
  • Усі ці три випадки сталися менше, ніж за місяць, та стосувалися чутливої інформації про стан справ у компанії та про її розробки. Водночас, за правилами ChatGPT, його інженери можуть використовувати записи «спілкування» з людьми для подальшого навчання системи. Тобто, тепер співробітники OpenAI (розробника ChatGPT) гіпотетично зможуть отримати доступ до комерційної таємниці Samsung.
  • Щойно про інциденти стало відомо, у Samsung застосували «екстрені заходи», зокрема, обмежили можливість щось завантажувати до чату: до 1024 байтів на одне питання. Також у компанії зараз працюють над власним ШІ-рішенням для внутрішнього використання.
  • За даними опитування серед українських компаній, 11% з них стурбовані питаннями загальної безпеки використання ШІ та приватності даних.