OpenAI цього тижня непомітно прибрала зі своєї політики користування формулювання, що прямо забороняє використання їх технологій у військових цілях. Як зазначає The Intercept, ця політика регулює застосування інструментів, зокрема ChatGPT.

  • До 10 січня політика користування чітко забороняла «діяльність з високим ризиком фізичної шкоди, у тому числі розробку зброї та військові дії». Ця чітко сформульована заборона на військове застосування виключала будь-яке використання державною військовою силою.
  • Нова політика зберігає заборону на використання послуг, щоб «завдати шкоди собі чи іншим» і наводить як приклад «розробку чи використання зброї», проте загальна заборона на використання у «військових цілях та бойових діях» зникла.
  • За словами OpenAI, зміни внесені для «чіткості» та «читабельності» документа. Представник компанії Ніко Фелікс не відповів чітко, чи забороняє нова політика будь-яке військове використання, посилаючись на законність дій.
  • Експерти вважають, що компанія мовчки послаблює свою позицію проти ведення бізнесу з військовими.
  • Ці зміни сталися в час, коли армії всього світу хочуть використовувати штучний інтелект для отримання переваги.

Міноборони США активно досліджує можливість використання ChatGPT та інших великих мовних моделей для аналізу даних та інших цілей. Деякі представники військового керівництва висловлюють занепокоєння щодо фактичних помилок та безпеки використання цих технологій, але загалом Пентагон прагне їх застосовувати.

Аналіз даних свідчить про те, що американські військові вже використовують цю технологію для прискорення документообігу.