Компанія-розробник ChatGPT – OpenAI – започаткувала нову команду, яка працюватиме над мінімізацією ризиків, повʼязаних зі стрімким поширенням штучного інтелекту. Зокрема, опікуватиметься проблемами кібербезпеки, хімічними, ядерними та біологічними загрозами. Про це повідомляє Bloomberg.

  • Нову команду називають Preparedness team, тобто «команда готовності». Про її створення в ChatGPT повідомили 26 жовтня. Команду очолив виходець з MIТ Александр Мадрі.
  • Група аналізуватиме та намагатиметься запобігти потенційним «катастрофічним ризикам» систем штучного інтелекту, починаючи від проблем кібербезпеки і закінчуючи хімічними, ядерними та біологічними загрозами.
  • Серед іншого, команда опікуватиметься проблемами автономної реплікації та адаптації ШІ (що логічно, враховуючи амбіції OpenAI побудувати «суперінтелект» в майбутньому).
  • Мета OpenAI зосереджена на створенні ШІ, який може виконувати низку завдань краще, ніж люди (в компанії його називають AGI – Artificial General Intelligence). Оскільки поточні системи не відповідають цьому опису, компанія заявила, що їй необхідно «переконатися, що у нас є розуміння та інфраструктура, необхідні для безпечних та високопродуктивних систем штучного інтелекту».
  • Нова команда розробить політику, щоб допомогти компанії визначити, як вона може зменшити ризики, пов’язані з розробкою такої ШІ-технології наступного покоління.
  • Наразі «команда готовності» на стадії комплектування. Компанія має незакриті вакансії у Сан-Франциско, а також шукатиме кандидатів через конкурс Preparedness Challenge, в межах якого всім охочим пропонують розповісти про неочевидні ризики від ШІ. 10 переможців отримають $25 000 у вигляді API-кредитів.