Компанія-розробник ChatGPT – OpenAI – започаткувала нову команду, яка працюватиме над мінімізацією ризиків, повʼязаних зі стрімким поширенням штучного інтелекту. Зокрема, опікуватиметься проблемами кібербезпеки, хімічними, ядерними та біологічними загрозами. Про це повідомляє Bloomberg.
- Нову команду називають Preparedness team, тобто «команда готовності». Про її створення в ChatGPT повідомили 26 жовтня. Команду очолив виходець з MIТ Александр Мадрі.
- Група аналізуватиме та намагатиметься запобігти потенційним «катастрофічним ризикам» систем штучного інтелекту, починаючи від проблем кібербезпеки і закінчуючи хімічними, ядерними та біологічними загрозами.
- Серед іншого, команда опікуватиметься проблемами автономної реплікації та адаптації ШІ (що логічно, враховуючи амбіції OpenAI побудувати «суперінтелект» в майбутньому).
- Мета OpenAI зосереджена на створенні ШІ, який може виконувати низку завдань краще, ніж люди (в компанії його називають AGI – Artificial General Intelligence). Оскільки поточні системи не відповідають цьому опису, компанія заявила, що їй необхідно «переконатися, що у нас є розуміння та інфраструктура, необхідні для безпечних та високопродуктивних систем штучного інтелекту».
- Нова команда розробить політику, щоб допомогти компанії визначити, як вона може зменшити ризики, пов’язані з розробкою такої ШІ-технології наступного покоління.
- Наразі «команда готовності» на стадії комплектування. Компанія має незакриті вакансії у Сан-Франциско, а також шукатиме кандидатів через конкурс Preparedness Challenge, в межах якого всім охочим пропонують розповісти про неочевидні ризики від ШІ. 10 переможців отримають $25 000 у вигляді API-кредитів.