Илон Маск, Стивен Хокинг, Стив Возняк и ведущие мировые ученые в области развития искусственного интеллекта (ИИ) считают, что человечество может зайти слишком далеко в гонке вооружений и призывают сделать все возможное, дабы мир не настигла катастрофа. Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором призывает отказаться от «гонки ИИ-вооружений» (AI Arms Race).

Письмо подписали более тысячи ученых и ведущих представителей информационного бизнеса. Суть сводится к тому, что гонка вооружений выходит на новый уровень: разработку и внедрение оружия с собственным искусственным интеллектом. ИИ-вооружение может контролироваться издалека без непосредственного присутствия живого человека в зоне боевых действий.

terminator

«Автономное оружие станет «автоматом Калашникова» будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что оно станет вездесущим и дешевым для массового производства. То, как скоро это оружие появится на черном рынке – лишь вопрос времени. Автономное оружие идеально подходит для заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп”, – говорится в письме.

Авторы сообщения указывают и на явные преимущества данного вида вооружения, которые включают сохранение человеческих жизней. Но, в то же время, приходят к однозначному выводу, что ИИ-вооружение будет нести собой катастрофическую опасность для человечества и новый виток гонки вооружений следует немедленно прекратить. «Точно так же, как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, большинство ученых, работающих над ИИ, не заинтересованы в создании ИИ-вооружения”, – утверждают авторы письма.

Под открытым письмом подписались выдающиеся ученые в сфере разработки искусственного интеллекта из множества стран мира. Помимо этого, Илон Маск, Стивен Хокинг, Стив Возняк и другие известные IT-предприниматели высказались в поддержку остановки гонки ИИ-вооружения.

«Искусственный интеллект может стать полезен человечеству во множестве аспектов (…) Но запускать гонку ИИ-вооружений – плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения”, – резюмируют ученые.

Напомним, что о развитии искусственного интеллекта и, в частности, ИИ-вооружения, Стивена Хокинга можно будет спросить, начиная с сегодняшнего дня и до четвертого августа, в сессии Q&A на Reddit.