26 ноября 2021 года все 193 страны, которые входят в ЮНЕСКО, подписали документ, который определяет ценности и принципы, необходимые для развития и использования искусственного интеллекта (ИИ).

Технологии, которые работают с помощью ИИ, уже используются в обычной жизни: от бронирования рейсов и заявок на кредит и до управления беспилотными автомобилями, медицины и диагностики, и даже принятия решений правительствами стран. В ЮНЕСКО говорят о том, что эти технологии могут создать беспрецедентные сложности.

«Мы наблюдаем проявления предубеждений на гендерной и этнической почве, а также нарушения неприкосновенности частной жизни и свобод, опасность массовой слежки и злоупотребление технологией искусственного интеллекта правоохранительными органами, — говорится в заявлении ЮНЕСКО. — До недавнего времени не существовало универсальных стандартов, способных ограничить подобные злоупотребления».

И принятый странами-членами ЮНЕСКО документ как раз и должен создать правовые ориентиры для того, чтобы технологии на основе ИИ развивались в рамках этики. Он устанавливает глобальную нормативную базу в этой отрасли и возлагает на государства ответственность за ее применение. Это первый документ подобного уровня. Почитать сам документ можно на английском и русском.


AIN.UA спросил у Марии Ортинской, патентный поверенный и CEO IPStyle, какие правовые последствия могут быть у этого документа. В частности, как он повлияет на работу разработчиков, создающих ИИ- или же AI-решения. Приводим комментарий ниже:

Уже не первый год в экспертной среде ведутся дискуссии и по поводу этического характера, и по поводу правового регулирования AI. Например, может или не может искусственный интеллект считаться изобретателем наравне с человеком? Как в случае с DABUS, на который уже выдан первый патент.

Или другой пример — сейчас мы являемся свидетелями и даже участниками активного развития, внедрения беспилотного транспорта. Но представим ситуацию, когда автопилот срабатывает некорректно. Кто несет ответственность за безопасность? На ком будет ответственность за ошибку AI, за причиненный вред жизни и здоровью человека?

На сегодняшний день нет единого мнения, единого ответа на эти и подобные вопросы. Но, без сомнений, настало время обсудить на международном уровне будущую политику в сфере искусственного интеллекта. По сути, принятый на уровне ООН документ дает начало международной нормативно-правовой базе, регламентирующей развитие AI и этику его применения. Он также возлагает на государства ответственность за его применение на национальном уровне. Более того, ЮНЕСКО попросит государства регулярно отчитываться о своем прогрессе и практике.

Прозрачность, ясность и этичность будут означать, что в скором будущем AI не будет “черным ящиком”, который может реализовать самые страшные сценарии научно-фантастических книг или фильмов, а будет работать как вполне понятный для пользователя инструмент функционирования сервисов и устройств. Для разработчиков эти рекомендации могут быть дорожной картой при разработке концепта AI-продукта. А планы у разработчиков на AI — глобальные.

Так, объем глобального рынка объяснимого искусственного интеллекта (XAI) оценивается в $3,50 млрд по итогам 2020 года и, по прогнозам Research And Markets, достигнет $21,03 млрд к 2030 году. Объяснимый искусственный интеллект — это развивающаяся область компьютерных наук, формирующая модели AI, которые лучше объясняют себя. Например, как программа принимает решение, каковы критерии принятия решения. Зачастую не только конечные пользователи, но и сами разработчики не могут точно определить, как именно модель пришла к тем или иным выводам в ходе обработки данных.

В самом ЮНЕСКО опираются на данные, согласно которым к 2030 году наибольший экономический рост будет в Китае и Северной Америке, что составит 70% глобального экономического воздействия AI. Концентрация AI в руках нескольких стран с высоким уровнем дохода, вероятно, оставит развивающиеся страны позади. Последние не получат или очень мало выиграют от AI, и не будут владеть такими технологиями.