Пять принципов безопасности: Google опубликовала первое в мире научное исследование роботов

3216

Специалисты Google, OpenAI, Стэнфордского и Калифорнийского университетов опубликовали совместное исследование конкретных практических проблем, которые нужно учитывать при разработке искусственного интеллекта.

«Хотя вопросу безопасности и возможных рисков ИИ общественность уделяет много внимания, большинство предыдущих обсуждений были слишком гипотетическими и спекулятивными. На мой взгляд, необходимо обосновать проблемы, с которыми мы сталкивались в реальном машинном обучении, и начать развивать практический подход в разработке систем ИИ ради их безопасного и надежного функционирования», — сообщает один из соавторов научной публикации Крис Ола в официальном блоге Google.

В исследовании ученые сформулировали пять наиболее важных практических проблем, которые, по их мнению, придется решить для широкого применения ИИ. Пока эти вопросы кажутся неактуальными, но в долгосрочной перспективе они станут первоочередными.

Robot cleaner. Technology concept. Isolated. Contains clipping path

По мнению исследователей, разрабатывая ИИ, нужно:

  • Избежать побочных эффектов – гарантировать, что система не будет разрушать то, что ее окружает, для достижения своих целей. Например, не разобьет ли робот-уборщик вазу, если это ускорит уборку комнаты.
  • Избежать жульничества в корыстных целях – например, не дать роботу-уборщику прикрыть мусор так, чтобы его не было видно, вместо его уборки.
  • Организовать гибкий надзор – гарантировать, что система уважает и правильно оценивает те аспекты, которые ценны для человека. Например, если ИИ может обращаться к человеку с вопросами, он должен использовать обратную связь эффективно, чтобы не раздражать.
  • Организовать возможность безопасного исследования – обеспечить обучение ИИ без негативных последствий. Например, робот-уборщик должен экспериментировать с разными способами уборки, но при этом не протирать розетку мокрой тряпкой.
  • Организовать устойчивость к смене деятельности – гарантировать, что система ИИ поймет и сможет себя повести соответствующим образом, если попадет в незнакомую для него среду. Например, робот, обученный убирать на заводе, не сможет безопасно убирать в офисе.

Пять ключевых задач для разработчиков ИИ — лишь один из нескольких аспектов научного опубликованного исследования.

Напомним, ранее AIN.UA писал о том, что Европарламент предложил классифицировать роботов как «электронных личностей».

Оставить комментарий

Комментарии | 0

Поиск