Свод законов для робота: зачем обществу нужно регулировать искусственный интеллект

5866
1

Все новые и новые возможности «умных» машин сейчас у всех на слуху – с каждым днем интеллектуальные системы получают новые уникальные функции, которые раньше казались чем-то из области фантастики. Сегодня уже никого не удивишь беспилотным авто или системами производства под управлением роботов. Но задумываемся ли мы о том, как будет выглядеть жизнь человечества, если развитие роботов не будет регулироваться никакими нормами и правилами? Этим вопросом задались авторы нового технологического доклада, представленного в Великобритании. Издание BBC рассказывает о главных идеях этого документа.

Писатель-фантаст Айзек Азимов в своих произведениях рассказывал о трех законах, по которым люди могут контролировать роботов и «умные» машины.

  1. Робот не может нанести вред человеку через действие или, наоборот, бездействие.
  2. Робот должен подчиняться приказам человека за исключениям случаев, когда они противоречат первому правилу.
  3. Робот должен защищать себя, если это, опять же, не противоречит первому условию.

Как это часто происходит, научная фантастика уже стала реальностью. Доклад, недавно опубликованный Королевским обществом и Британской академией, гласит, что управление «умными» машинами должно сводиться не к трем основным законам, а только к одному – люди должны выигрывать от взаимодействия с роботами. По словам профессора и сопредседателя группы по вопросам научной политики Королевского общества Дейма Оттолина Лейзера, «процветание» человека должно стать ключом к тому, как нужно управлять роботами.

Айзек Азимов

«Это самый подходящий термин, который точно отображает то, что мы хотели сказать, – отметил он в интервью BBC News. – Процветание людей должно стать приоритетом».

В докладе предлагается создать новый управляющий орган, который будет следить за тем, чтобы интеллектуальные машины обслуживали и помогали человеку, а не контролировали его. Он будет состоять из экспертов и заинтересованных сторон, которые должны разработать основу для развития технологий искусственного интеллекта.

По мнению авторов документа, под наблюдение и регулирование, среди прочего, должно подпадать, например, развитие систем самообучения. В противном случае, они могут стать опасными и нанести значительный вред. Когда роботы принимают решения самостоятельно и независимо от человека, используются в домах, коммерческой или социальной сферах, возможны самые разные варианты развития событий.

В докладе также говорится о необходимости обеспечения приоритета интересов людей над машинами. Разработка «умных» систем не должна контролироваться и регулироваться только техническими стандартами. По словам Энтони Уокера, заместителя главы группы TechUK, в этих вопросах должны быть учтены этические и демократические ценности.

«Эти технологии могут дать много преимуществ, но общество должно доверять им и быть уверенным в том, что интеллектуальные системы управляются должным образом», – сказал Уокер.

Необходимость разработки нового способа управления машинами уже назрела – технологии, описанные Азимовым, давно стали реальностью.

Так, появление беспилотных авто спровоцировало возникновение вопроса о приоритетной безопасности человека. Что произойдет в ситуации, когда машине предстоит выбирать между безопасностью тех, кто находится в автомобиле, и пешеходами? Интересным является и вопрос определения ответственной стороны в случае аварии – это сама машина или ее владелец?

Ряд производителей уже сегодня тестируют беспилотные авто.

Другим ярким примером необходимости разработки мер контроля над интеллектуальными системами является их использование в технологиях персонального обучения. Компьютер сам определяет сильные и слабые стороны ученика и, исходя из этой информации, разрабатывает план его обучения. Может ли такая система давать знания без специального контроля со стороны людей? Как мы убедимся в том, что методика, с помощью которой искусственный интеллект обучает ребенка, нам полностью подходит?

Эти вопросы касаются не технологических компаний, разрабатывающих «умные» системы, а всех нас. Именно поэтому в докладе отмечается, что детали работы интеллектуальных машин не могут быть коммерческой тайной, они должны находится в свободном доступе. Так ошибку будет гораздо легче вовремя обнаружить и исправить.

Еще одной областью, которая нуждается в регулировании, является сбор данных. Ежедневно мы оставляем массу информации о себе в мобильных телефонах, с помощью лайков, репостов и других онлайн-активностей. Существуют системы, способные объединить всю эту общедоступную информацию о человеке и сформировать профиль его личности. Потенциально эти данные могут использоваться как и кем угодно – в коммерческих целях или, например, потенциальным работодателем.

Описанные системы способны предложить нам большие возможности. Но отсутствие должного их контроля и регулирования будет означать, что наши жизни зависят от машин и определяются ими.

Ключом к разрешению этой проблемы, по мнению профессора Лейзера, является необходимость разработки процедуры регулирования каждого конкретного случая. Очевидно, что алгоритм, определяющий то, какие книги рекомендовать пользователю на Amazon, полностью отличается от алгоритма, «отвечающего» за диагностику болезней в медицине. Поэтому обе эти системы не могут подчиняться одному и тому же регулированию.

По словам Мэтта Хэнкока, министра культуры Великобритании, управление данными, их эффективное и этичное использование, жизненно необходимы для развития общества и экономики.

По сути же, интеллектуальные системы будут двигаться вперед только в том случае, если люди доверяют им и тому, как они регулируются. Без выполнения этого условия огромный потенциал «умных» систем, который может быть направлен на процветание человечества, так и не будет реализован.

Напомним, ранее Илон Маск поделился своим мнением на счет искусственного интеллекта. Предприниматель считает, что это может стать настоящей угрозой для человечества. 

Оставить комментарий

Комментарии | 1

  • Статья из серии об НЛО и Всемирном Заговоре, все что написано — в этом роде, без единого аналитического разбора.
    Когда Илон Маск делится тем что ИИ может стать настоящей угрозой для человечества — пусть приводит примеры, исследования, доводы а не давать журналистам информационный повод сделать «сенсацию» из ничего.
    Приводите факты и исследования «опасности ИИ» и его разработки а не перепечатывайте глупости западных СМИ, иначе станет скучно читать ain.ua, так как это будет третьесортная бульварная пресса.

Поиск