EN

Девять главных этических проблем искусственного интеллекта

4521
1

Новые технологии меняют нашу повседневную жизнь и ставят этические вопросы, которых ранее не существовало. Изменения в жизни человечества, которые может принести и уже приносит искусственный интеллект, трудно сравнить с тем, что появлялось ранее. Человечество может избавиться от большинства известных профессий, а потенциально и создать новую форму жизни. Этические вопросы, которые могут возникнуть в процессе этого, попыталась описать Джулия Боссманн, президент Foresight Institute, который базируется в Пало-Альто и продвигает трансформирующие технологии. Редакция AIN.UA приводит полный перевод ее статьи.

Оптимизация логистики, обнаружение мошенничества, проведения исследований и реализация перевода: умные компьютерные системы меняют наши жизни к лучшему. Чем способнее они становятся, тем эффективнее работает наш мир, а значит и богаче.

Технологические гиганты вроде Alphabet (Google), Amazon, Facebook, IBM и Microsoft, а также личности вроде Стивена Хокинга и Илона Маска верят, что сейчас подходящее время для обсуждение почти безграничного ландшафта искусственного интеллекта. Во многих случаях, это такой же новый рубеж для этики и оценки рисков, как и для новых технологий. Так какие же проблемы и разговоры не дают спокойно спать экспертам по ИИ?

1. Безработица. Что произойдет с вымиранием профессий?

Иерархия труда преимущественно связана с автоматизацией. Изобретая новые способы автоматизации работы, мы можем дать место новым, более сложным профессиям, переходя от физической работы, которая доминировала в прединдустриальном мире, к когнитивному труду, который характерен для стратегической и административной работы нашего глобализированного общества.

Взгляните на автомобильные грузоперевозки: в этой сфере работает миллионы людей только в США. Что с ними произойдет, если беспилотные грузовики, обещанные Илоном Маском, станут широкодоступны в течение десяти лет? С другой стороны, если мы возьмем во внимание сниженный риск автокатастроф, беспилотные грузовики выглядят вполне этичным выбором. Тот же сценарий можно применить и к офисным работникам, как к большинству рабочей силы в развитых странах.

И здесь приходим к вопросу, как мы будем проводить свое время. Большинство людей полагаются на продажу своего времени, для получения дохода и поддержания себя и своей семьи. Мы можем только надеяться, что такая возможность позволит людям найти смысл в нетрудовой деятельности, такой, как уход за семьей, взаимодействие с сообществом и обучение новым способам вносить свой вклад в человеческое общество.

Если мы совершим успешный переход, однажды сможем оглянутся и подумать, каким варварством было то, что люди должны были продавать большинство осознанного времени просто чтобы продолжать жить.

untitled

2. Неравенство. Как мы распределяем благо, произведенное машинами?

Наша экономическая система основывается на компенсации за вклад в экономику, часто оцениваемый с помощью почасовой оплаты. Большинство компаний все еще зависят от почасового труда, когда дело касается продуктов и услуг. Но используя искусственный интеллект компания может значительно сократить зависимость от человеческой рабочей силы, а значит доходы будет получать меньшее количество людей. В результате, лица, владеющие компаниями, где работу выполняет ИИ, будут получать все деньги.

Мы уже видим увеличивающийся разрыв в благосостоянии, где основатели стартапов получают большую часть экономического излишка, который они создают. В 2014 году три крупнейшие компании Детройта генерировали почти такие же доходы, что и три крупнейшие компании Кремниевой долины… только в Долине в них работало в 10 раз меньше сотрудников.

Если мы представляем себе пострабочее общество, как мы будем структурировать честную посттрудовую экономику?

3. Гуманность. Как машины влияют на наше поведение и взаимодействие?

Боты на основе искусственного интеллекта становятся все лучше в моделировании человеческого разговора и отношений. В 2015 году бот по имени Евгений Густман (которого создали украинец и россиянин — ред.) выиграл конкурс Тьюринга впервые в истории. В нем люди посредством текстовых сообщений общались с неизвестной сущностью, а потом пытались угадать, беседовали они с человеком или машиной. Евгений Густман обвел вокруг пальца более половины людей-собеседников, заставив их думать, что они говорили с человеком.

Этот этап лишь начало эры, где мы будем часто взаимодействовать с машинами так, как будто они люди. В то время, как люди ограничены во внимании и доброте, которую они могут расходовать на другого человека, боты могут тратить почти неограниченные ресурсы на построение отношений.

Несмотря на то, что многие не знают этого, мы уже стали жертвами того, как машины могут заставлять работать центр вознаграждения в человеческом мозге. Только взгляните на кликбейт-заголовки и видеоигры. Эти заголовки часто оптимизируются с помощью A/B-тестирования, рудиментарной формы алгоритмической оптимизации, используемой, чтобы контент лучше цеплял наше внимание. Этот и другие методы используют, чтобы делать многие видео и мобильные игры способными вызывать привыкание. Технологическая зависимость — новая грань человеческой зависимости.

С другой стороны, возможно мы можем придумать другой способ использования ПО, которое уже может эффективно направлять человеческое вниманием и вызывать определенные действия. Его правильное использование может привести к возможности направить общество к более полезному поведению. Однако, в неправильных руках это может оказаться и вредным.

4. Искусственная тупость. Как мы можем защититься от ошибок?

Интеллект будет появляться благодаря обучению, вне зависимости человек вы или машина. Системы обычно проходят через тренировочную фазу, где они «учатся» обнаруживать правильные паттерны и действовать согласно введенным данным. Как только система полностью натренирована, она может перейти в тестовую фазу, где ей будут давать различные примеры и смотреть, как она с ними справляется.

Очевидно, что тренировочная фаза не может покрыть все возможные примеры, с которыми система может столкнуться в реальном мире. Такие системы можно обмануть так, как людей не проведешь. Например, случайные наборы точек могут заставить машины «видеть» вещи, которых нет. Если мы полагаемся на ИИ в том, что он приведет нас в мир нового труда, безопасности и эффективности, мы должны убедиться, что машины ведут себе как запланировано и что люди не могут захватить над ними контроль, чтобы использовать в личных целях.

5. Роботы-расисты. Как мы избавимся от предвзятости ИИ?

Несмотря на то, что возможности искусственного интеллекта в скорости и объеме обработки данных значительно превосходят человеческие, ему не всегда можно доверять, как честному и нейтральному. Google и ее материнская компания Alphabet являются лидерами в области искусственного интеллекта. Это видно по сервису Google Photos, где ИИ используется для определения людей, объектов и сцен. Но что-то может пойти не так. Как в случае, когда камера ошибочно определяла моргание у людей азиатской внешности, или ПО, используемое для прогнозирования будущих преступников, которое было предвзято к черным.

Мы не должны забывать, что системы на основе ИИ создаются людьми, который могут быть предвзяты. Но опять-таки, если использовать их правильно или если их будут использовать люди, стремящиеся к социальному прогрессу, они могут стать катализатором позитивных изменений.

6. Безопасность. Как держать ИИ в безопасности от противников?

Чем могущественней становится технология, тем вероятней ее использование в низких целях. Это применимо как к роботам, призванным заменить солдат-людей, или автономному оружию, так и к ИИ-системам, которые могут навредить, если использовать их злонамеренно. Поскольку битвы с их применением будут разворачиваться не только в полях, кибербезопасность будет становится все важнее. В конце концов, мы имеем дело с системой, которая быстрее и способнее нас в разы.

untitled1

7. Злые гении. Как нам защититься от нежелательных последствий?

Нам стоит беспокоится не только о противниках. Что если искусственный интеллект сам повернется против нас? Это не означает, что он станет «злым» в том смысле, как это воспринимают люди, или как это изображают голливудские фильмы. Скорее, мы можем представить передовую ИИ-систему как «джина в бутылке», который исполняет наши желания, но с ужасными непредвиденными последствиями.

В случае машины это будет не злоба, а недостаток понимания полного контекста, в котором загадано желание. Представьте ИИ-систему, которой сказали искоренить рак. После долгих вычислений, она выдает формулу, которая действительно избавляет от рака, убив все живое на планете. Компьютер достигает цели «отсутствие рака» очень эффективно, но не так, как представляли люди.

8. Сингулярность. Как мы сможем контролировать сложную умную систему?

Причина, по которой люди находятся на вершине пищевой цепочки не в том, что у нас острые зубы или сильные мышцы. Доминирование человечества строится почти полностью на нашей изобретательности и интеллекте. Мы можем получить лучшее от больших, быстрых и более сильных животных, потому что мы можем создать инструменты для их контроля: физические, вроде клеток и оружия, и когнитивные, вроде дрессировки.

Это ставит серьезный вопрос об искусственном интеллекте: сможет ли он однажды получить такое же преимущество над нами? Мы не можем полагаться только на вытягивание вилки из розетки, потому что достаточно продвинутая машина сможет предвидеть этот шаг и защитить себя. Это то, что называют «сингулярностью»: момент, когда человеческие существа перестанут быть наиболее умными на Земле.

9. Права роботов. Как мы определяем человеческое отношение к ИИ?

Пока нейрофизиологи работают над разгадкой секретов осознанного опыта, мы лучше понимаем базовые механизмы вознаграждения и неприятия. Эти механизмы есть даже у простейших животных. В некотором смысле, мы создаем схожие механизмы в системах искусственного интеллекта. Например, обучение с подкреплением подобно дрессировке собаки: прогресс в выполнении задачи подкрепляется виртуальной наградой.

Прямо сейчас, такие системы довольно поверхностны, но они становятся все более сложными и живыми. Можем ли мы считать, что система страдает, если ее функции вознаграждения дать негативный ввод? Более того, так называемые генетические алгоритмы работают, создавая множество экземпляров системы одновременно. Из них «выживают» только наиболее успешные, чтобы объединиться и сформировать новое поколение экземпляров. Это происходит на протяжении многих поколений и являются средством улучшения системы. Безуспешные экземпляры удаляются. В какое момент мы можем рассматривать генетические алгоритмы как форму массового убийства?

Как только мы начнем рассматривать машины, как сущности, которые могут воспринимать, чувствовать и действовать, нам нужно будет задуматься над изменением их юридического статуса. Должны ли к ним относится как к животным со сравнимым интеллектом? Будем ли мы брать во внимание страдания «чувствующей» машины?

Некоторые этические вопросы касаются смягчения стараний, некоторые — риска негативных последствий. Пока мы рассматриваем эти риски, мы также должны держать в голове то, что в целом этот технологический прогресс означает лучшую жизнь для всех. Искусственный интеллект имеет огромный потенциал, и его ответственное использование зависит от нас.

Оставить комментарий

Комментарии | 1

  • Дія City
  • Истории компаний
  • Расследования AIN.UA
  • Спецпроекты
  • Безопасность номера
  • Безпека гаманця
Реклама на AIN.UA

Поиск