Кто отвечает за смерти, вызванные беспилотными авто? Разбор этической дилеммы

4475

Автомобили под управлением автопилота постоянно попадают в новости: они уже участвовали в смертельных ДТП, уходили от полицейской погони, спасали владельцу жизнь. В статье на The Next Web обсуждается этическая дилемма, перед которой могут оказаться беспилотные авто: как алгоритм может принимать решение, касающееся человеческих жизней, и кто будет отвечать, если решение было принято неправильно?  

Медленно, но уверенно машины с автопилотом развиваются. Аварии все еще случаются, как и трагические случайности, и автопилот все еще допускает глупые ошибки, которых удалось бы избежать любому водителю-человеку. Но в конце концов ученые и исследователи научат их видеть мир, и они дорастут до уровня вождения, недоступного большинству водителей-людей. 

Вождение в нетрезвом состоянии или невнимательность за рулем отойдут в прошлое. Дороги станут только безопасней, когда людей уберут из-за руля. ДТП станут крайне редкими. Но несчастные случаи все еще будут происходить. И вопрос в том, как автопилоты будут принимать решения в случаях, когда фатальное столкновение и гибель неизбежны? Ведь даже людям это дается с трудом. 

Этот вопрос уже четыре года изучают в лаборатории MIT Media Labs. Тест под названием Moral Machine предлагает участникам 13 различных сценариев случая на дороге, когда водителю приходится принять решение, неизбежно приводящее к смерти пассажиров или пешеходов. 

К примеру, по одному из сценариев водитель должен выбрать между наездом на группу пешеходов или сменой направления, которая приведет к столкновению и смерти пассажиров. В других, более сложных сценариях участник должен выбрать между двумя группами пешеходов, отличающихся по возрасту, полу, социальному статусу. 

Результаты исследования, опубликованные в журнале Nature, показывают, что решения и предпочтения основываются на культуре, географических, экономических и социальных условиях. К примеру, участники из Китая, Японии и Южной Кореи скорее пощадят стариков, чем юных людей (исследователи выдвигают гипотезу, что это связано с тем, что в этих странах уважение к старшим — часть традиции). И напротив, участники из стран с индивидуалистической культурой, вроде США, Канады,  Франции, скорее предпочтут сохранить жизнь молодым людям. 

Все это возвращает нас к вопросу о беспилотниках. Как такое авто должно поступать в ситуациях, в которых люди не могут принимать однозначные решения? 

Что умеют беспилотные машины

Беспилотные авто оснащены достаточно продвинутыми hardware-технологиями и софтом. Они используют сенсоры, камеры, лидары, радары, компьютерное зрение для оценки окружения и принятия решений. 

С развитием технологий машины будут способны принимать решения за доли секунды, намного быстрее, чем самые талантливые водители-люди. Т.е. в будущем машина на автопилоте сможет произвести маневр экстренного торможения в 100% случаев, когда пешеход просто выпрыгивает перед ней темной и туманной ночью. 

Но это не означает, что такие машины будут способны принимать решения так же, как люди. Ведь они оснащены искусственным интеллектом с довольно ограниченными возможностями, технологиями, которые могут подражать поведению людей, но только поверхностно. Если точнее, автопилоты используют нейронные сети и машинное обучение, подвид искусственного интеллекта, который особенно хорош в сравнении и классификации данных. 

Вы тренируете алгоритм глубинного обучения, скармливая ему достаточно данных, и он сумеет классифицировать новую информацию и решить, что с ней делать, базируясь на уже имеющихся данных. В случае с автопилотами, если предоставить ему достаточно примеров дорожных условий и сценариев вождения, алгоритм будет знать, что делать, к примеру, если маленький ребенок выбежит на середину улицы за мячом. 

Некоторые исследователи верят, что часть проблем просто не может быть решена с помощью таких алгоритмов, независимо от объемов данных, которые они обработают, или от времени обучения. И дискуссия о том, входят ли кризисные ситуации на дорогах в число таких проблем, все еще идут. 

Станут ли подобные алгоритмы достаточно хорошими, чтобы срабатывать в таких ситуациях, или же проблему решит комбинация других технологий — пока неизвестно. Но мы можем быть уверены в том, что рано или поздно это случится. 

Развитие сенсоров и машинного обучения дает автопилотным авто избегать препятствий на дорогах и пешеходов, но они не дадут автомобилям возможность решать, чья жизнь достойнее спасения. 

Разница между людьми и искусственным интеллектом

Люди умеют признавать свои ошибки. Наша память нас подводит, мы путаем факты, мы медленно работаем с цифрами и медленно обрабатываем информацию, а наши физические и ментальные реакции со временем все больше замедляются. ИИ-алгоритмы никогда не стареют, никогда ничего не забывают и обрабатывают информацию мгновенно. Однако именно люди умеют принимать решения, базируясь на недостаточных данных, с помощью здравого смысла, культурных и этических ценностей, своих убеждений. Но что важнее, люди могут объяснить логику принятия этих решений. Она объясняет огромную разницу в результатах участников исследования MIT. 

Для примера, в прошлом году женщина-водитель в Квебеке решила остановить машину, чтобы пропустить семейство уток, переходящее дорогу. Вскоре после этого в ее машину врезался мотоцикл, оба его пассажира погибли. Водитель попала в суд и была признана виновной в преступной халатности, ведущей к смертям людей. Ее приговорили к девяти месяцам в тюрьме, 240 часам общественных работ и пятилетнему ограничению водительских прав.

ИИ-алгоритмы не могут нести ответственности за свои решения, не могут выступать ответчиками в суде за свои ошибки, и это мешает им принять ответственность за решения, когда речь идет о жизни и смерти. Когда машина на автопилоте сбивает пассажира, ответственным назначают разработчика технологии. Мы также знаем, что делать в этом случае: обучать ИИ лучше, с учетом факторов и случаев, которые еще не были приняты во внимание. 

Кто отвечает за смерти, вызванные беспилотными авто

Кто в ответе, когда беспилотное авто убило пешехода не из-за ошибки ИИ-алгоритма, а именно потому, что его система сработала безотказно? Машина неразумна и не может принять ответственность за свои действия, даже если и могла бы их объяснить. Если перекладывать ответственность на разработчиков алгоритмов, представителям компаний придется появляться в суде каждый раз, когда автопилот приведет к гибели человека. Такие меры замедлят прогресс в машинном обучении и ИИ, ведь ни один разработчик не сможет на 100% гарантировать безопасность работы своего алгоритма. Компаниям будет проще свернуть эти направления в разработке. 

Если же привлекать к ответственности производителя автомобиля, который участвовал в смертельном ДТП, их представители также должны были бы отвечать за каждое такое происшествие, даже если они не вполне понимают, как работает технология, которую они встроили в свои авто. Нельзя привлекать к ответственности и владельца машины, ведь он не влияет на решения, которые принимает машина. Поступить так — означает мотивировать людей отказываться от беспилотных машин. 

В некоторых сферах, таких как здравоохранение, найм, уголовное право, такие алгоритмы могут работать как «смешанный интеллект». В этом случае алгоритм не принимает решение автоматически, а предлагает людям важные данные, которые нужны для принятия решения, и ответственность в этом случае также лежит на людях. 

Но это не подходит для случая с автопилотом в машине, ведь передача контроля человеку за управлением за секунды до столкновения не будет иметь смысла. 

Как беспилотные авто должны принимать решения в ситуациях жизни и смерти

Сценарии, которые изучали в лаборатории MIT, в жизни случаются довольно редко. Однако тот факт, что в исследовании приняли участие миллионы людей из 200 стран, показывает, как важно оценивать даже такие редкие ситуации. 

Некоторые эксперты предполагают, что решением для предотвращения смертей пешеходов от беспилотных авто будут ограничения для самих пешеходов, либо же как минимум обучение пешеходов новым правилам поведения, когда на дороге беспилотники. 

Пешеходы — это единственные люди, которые могут как-то повлиять на критическую ситуацию на дороге. Это означает, к примеру, что правительства смогут разработать новые правила поведения на дороге, которой пользуются беспилотные авто. Это позволит разработчикам определить четкие инструкции для своих программ, и при несчастном случае ответственность будет лежать на пешеходе, если он нарушил правила. Подобным образом ситуация урегулирована на железнодорожных путях, где водители поездов не могут отвечать за смертельные случаи на полотне, и вся ответственность лежит на водителях и пешеходах.  

Другое решение состоит в том, чтобы физически ограждать от пешеходов дороги, по которым ездят беспилотные авто. Это полностью устранит проблему. Пример того, как это действует, есть в фильме «Особое мнение»:

Возможно, эти проблемы уйдут в прошлое, как только беспилотные авто станут нормой. Нам все еще предстоит узнать, как авто без водителей повлияют на законодательство, инфраструктуру городов и нормы поведения людей. 

Оставить комментарий

Комментарии | 0

Поиск