Группа исследователей из университета Южной Каролины, китайского университета Женжанга и компании из сферы безопасности Qihoo 360 нашли способ вызывать сбои в работе автопилота Tesla Model S. Они опробовали несколько методов с оборудованием стоимостью от десятков тысяч до нескольких долларов и добились разной степень эффективности, сообщает Wired.

Автопилот Tesla анализирует пространство вокруг машины тремя способами: с помощью радара, ультразвуковых датчиков и камеры. Исследователи атаковали каждый из них, но пришли к выводу, что только “обман” радара может привести к столкновению во время движения.

Для атаки на радар они использовали генератор сигналов стоимостью $90 000 и умножитель частот за несколько сотен долларов. Их расположили на тележке перед машиной и смогли заглушить радиосигналы, посылаемые радаром. “Когда сигналы глушатся, то “машина” исчезает, и нет никакого предупреждения”, – рассказала профессор Вэнюан Сюй. Исследователи тестировали подход на стоящей машине, в движении этот опыт повторить было бы сложней, поскольку атаку также нужно направить под правильным углом. Но это вполне достижимо и от автопилота можно спрятать реальный объект на дороге.

Значительно проще можно “обмануть” ультразвуковые датчики, которые используются в машине для парковки и функции “вызова”. Для этого исследователи использовали функциональный генератор или компьютер на базе Arduino и ультразвуковой преобразователь – оборудование стоимостью $40. Использовав его, можно создать для автопилота виртуальное препятствие или спрятать реальный объект.

Но самый простой и дешевый способ обмануть датчики – использовать звукопоглощающие материалы. Так, завернув одного из исследователей в акустическую пену, получилось сделать его невидимым для сенсоров.

Атаке также подверглись и камеры, но экспериментаторы не добились должного успеха. Они направляли лазеры и светодиоды прямо в объективы камер, но смогли только вывести из строя некоторые пиксели на матрице. В ответ Tesla выключала автопилот и предупреждала водителя о необходимости взять контроль на себя.

В Tesla прокомментировали исследование, поблагодарив ученых за определение потенциальных атак на сенсоры. “Мы проанализировали результаты работы команды Вэнюан и пришли к выводу, что у них нет воплощений в реальном мире, которые создали бы риск для водителей Tesla”, – отметили в компании.

В мае у Tesla с включенным автопилотом произошла первая авария со смертельным исходом. Этот инцидент вызвал бурное обсуждение надежности систем беспилотных автомобилей.