прислать материал
AIN.UA » СообществоИсследователи нашли скрытые команды для Siri и Alexa, которые невозможно услышать человеку
 

Исследователи нашли скрытые команды для Siri и Alexa, которые невозможно услышать человеку

2436 0

Группа исследователей обнаружила, что специально записанные голосовые команды для помощников Siri и Alexa можно замаскировать под музыку или радиозаписи.

Впервые на ситуацию обратили внимание еще в 2016 году, пишет The New York Times. Тогда студенты из университетов Беркли и Джорджтауна продемонстрировали, как «запрятать» указания в YouTube-ролики или белый шум, который выводится на динамики. С помощью их они смогли включать на смартфонах авиарежим или открывать нужные сайты.

В 2017 году исследователи из Принстонского университета и Чжэцзянского университета (Китай) показали технику, которую назвали DolphinAttack. Она тоже позволяет обмануть голосовое распознавание. Поначалу источник звука должен был располагаться в непосредственной близости к устройству. Со временем радиус действия удалось увеличить почти до 8 метров.

В этом месяце исследователи из Беркли пошли дальше — они опубликовали исследование, согласно которому команды можно интегрировать в музыку или озвученный текст. Это несет целый ряд угроз. Пока пользователь будет думать, что слушает оркестровую запись или подкаст, спикер Echo может добавлять товары в его список покупок. Кроме того, технология способна подсобить злоумышленникам — помочь в открытии дверей, переводе денег.

Авторы исследования заявляют, что следят за сохранностью уязвимости. По их информации, ее технические спецификации не покидали стен лаборатории. Впрочем, это не остановит желающих от самостоятельного изучения эксплоита.

Обман опирается на принцип работы систем распознавания голоса. Они интерпретируют звуки, которые слышат, в буквы, а затем складывают из них слова. Но если видоизменить аудиофайл, слышимые человеку звуки можно заменить на те, что недоступны нашему слуху.

Потенциальная уязвимость спровоцировала реакцию крупных компаний. В Google и Amazon сообщили, что их голосовые помощники активируются, только услышав голос владельца. В Apple рассказали, что для доступа к персональной информации система потребует от пользователя разблокировать iPhone или iPad. Однако, как напомнили в The New York Times, некоторые пользователи вообще не пользуются паролем на устройстве. Что касается HomePod — по словам представителей Apple, колонка разработана не для того, чтобы совершать операции вроде открытия замков.

Напомним, ранее AIN.UA сообщал об Android-трояне ZooPark, способном воровать почти все данные.

Заметили ошибку? Выделите ее и нажмите Ctrl+Enter, чтобы сообщить нам.

Также подобрали для вас

Загрузить еще

Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Поиск

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: