Ультразвук позволил скрытно управлять голосовыми помощниками

Инженеры из Чжэцзянского университета научились создавать неслышимые для людей ультразвуковые команды, которые голосовые помощники на смартфонах и других устройствах воспринимают так же, как и человеческую речь. Для того, чтобы смартфон услышал команды, ультразвуковой передатчик должен находиться близко к нему и в не очень шумной обстановке. Также исследователи предложили и способ защиты от такой атаки. Препринт опубликован на сайте arXiv.org.

Голосовые помощники уже есть практически во всех смартфонах, аналогичные технологии используются в различных центрах управления умным домом, таких как Google Home или Amazon Echo. Они могут выполнять самые разные задачи, в том числе звонить, посылать сообщения или читать их, вести фото и видеосъемку, а также обладают доступом ко многим другим конфиденциальным данным. Из-за этого в последние годы часто появляются сообщения о новых методах взлома таких программ.

Китайские исследователи решили создать метод взлома, который будет универсальным для всех платформ, и при этом незаметным для жертвы. Чтобы атака была незаметной, инженеры использовали ультразвук. Они модулировали записи команд таким образом, чтобы выходной сигнал имел частоту, не воспринимаемую человеческим ухом. Однако, поскольку практически все микрофоны в смартфонах содержат фильтр нижних частот, исследователям пришлось найти способ обратно превращать ультразвуковой сигнал в воспринимаемый микрофоном. Для этого они воспользовались неизбежными нелинейными искажениями в микрофонах и усилителях, которые создавали новые частоты уже в микрофоне, а таким образом демодулировали сигнал.

Исследователи опробовали методику с несколькими голосовыми помощниками. Один из них — Apple Siri — оказался немного более устойчивым к такой атаке за счет того, что он запоминает голос хозяина и отзывается только на него. Инженеры предложили записывать небольшой фрагмент речи владельца, вычленять из него нужные звуки, а затем формировать из них команды, которые смартфон примет за команды хозяина. Кстати, в прошлом году Google создал нейросеть, которая может реалистично имитировать речь людей, что также может быть использовано для таких атак.


У такого метода взлома есть немало ограничений. Например, злоумышленник или его оборудование с ультразвуковым излучателем должны находиться не дальше, чем в 1,75 метра от цели. Также инженеры протестировали взлом при разных уровнях окружающего шума, и если в условиях офиса распознавание было успешным в подавляющем большинстве случаев, то на улице доля успешных команд снижалась до 30 процентов. В качестве защиты от атаки с помощью ультразвука исследователи предлагают использовать метод опорных векторов, который позволит отличить такие команды от команд, произнесенных человеком.

Голосовых помощников часто рассматривают в качестве удобной цели для атаки хакеров. Например, недавно британский специалист по информационной безопасности разработал способ взлома смарт-динамика Amazon Echo, благодаря которому злоумышленники смогут дистанционно прослушивать все, что происходит в доме владельца этого устройства. Другие исследователи наоборот ищут методы защиты от атак через таких помощников. Например, американские исследователи предложили измерять небольшие возмущения магнитного поля, создаваемые динамиками, и таким образом отличать реальный человеческий голос от его записи, воспроизведенной через динамик.

Григорий Копиев

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.