Умение журчалок находить цели в полутьме пригодилось для обнаружения дронов

Wikimedia Commons

Исследователи из Австралии разработали метод, который позволяет засекать дроны на дистанции от 30 до 49 процентов большей, чем традиционные широкополосные и узкополосные системы определения их местонахождения. При разработке ученые ориентировались на мух-журчалок, которые различают цели в условиях очень плохой видимости, новый метод предполагает анализ акустического следа летательных аппаратов, преобразованных в изображения. Результаты исследования опубликованы в Journal of the Acoustical Society of America.

Дроны умеют делать много полезных вещей. Но еще c их помощью ведут несанкционированную слежку и проникают в закрытые зоны, в том числе, в аэропорты. Последнее серьезно угрожает безопасности полетов. Поэтому разработчики и инженеры работают над разнообразными системами, позволяющими их обнаруживать.

Беспилотники оставляют акустический след, и по нему их можно обнаружить и отследить. Например, винтовые летательные аппараты издают сильные узкополосные сигналы. Оценить параметры их полета можно, определив мгновенную частоту акустического сигнала с доплеровским сдвигом. А чтобы засечь аппараты, не издающие такие сигналы, существует метод обработки широкополосных сигналов. Он основан на измерении временных изменений задержек среди нескольких пар микрофонов. Эти подходы помогают обнаруживать дроны на расстоянии более двух километров. Но когда аппарат далеко от микрофонов, шум мешает точно определить, где он находится.

Отслеживать цели можно не только по звуку, но и визуально. Тут существует похожая проблема — когда мало света, детали сложно различать из-за шума. Но некоторые насекомые, к примеру, мухи-журчалки, умеют определять и отслеживать маленькие движущиеся объекты даже на очень текстурированном фоне. Они реагируют на визуальные стимулы за десятки миллисекунд и при этом не обращают внимания на лишнюю информацию. Например, их не отвлекает движение листка на ветру, хотя оно тоже может выбиваться из остального фона.

Цзян Фан (Jian Fang) и его коллеги из универстетов Флиндерса и Южной Австралии решили преобразовать одномерные акустические сигналы в двухмерные изображения с помощью спектрограмм и кореллограмм, и проанализировать их с помощью модели BIV (Biologically Inspired Vision — биологически вдохновленное зрение), которая имитирует зрительный путь журчалок.

Эта многоступенчатая нелинейная система с адаптивной обратной связью как внутри, так и между разными этапами, представляет собой математическую модель фоторецепторов — светочувствительных сенсорных нейронов сетчатки глаза. Они отвечают за динамическое уменьшение диапазона входного сигнала, корректируя его темные и яркие области.

Чтобы проверить свой метод, Цзян Фан и коллеги установили 49 микрофонов на полигоне Вумера в Австралии, и записали сигналы трех летательных аппаратов — пятнадцатикилограммового гексакоптера Matrice 600, полукилограммового квадракоптера Mavic Air и беспилотника самолетного типа Skywalker X-8 массой 3,5 килограмм.

Затем эти сигналы преобразовали в спектрограммы и кореллограммы, а также обработали с помощью модели BIV. Результаты показали, что этот метод позволяет засекать узкополосные сигналы на 33 процента дальше, а широкополосные — на 30-49 процентов дальше. С его помощью во время испытаний дроны выдавали себя на расстоянии трех-четырех километров, а данные о параметрах и траекториях их полета были более точными.

Ранее мы писали про метод, с помощью визуальных стимулов позволяющий понять, что за объектом наблюдает дрон. Он предполагает, что если камера беспилотника действительно наблюдает за объектом, битрейт изображения будет значительно во время них возрастать.

Василиса Чернявцева

Нашли опечатку? Выделите фрагмент и нажмите Ctrl+Enter.