Сингапурские и южнокорейские инженеры научились определять работу микрофона в ноутбуке аппаратным образом, независимо от операционной системы. Они использовали приемопередатчик, который крепится к ноутбуку и обнаруживает тактовый сигнал, кодирующий режим работы микрофона. Статья о разработке доступна на arXiv.org.
Практически во всех ноутбуках есть микрофоны и веб-камера — устройства одновременно удобные для видеозвонков и представляющие собой потенциальную угрозу приватности. В Windows и macOS есть программные индикаторы работы микрофона и камеры, показывающие их статус и то, какие приложения используют эти устройства. Но программную защиту потенциально можно обойти (и периодически это случается на практике). Для аппаратной защиты от скрытой записи видео в ноутбуках часто есть светодиодные индикаторы, также для этого можно использовать шторки, встроенные в ноутбук или наклеиваемые отдельно, а микрофон таким образом защитить труднее.
Инженеры под руководством Джун Хана (Jun Han) из Университета Ёнсе разработали метод, позволяющий обнаруживать работу микрофона в ноутбуках по возникающим при этом электромагнитным сигналам. Метод работает с цифровыми МЭМС-микрофонами, которые используются в большинстве современных ноутбуков. Для управления режимом работы такого микрофона используется тактовый сигнал: сигнал в диапазоне 1–4,8 мегагерца переводит его в активный режим, а сигнал ниже 250 килогерц дает микрофону команду на переход в спящий режим.
Тактовый сигнал представляет собой меандр с фиксированной частотой, поэтому при его передаче образуется соответствующие периодические изменения электрического поля. Инженеры предложил обнаруживать эти изменения зондом ближнего поля. Для этого сначала необходимо найти оптимальное место прикрепления зонда, перемещая его над рамкой экрана недалеко от микрофона. Как правило, наибольшая утечка сигнала наблюдается в углу экрана из-за перегиба кабеля. Затем нужно записать данные с зонда с включенным и выключенным микрофоном, чтобы определить частоту тактового сигнала для конкретной модели. Эту процедуру можно выполнить один раз для каждой модели и создать базу данных, а не выполнять ее для каждого конкретного ноутбука.
Инженеры собрали прототип детектора работы микрофона на базе зонда, SDR-приемопередатчика SDRPlay RSP-1 и одноплатного компьютера Raspberry Pi 4B, на котором установлен пакет GNU Radio для обработки записываемых сигналов. Во время основного эксперимента они проверили метод на 30 ноутбуках разных производителей и смогли обнаружить стабильный тактовый сигнал на 27 моделях. Единственные три модели, на которых его не удалось обнаружить — MacBook. Затем инженеры решили расширить тест, проверив 10 разных моделей MacBook, в этом случае удалось обнаружить тактовый сигнал на четырех моделях, но в них частоты отличались от распространенных, которые обычно кратны частоте дискретизации.
Помимо ноутбуков авторы работы проверили метод на смартфонах, планшетах, веб-камерах и умных колонках. В большинстве случаев метод сработал. Также они успешно проверили четыре разных SDR-приемопередатчика.
Авторы предложили создавать такие устройства не только инженерам-энтузиастам, но и производителям, которые могли бы обозначать оптимальное место для зонда и тактовую частоту в своих ноутбуках.
Даже если защитить микрофон от незаметного подслушивания, остается множество других вариантов для утечек звука. Мы рассказывали о том, как инженеры использовали для этого вызванное звуками дрожание лампочки и мусорного ведра.
Григорий Копиев
Неинвазивный декодер восстановил текст из корковых семантических представлений
Американские исследователи разработали неинвазивный декодер, который по активности мозга может реконструировать непрерывный текст — будь то история, которую человек слушает, или воображаемый рассказ, или даже суть видеоролика, в котором нет слов. Декодер обучали на данных фМРТ трех человек, которые 16 часов слушали истории. Модель не всегда могла предсказать точные слова по записям фМРТ, но передавала смысл историй. Результаты опубликованы в Nature Neuroscience. Чтобы записать нейронную активность, необходимую для декодирования речи, нужно установить электроды прямо на мозг. Этот способ используют в исследованиях с парализованными людьми, которые не могут говорить, но инвазивность такой процедуры ограничивает ее применение. Декодеры, использующие неинвазивные записи активности мозга, способны расшифровывать отдельные слова или короткие фразы, но неизвестно, могут ли эти декодеры работать с непрерывным естественным языком. Александр Хаc (Alexander Huth) из Техасского университета в Остине и его коллеги разработали декодер, который восстанавливает непрерывный текст из записей активности мозга, полученных неинвазивным способом — с помощью функциональной магнитно-резонансной томографии. Серьезным ограничением было то, что сигнал фМРТ не успевает за нейронной активностью. Функциональная магнитно-резонансная томография измеряет изменения кровотока, вызванные нейронной активностью в той или иной части мозга. Чтобы сигнал фМРТ увеличился или снизился, требуется около 10 секунд. За это время англоговорящий человек может услышать или произнести более 20 слов. Выходит, что слов для декодирования больше, чем изображений фМРТ. Ученые решили это проблему так: научили декодер угадывать последовательность слов, оценивая, насколько вероятно каждое возможное слово могло вызвать конкретную записанную реакцию мозга, — и так выбирать лучшего кандидата, то есть самое вероятное слово. Модель кодирования обучалась на сигналах фМРТ трех человек, записанных на протяжении 16 часов, пока люди слушали разные истории. Этого хватило, чтобы модель научилась предсказывать, какую реакцию мозга вызывают те или иные семантические признаки. Затем ученые предлагали испытуемым послушать истории, которые те еще не слышали, и записывали реакцию мозга. По этим записям декодер должен был реконструировать эти истории. Языковая модель — нейросеть GPT-1 — выдавала варианты слов, а модель кодирования оценивала вероятность того, что именно это слово могло продолжать историю. Декодер точно воспроизводил часть слов и фраз и улавливал суть многих других. Сгенерированные последовательности слов захватывали общий смысл новых историй. Сюжет, предсказанный декодером, напоминал сюжет реальной истории сильнее, чем если бы это было случайным совпадением (p < 0,05). Данные исследователи записывали с трех корковых сетей — классической языковой сети, сети теменно-височно-затылочной ассоциативной коры, и сети префронтальной коры. Сигналы каждой сети декодировались по-отдельности в каждом полушарии. Примечательно, пишут авторы, что большинство временных точек удавалось декодировать только по сигналам из ассоциативной (80–86 процентов) и префронтальной (46–77 процентов) сетей. И только 28–59 процентов временных точек были декодированы из речевой сети. Ученые пришли к выводу, что одни и те же слова могут быть закодированы в разных регионах мозга, и в будущем может быть достаточно записей активности отдельных областей. Еще авторы обнаружили, что по данным фМРТ декодер может предсказать смысл короткой истории, которую участник вообразил и рассказал про себя, или суть просмотренного видеоролика без слов. Однако декодирование воображаемой речи было не таким успешным, как декодирование услышанных историй, потому что модель кодирования обучали на реакциях мозга на воспринимаемую речь. Дополнительно участникам предложили послушать одновременно две истории, но обращать внимание только на одну, а вторую игнорировать. Расшифровка декодера была больше похожа на ту историю, к которой участники прислушивались. Декодер плохо расшифровывал сигналы мозга человека, на котором его не обучали. То есть нельзя обучить декодер на одном человеке и затем использовать его для «чтения мыслей» других людей. Точность декодирования, как выяснили авторы, зависела от объема данных, на которых обучали декодер. Кроме того, немного увеличить точность помогло увеличение отношения сигнала фМРТ к шуму. А еще декодер хуже справлялся со словами с определенными семантическими свойствами, независимо от шума. Более конкретные слова — night, door, restaurant, school и подобные — декодировались лучше, а слова вроде find, say, kind, get — хуже. Кроме того, что большинство существующих декодеров требует имплантации электродов в мозг, эти декодеры нередко опираются на данные речевых моторных зон, которые активны, когда субъект говорит или пытается говорить. В отличие от них, эта модель работает с сигналами областей мозга, которые кодируют семантические представления. Эти области активны даже когда человек слышит чужую речь или просто думает о том, что хочет сказать. Однако восстановить отдельные слова такой декодер часто не может. Подобным образом несколько лет назад исследователи научили нейросеть воссоздавать изображения по записям фМРТ. Хотя изображения получились абстрактными, в них можно было узнать закодированные картинки.