Специалисты Университета Чжэцзяна нашли уязвимое место голосовых помощников. При помощи ультразвука их заставили совершать телефонные звонки, писать сообщения в соцсетях и отключать беспроводные сервисы против воли хозяев, сообщает New Scientist.
Таким образом можно взломать Amazon Alexa, Apple’s Siri, Google Now, Samsung S Voice, Microsoft Cortana и Huawei HiVoice, а также некоторые другие голосовые системы, предназначенные для автомобилей. Неслышная человеческому уху ультразвуковая команда поступает виртуальному помощнику, через которого хакер получает доступ к динамику, смартфону и другим устройствам, подключенным к нему.
Когда Alexa или Siri слышат обычную фразу, сигнализирующую начало диалога с владельцем («Привет, Сири!»), хоть и произнесенную на другой частоте, они все равно подчиняются команде. Так, китайские ученые смогли зайти на вредоносный сайт и загрузить программу-шпион, а также разослать текстовые сообщения и писать в соцсетях от имени владельца. Для взлома злоумышленник должен оказаться рядом с устройством, но он может сделать это, проходя мимо. Расстояние зависит от мощности микрофона и уровня фоновых шумов.
смотрите также: Кто ворует деньги со смартфонов украинцев
Не все устройства было легко взломать. Например, в случае Siri потребовался один дополнительный шаг — сначала пришлось тайно записать голос владельца, чтобы его опознала система распознавания голоса Apple.
«Если все, что умеет делать голосовой помощник, — это будить вас по утрам, проигрывать музыку и рассказывать анекдоты — большого вреда не будет», — говорит Тавиш Вайда из Джорджтаунского университета в Вашингтоне. Но голосовые помощники способны подключаться к большому числу сервисов от умных термостатов до интернет-банкинга, и в таком случае взлом может оказаться серьезной проблемой.