Голосовые помощники уязвимы к «тихим» кибератакам
Результаты недавно проведённого в США исследования говорят о новой уязвимости голосовых помощников во всевозможных «умных» устройствах: они могут реагировать на «плохие» команды, которые могут передаваться на частотах за пределами диапазона человеческого слуха.
В документах, которые были предоставлены Федеральной комиссии по связи, сказано, что IoT-устройства, активируемые голосом, могут получать вредоносные команды, не слышные человеку. Уязвимость (впервые о ней узнали, изучая программное обеспечение, связанное с Amazon Alexa) признана весьма серьёзной – настолько, что её зарегистрировали в Национальной базе данных уязвимостей Национального института стандартов и технологий. Исследователи говорят, что злоумышленники могут отправлять опасные команды с помощью аудиосигналов частотой от 16 до 22 кГц. Уязвимость описывают как «атаку на частотах, близких к ультразвуку». Вредоносные команды, которые человек услышать не может, передаются через Zoom, YouTube, Teams или мобильные устройства пользователей.
Исследователи полагают, что таким способом можно влиять на работу Alexa, Google Nest Mini, Apple Homekit и др. Подобное вмешательство может приводить к несанкционированному открытию гаражных ворот, разблокировке дверей, изменению температуры в серверной, включению бытовой техники и т.д. «В корпоративной сфере такая брешь в системе безопасности может быть использована для актов саботажа, например, со стороны сотрудников, считающих себя ущемлёнными в правах, или конкурирующих организаций. В жилых помещениях существует ощутимый риск несанкционированного доступа к устройствам и манипуляций с ними, что напрямую угрожает безопасности и комфорту граждан».
Комментарии