• Опубликовано:

Голосовые помощники беззащитны перед атакой нового типа

Голосовые помощники вроде Siri, Alexa или Google Assistant становятся все умнее и полезнее. Голосовое управление шагнуло за пределы смартфонов и планшетов и продолжает развиваться. Однако вместе с удобством, которое дарует пользователю управление голосом, необходимо помнить, что подобные технологии находятся на этапе становления, а стало быть, полагаться на них в важных случаях не стоит. На днях была обнаружена серьезная уязвимость, которой подвержены все голосовые помощники без исключения. Подробнее о ней — в этом материале.

 

Новый вид атаки на голосовых помощников получил название «атака дельфина» неслучайно. Оказалось, что голосовые помощники не умеют фильтровать звуки неслышимой для человеческого уха частоты свыше 20 000 КГц. То есть помощнику можно незаметно отдавать команды, которые человек не сможет распознать и проконтролировать. Дельфины, конечно, смогли бы разобраться что к чему, но увы, последних, вероятно, привлекать к решению этой проблемы не будут.

Dolphin Attack

Среди вариантов зловредных атак были описаны случаи, когда голосовому помощнику отдается команда на изменение маршрута автомобиля Audi, смартфону — на набор конкретного номера, отправку SMS или открытие определенного сайта.

Источник: theverge.com