La integración de asistentes digitales como Siri, Cortana o el nuevo Google Assistant, han venido a facilitar la vida de muchos usuarios móviles, en su búsqueda por una dinámica más ágil y amigable en la gestión de sus dispositivos, sin embargo, resulta que ahora también representan una amenaza latente para la seguridad e integridad de nuestra información.
Una investigación reciente desarrollada por ingenieros de la Universidad de Georgetown acaba de comprobar la posibilidad de desarrollar un método de intrusión a cualquier dispositivo con un asistente personal como los arriba señalados, mediante la inserción de una series de simples comandos de voz con su audio modificado a una frecuencia tal que pueda ser reconocida por cualquier smartphone. Tal como se muestra en el video:
Ver en YouTubePara el proof of concept presentado se utilizó un smartphone Android con la más reciente versión de OK Google , se corrió un video con el archivo de audio modificado, bajo una modulación donde el escucha humano podría no entender el comando de voz, pero el teléfono sí, logrando controlar, de manera indirecta distintas funciones del dispositivo, sin que el usuario se dé cuenta.
El documento, programado para ser presentado en su totalidad durante el próximo USENIX Security Symposium en Austin, Texas, plantea directamente un escenario donde este audio podría ser insertado incluso dentro de videos de YouTube, activados mediante otro malware previamente instalado, para provocar diversos daños en los usuarios, desde revelar su ubicación por GPS hasta bloquear el terminal.
Ya nadie está seguro, ni exento de paranoias.
No hay comentarios:
Publicar un comentario