Descubren cómo hackear altavoces inteligentes para que ejecuten acciones enviándoles órdenes por ultrasonidos

Descubren cómo hackear altavoces inteligentes para que ejecuten acciones enviándoles órdenes por ultrasonidos
Sin comentarios Facebook Twitter Flipboard E-mail

Cada vez tenemos más sistemas informáticos en casa instalados por todas partes, aunque muchos de ellos están camuflados en la forma de dispositivos de uso diario como televisores, electrodomésticos, sistemas de sonido o reproductores multimedia. Todos ellos son susceptibles de ser pirateados con diferentes propósitos, de ahí que cada poco tiempo surja una noticia al respecto de nuevas vulnerabilidades descubiertas y/o aprovechadas para posibles usos fraudulentos.

La que nos llega esta semana está relacionada con los populares altavoces "inteligentes" con asistentes de voz incorporados capaces de ejecutar nuestras órdenes vocales y que, según un estudio publicado recientemente en el IEEE Transactions on Emerging Topics in Computing, podrían ser utilizados para obedecer órdenes de terceros que las emitan, sin que lo sepamos, a través de altavoces paramétricos por ultrasonidos.

Según han podido probar en diferentes condiciones de utilización usando altavoces con asistentes como Siri, Google Assistant y Amazon Alexa, la capacidad de sus micrófonos de campo lejano para detectar nuestras voces a larga distancia en las habitaciones del hogar va más allá del rango audible humano y puede aprovecharse para enviar órdenes usando ultrasonidos y apuntando un altavoz direccional al dispositivo que se quiere hackear.

altavoz

Las órdenes pasarían desapercibidas para el usuario legítimo del altavoz inteligente, que no sabría muy bien por que se estarían ejecutando comandos o acciones en el hogar, algunos de los cuales podrían alcanzar un cierto peligro si tenemos instalado un sistema domótico en casa que por ejemplo abra las puertas o ventanas.

Durante las pruebas se estimó que los ataques podrían realizarse a distancias óptimas de unos 3,5 metros, lo que en la práctica supondría tener al atacante en la misma habitación, pero en algunos casos también funciona a unos 12 metros, teniendo en ambos casos la dificultad de que la señal de los altavoces direccionales es bloqueada fácilmente por cualquier obstáculo físico interpuesto ante él.

Además, según comentan los responsables del estudio, en principio no hay ninguna actualización del software que pueda evitar el problema, salvo algún tipo de sistema que comprima la calidad del audio captado por los micrófonos reduciendo su banda en frecuencia. Por último, afirman que el "truco" funciona tanto con voces artificiales generadas por ordenador como por grabaciones de voces humanas reales que deben ser adaptadas al rango de ultrasonidos.

Más información | IEEE | IEEE

Comentarios cerrados
Inicio