Alexa, Siri, Google Smart Speakers hackeados mediante rayo láser

06 noviembre 2019




Los investigadores han descubierto una nueva forma de piratear los altavoces inteligentes Alexa y Siri simplemente usando un haz de luz láser. No es necesario el acceso físico del dispositivo de las víctimas, ni la interacción del propietario, para lanzar el hack, lo que permite a los atacantes enviar comandos inaudibles a los asistentes de voz, como desbloquear puertas.


El ataque, denominado " comandos ligeros ", aprovecha el diseño de los micrófonos de los asistentes inteligentes. Estos se llaman micrófonos de sistemas microelectromecánicos (MEMS), que funcionan convirtiendo el sonido (comandos de voz) en señales eléctricas, pero además del sonido, los investigadores descubrieron que los micrófonos MEMS también reaccionan a la luz que se dirige directamente hacia ellos.


Los investigadores dijeron que pudieron lanzar comandos inaudibles al hacer brillar láseres, desde 110 metros, en los micrófonos de varios asistentes de voz populares, incluidos Amazon Alexa, Apple Siri, Facebook Portal y Google Assistant.


"Modulando una señal eléctrica en la intensidad de un haz de luz, los atacantes pueden engañar a los micrófonos para que produzcan señales eléctricas como si estuvieran recibiendo audio genuino", dijeron investigadores de la Universidad de Michigan y la Universidad de Electro-Communications (Tokio ) en un trabajo de investigación.

Los micrófonos MEMS cuentan con una pequeña placa incorporada llamada diafragma, que cuando se golpea con sonidos o luces envía señales eléctricas que se traducen en comandos. En lugar de comandos de voz, los investigadores descubrieron que podían "codificar" el sonido utilizando la intensidad de un haz de luz láser, lo que hace que el diafragma se mueva y produce señales eléctricas que representan los comandos del atacante.


Daniel Genkin, uno de los investigadores que descubrió el ataque, le dijo a Threatpost que podían codificar específicamente el sonido en función de la intensidad del haz de luz, por lo que un sonido fuerte implica mucha luz mientras que los débiles producen poca luz.


Para desarrollar dichos comandos usando el rayo láser, los investigadores midieron la intensidad de la luz (usando un sensor de potencia de fotodiodo) y probaron el impacto de varias intensidades de luz (o corrientes de diodo) en las salidas de micrófono.


"Grabamos la corriente del diodo y la salida del micrófono usando un osciloscopio Tektronix MSO5204", dijeron. "Los experimentos se llevaron a cabo en un entorno de oficina normal, con el ruido ambiental típico del habla humana, equipos informáticos y sistemas de aire acondicionado".


En un ataque de la vida real, un atacante podría estar fuera de una casa y potencialmente encender una luz láser en un asistente de voz que es visible a través de una ventana. A partir de ahí, un atacante podría ordenarle al asistente de voz que desbloquee una puerta, realice compras en línea, inicie vehículos de forma remota u otras acciones maliciosas.


A continuación se muestra una demostración en video de investigadores que envían comandos a Google Home:



Peor aún, el ataque se puede montar "fácil y económicamente", dijeron los investigadores. Dijeron que utilizaron un puntero láser simple (disponible por tan solo $ 14 en Amazon), junto con un controlador láser (diseñado para controlar un diodo láser al proporcionar una corriente) y un amplificador de sonido para lanzar el ataque. Los investigadores por su parte utilizaron un diodo láser azul Osram PLT5 450B 450 nm conectado a un controlador de corriente Thorlabs LDC205C.+


Los atacantes también pueden necesitar equipo para enfocar con láser, incluido un cabezal de trípode con engranaje, teleobjetivo disponible en el mercado o un telescopio para ver puertos de micrófono desde largas distancias.


Los investigadores probaron el ataque con una variedad de dispositivos que utilizan asistentes de voz, incluidos Google NEST Cam IQ, Echo, iPhone XR, Samsung Galaxy S9 y Google Pixel 2. Mientras que el documento se centró en Alexa, Siri, Portal y Google Assistant, cualquier sistema que utiliza micrófonos MEMS y actúa sobre los datos sin la confirmación adicional del usuario podría ser vulnerable, dijeron.


Los investigadores dijeron que no han visto indicios de que este ataque haya sido explotado maliciosamente hasta ahora. Actualmente están colaborando con proveedores de asistentes de voz para mitigar el ataque.


La buena noticia es que los investigadores han identificado pasos que podrían ayudar a proteger contra el ataque, como una mayor autenticación, técnicas de fusión de sensores (como requerir que los dispositivos adquieran audio de múltiples micrófonos) o implementar una cubierta en la parte superior del micrófono para atenuar la cantidad de luz golpeando el micrófono.


"Una capa adicional de autenticación puede ser efectiva para mitigar un poco el ataque", dijeron. "Alternativamente, en caso de que el atacante no pueda espiar la respuesta del dispositivo, hacer que el dispositivo le haga una pregunta aleatoria simple antes de la ejecución del comando puede ser una forma efectiva de evitar que el atacante obtenga una ejecución exitosa del comando".


Threatpost se ha comunicado con Apple y Facebook para obtener más comentarios.


"La confianza del cliente es nuestra principal prioridad y nos tomamos en serio la seguridad del cliente y la seguridad de nuestros productos", dijo un portavoz de Amazon a Threatpost. "Estamos revisando esta investigación y continuamos colaborando con los autores para comprender más sobre su trabajo".


"Estamos revisando de cerca este trabajo de investigación", dijo un portavoz de Google a Threatpost. "Proteger a nuestros usuarios es primordial, y siempre estamos buscando formas de mejorar la seguridad de nuestros dispositivos".

Víctor Gil

Writer at @SwitchTecno

Sigue leyendo


Image message

Mantente al día con las noticias