El fallo es una puerta para que los ‘hackers’ puedan actuar sobre unos dispositivos que cada vez son más populares
11 de mayo de 2018 – Agencias.
El pasado mes de septiembre un inesperado suceso revolucionó a miles de hogares estadounidenses propietarios de un altavoz inteligente Echo: fueron activados de forma intencionada por la propia televisión en un capítulo de South Park. Sí, el altavoz inteligente no distingue la voz de su propietario de cualquier otra que invoque el comando de activación, aunque sea proviniendo de un televisor. Aquel episodio armó un pequeño caos en los mencionados hogares , pero no dejó de ser una anécdota divertida que, eso sí, dejó patente la posibilidad de que los hackers pudieran activar remotamente estos dispositivos. Hoy esta posibilidad es una realidad gracias al hallazgo llevado a cabo por un grupo de investigadores de la universidad de Berkeley han creado sonidos que, siendo imperceptibles al oído humano, envían comandos a los altavoces inteligentes.
Este equipo ha logrado demostrar que, mientras escuchamos música en la radio, la emisora puede dar instrucciones al Echo o HomePod de turno sin que seamos conscientes de ello. La técnica empleada por el equipo se basa en la explotación del llamado ruido blanco enmascarado en una canción o melodía; este sonido no emite mensajes inteligibles al oído humano, pero sí es susceptible de enviar comandos ocultos al altavoz. Se trataría de una puerta abierta para que los hackers pudan actuar sobre unos dispositivos que cada vez son más populares y que se encuentran en permanente escucha en los hogares de sus propietarios; “asumo que los hackers están trabajando ya con gente para aprovechar esto”, explica Nicholas Carlini, autor del estudio.
¿Es realmente grave esta posibilidad? Lo cierto es que sí, debido a todo lo que puede hacer un altavoz inteligente: enviar enlaces por correo electrónico, comprar online o incluso sacar una foto, y todo esto podría ser ordenado desde fuera del domicilio sin que el propietario fuera consciente de ello. Esta técnica fue bautizada en su día como DolphinAttack y aprovecha el hueco existente entre la capacidad auditiva humana y la comprensión de la máquina que descifra todo el contenido que escucha. Pues bien, este equipo ha logrado extraer y modificar parte de ese sonido de fondo incorporando comandos que el oído humano no es capaz de detectar pero la máquina entiende como una instrucción más. Un director de cine creó precisamente un corto que dio la vuelta al mundo y en el que en la aterradora secuencia, un Echo escuchaba voces del más allá y actuaba en consecuencia.
Fernando Suárez, vicepresidente del Consejo General de Colegios de Ingeniería Informática, no cree que el peligro se encuentre en el propio sonido blanco. “La verdadera amenaza se encuentra en la programación que se haga a estos dispositivos”, explica. Este experto ve un peligro mayor en la ética y permitir “un comportamiento indeseado en estos dispositivos y lo importante es el desarrollo software que hay detrás”. Es decir, que hay que asegurarse que el dispositivo no lleve a cabo comportamientos maliciosos más que limitar su capacidad de escuchar sonidos imperceptibles.
La buena noticia es que los fabricantes de los principales altavoces, Apple, Amazon y Google, aseguran contar con sistemas de seguridad que dificultarían un ataque llegado por esta vía. La firma de Tim Cook va más allá al recordar que cualquier comando sobre Siri que afecte a información privada del usuario, requiere el desbloqueo de un iPhone o iPad para ejecutarse, como capa adicional de seguridad. Lo cierto es que este tipo de dispositivos son cada vez más populares y las previsiones avanzan que se convertirán en un elemento común en los hogares a unos pocos años vista, con lo que también serán objeto prioritario del ataque de los hackers.