Detectada gran vulnerabilidad en los asistentes de voz

Iniciado por wolfbcn, 12 Mayo 2018, 14:19 PM

0 Miembros y 1 Visitante están viendo este tema.

wolfbcn

Un grupo de estudiantes de la universidad americana de Berkeley ha descubierto una vulnerabilidad en los asistentes de voz de Apple, Amazon y Google. Y es que según afirman, sería posible controlar a Siri, Alexa y Google Assistant mediante mensajes ocultos e indetectables por el oído humano, y que podrían esconderse en cualquier vídeo o canción.

Anunciando su descubrimiento en primicia a través del periódico New York Times, han afirmado que esto podría suponer un riesgo de seguridad importante para los usuarios de altavoces inteligentes. Y es que los dispositivos y asistentes no estarían siendo hackeados, sino simplemente engañados.

Gracias a este experimento, han demostrado la capacidad de dar órdenes a estos asistentes escondiendo pequeños mensajes en canciones, e incluso a través de ruido blanco, completamente imperceptible por una persona. Esto implica una nueva amenaza y formas de "ataques", pudiendo ahora esconderse estos mensajes subliminales tanto en cualquier canción de la radio, en anuncios de televisión, e incluso en vídeos de YouTube.

LEER MAS: https://www.muycomputer.com/2018/05/12/gran-vulnerabilidad-asistentes-voz/
La mayoria pedimos consejo cuando sabemos la respuesta, pero queremos que nos den otra.