Gran cantidad de expertos en seguridad informatica apuestan por un futuro con gran presencia de los asistentes de voz alimentados por inteligencia artificial. Seres digitales que, nos ayudarían a responder preguntas y facilitar nuestras vidas. A pesar de que aun falta bastante para llegar a esto, en el Asistente de Google y en la Alexa de Amazon podemos ver un poco de este futuro.
Ambas IA controladas por voz incluyen funcionalidades que dentro de poco podrían convertirlas en un elemento central de nuestra forma de vida moderna.
Kiro 7, un canal de televisión, comento que una mujer, declaro que la asistente de IA de Amazon, Alexa, grabó una conversación privada entre ella y su esposo y luego la envió a un contacto sin que lo supieran. Esto, sin que se haya despertado a la asistente con la palabra, “Alexa” que Amazon insiste es absolutamente esencial para que Alexa inicie una tarea.
Danielle, que tenía todas las habitaciones de su casa enganchadas a Alexa, fue alertada de la filtración por el destinatario del mensaje, uno de los empleados de su esposo, que llamó para avisar creyendo que su altavoz inteligente había sido “hackeado”.
Danielle escuchó la conversación cuando le fue devuelta. “Me sentí invadida”, ella comento. “Una invasión de privacidad total. Inmediatamente dije: ‘Nunca volveré a enchufar ese dispositivo, porque no puedo confiar en él’”.
Este incidente es la realidad del miedo principal que muchos tenemos con los altavoces inteligentes y sus asistentes de voz que siempre escuchan. El miedo a que nos estén espiando, o que los dispositivos estén siendo utilizados por un tercero para vigilarnos y registrarnos en momentos vulnerables e íntimos, comento un investigador de seguridad informatica.
Según la información, se llamó a Amazon para investigar el asunto. Los ingenieros de Amazon no informaron cómo exactamente se produjo la violación o si es un problema con los altavoces inteligentes basados en Alexa, pero confirmaron el incidente.
“Dijeron que los ingenieros revisaron los registros, y vieron lo que sucedió, vieron exactamente lo que dijiste que pasó, y lo sentimos … Nos dijo que el dispositivo simplemente adivinó lo que estábamos diciendo … Se disculpó y dijo que realmente apreciaban que los haya llamado, ¡esto es algo que tenemos que arreglar! ”
En una declaración oficial, Amazon confirmó el incidente, pero minimizo el problema.
“Echo despertó ya que una palabra en la conversación de fondo sonaba como ‘Alexa’. Después, en la conversación se escuchó como una solicitud de ‘enviar mensaje’. En este momento, Alexa dijo en voz alta ‘¿A quién?’ En la conversación de fondo se interpretó un nombre en la lista de contactos. Alexa preguntó en voz alta: “[nombre de contacto], ¿verdad?” Después de esto, Alexa interpretó la conversación como ‘correcta’. Por muy improbable que sea esta cadena de eventos, estamos evaluando opciones para hacer que este caso sea cada vez menos probable”.
No es la primera vez que ocurre algo así. La empresa de seguridad informatica, Symantec dio en un informe a principios de este año, la naturaleza de escucha constante de los altavoces inteligentes, lo que significa que todo lo que hablas corre el riesgo de ser enviado a servidores back-end de estos gigantes tecnológicos.
De acuerdo a las políticas, estos altavoces inteligentes escuchan, graban y envían a sus servidores las conversaciones que se han tenido con ellos después de que se han despertado. Sin embargo, hemos visto casos en los que se ha descubierto que por un “error” se registran más de lo que debería.
Entusiasta de la seguridad cibernética. Especialista en seguridad de la información, actualmente trabajando como especialista en infraestructura de riesgos e investigador.
Experiencia en procesos de riesgo y control, soporte de auditoría de seguridad, diseño y soporte de COB (continuidad del negocio), gestión de grupos de trabajo y estándares de seguridad de la información.
Envía tips de noticias a info@noticiasseguridad.com o www.instagram.com/iicsorg/.
También puedes encontrarnos en Telegram www.t.me/noticiasciberseguridad