Siri, el asistente de voz de Apple, escucha a los usuarios incluso cuando sostienen encuentros sexuales o consultan al médico

Las compañías de tecnología realizan prácticas cada vez más invasivas, por lo que la privacidad de los usuarios es cada vez más vulnerada. Acorde a especialistas en servicios de seguridad informática, Apple y sus contratistas tienen acceso a información confidencial de los usuarios, como detalles médicos, compras de medicamentos e incluso grabaciones de sus encuentros sexuales gracias al proceso de “control de calidad” de Siri, el asistente de voz de la compañía.

Una porción mínima de las interacciones entre Siri y los usuarios es enviada a los contratistas de Apple que operan en prácticamente todo el mundo. La labor de estas compañías es evaluar acorde a un conjunto de variables las respuestas que el asistente de voz brinda al usuario. Como era de esperarse, Apple no menciona de forma clara esta práctica a los consumidores.

La compañía solamente menciona que se toman algunos datos para hacer mejoras constantes en Siri, aunque especialistas en servicios de seguridad informática consideran que la compañía comete una clara violación de privacidad al no mencionar explícitamente que esta labor es hecha por humanos que escuchan las grabaciones de los usuarios.

Al ser cuestionada sobre esta práctica, la compañía declaró: “Una porción diminuta de las solicitudes y consultas que Siri recibe son sometidas a un riguroso análisis para mejorar la experiencia de los usuarios. Estos registros de ningún modo están asociados a la dirección IP o ubicación física de los usuarios. Además, el análisis se realiza en instalaciones seguras acorde a las medidas de confidencialidad de datos de Apple”. Se estima que alrededor del 1% de las solicitudes diarias que recibe el asistente de voz son sometidas a este procedimiento.

Un informante anónimo que trabaja en una de las compañías contratistas de Apple mencionó que los usuarios y organizaciones deberían permanecer al tanto de las capacidades intrusivas de herramientas como Siri; “considerando la frecuencia con la que los asistentes de voz se activan de forma accidental, estas compañías podrían encontrar grabaciones de los usuarios en circunstancias privadas”, declaró la fuente anónima.

“Siri puede despertar aún sin escuchar claramente las palabras de activación (Hola, Siri). Incluso un Apple Watch con Siri puede comenzar a grabar si detecta algún movimiento o escucha palabras aleatorias”, agregó el informante.

Aunque Siri está incluido en la mayoría de los desarrollos de Apple las principales fuentes de datos para Apple son los dispositivos Apple Watch, iPhone y el smart speaker HomePod. Acorde a los especialistas en servicios de seguridad informátiac, el smart watch Apple Watch es el dispositivo que presenta más activaciones no autorizadas del asistente escolar.  

Por último, el informante mencionó que, por solicitud expresa de Apple, las activaciones accidentales de Siri deben ser reportadas como errores técnicos; “No existe un procedimiento especial para tratar las activaciones accidentales del asistente de voz, por lo que al final la compañía realmente no se está esforzando en reducir estos errores en el servicio”.

Acorde a especialistas en servicios de seguridad informática del Instituto Internacional de Seguridad Cibernética (IICS), cuando un usuario pregunta a Siri sobre el acceso a sus registros de voz, el asistente sólo menciona “Sólo escucho cuando me están hablando”. Eso es absolutamente falso, pues se ha demostrado que los registros de voz de los usuarios también son almacenados por Apple aún cuando el asistente se activa por error.