Un equipo integrado por tres investigadores belgas ha desarrollado una herramienta que hace que los usuarios sean indetectables para el software de reconocimiento de personas, reportan especialistas en ciberseguridad del Instituto Internacional de Seguridad Cibernética (IICS).
Wiebe Van Ranst, Simen Thys y Toon Goedeme, de la universidad KU Leuven, presentaron su investigación, titulada “Engañando a las cámaras de vigilancia automatizadas: un parche para evitar la detección de individuos”, en un reciente evento de seguridad informática.
A grandes rasgos, los expertos en ciberseguridad describieron el método utilizado, que consiste en una señalización que puede defender al portador contra Darknet, un marco de red neuronal de código abierto con soporte para You Only Look Once (YOLO), un sistema de detección de objetos en tiempo real.
El uso de las llamadas “imágenes adversas”, para engañar a los sistemas de detección que funcionan a base de aprendizaje automático, llaman cada vez más la atención de la comunidad de la ciberseguridad. Aunque los trabajos de investigación en esta área no son escasos, los expertos de Bélgica afirman que su método va más allá, pues las investigaciones anteriores no abordan algo tan diverso como lo son las personas.
“El objetivo es eludir la detección de sistemas de seguridad que usan reconocimiento de personas apenas las personas ingresan al campo visual de la cámara”, mencionan los investigadores.
Los investigadores se enfocaron en YOLOv2; para lograr su objetivo, le agregaron un conjunto de datos en imágenes para devolver cuadros delimitadores que rodean la imagen de la persona en el algoritmo de detección. “En una posición fija relativa a estos cuadros delimitadores, luego aplicamos la versión actual de nuestro parche a la imagen”, se explica en el documento.
“La imagen resultante se envía al detector y se mide la cantidad de veces que el algoritmo consigue detectar a la persona después de este proceso; posteriormente el optimizador cambia los píxeles en el parche para incrementar el nivel de protección contra la detección”.
El resultado de este proceso aparece en pantalla en forma de un parche multicolor de alrededor de 40cm². Los investigadores esperan extender su trabajo a otras arquitecturas de redes neuronales como Faster R-CNN, además creen que podrían imprimir este patrón en una camiseta que volvería al usuario “virtualmente invisible” para los algoritmos de detección de de las cámaras de vigilancia.
Trabajando como arquitecto de soluciones de ciberseguridad, Alisa se enfoca en la protección de datos y la seguridad de datos empresariales. Antes de unirse a nosotros, ocupó varios puestos de investigador de ciberseguridad dentro de una variedad de empresas de seguridad cibernética. También tiene experiencia en diferentes industrias como finanzas, salud médica y reconocimiento facial.
Envía tips de noticias a info@noticiasseguridad.com o www.instagram.com/iicsorg/
También puedes encontrarnos en Telegram www.t.me/noticiasciberseguridad