La Dark Web es un conjunto de webs a las que hace falta acceder con un software específico con determinados permisos y de manera anónima. En este tipo de webs, debido a que se opera de forma anónima, es donde determinados usuarios se ven involucrados en ciertas actividades ilegales, como tráfico de armas, pornografía ilegal, blanqueo de dinero, falsificaciones, o venta de drogas.
Debido a estas actividades ilícitas, la Dark Web está siempre en el ojo de autoridades como el FBI, estableciendo posibles cebos para que los usuarios que cometen estas actividades piquen, o buscando vulnerabilidades que expongan a los verdaderos usuarios que hay detrás de las identidades anónimas.
OnionScan
El pasado mes de abril, una investigadora lanzó una herramienta llamada OnionScan, que tenía como fin analizar si una página de la Dark Web era realmente anónima o tenía alguna vulnerabilidad. Otra investigadora llamada Justin Seitz ha hecho una herramienta utilizando Python que permite automatizar el proceso de OnionScan (escrito en Go), pero para analizar webs en masa.
OnionScan lo que hace es buscar información sensible relacionada con webs ocultas bajo Tor, caracterizadas porque su dirección acaba en “.onion”. Por ejemplo, esta herramienta puede buscar los metadatos que contiene una imagen para ver si incluye información sobre el usuario (nombre en el PC o coordenadas GPS), o conocer el estado del servidor de una página, lo cual puede dar lugar a que acabe conociendo la IP real de la página, o poder conocer qué otras webs están gestionadas por una misma persona. De hecho, puede encontrar claves de cifrado que estén compartidas por varios sitios web, lo cual indicaría una fuerte correlación entre varios sitios web, indicando que tienen el mismo dueño.
Más de 8.000 páginas analizadas
Para comprobar su nueva herramienta, esta investigadora ha analizado 8.000 webs de la Dark Web. Esto no ha gustado mucho a la creadora original de OnionScan, Sarah Jamie Lewis, ya que gracias a toda esta información se podría desanonimizar más de una web por las razones expuestas anteriormente, en el caso de que estos datos fueran publicados para los usuarios.
Lewis afirma que cuando utiliza OnionScan para analizar una web, elimina los datos para dar una oportunidad para que la web que tiene una vulnerabilidad pueda arreglarla, y que el dueño evite poder ser descubierto. Analizar una web durante mucho tiempo puede dar lugar a obtener patrones de conducta, que unida a otra información, podrían permitir desanonimizar a una persona.
De las 8.167 páginas analizadas, 309 presentaban algún tipo de vulnerabilidad en cuanto a su identidad, aunque eso no supone que todas ellas permitieran identificar a sus dueños.
Si queréis más información, os dejamos el blog de Seitz, que además enlaza a los datos resumidos de su análisis, que ha subido a GitHub.
Fuente:adslzone.net
Entusiasta de la seguridad cibernética. Especialista en seguridad de la información, actualmente trabajando como especialista en infraestructura de riesgos e investigador.
Experiencia en procesos de riesgo y control, soporte de auditoría de seguridad, diseño y soporte de COB (continuidad del negocio), gestión de grupos de trabajo y estándares de seguridad de la información.
Envía tips de noticias a info@noticiasseguridad.com o www.instagram.com/iicsorg/.
También puedes encontrarnos en Telegram www.t.me/noticiasciberseguridad