Esta herramienta se enfoca en exponer a los sitios que generan las llamadas “fake news”
Es más fácil exponer a quienes generan información falsa que pronunciarse en contra de cada una de sus mentiras. Este es el nuevo enfoque de expertos en ciberseguridad y forense digital del MIT, quienes incorporaron varias de esas características en un conjunto de datos y luego diseñaron un algoritmo para identificar la información falsa. Este proyecto podría ayudar a combatir un problema creciente que muchos expertos en muchos gobiernos del mundo pronostican que sólo empeorará.
Facebook, Twitter y otros medios de comunicación social están creando equipos de verificadores de hechos y apoyando a organizaciones sin fines de lucro para detectar la desinformación. Pero la verificación de los hechos lleva mucho más tiempo que eliminar la desinformación. Además, las noticias falsas no siempre coinciden con un patrón esperado.
Es por eso que luchar contra cada muestra de desinformación es una tarea poco práctica. Lo que es peor, las investigaciones han demostrado que los lectores de noticias de cualquier tendencia política se ponen a la defensiva y se resisten a la idea de que las noticias que han aceptado son falsas.
Acorde a expertos en forense digital del Instituto Internacional de Seguridad Cibernética, esto explica por qué las noticias falsas se difunden más rápido que los artículos de fuentes precisas, incluidos los que desacreditan las teorías de conspiración y la desinformación.
La investigación presentada revela las características clave de los sitios web de noticias falsas que pueden ser menos visibles para los verificadores, como las palabras funcionales, patrones específicos de palabras que dan mayor fuerza al contenido de las noticias.
Si un sitio de noticias lanza una gran cantidad de artículos con una variedad y un alto grado de estas características lingüísticas, se puede inferir con seguridad que es más probable que publiquen “noticias” poco confiables.
Los investigadores descubrieron que su algoritmo, denominado Support Vector Machine, podría deducir correctamente un nivel alto, bajo o medio de “veracidad” aproximadamente el 65% de las veces. Podría predecir el sesgo de inclinación hacia la derecha o hacia la izquierda aproximadamente el 70% de las veces. Si bien no es perfecto, es un buen comienzo. Expertos en forense digital advierten que el algoritmo funcionaría mejor con los verificadores de noticias humanos.
El siguiente paso, consideran los expertos, es “caracterizar la veracidad de los informes para los medios de comunicación en otros idiomas. Finalmente, queremos ir más allá del sesgo de izquierda contra derecha que es típico del mundo occidental y modelar otros tipos de sesgos que son más relevantes para otras regiones, por ejemplo, islamista vs secular es uno de esos ejemplos para el mundo musulmán”.
Entusiasta de la seguridad cibernética. Especialista en seguridad de la información, actualmente trabajando como especialista en infraestructura de riesgos e investigador.
Experiencia en procesos de riesgo y control, soporte de auditoría de seguridad, diseño y soporte de COB (continuidad del negocio), gestión de grupos de trabajo y estándares de seguridad de la información.
Envía tips de noticias a info@noticiasseguridad.com o www.instagram.com/iicsorg/.
También puedes encontrarnos en Telegram www.t.me/noticiasciberseguridad