Un reporte interno para empleados de Facebook ha confirmado la detección de una falla de clasificación que habría expuesto a millones de usuarios a lo que la compañía describe como “riesgos de integridad”, mostrando por error contenido potencialmente dañino a usuarios en países de todo el mundo y de todos los rangos de edades.
Según el informe, el error fue detectado por primera vez en octubre pasado, cuando una repentina oleada de desinformación comenzó a fluir a través del News Feed. En lugar de suprimir el alcance de las publicaciones de las cuentas que distribuían desinformación, práctica conocida como downranking, Facebook impulsó su distribución, incrementando por error las vistas en estas publicaciones cerca del 30%.
Esta tendencia incrementó y disminuyó a lo largo de los últimos seis meses, hasta que los ingenieros de Facebook pudieron abordar el problema a inicios de marzo.
Además de información no verificada o engañosa, los sistemas de Facebook fallaron al identificar contenido potencialmente dañino como desnudez, violencia y plataformas de comunicación rusas, que han sido baneadas de la plataforma después de iniciada la invasión militar en Ucrania y debido a las nuevas políticas dictadas por el Kremlin en materia de medios de comunicación.
Poco después, el portavoz de Meta Joe Osborne confirmó el incidente, mencionando que la compañía detectó inconsistencias en la reducción de rango en cinco ocasiones distintas, lo que se correlacionó con pequeños aumentos temporales en las métricas de algunas publicaciones: “Rastreamos la causa raíz hasta un error de software y aplicamos las correcciones necesarias”, agregó Osborne.
El downranking es una de las principales herramientas de Facebook para limitar el alcance de publicaciones que generan controversia, principalmente en materia política. Esta es una práctica preocupante para miles de personas, ya que creen que Facebook se escuda en sus sistemas automatizados para aplicar shadow baning contra cierto tipo de contenido, esforzándose en compartir la menor información posible sobre lo que la plataforma considera contenido inapropiado, discursos de odio y otras formas de material potencialmente dañino.
Mark Zuckerberg ha defendido este sistema desde su implementación. En 2019, el director ejecutivo de la plataforma social mencionó que este era un esfuerzo para evitar que más y más personas se engancharan con el contenido más sensacionalista, radical y provocativo, frenando el despliegue de, por ejemplo, una campaña de desinformación.
Para conocer más sobre riesgos de seguridad informática, malware, vulnerabilidades y tecnologías de la información, no dude en ingresar al sitio web del Instituto Internacional de Seguridad Cibernética (IICS).
Trabajando como arquitecto de soluciones de ciberseguridad, Alisa se enfoca en la protección de datos y la seguridad de datos empresariales. Antes de unirse a nosotros, ocupó varios puestos de investigador de ciberseguridad dentro de una variedad de empresas de seguridad cibernética. También tiene experiencia en diferentes industrias como finanzas, salud médica y reconocimiento facial.
Envía tips de noticias a info@noticiasseguridad.com o www.instagram.com/iicsorg/
También puedes encontrarnos en Telegram www.t.me/noticiasciberseguridad