NSA congestionado con datos que ya es inservible, dice ex funcionario de NSA

Share this…

Un ex funcionario de la Agencia de Seguridad Nacional estadounidense(NSA) ha decidido convertirse en informador y ha pasado casi una década en la vida civil. Y él dice que está siendo enojado por lo que ha visto de fugas en los últimos dos años.

En una reunión con Jeff Williams el miércoles, William Binney, ex funcionario de la NSA que pasó más de tres décadas en la agencia, dijo que los programas de vigilancia masiva del gobierno de Estados Unidos se han vuelto tan congestionados con los datos que ya no son eficaces. Él dejó su puesto un mes después de los ataques del 11 de septiembre de 2001, a causa de las controvertidas leyes antiterroristas que se aprobaron días después de los atentados. Edward Snowden estaba inspirado con el caso de Binney dice un experto de seguridad informática

Dice que los programas de vigilancia estadounidenses están capturando tantos datos que ya no son efectivos, siendo incapaces de ver datos muy importantes. Si hiciésemos una búsqueda en las bases de datos de la Agencia, rápidamente estaríamos sumergidos por tantos datos.

Con cerca de cuatro mil millones de personas – alrededor de dos tercios de la población mundial – debajo de ojos vigilantes de NSA agencias, hay demasiados datos que se recogen.

“Es por eso que no podían detener el bombardeo de Boston, o los disparos de París, ya que los datos era todo lo que hay”, dijo Binney. El dijo que la NSA no está siendo sistemática con los datos que está capturando, haciendo que los analistas busquen una aguja en un pajar

 Afirma que la NSA estaba tan interesada en capturar los datos de llamadas en su programa PRISM. La Agencia estaba trabajando con 72 empresas paras para capturar todo los datos como: Apple, Google, Facebook, Microsoft, etc. El programa “Upstream”DE NSA, la agencia capturo la mayoría de datos, directamente de los cables submarinos de fibra óptica. Con la ayuda de sus británicos de la GCHQ consiguen capturar más de 21 petabytes al día (es decir, 21,000 terabytes).Y el problema es como usar esos datos sistemáticamente.