Facebook y otras compañías de redes sociales batallan para detener la propagación de videos de los ataques a mezquitas de Nueva Zelandia en sus sitios.
Facebook dijo el domingo que eliminó 1.5 millones de videos de los ataques de Nueva Zelandia en todo el mundo. Bloqueó 1.2 millones de los videos al momento de la carga, lo que significa que no habrían sido vistos por los usuarios. Facebook no dijo cuántas personas habían visto los 300,000 videos restantes.
Pero, inicialmente, Facebook no detectó el video de los ataques. El viernes, durante al menos 17 minutos, un presunto terrorista transmitió un video en vivo de un tiroteo de grandes dimensiones en una mezquita en Nueva Zelandia.
La policía de Nueva Zelandia alertó a Facebook de la transmisión en vivo y la compañía dijo que eliminó rápidamente las cuentas de Facebook e Instagram del atacante y el video. Facebook también dijo que estaba “eliminando todas las versiones editadas del video que no muestran contenido gráfico”, así como elogios o apoyo al ataque.
La falla de Facebook para captar el video antes de ser alertado por la policía se produce en medio de reiteradas promesas de la compañía sobre la moderación del contenido en su plataforma. Facebook, Twitter y otros gigantes tecnológicos están bajo un intenso escrutinio por la forma en que se utilizan para difundir información errónea, discursos de odio y contenido gráfico.
En respuesta, Facebook dice que ha contratado a decenas de miles de moderadores humanos y está invirtiendo en inteligencia artificial para ayudar a vigilar sus sitios.
“Continuamos trabajando las veinticuatro horas del día para eliminar el contenido violatorio mediante una combinación de tecnología y personas”, dijo Mia Garlnick, portavoz de Facebook Nueva Zelandia.
El senador estadounidense Mark Warner, miembro de una comisión que ha interrogado a las compañías de redes sociales, dijo el viernes que no solo Facebook necesitaba asumir la responsabilidad.
“La rápida y amplia difusión de este contenido lleno de odio — transmitido en vivo en Facebook, subido en YouTube y amplificado en Reddit — muestra la facilidad con la que las plataformas más grandes todavía pueden ser mal utilizadas. Es cada vez más claro que YouTube, en particular, tiene todavía que lidiar con el papel que ha desempeñado en facilitar la radicalización y el reclutamiento”, dijo Warner en un comunicado proporcionado a CNN.
Otras compañías se comprometieron a monitorear de cerca sus plataformas después de los ataques.
YouTube no dijo cuántos videos de los ataques ha eliminado, pero dijo el jueves en Twitter que estaba “trabajando de forma vigilante para eliminar cualquier video violento”.
Twitter también publicó un comunicado en línea el viernes: “Estamos supervisando y eliminando continuamente cualquier contenido que muestre la tragedia, y seguiremos haciéndolo de acuerdo con las Reglas de Twitter”, dijo la compañía.