Los documentos entregados por la extrabajadora de la empresa Frances Haugen a la Comisión de Valores y Bolsa y al Congreso de EEUU, y que ahora analiza un consorcio de medios, señalan el impacto de la red en la polarización política y la salud mental de los adolescentes.
Los «Papeles de Facebook», una serie de informaciones sobre la empresa publicadas durante los últimos días en conjunto por 17 medios de EEUU, revelan que la red social apenas elimina el 5% de los mensajes de odio que circulan por ella e indican cómo su algoritmo favorece el discurso de grupos radicales.
Esta publicación conjunta se basa en más de 10,000 páginas documentos que entregó, a través de su asesor legal, la extrabajadora de Facebook y ahora denunciante Frances Haugen, quien ya compareció ante un subcomité del Congreso de EEUU y que este lunes estuvo en el Parlamento de Reino Unido.
Este trabajo periodístico sigue a la publicación «Archivos de Facebook» de The Wall Street Journal, que alertó sobre el efecto en los adolescentes de Instagram, propiedad de Facebook.
Los aspectos que abarcan estos documentos son numerosos: entre ellos que la moderación de Facebook sobre los contenidos de odio es deficiente en EEUU pero lo es mucho más en el resto del mundo, al que solo dedica el 16% de lo que invierte en mecanismos para ese esfuerzo.
Facebook bajó la guardia tras las elecciones
Los mensajes sobre el asalto al Capitolio los desbordaron
Facebook no estaba preparada cuando estalló el asalto al Capitolio el pasado 6 de enero, según revelan los «Papeles de Facebook». El refuerzo contra la desinformación que la empresa aplicó durante la campaña electoral lo retiró tras las elecciones, el 6 de noviembre, lo cual complicó la reacción al torrente de mensajes del 6 de enero, día del ataque al Congreso.
Mientras en Washington DC se agravaba la situación del Capitolio, en la sede de Facebook en California los ingenieros corrían para intentar al menos frenar la velocidad a la que circulaba ese día el contenido que incitaba al odio y la información falsa.
Las medidas de emergencia que se tomaron en esa jornada fueron el bloqueo al entonces presidente Donald Trump, congelar los comentarios en grupos con historial de mensajes de odio y facilitar el trabajo de los moderadores de contenido al clasificar EEUU como «un lugar de alto riesgo temporal» de violencia política.
Solo elimina menos del 5% del discurso de odio
Los «Papeles de Facebook» contradicen algunas de las declaraciones públicas que su fundador, Mark Zuckerberg, hizo en el Congreso sobre cómo la compañía combate el discurso violento y la desinformación.
El año pasado, dijo ante los legisladores que la empresa elimina el 94% del discurso de odio, pero los documentos internos lo cifran en menos del 5% del que circula por la red social.
La moderación de Facebook funciona sobre todo en inglés, lo cual deja a usuarios en otras lenguas especialmente vulnerables.
Además, el 84% del presupuesto global de la empresa para sufragar los esfuerzos contra la desinformación se concentran en EEUU y para el «resto del mundo» (que incluye gigantes como India o países como Francia) solo dedica el 16% del presupuesto.
Beneficio primero que seguridad
Los «Papeles de Facebook» describen «algoritmos que radicalizan al usuario, extremismo y desinformación dominante, facilitación del tráfico humano y el suicido adolescente», según la agencia AP, uno de los medios que participan en esta iniciativa.
Según los documentos, las medidas para mitigar estos problemas se han puesto a menudo a un lado o descartado si entraban en conflicto con el crecimiento, es decir, con el beneficio empresarial.
Haugen planteó ese problema cuando habló en la subcomisión del Senado, algo que fue rechazado al día siguiente por Zuckerberg, quien aseguró que no «tenían sentido».
Facebook ha negado que priorice el beneficio sobre la seguridad del usuario. «La verdad es que hemos invertido $13,000 millones y destinado a 40,000 personas para un solo cometido: mantener a la gente segura en Facebook», indicó la compañía en un comunicado el viernes.
Interacción por delante del control
La empresa estudia minuciosamente todos los efectos que puede tener cualquier cambio de política en su nivel de interacción de usuarios, uno de los elementos clave para el beneficio corporativo.
Las conclusiones de esos análisis en ocasiones han hecho que la empresa abandone o retrase campañas o medidas para reducir la desinformación y la radicalización, según los «Papeles de Facebook».
Por ejemplo, en 2019 un informe mostró que el algoritmo de Facebook recomendó a una mujer (que era realmente una cuenta para representar a una madre conservadora de Carolina del Norte) el grupo extremista QAnon, que el FBI considera una amenaza de terrorismo interno.
Pierde usuarios jóvenes
Los documentos también confirman algo que ya está en el debate público sobre la red social: ya no es la favorita de los adolescentes y jóvenes, que están sobre todo en Tik Tok, la red de moda.
La población usuaria de Facebook ha envejecido más rápido que la población general y se la percibe como una red negativa y de personas mayores, según un documento interno contenido en los «Papeles de Facebook».
La empresa ha reconocido la «dura competencia» que representan otras redes como Tik Tok y Snapchat.