
Facebook no logró detectar desinformación evidente relacionada con las elecciones de Brasil que se celebrarán en 2022, señaló Global Witness en un nuevo informe, lo que continúa un patrón de no percatarse de material que viola sus políticas, algo que el grupo activista considera “alarmante”.
Los anuncios contenían información falsa acerca de las elecciones que se avecinan en el país, tales como la promoción de una fecha equivocada para los comicios, métodos incorrectos de votación y el cuestionar la integridad de las elecciones, incluido el sistema brasileño de voto electrónico.
Esta es la cuarta ocasión que el organismo sin fines de lucro con sede en Londres ha puesto a prueba la capacidad de Meta de detectar violaciones flagrantes a las normas de su red social más popular, y la cuarta prueba de este tipo de la que Facebook no sale airoso. En las tres ocasiones anteriores, Global Witness le solicitó publicar anuncios que contenían discurso violento de odio para ver si los controles de Facebook —ya sea las personas que efectúan revisiones o la inteligencia artificial— se percataban de ello. No lo hicieron.
“Facebook ha identificado a Brasil como uno de sus países prioritarios en los que está invirtiendo recursos especiales específicamente para combatir la desinformación relacionada con las elecciones”, dijo Jon Lloyd, asesor de Global Witness. “Por lo cual queríamos poner realmente a prueba sus sistemas dándoles tiempo suficiente para actuar. Y en un momento en que las elecciones legislativas de Estados Unidos están a la vuelta de la esquina, Meta simplemente tiene que corregir esto, y hacerlo ahora mismo”.
Los comicios nacionales de Brasil se llevarán a cabo el 2 de octubre en medio de fuertes tensiones y desinformación que amenazan con desacreditar el proceso electoral. Facebook es la red social más importante del país. En un comunicado, Meta dijo que se ha “preparado ampliamente para las elecciones de 2022 en Brasil”.
“Hemos lanzado herramientas que promueven información confiable y etiquetan las publicaciones relacionadas con las elecciones, establecimos un canal directo para que el Tribunal Superior Electoral nos envíe contenido potencialmente dañino para su revisión, y seguimos colaborando muy de cerca con autoridades e investigadores brasileños”, señaló la compañía.
Facebook comenzó a exigir en 2020 que los anunciantes que quieran mostrar avisos sobre elecciones o política completen un proceso de autorización e incluyan aclaraciones sobre quién los ha pagado, un modelo similar al que emplea en Estados Unidos. Esas salvaguardas adicionales se introdujeron tras las presidenciales de 2016 en Estados Unidos, cuando Rusia utilizó rublos para pagar anuncios políticos diseñados para avivar las divisiones y el descontento entre los estadounidenses.
Global Witness dijo haber incumplido esas normas cuando envió los anuncios de prueba, que fueron autorizados para su publicación pero nunca llegaron a emitirse. El grupo encargó el servicio desde fuera de Brasil, desde Nairobi y Londres, lo que debía haber hecho saltar las alarmas.
Tampoco se le requirió incluir una aclaración sobre quién pagaba los avisos ni empleó un método de pago brasileño, todas salvaguardas que Facebook decía haber introducido para evitar abusos de su plataforma por parte de actores malintencionados para intervenir en votaciones en todo el mundo.
“Lo que está claro por los resultados de esta investigación y otras es que su mecanismo de moderación de contenido y los sistemas de integridad que emplean para mitigar parte del riesgo durante los periodos electorales simplemente no funcionan”, dijo Lloyd.
El grupo utilizaba anuncios como prueba en lugar de publicaciones de usuarios porque Meta afirma exigir estándares “aún más estrictos” a los anunciantes que en las publicaciones corrientes no pagadas, según su sitio de asistencia a anunciantes de pago.
Pero a juzgar por las cuatro investigaciones, señaló Lloyd, eso no está claro.
“Constantemente tenemos que fiarnos de la palabra de Facebook. Y sin una auditoría verificada por un tercero independiente, simplemente no podemos exigir responsabilidades a Meta ni a ninguna otra compañía tecnológica por lo que dicen que hacen”, dijo.