Cada día 1.490 millones de personas se conectan a Facebook y cada día la red revisa dos millones de piezas de contenido sospechoso. Asediada por los escándalos, la compañía trata de frenar el racismo, el terrorismo y las noticias falsas: ¿Es posible controlar la conversación de millones de personas?
Para hacer frente a esta quijotesca tarea Facebook acaba de abrir en Barcelona un centro de control de contenidos que contará con 800 moderadores y que abrió sus puertas a un grupo de periodistas.
"Nuestro trabajo es crear un espacio seguro para todos los usuarios. Es duro, en todas las comunidades hay buenos y malos", reconoce el director de Community Operations de la compañía, David Geraghty, quien asegura que el sistema de control de contenidos de Facebook es uno de los "más sofisticados" del mundo.
La red social tiene dos maneras de detectar contenido sospechoso: las denuncias de usuarios y un sistema de inteligencia artificial y 'machine learning' que lo identifica de manera automática. "Antes éramos más reactivos, ahora somos más proactivos", reconoce.
Este último es, por ejemplo, responsable de que el 99 por ciento del contenido terrorista que se intenta distribuir por la red sea detectado antes de publicarse, aunque un humano siempre tiene la última palabra.
"La combinación de tecnología y personas es la mejor herramienta", reconoce Geraghty.
2018 ha sido el 'annus horribilis' de la red: primero Cambridge Analityca, luego la investigación sobre la injerencia rusa en las elecciones de Estados Unidos ponían el foco en la red y, tras múltiples dimisiones de directivos, una investigación del New York Times revelaba que la compañía había pagado una empresa para crear noticias falsas contra sus críticos.
En paralelo, Facebook ha recibido múltiples críticas por la proliferación de discurso racista y violento en su plataforma. En el caso de los rohinyá en Myanmar, Mark Zuckerberg pidió disculpas y reconoció que no hicieron lo suficiente para frenar los contenidos violentos contra esta minoría musulmana.
La inversión de la compañía en control de contenidos se ha incrementado "sustancialmente", según reconoce Geraghty.
El centro de control de contenidos de Barcelona es prueba de ello, varias plantas de un céntrico edificio en el que los trabajadores cuentan con apoyo psicológico 24 horas -hay pegatinas con un teléfono de asistencia en cada ordenador- y todo tipo de beneficios como áreas de descanso y clases de relajación.
La moderación de contenidos "no es un trabajo de oficina normal" y tampoco es para todo el mundo; en ocasiones los controladores tienen que ver imágenes que pueden generar mucho estrés como violencia gráfica, abuso a niños o contenido terrorista, explica Ulf Herbrechter, responsable de CCC, la empresa que gestiona el centro.
El equipo de Facebook dedicado a control de contenidos supera los 30.000 empleados en todo el mundo -la mitad son moderadores-, una parte se dedica a revisar y modificar de manera periódica la extensa política de contenidos de la plataforma.
La red intenta mantener la objetividad e instruye a sus moderadores para basar sus decisiones en las normas reflejadas en la política de contenidos de la empresa, no en opiniones personales.
El foco de la controversia está centrado en el discurso de odio y el uso de la plataforma para el avance del populismo en procesos electorales.
Según los últimos datos públicos de Facebook en los tres primeros trimestres del año la compañía actuó contra cerca de 8 millones de contenidos por discurso de odio, aunque la compañía no ofrece datos de prevalencia de este tipo de supuestos y dice que los datos son provisionales.
"Nuestra política sobre discurso de odio es igual en todos los países y se aplica a todo el mundo, incluidas figuras públicas", da igual que seas Bolsonaro, Trump o un ciudadano anónimo, asegura la máxima responsable europea en política de contenidos de la compañía, Siobhan Cummiskey. EFE
Etiquetas: