Facebook trabaja para evitar contenidos sospechosos con un centro de control

Logo de facebook en una empresa.
Logo de facebook en una empresa. / EFE
Efe
01 de diciembre 2018 - 11:57

Cada día 1,490 millones de personas se conectan a Facebook y cada día la red revisa dos millones de piezas de contenido sospechoso. Asediada por los escándalos, la compañía trata de frenar el racismo, el terrorismo y las noticias falsas: ¿Es posible controlar la conversación de millones de personas?

Para hacer frente a esta tarea Facebook acaba de abrir en Barcelona (noreste) un centro de control de contenidos que contará con 800 moderadores y que abrió sus puertas a un grupo de periodistas.

"Nuestro trabajo es crear un espacio seguro para todos los usuarios. Es duro, en todas las comunidades hay buenos y malos", reconoce el director de Community Operations de la compañía, David Geraghty, quien asegura que el sistema de control de contenidos de Facebook es uno de los "más sofisticados" del mundo.

La red social tiene dos maneras de detectar contenido sospechoso: las denuncias de usuarios y un sistema de inteligencia artificial y 'machine learning' que lo identifica de manera automática. "Antes éramos más reactivos, ahora somos más proactivos", reconoce.

Este último es, por ejemplo, responsable de que el 99 por ciento del contenido terrorista que se intenta distribuir por la red sea detectado antes de publicarse, aunque un humano siempre tiene la última palabra.

"La combinación de tecnología y personas es la mejor herramienta", reconoce Geraghty.

Este 2018 ha sido el 'annus horribilis' de la red: primero Cambridge Analityca, luego la investigación sobre la injerencia rusa en las elecciones de Estados Unidos ponían el foco en la red y, tras múltiples dimisiones de directivos, una investigación del New York Times revelaba que la compañía había pagado una empresa para crear noticias falsas contra sus críticos.

En paralelo, Facebook ha recibido múltiples críticas por la proliferación de un discurso racista y violento en su plataforma. En el caso de los rohinyá en Myanmar, Mark Zuckerberg pidió disculpas y reconoció que no hicieron lo suficiente para frenar los contenidos violentos contra esta minoría musulmana.

La inversión de la compañía en control de contenidos se ha incrementado "sustancialmente", según reconoce Geraghty.

El centro de control de contenidos de Barcelona es prueba de ello. Varias plantas de un céntrico edificio en el que los trabajadores cuentan con apoyo psicológico 24 horas y todo tipo de beneficios como áreas de descanso y clases de relajación.

La moderación de contenidos "no es un trabajo de oficina normal" y tampoco es para todo el mundo; en ocasiones los controladores tienen que ver imágenes que pueden generar mucho estrés como violencia gráfica, abuso a niños o contenido terrorista, explica Ulf Herbrechter, responsable de CCC, la empresa que gestiona el centro.

Si te lo perdiste
Lo último
stats