Por qué el informe de transparencia de Facebook no es tan transparente como predica
La información que proporciona cada año Facebook a través de su informe de transparencia tiene una importancia enorme, no tanto por la riqueza de los datos como por la oportunidad de comprobar el estado de las cosas en el interior de la mayor red social del mundo. En el último documento, por ejemplo, podemos encontrar por primera vez las estadísticas monstruosas de contenidos eliminados por sus filtros y trabajadores por violar sus condiciones de uso.
La información que proporciona cada año Facebook a través de su informe de transparencia tiene una importancia enorme, no tanto por la riqueza de los datos como por la oportunidad de comprobar el estado de las cosas en el interior de la mayor red social del mundo. En el último documento, por ejemplo, podemos encontrar por primera vez las estadísticas monstruosas de contenidos eliminados por sus filtros y trabajadores por violar sus condiciones de uso.
La mayor parte de este contenido sensible –a veces lo que Facebook cataloga como sensible sobrepasa lo absurdo– tiene que ver con discursos de odio, violencia y desnudos, principalmente. Gracias a este informe tenemos un modo de cuantificar la envergadura del material filtrado.
Hay anécdotas asombrosas. Por ejemplo, durante el primer trimestre de 2017, Facebook eliminó una cuenta falsa con 583 millones de usuarios. Esta cuenta, a su vez, había intervenido en 837 millones de acciones que se identifican como spam y que la compañía fundada por Mark Zuckerberg denuncia como “automatizada o coordinada”. También podemos saber que entre el tres y el cuatro por ciento de las cuentas que existen son falsas.
Con todo, más allá de los datos que incorpora este año el informe, hay muchos puntos que faltan por revelar. Por ejemplo, una aproximación –por mínima que sea– a la lucha que la compañía norteamericana inició contra el robo de información de sus usuarios y por la protección de su privacidad, tal y como anunciaron con especial énfasis tras el escándalo de Cambridge Analytica, que a partir de una aplicación que incluía un test de personalidad filtró los datos de 87 millones de usuarios.
Esta información, presuntamente, llegó a la campaña republicana de Donald Trump, que se pudo beneficiar de la misma para alcanzar la Casa Blanca.
El caso Cambridge Analytica es particularmente preocupante, pero no el único. Recientemente se ha sabido que otra app –MyPersonality–, igualmente desarrollada por la Universidad de Cambridge y con las mismas características, robó datos de tres millones de usuarios, como ha podido documentar la revista New Scientist.
El propio Zuckerberg anunció que transmitirían a los usuarios afectados sobre cuanto pudieran saber de qué datos les han robado y qué han hecho con ellos, pero no hay constancia de este esfuerzo en el informe. Tampoco hay novedades sobre el plan contra las noticias falsas, otra de las cuestiones incómodas que afecta directamente a la red social. Todo lo que sabemos del plan lo desveló el fundador de Facebook en su cuenta personal, y fundamentalmente tenía que ver con el aumento de moderadores y de las facilidades para denunciar el contenido sensible.
En este sentido, la propaganda coordinada y tramposa que circula en la red sigue apareciendo entre los usuarios y hay sospechosas, por ejemplo en España, de que intervino en asuntos internos de especial sensibilidad como el proceso independentista en Cataluña. En Estados Unidos, por su parte, están particularmente preocupados por el número de usuarios que se vieron impactados por propaganda dirigida desde Moscú. Gracias al testimonio de Zuckerberg en el Congreso norteamericano sabemos que podría ser superior a las 126 millones de personas.
La tarea de transparencia de Facebook, por tanto, está incompleta. Y en este sentido algunos expertos han advertido que el esfuerzo debe ser mayor e incluso más honesto. «¿Por qué alguien debería creer en lo que dice Facebook cuando tiene un historial tan negativo acerca de informar al público sobre el uso indebido de su plataforma?», lamentó Samuel Wooley, director de investigación del Institute for the Future de California, en declaraciones para The New York Times. «Confiamos en Facebook para autoinformarse sobre sí mismo sin ninguna verificación independiente. Eso es preocupante para mí «.