Facebook desactiva entre enero y marzo 2.190 millones de cuentas falsas
La cantidad de contenidos retirados relacionados con los discursos de odio ha aumentado a 4 millones de publicaciones en solo tres meses
La red social más usada del mundo, Facebook, informó este jueves de que desactivó entre enero y marzo de este año 2.190 millones de cuentas falsas, en su mayoría gestionadas por robots, una cifra tan elevada que prácticamente iguala el número total de usuarios de la plataforma a nivel mundial.
La empresa que dirige Mark Zuckerberg publicó este jueves la tercera edición de su informe sobre el cumplimiento de las normas comunitarias, en el que explica los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y la información falsas[contexto id=»381731″], las actividades ilegales y los contenidos que considera no adecuados.
«La cantidad de cuentas que eliminamos se incrementó a causa de los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo», indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.
El directivo detalló que se desactivaron 1.200 millones de estas cuentas en el último trimestre de 2018 y 2.190 millones en el primero de 2019, lo que representa una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, según los últimos datos disponibles.
En cuanto al llamado «discurso del odio» dirigido a grupos sociales específicos, la empresa de Menlo Park se felicitó por haber incrementado la cantidad de contenidos retirados de los 3,3 millones con que cerró el último trimestre de 2018 a los 4 millones en los primeros tres meses de 2019.
La firma explicó que de estos 4 millones de «mensajes de odio» publicados, un 65,4% fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.
«Las distintas culturas del mundo entienden la libertad de expresión de formas distintas. Es imposible construir un único sistema de moderación que funcione en todo el mundo», dijo en una rueda de prensa tras presentar los resultados el cofundador y consejero delegado de la empresa, Mark Zuckerberg.
La compañía se encuentra en el punto de mira con respecto a cómo gestiona la publicación de contenidos falsos, de carácter sexual, de odio o violentos por parte de usuarios después del tiroteo en dos mezquitas de Nueva Zelanda el pasado marzo que se saldó con la vida de 51 personas y que fue retransmitido en directo por Facebook Live.