¿Por qué Tik Tok podría eliminar tu nuevo vídeo?
La red social sustituye las revisiones humanas por un sistema de automatización que bloqueará publicaciones que atenten contra su política. Prepárate para los daños colaterales.
TikTok redobla su esfuerzo contra contenidos inapropiados, activando un software que los detecta cuando se cargan, es decir, antes de ser publicados. De esta manera, la red social de videos cortos espera bloquear, por ejemplo, material violento y pornográfico. No es una tarea sencilla, por eso las pruebas comenzaron desde el viernes 9 de julio. La mala noticia es que estos controles automáticos traen daños colaterales.
Que no se mal entienda. Estamos a favor de las herramientas que contribuyen a una mejor experiencia. Sin embargo, los sistemas automáticos presentan problemas al momento de discernir qué es perjudicial y qué no para la audiencia. Recuerde, por ejemplo, un video que le bloquearon de su cuenta de Instagram sin haber roto ninguna regla. De hecho, en el blog de TikTok, donde se adelantó la noticia, advierten lo que podría pasar.
«Durante las próximas semanas, comenzaremos a utilizar la tecnología para eliminar automáticamente algunos tipos de contenido infractor identificado en la carga, además de las eliminaciones confirmadas por nuestro equipo de seguridad», dice la plataforma en su blog. «La automatización se reservará para las categorías de contenido en las que nuestra tecnología tiene el mayor grado de precisión, comenzando con las violaciones de nuestras políticas sobre seguridad de menores, desnudez de adultos y actividades sexuales, contenido violento y gráfico, y actividades ilegales y bienes regulados”. Hasta aquí, todo parece muy lógico.
Sin embargo, aquí viene lo bueno: «Si bien ninguna tecnología puede ser completamente precisa para moderar contenido, donde las decisiones a menudo requieren un alto grado de contexto o matices, seguiremos mejorando la precisión de nuestra tecnología para minimizar las eliminaciones incorrectas. Los creadores podrán apelar la eliminación de su video directamente en nuestra aplicación o informarnos posibles violaciones para su revisión, como pueden hacerlo hoy».
En resumen, lo que podría suceder es algo ya visto en redes sociales, donde se censuran algunas publicaciones sin que queden muy claras las razones, mientras que otros usuarios le buscan la vuelta a la censura. De nuevo, pensemos en Instagram y cómo muchas imágenes de desnudos superan el filtro con solo tapar el pezón de un pecho de una mujer.
Empresas tan diferentes como Facebook y Tumblr, han desarrollado patrones a partir de los videos que incumplen normas. Pero la medida es un esfuerzo por brindar más transparencia en torno a la moderación, de manera que el usuario sepa cómo, por qué y dónde reclamar. Esto incide en algo muy importante y es la razón de fondo, según la empresa, de su nuevo software: permitir que el equipo humano de TikTok se concentre en otras áreas, como el acoso.
«Además de mejorar la experiencia general en TikTok, esperamos que esta actualización ayude a moderadores, permitiéndoles pasar más tiempo en áreas altamente contextuales y matizadas, como la intimidación, el acoso, desinformación y comportamiento de odio», se lee en el blog de la aplicación.
Es una labor loable. Según una investigación publicada por el Fondo de las Naciones Unidas para la Infancia (UNICEF) y el representante especial del Secretario General de la ONU en 2019, uno de cada tres jóvenes en 30 países dijo ser víctima de acoso en línea.
Ya TikTok había tomado medidas, en marzo de ese año ejecutó una actualización con nuevas funciones para filtrar el bullying y acoso. «Sabemos que los comentarios son una forma importante para que los miembros de la comunidad se conecten con los creadores y continuaremos desarrollando formas de promover una discusión respetuosa», dijo el comunicado de la empresa china en ese momento.
Y en el pasado mes de junio, anunció una campaña contra el bullying junto con seis profesionales de la animación digital que comparten contenido en la plataforma. El propósito era alertar a los usuarios sobre las presiones que enfrentan en Internet. Obviamente, la red social cree que no es suficiente y ahora apela a los sistemas automatizados.
Los problemas de los sistemas automatizados
Vamos directo al grano: los sistemas automatizados no son perfectos, y algunas comunidades pueden verse más afectadas por los errores en las eliminaciones. Según la web de tecnología Axios, TikTok ha estado probando el software en otros países, incluidos Brasil y Pakistán, y asegura que solo el 5 por ciento de los videos que eliminaron sus sistemas fueron por razones erróneas.
Parece un número bajo, pero TikTok eliminó 8.540.088 videos solo en los Estados Unidos en el primer trimestre de 2021. Eso significa que ese 5 por ciento podría traducirse en decenas o cientos de miles de videos prohibidos por error. Y de acuerdo con Axios, la gran mayoría caían en la categoría que ahora vigila la tecnología automatizada. Es decir, no hubo un humano discerniendo si las motivaciones eran las correctas.
El año pasado, las redes sociales confundieron varias etiquetas de un movimiento pacífico en Nigeria, por ejemplo #EndSARS, con la etiqueta SARS, iniciales del síndrome respiratorio agudo severo, el precursor de la covid-19. La consecuencia fue que un imagen de una bandera ensangrentada, que se convirtió en un ícono de la lucha civil en este país africano, fue catalogada como «información falsa».
Lo que sucedió fue que los sistemas automatizados de Facebook e Instagram, para evitar que se propagara información no verificada sobre el nuevo coronavirus, censuró la foto, cuando la etiqueta se refería a la unidad táctica de las fuerzas policiacas de Nigeria, conocidas como F-SARS o SARS y que según testigos presenciales, había asesinado al menos a 15 personas.
Facebook just flagged my post as fake.
Who is fact-checking internet posts? The truth won't be shut down #EndSARS pic.twitter.com/fa9asI2fO0— Fragile Dogubo (@fragiledogubo) October 21, 2020
“Nuestros sistemas estuvieron identificando contenido a favor de #EndSARS incorrectamente como falso. Lo sentimos profundamente. El problema ya ha sido resuelto y nos disculpamos por decepcionar a nuestra comunidad en tales momentos de necesidad”, se disculpó Instagram. Facebook publicó un mensaje casi idéntico. Sin embargo, Tomiwa Ilori, investigador del Centre for Human Rights en la Universidad de Pretoria, tras intercambiar correos electrónicos con una directiva de Facebook sobre este error, preguntó si esto podría no volver a suceder y no recibió respuesta.
«Esa falta de respuestas concretas es especialmente preocupante en esta situación. Hay una gran cantidad de cosas que desconocemos sobre las prácticas de moderación de contenido de Facebook, sobre todo en los países africanos», escribió Ilori en el artículo «Lo que los errores de moderación de contenido en las redes sociales le cuestan a África«, publicado en noviembre de 2020.
Latinoamérica es otro mercado que se ha visto afectado por la filtración de contenidos, según la Fundación Datos Protegidos y el Observatorio del Derecho a la Comunicación en el «Informe preliminar sobre vulneraciones a la libertad de expresión» presentado en una audiencia convocada de oficio por la Comisión Interamericana de Derechos Humanos (CIDH), que se realizó en Quito (Ecuador), en 2019.
El informe se centró en el período entre el 18 y el 27 de octubre de ese años, en que el presidente Sebastián Piñera decretó el Estado de Emergencia constitucional en Chile. En ese tiempo, la censura, según una encuesta, se concentró en Instagram (73,37%); Facebook (23,67%) y Twitter (13,61%)
“En la práctica estos sistemas de filtrado automático, que se basan en inteligencia artificial[contexto id=»381729″], son algoritmos que están siendo constantemente entrenados para realizar la tarea de filtrar y censurar contenidos de manera previa (ex ante), de acuerdo a lo que indican las políticas o normas de uso definidas por las empresas dueñas de las plataformas. Pero además de estos sistemas automatizados, existen moderadores/as humanos que están resolviendo diariamente estos casos, cuando el algoritmo no logra hacerlo. Esto último está relacionado con el problema adicional de que estos/as moderadores para América Latina no viven en la región, ni tienen necesariamente relación ni con el contexto político, sociocultural o con lo propio del lenguaje e idiosincrasia comunicacional (las jergas, por ejemplo), lo que hace más complejo el entendimiento en relación a estas acciones de parte de las plataformas”, explica el informe.
Si crees que nos estamos poniendo muy intensos con la política, pensemos en el enfrentamiento titánico entre Instagram y los actores de películas para adultos. En 2019, las cuentas de más de 1.300 actores de la industria pornográfica fueron eliminadas, aunque la mayoría aseguraba que no publicaba material explícito.
¿Por qué esto es un problema para ellos? Pues los castings suelen tomar en cuenta la cantidad de seguidores en las redes sociales. Por eso es tan importante para cualquiera de estos trabajadores mantener un perfil en estas redes sociales. No obstante, salvo una tregua tras un reunión que hubo en junio de 2019 entre el sindicato de los actores y representantes de la red social, la situación no ha cambiado mucho.
«Estamos dejando que estas empresas decidan qué es arte y qué es pornografía, y que luego nos castiguen»- Ginger Banks, creadora de Tik Tok.
«Cuando pones tiempo y esfuerzo para construir una cuenta con más de 300.000 seguidores y te borran, esto te hace sentir derrotada», explicó Ginger Banks, activista por los derechos de los trabajadores sexuales y artistas del porno, a la BBC. Y advirtió: «Incluso si sigues las reglas, te borran la cuenta. Y eso es lo que es muy frustrante».
«Nunca publiqué imágenes explícitas en Instagram. Pero incluso una foto mía en pantalones ajustados podría ser para algunos muy provocativa, y suficiente como para que me reporten», acotaba Banks. «Estamos dejando que estas empresas decidan qué es arte y qué es pornografía, y que luego nos castiguen».
Después de todo: es chino
Es temprano para conocer el alcance de la nueva política de Tik Tok. Después de todo, no debemos olvidar que la aplicación es propiedad de la empresa ByteDance, con sede en Beijing, capital de China. Y la censura le ha acompañado desde su nacimiento. Medios como The Intercepty The Guardian han relatado cómo el contenido crítico sobre el régimen chino es filtrado.
Las referencias a los históricos incidentes de la plaza de Tiananmen, de 1989; menciones que puedan dañar el “honor nacional” o transmisiones de videos que puedan comprometer a los órganos estatales, como la policía, están prohibidas. Famosas han sido las regulaciones contra las protestas en Hong Kong, censura contra la independencia del Tíbet o el silencio por el abuso contra la minoría musulmana del país.
Esto es lo que sabemos del video de Tik Tok de Feroza Aziz que pretendía ser un tutorial de maquillaje para criticar la persecución de China a la comunidad uigurhttps://t.co/Poau5QBNZi#Tecnología #TikTok #Uighur pic.twitter.com/TGgHAiau65
— MIT Tech Review ES (@techreview_es) December 9, 2019
Incluso Netzpolitik, un medio alemán, aseguró que TikTok penalizaba la difusión de vídeos creados por usuarios discapacitados, con sobrepeso o homosexuales. ¿La razón? Evitar posibles casos de acoso, según la red social.
Así que con estos antecedentes, pareciera que la tarea del nuevo software no es tan complicada como parece. Está por verse si los usuarios tendrán algo que decir.