THE OBJECTIVE
Cultura

'Código roto': la zona oscura de Facebook

El periodista de ‘The Wall Street Journal, Jeff Horwitz, publica la investigación que reveló los fallos y errores de la red

‘Código roto’: la zona oscura de Facebook

El periodista estadounidense Jeff Horwitz | Editorial Planeta de Libros.

Más de 25.000 páginas de documentación interna proporcionadas por una exempleada arrepentida, sumado a más de 60 entrevistas que incluyen a los más altos ejecutivos, constituyen la robusta base documental del libro que narra con exquisito detalle el escándalo conocido como Papeles de Facebook.    

Código roto (Editorial Ariel) es el nombre de la obra y el autor es Jeff Horwitz, el mismo periodista que publicara la investigación allá por octubre de 2021 en el The Wall Street Journal con unas derivaciones inquietantes. Es que no solo se repasa el modo en que los usuarios de Facebook se encuentran a merced de una real experimentación de ingeniería social que es planificada y, a la vez, peligrosamente improvisada; sino que también se expone el modo en que, una y otra vez, Facebook fue, como mínimo, negligente, al momento de enfrentar las consecuencias de su dinámica expansiva.  

El origen de la investigación de Horwitz probablemente haya sido una pregunta que todos nos hemos hecho alguna vez: ¿cómo determinan los algoritmos qué mensajes priorizar o qué nuevos perfiles de usuarios agregar? Aleatorio no es. Entonces, ¿quién lo decide y con qué fines? Por último, ¿tienen razón aquellos que acusan a Facebook de fomentar la polarización de nuestras sociedades? En otras palabras, ¿es Facebook un simple canal neutral de comunicación entre personas donde se expone lo mejor y lo peor de la naturaleza humana o hay algo inherente al diseño y al plan de negocios de la compañía que estimula determinadas pasiones? 

Con la intención de responder a esos interrogantes digamos, por lo pronto, que la filtración arrojó, entre otras cosas, que a través de la plataforma se facilitó el tráfico de mujeres con fines laborales y/o sexuales en el Golfo Pérsico; se promovió la limpieza étnica contra musulmanes tanto en Birmania como en la India y se desinformó acerca de la vacuna contra la covid-19, entre otras cosas. 

Una vez más, este listado puede hablar simplemente de la naturaleza humana y del uso de una herramienta. Sin embargo, la conclusión del libro es clara: Facebook conocía perfectamente estos hechos y actuó con mayor o menor énfasis para dar cuenta de ello siempre y cuando esas acciones no afectaran la dinámica expansiva de la plataforma.

Contenidos radicales y violentos

Como se ve, la investigación tiene muchas aristas, pero Horwitz hace especial hincapié en XCheck, un programa de Facebook a través del cual se le daba un trato preferencial a usuarios VIP de todo el mundo. Se trataba de una salida para un gran dilema: Mark Zuckerberg quiso ser siempre un paladín de la libertad de expresión, pero sucesos como los de la India o Birmania lo hicieron tomar conciencia de que, a veces, era necesario bloquear contenido. Efectivamente, las redes sociales podían generar una revolución liberal como la primavera árabe, pero también ser el canal a través del cual se difundieran bulos para legitimar genocidios. Entonces era necesario actuar. Por ello se establecieron criterios razonables para impedir contenido que fomentara la violencia, el racismo, la trata de personas, la pornografía infantil, etc. Sin embargo, como no se disponía de recursos técnicos ni humanos para controlar todas las publicaciones y, al mismo tiempo, se generaría gran escándalo en caso de que se censuraran cuentas con muchos seguidores, se decidió que unos siete millones de personas en el mundo, políticos, influencers, famosos, etc., serían inmunes a la censura que le cabría a cualquier usuario que incumpliera las normas. «Facebook Casta» podría haber sido el nombre del nuevo programa.  

Pero esto es menor al lado del modo en que se descubrió que Facebook modificó el algoritmo de modo tal que acabó fomentando la proliferación de opciones radicales y violentas.  

Efectivamente, ahora se animaba a los usuarios a hacer clic sobre contenido de gente que no conocen, como así también se les sugería formar parte de grupos con presuntos intereses comunes. Ya en 2016 Facebook sabía que esto generaba interacciones y más usuarios, pero era, a su vez, echar fuego hacia grupos fanáticos proclives a difundir noticias falsas. Sin embargo, en 2020, hicieron muy poco para impedir que Facebook sugiriera participar en algunos de los grupos de QAnon, aquellos que estuvieron implicados en la toma del Capitolio. Para tener una idea de lo que la plataforma permite, un solo usuario envió, a lo largo de seis meses, 400.000 mil invitaciones a participar en esos grupos. Aunque la violencia, el odio y la información falsa podrían haberse mitigado restringiendo las posibilidades de compartir contenido mediante enlaces, como sucede en Instagram, Facebook, al igual que Bartleby, prefirió no hacerlo.

En esta misma línea, los esfuerzos fueron escasos para revertir aquello que denunciara Eli Pariser en una ya mítica charla TED que resultó viral y luego devino libro. Lo que el autor advierte es que Facebook está sesgando la información que recibimos. Por ejemplo, si eres progresista, el algoritmo te muestra las noticias que coinciden con ese ideario y suprime las entradas de signo contrario.

El sesgo de los algoritmos

Para reforzar este punto, Pariser hizo una prueba bastante simple, pero, en este caso, con Google. Le pidió a dos amigos que escribieran «Egipto» en el motor de búsqueda. Frente a la opinión intuitiva que suponía que el resultado sería el mismo para los dos, el algoritmo había filtrado automáticamente las noticias que, presumía, podían interesarle más a cada uno. Así, a uno de ellos, activista, le ofreció información sobre las últimas protestas en aquel país, pero, al otro, mucho menos politizado, le ofreció paquetes turísticos para visitar las pirámides. La prueba estaba a la vista: los algoritmos, en su afán de generar interacciones, Me gustas y dopamina, nos conectan con audiencias redundantes que se retroalimentan. Nada bueno puede salir de allí.  

Al condicionamiento del negocio se le debe agregar, a su vez, la ya mencionada improvisación negligente. Para graficarlo con algunos números, antes de bloquear a los 150.000 usuarios que desinformaban sobre la vacuna contra la covid-19, notaron que el 5% generaba la mitad de las publicaciones y que solamente 1.400 eran responsables de invitar a la mitad de los miembros de esos grupos. De haber actuado de otra manera, se hubiera evitado que los usuarios de lengua inglesa recibieran unos 775 millones de veces al día comentarios escépticos respecto a la efectividad de la vacuna; algo similar sucedió respecto a la incidencia de los rusos, especialmente en el marco de las elecciones de 2016, a pesar de que estos últimos hicieron 126 millones de publicaciones. 

En esta misma línea, tragicómico es lo sucedido en Birmania: no pudieron hacer nada para frenar la espiral genocida porque no contrataron a nadie que hablara la lengua local, de modo que los mensajes de odio o los llamados a masacres no fueron detectados porque el algoritmo es bueno para vender cosas y generar cámaras de eco que confirman nuestros prejuicios, pero no es políglota. Por último, una empresa que para 2022 había llegado a un pico de más de 80.000 empleados, solo tenía un equipo de seis personas en todo el mundo dedicado a controlar la compra y venta de personas a través de su plataforma con fines de explotación laboral y/o sexual, o, incluso, la venta de órganos.

Un 20% de basura

Para que se comprenda la magnitud del problema que Facebook no quiere/no puede controlar, tengamos en cuenta algunos números más: la desnudez prohibida solo abarca el 0,05% de las publicaciones visualizadas y los discursos de odio el 0,2%. Sin embargo, si se incluyen casos fronterizos, el número sube a 10% y si se agregan ciberanzuelos, e información falsa y engañosa, el número escala a cerca del 20%, es decir, una de cada cinco publicaciones es mierda. Una verdadera cloaca. 

TO Store
Código roto
Jeff Horwitz
Compra este libro

Como les indicaba al principio, el libro de Horwitz tuvo como principal protagonista a una exempleada, Frances Haugen, que se ocupó durante meses de copiar todos los documentos posibles con el fin de denunciar lo que ocurría dentro de la empresa.

Curiosamente, en la última búsqueda de información que hizo antes de renunciar, escribió: «No odio a Facebook. Me encanta Facebook. Quiero salvarlo». Luego pulsó Enter y apagó el ordenador. 

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D