The Objective
Publicidad
Análisis

Los algoritmos no son tan listos como cree… pero tampoco se confíe

No trabajan mejor que los humanos ni son una amenaza para la democracia, pero están progresando y sería una imprudencia dejar las manos libres a quienes los desarrollan

Los algoritmos no son tan listos como cree… pero tampoco se confíe

Markus Spiske | Unsplash

La primera vez que escuché la historia fue en octubre de 2013, durante una visita al DLD Festival, un certamen israelí de startups. El CEO de una compañía de realidad aumentada nos explicó cómo una cadena de distribución se había enterado de que una adolescente estaba embarazada antes que su familia. Tim Harford recoge la anécdota en 10 reglas para comprender el mundo. «Un hombre», relata, «entró hecho una furia en una tienda Target de Mineápolis y se quejó al encargado de que le estaban enviando a su hija cupones para ropa de bebé y premamá». El encargado «se disculpó todo lo que pudo», pero los directivos no consideraron que fuera suficiente y uno de ellos volvió a telefonear al padre. Entonces este le reconoció que la niña estaba efectivamente en estado y no había dicho nada en casa.

La capacidad adivinatoria de Target no es magia, sino producto de un análisis exhaustivo de los datos y el CEO de la startup de realidad aumentada estaba muy molesto porque los europeos estábamos dificultando su explotación. Él mismo había debido mudarse a Israel por lo pesados que estaban poniéndose con la privacidad los alemanes.

Motivos no les faltaban, como se comprobó a los dos años, cuando The Guardian desveló que un candidato republicano a la Casa Blanca había empleado en su campaña información de millones de usuarios de Facebook recabada sin su consentimiento por la consultora Cambridge Analytica. Poco después, en 2016, Cathy O’Neil denunciaba en Armas de destrucción matemática que los algoritmos «amenazan la democracia» y, como para darle la razón, en noviembre de ese año Donald Trump ganaba las elecciones contra todo pronóstico gracias al asesoramiento de Cambridge Analytica.

«Los datos son nuestra nueva electricidad», argumentaba Christopher Wylie, un exempleado arrepentido de la consultora. «No puedes encontrar trabajo si no tienes LinkedIn. No puedes licenciarte si no usas Google. No puedes avanzar en la vida sin ellos». Y ese rastro que dejamos inadvertidamente en el ciberespacio con nuestros tuits, nuestras búsquedas, nuestros correos y nuestros like son oro líquido para quienes desean que compremos su ropa premamá o sus votos.

¿Somos marionetas en manos de las grandes tecnológicas?

Meteduras de pata

«Empecemos por rebajar las expectativas», aconseja Harford. «Conseguir que los macrodatos funcionen es más difícil de lo que parece». Dan Lyons cuenta que en Hubspot se quedaron en un momento dado sin ideas para las entradas de su blog e idearon un software que las creaba: el blog themes generator o BTG. Metías tres palabras clave y te devolvía tres titulares. El problema fue que la programadora tenía fijación con Miley Cirus y las listas de BuzzFeed («Quince razones para», «Siete maneras de») y no tardaron en obtener resultados ridículos. Una clienta que llevaba la página de un hospital se quejó de que había recurrido al BTG para que le sugiriera asuntos con vistas al Mes de Concienciación sobre el Cáncer de Cérvix y le había devuelto estas perlas: «Por qué nos encanta el cáncer de cérvix (¡y a ti también te debería gustar!)» y «Miley Cyrus y el cáncer de cérvix: 10 cosas que tienen en común».

Amazon debió asimismo revisar su web porque, cuando te interesabas por ciertas sustancias químicas, en el apartado «Comprados juntos habitualmente» te indicaban amablemente el resto de ingredientes que necesitabas para fabricar una bomba.

Ni siquiera la ejecutoria del Gran Titiritero que supuestamente es Facebook está exenta de meteduras de pata. Tienen un algoritmo de fin de año que crea vídeos con fotos colgadas por los propios usuarios, pero lo que debía ser un simpático detalle navideño se convirtió en un recordatorio infausto para un tal James, al que remitieron una imagen de su piso en llamas y una leyenda que decía entre alegres estrellitas: «¡Así es como te fue el año!»

Supuestos aciertos

«De acuerdo», me dirán, «a veces hay fallos, pero ¿qué me dice de la anécdota de la embarazada de Target o de los enjuagues de Cambridge Analytica? ¿No le dan miedo?»

A simple vista, lo de Target parece efectivamente vudú. Pero, advierte Harford, «plateémonos un instante cuán difícil es averiguar que una adolescente se encuentra en estado a partir de sus hábitos de compra: no demasiado». El Servicio Nacional de Salud recomienda que se tome un suplemento de ácido fólico durante la gestación. «Teniendo esto en cuenta, ¿a qué conclusión llegaría si le dijeran que una joven ha empezado a tomar ácido fólico? […] El algoritmo de Target no suponía un salto lógico sobrehumano».

Piensen, además, que no nos llegan las historias de todas las mujeres que reciben cupones para ropa premamá y no están embarazadas. No es lo mismo acertar una de una que una de cien. Es como el vídeo del ilusionista que lanza una moneda al aire y obtiene cara diez veces seguidas. Si eso es todo lo que vemos, pensaremos que es un prodigio. Pero si luego nos revela que ha estado grabando durante nueve horas hasta lograrlo, la magia se esfuma.

En cuanto a Cambridge Analytica, Matthew Hindman, un profesor de la Universidad George Washington que estudia aprendizaje de máquinas, envió un correo a Aleksandr Kogan, el científico responsable del algoritmo de la consultora que cambió el curso de las presidenciales. Kogan no fue muy explícito, pero Hindman pudo determinar que «trabajaba de forma similar al que Netflix emplea para hacer sus recomendaciones», cuyo rendimiento es manifiestamente mejorable, como sabe cualquier suscriptor del servicio de streaming. «El modelo», dice Hindman, «dista mucho de ser la bola de cristal que algunos afirman». Como declaró ante el Comité Judicial del Senado el politólogo Eitan Hersh: «No se ha aportado ninguna evidencia de que los perfiles [de Cambridge Analytica] fueran efectivos». Y añadió: «Probablemente nadie de esta sala ni ningún conocido de nadie de esta sala cambiara su opinión como consecuencia de un anuncio de campaña en las elecciones de 2016».

¿No sirven para nada los algoritmos? En absoluto. Permiten mecanizar tareas que hasta ahora eran coto vedado de los humanos. Malcolm Gladwell cuenta que, a la hora de decidir sobre la fianza de un acusado, los jueces de carne y hueso dejan ir a muchos más reincidentes que un sencillo programa. Y un estudio británico desveló en 2008 que las tasas de detección de cáncer de mama mediante ordenador eran similares a las de dos radiólogos.

«Debemos ser escépticos tanto respecto al entusiasmo como a la histeria», dice Harford. Los algoritmos aún no trabajan mejor que nosotros ni son una amenaza para la democracia, pero han ido progresando y sería una imprudencia dejar las manos libres a quienes los desarrollan, como pretendía el CEO de aquella startup de realidad aumentada en el DLD Festival.

Envía el primer comentario
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D