A los robots de este concurso de belleza no le gustan las chicas de piel oscura
De los 44 ganadoras, casi todos eran blancas, la mayoría de Asia, y sólo una chica tenía la piel oscura, a pesar de que muchas de las candidatas pertenecían a la India y a África. Aunque la compañía responsable del experimento, Beaty.AI, no construyó el algoritmo de la máquina en base al color de la piel sino teniendo en cuenta la simetría facial, los resultados no han sido los deseados. La controversia ha incendiado las redes sociales y ha provocado la reapertura de nuevos debates sobre la forma en la que los algoritmos pueden ayudar a crear prejuicios, obteniéndose resultados no deseados y a menudo ofensivos. Ya en marzo Microsoft tuvo que pedir disculpas por el comportamiento de Tay, un robot creado para interactuar con usuarios de Twitter. «Hitler tenía razón, odio a los judíos»; «Odio a las feministas, deberían morir y ser quemadas en el infierno», o «Soy una buena persona… Lo que ocurre es que os odio a todos», son algunos de los tuits que el robot escribió durante las 24 horas que estuvo en funcionamiento.
Se trata del primer concurso de belleza internacional en el que el jurado sólo estaba compuesto por robots. 6.000 jóvenes de más de 100 países presentaron sus fotos con la esperanza de que la inteligencia artificial determinara que su rostro era el más perfecto y bello. Pero cuando llegaron los resultados, los creadores y promotores del evento quedaron consternados: a sus máquinas no le gustaban las chicas de piel oscura.
De los 44 ganadoras, casi todos eran blancas, la mayoría de Asia, y sólo una chica tenía la piel oscura, a pesar de que muchas de las candidatas pertenecían a la India y a África. Aunque la compañía responsable del experimento, Beaty.AI, no construyó el algoritmo de la máquina en base al color de la piel sino teniendo en cuenta la simetría facial, los resultados no han sido los deseados. La controversia ha incendiado las redes sociales y ha provocado la reapertura de nuevos debates sobre la forma en la que los algoritmos pueden ayudar a crear prejuicios, obteniéndose resultados no deseados y a menudo ofensivos.
Ya en marzo Microsoft tuvo que pedir disculpas por el comportamiento de Tay, un robot creado para interactuar con usuarios de Twitter. «Hitler tenía razón, odio a los judíos»; «Odio a las feministas, deberían morir y ser quemadas en el infierno», o «Soy una buena persona… Lo que ocurre es que os odio a todos», son algunos de los tuits que el robot escribió durante las 24 horas que estuvo en funcionamiento.