THE OBJECTIVE
Lifestyle

La inteligencia artificial que detecta si eres homosexual con una foto

¿Está depilado y se maquilla? ¿Está obsesionada con el fútbol y lleva camisas de franela a cuadros? Ciertos estereotipos más o menos acertados permiten, a ojo de buen cubero, advertir si alguien del entorno es homosexual. Pero esta sabiduría callejera se ha quedado en la cuneta con la publicación de de un estudio que expone que un programa informático que utiliza técnicas de reconocimiento facial puede deducir la sexualidad de una persona con solo una fotografía. Se trata de una inteligencia artificial que utiliza algoritmos matemáticos que permiten reconocer ciertos rasgos faciales. El estudio, de la Universidad de Stanford, en California, Estados Unidos, se ha publicado en la revista científica Journal of Personality and Social Psychology.

La inteligencia artificial que detecta si eres homosexual con una foto

Reuters

¿Está depilado y se maquilla? ¿Está obsesionada con el fútbol y lleva el pelo corto? Ciertos estereotipos más o menos afortunados pueden permitir, a ojo de buen cubero, advertir si alguien es homosexual. Pero esta sabiduría callejera se ha quedado en la cuneta con la publicación de un estudio que expone que una herramienta de inteligencia artificial que utiliza técnicas de reconocimiento facial puede deducir si una persona es homosexual con solo una fotografía. Se trata de un programa informático que utiliza algoritmos que permiten reconocer ciertos rasgos faciales. El trabajo, elaborado por los investigadores Michal Kosinksi y Yilun Wang, de la Universidad de Stanford, en Estados Unidos, se ha publicado en el Journal of Personality and Social Psychology.

El programa, que no ha sido desarrollado por los científicos que firman el análisis -solamente lo utilizaron-, fue capaz de predecir con relativa precisión la homosexualidad de más de 35.000 personas utilizando fotos de perfil de una página de citas estadounidense. Con ver una sola imagen, la herramienta acertó en el 81% de los hombres y en el 74% de las mujeres. Con cinco fotos de cada persona, el programa acertó en un 91% de los casos masculinos y un 83% de los casos femeninos. Los humanos hacen un trabajo mucho peor a la hora de adivinar sexualidades ajenas, según el estudio. Cuando los investigadores pidieron a un grupo de personas que hicieran la misma tarea, con una sola fotografía, el resultado fue de un 61% de aciertos en el caso de los hombres y de un 54% de aciertos en el caso de las mujeres.

Diferencia fisiológica entre homosexuales y heterosexuales

Existen «rasgos faciales transitorios», según los científicos que firman el proyecto, como distintos estilos de cuidado personal (dejarse barba o afeitarse, llevar el pelo corto o largo…) que distinguen a los homosexuales de los heterosexuales. Pero los investigadores también han encontrado también rasgos faciales «fijos». En el caso de los hombres, los homosexuales tienen, según el estudio, «mandíbulas y mentones más pequeños, cejas más finas y frentes más grandes» que los heterosexuales. En el caso de las mujeres, las homosexuales tienen los rasgos opuestos.

El trabajo pone sobre la mesa el debate sobre el origen de la orientación sexual. ¿Es innata o adquirida? Actualmente, el consenso científico general es que la sexualidad es producto de una combinación de ambos factores, pero no existen pruebas concluyentes.

Dilema ético

«Estos descubrimientos hacen avanzar nuestra comprensión sobre los orígenes de la orientación sexual y los límites de la percepción humana», consideran Kosinki y Yilun. Pero también presentan un problema: que alguien pueda utilizar esta tecnología para invadir la privacidad ajena. ¿Y si un marido receloso utilizara esta inteligencia artificial con una foto de su mujer, sospechando que es lesbiana? ¿Y si esa misma mujer la utilizara con su hijo adolescente para intentar corregir su orientación si resulta ser gay? ¿Y si ese mismo adolescente la utilizara con algún compañero de clase para hacerle bullying? Pero aparte de conflictos más o menos cotidianos, hay un dilema ético mayor, que los propios investigadores reconocen: «Dado que empresas y gobiernos están utilizando cada vez más los algoritmos de visión informática para detectar rasgos íntimos de la gente, nuestros descubrimientos exponen una amenaza para la intimidad y seguridad de hombres y mujeres homosexuales».

Es lo que preocupa a diversas organizaciones LGTB estadounidenses, que han criticado duramente la publicación del estudio. Este martes, la Campaña por los Derechos Humanos (HRC, por sus siglas en inglés) y la Alianza de Gays y Lesbianas contra la Difamación (GLAAD), han emitido un comunicado en el que exponen distintos motivos por los que desacreditan la investigación. Son los siguientes:

  • «El estudio no tuvo en cuenta individuos no blancos
  • El estudio no verificó de forma independiente información crucial, incluyendo edad y orientación sexual, y le dio valor a información que aparece en perfiles de citas online
  • El estudio asumió que no había diferencia entre orientación sexual y actividad sexual, lo cual es incorrecto
  • El estudio asumió que solo había dos orientaciones sexuales -homosexual y heterosexual- y no tiene en cuenta a los individuos bisexuales
  • La investigación expone: ‘Fuera del laboratorio, la tasa de precisión podría ser mucho más baja’ (el laboratorio = ciertas páginas de citas) y es 10 puntos menos preciso para las mujeres
  • El estudio dice detectar a hombres gays a partir de una piscina de fotos de webs de citas con una precisión del 81%. Aunque esto fuera cierto dados los errores arriba mencionados, todavía significa que los hombres heterosexuales, por lo tanto, podrían ser identificados como gays cerca del 20% de las veces
  • El estudio revisó características superficiales en las fotos de hombres y mujeres heterosexuales en webs de citas, como el peso, el peinado y la expresión facial»

Sin embargo, GLAAD le da la suficiente credibilidad como para «aplaudir» la decisión de la Universidad de Stanford de someter el estudio a una «revisión ética» tras el revuelo generado por el posible uso negligente de esta tecnología. A fin de cuentas, la policía para e incluso dice que mata en función de la raza del individuo. ¿Qué ocurriría si utilizara esta herramienta la policía de Chechenia, donde se ha denunciado la existencia de campos de concentración para homosexuales?

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D