Los algoritmos guían la selección de personal en las empresas
La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad, pero nada más lejos de la realidad
Desde que abrimos los ojos para despertarnos hasta que se acaba el día estamos constantemente tomando decisiones. Muchas son inconscientes. No las pensamos, simplemente actuamos.
Nuestro cerebro no está dispuesto a gastar energía en cosas tan simples como una primera impresión de una persona o contexto. Por lo general, no pensamos o reflexionamos sobre estas decisiones que tomamos de manera rápida.
La realidad es que estas decisiones impulsivas pueden tener consecuencias negativas, como la discriminación en una entrevista de trabajo.
En psicología decimos que juzgar rápidamente a una persona por su apariencia es como juzgar un libro por su tapa. Es fácil hacerlo, pero puede ser fácil fallar. En los procesos de selección de personal puede estar sucediendo lo mismo, aunque sea un algoritmo el que tome las decisiones.
Tenemos que saber que no tomamos todas las decisiones de manera independiente. La gran mayoría están apoyadas en la tecnología. Esto es así por la economía de esfuerzo. Muchas veces para decisiones complejas hay que manejar un gran volumen de datos, y esto nos genera un gasto de energía importante. La confianza hacia estas tecnologías suele ser ciega: todo lo tecnológico nos da cierta sensación de veracidad.
Pero, ¿cómo es posible que un algoritmo esté sesgado?
El sesgo es una inclinación hacia una persona, cosa o grupo que produce un desequilibrio que perjudica a la otra parte. Estamos sesgados cuando no somos neutros ante una persona, grupo, situación, etc. Eso produce un error.
Estos errores, que se pueden dar en las interpretaciones de diferentes contextos, individuos o información, se pueden ver reflejados tanto en la toma de decisiones humanas como en la inteligencia artificial (IA). Al ser los humanos los que diseñan esta tecnología, es posible que estén reproduciendo datos sesgados o manipulados.
Introducción de la IA en los puestos de trabajo
El razonamiento más común para la introducción de nuevas tecnologías en nuestros trabajos suele ser la objetividad y la eficiencia. Se podría decir que, a nivel social, todo lo tecnológico nos da más seguridad. Ante una tarea compleja, tendemos a fiarnos más de los algoritmos que de nosotros mismos.
Así, el aumento de la utilización de la IA está siendo exponencial. Por ejemplo, en el área de los recursos humanos estas nuevas tecnologías se están aplicando en el reclutamiento y selección del personal, la evaluación del desempeño y desarrollo del personal. Estos recursos están ayudando a la automatización de diferentes tareas que se puede interpretar como eficiencia organizacional.
En el mercado actual tenemos herramientas digitales que nos ayudan a escoger al mejor candidato utilizando una búsqueda semántica automatizada basada en la información escrita por el candidato en su currículum. Pero también teniendo en cuenta el número de palabras técnicas que utiliza en la entrevista o en la conversación que puede llegar a mantener con un chatbot.
Ejemplos de la actuación de los sesgos en la IA
Existen plataformas de búsquedas de empleo que hacen uso de la IA para poder ofrecer un resultado objetivo a la hora de escoger al candidato idóneo para un puesto de trabajo específico.
La realidad es que la selección final que hacen estos algoritmos hacia los candidatos seleccionados está sesgada. Se ha visto que los algoritmos pueden generar discriminación étnica y de género para ofrecer, en el 85 % de los casos, puestos de trabajo de cajera de supermercado a mujeres, o puestos de taxista al 75 % de perfiles afroamericanos.
A su vez, los algoritmos pueden tener en cuenta las tendencias de búsqueda del reclutador y sus interacciones con perfiles específicos. Y, así, recomendar perfiles de empleados con características similares. En estos casos no es una sorpresa encontrarnos con perfiles muy similares a las características personales del reclutador. Por ejemplo, haber estudiado en la misma universidad, ser de la misma etnia, tener un estilo de vida similar, mismo aspecto físico y lugar de residencia.
La explicación se debe a que la IA aprende a tomar decisiones basándose en la reproducción de datos que se pueden apoyar en el aprendizaje de las decisiones humanas. Estas últimas puede que estén sesgadas y, en consecuencia, reflejar disparidades históricas o sociales. A su vez, eliminar algunas variables sensibles como el género, la etnia o la orientación sexual puede llevar a la reproducción de resultados sesgados.
No hay que tener fe ciega en la IA
Se están dando muchos avances en la inteligencia artificial. A raíz de la pandemia, los procesos de e-recruitment (reclutamiento por medios digitales) han experimentado cierto crecimiento apoyado en estas tecnologías.
Se han creado algoritmos que interpretan semánticamente el contenido escrito (carta de recomendación o currículum) o verbal (entrevista por plataformas digitales). Como resultado se ofrece un diagnóstico del candidato (perfil de personalidad, inteligencia) que es determinante para la toma de decisiones en el proceso de selección.
Sin embargo, hay que tener en cuenta que, como sucede en casi toda la tecnología, la parte vulnerable es la persona. Es decir, el algoritmo no falla, pero puede fallar la persona que lo programa. Esto se puede producir por un error humano, por falta de conocimiento psicológico, por influencias externas y por intereses de empresas.
La tecnología nos está ayudando en el campo de los recursos humanos, al igual que en otros como salud, marketing, automoción, sector jurídico y asegurador y banca. Su implementación ha crecido en los últimos años e irá a más.
¿Significa esto que no debemos dejarnos guiar por la inteligencia artificial? Podemos apoyarnos en ella, pero siempre con reservas. Debemos entender que un algoritmo no es un genio mágico y sabelotodo, sino que detrás tiene, como sucedía en El mago de Oz, a una persona imperfecta.
***
Elene Igoa Iraola, Investigadora Predoctoral, Universidad de Deusto y Fernando Díez Ruiz, Profesor doctor Facultad de Educación y Deporte, Universidad de Deusto
Este artículo fue publicado originalmente en The Conversation. Lea el original.