The Objective
Sociedad

Chatbots en vez de psicólogos: los jóvenes europeos usan la IA como terapia

Una encuesta en varios países revela que el 28% cumple los criterios diagnósticos de un trastorno de ansiedad

Chatbots en vez de psicólogos: los jóvenes europeos usan la IA como terapia

Una joven utilizando su teléfono móvil. | Magnific

Los jóvenes hacen un uso cada vez más diverso y extendido de los chatbots de inteligencia artificial (IA). Además de buscar información o entretenimiento, empiezan a entablar conversaciones con esos programas como apoyo emocional. Según una encuesta realizada por Ipsos BVA, difundida por la agencia Reuters, casi uno de cada dos jóvenes en Europa ha utilizado estos sistemas para hablar de asuntos íntimos o personales.

El sondeo, encargado por la Comisión Nacional de Informática y Libertades —la autoridad independiente de Francia encargada de proteger los datos personales y garantizar las libertades individuales en el entorno digital— y la aseguradora Groupe VYV, se llevó a cabo mediante el cuestionario a 3.800 personas con edades comprendidas entre los 11 y 25 años en Francia, Alemania, Suecia e Irlanda a principios de 2026. El resultado reveló una elevada incidencia de malestar psicológico en este grupo de edad: el 28% de los encuestados cumplía los criterios para un posible trastorno de ansiedad generalizada.

Un chatbot es un programa informático diseñado para mantener una conversación con personas simulando el intercambio comunicativo humano. Del total de los encuestados, el 51% aseguró que era «fácil» conversar de salud mental y problemas personales con un chatbot. Sin embargo, al plantear la misma cuestión respecto a los profesionales sanitarios y los psicólogos, el porcentaje disminuyó al 49% y al 37%, respectivamente. Con todo, una mayoría sustancial de los encuestados se sentía más cómoda hablando de sus problemas con amigos (68%) y con los padres (61%).

En relación con el uso de la inteligencia artificial, alrededor del 90% de los encuestados afirmó haber utilizado alguna herramienta de IA. Entre sus principales ventajas, los usuarios destacaron su disponibilidad permanente y su aparente imparcialidad. En este contexto, tres de cada cinco jóvenes que utilizan esta tecnología la describen como un «asesor vital» o incluso como un «confidente». No obstante, estos registros eran de esperar. Según los datos más recientes de Eurostat, el 64% de los jóvenes de entre 16 y 24 años utilizaban IA el pasado año. Además, el porcentaje es incluso mayor en algunos países y para algunos usos concretos, como es el caso de España, que el pasado año encabezó el listado de territorios por el uso de la IA generativa con fines educativos en los jóvenes, con un 59% (20 puntos por encima de la media del bloque comunitario).

Ludwig Franke Föyen, psicólogo e investigador de salud digital en el Instituto Karolinska de Estocolmo, aseguró en declaraciones a Reuters que el uso de la inteligencia artificial es normal, ya que estos modelos pueden producir respuestas de alta calidad. Sin embargo, advirtió de que el problema se encuentra en el uso de los chatbots como única herramienta de apoyo emocional. «La IA puede ofrecer información y apoyo, pero no debe sustituir las relaciones humanas ni la atención profesional», indicó. «Si alguien recurre a un chatbot en lugar de hablar con un padre, un amigo o un profesional de la salud mental, eso es preocupante. No queremos que la tecnología haga que la gente se sienta más sola», zanjó.

Excesivamente complacientes

Hace apenas unos meses, un estudio realizado por investigadores de la Universidad de Stanford alertaba de que los chatbots resultan excesivamente complacientes, es decir, son tan propensos a halagar y validar a los usuarios que, en algunas ocasiones, dan consejos malos que pueden llegar a dañar relaciones y/o reforzar comportamientos perjudiciales. A pesar de ello, el problema no radica solo en ello, sino en que las personas confían más en la IA y la prefieren cuando justifica sus convicciones. Según la investigación, los chatbots validan las acciones de los usuarios un 49% más a menudo de lo que lo harían otros humanos, incluso en consultas relacionadas con el engaño y la conducta ilegal o socialmente irresponsable.

Uno de los autores del estudio, Cinoo Lee, explicó a la agencia Associated Press que observaron que las personas que, tras su interacción con este tipo de IA, recibían demasiadas respuestas afirmativas, terminaban más convencidas de que tenían razón y menos dispuestas a cambiar su actitud. Además, apuntó que las implicaciones de la investigación podrían ser «aún más importantes para los niños y adolescentes», ya que todavía están en desarrollo de las habilidades emocionales que provienen de experiencias de la vida real con la fricción social, la tolerancia al conflicto, la consideración de otras perspectivas y el reconocimiento de los propios errores.

Publicidad