Cuanto más confiamos en la inteligencia artificial, menos aprendemos con ella
La confianza que depositamos en la IA cambia mucho respecto de cómo utilizamos otras herramientas tecnológicas

Ordenador.
La irrupción de la inteligencia artificial (IA) generativa está cambiando cómo nos relacionamos con la tecnología. Un sistema con IA puede devolvernos un resultado inadecuado sin estar rota o sin que la estemos empleando de manera inadecuada. Simplemente puede «equivocarse» y, como haríamos con un humano, tenemos la opción de corregirle.
Esta posibilidad hace que la confianza que depositamos en la inteligencia artificial y la forma de emplearla cambien sustancialmente respecto de cómo utilizamos otras herramientas tecnológicas donde suele estar mucho más claro si se ha producido algún error. Los sistemas con IA nos obligan a plantearnos si están funcionando mal y verificar los resultados que nos van ofreciendo.
Esta diferencia afecta muy directamente al sector educativo, tanto a profesores como a alumnos. En este ámbito, las posibilidades de la IA van desde usarla para aprender mejor hasta un uso contraproducente para el aprendizaje. Y la confianza que depositamos en ella está estrechamente relacionada con cada una de estas dos opciones.
Tecnología y confianza: una relación modificada
La confianza es un factor esencial en el uso de la tecnología. Mientras que el exceso de confianza puede generar dependencia y quedar expuesto cuando esa tecnología falla (o se «equivoca»), la falta de confianza puede llevar a un uso ineficiente o incluso a rechazar frontalmente su utilización. En el contexto educativo es menos problemático lo segundo que lo primero: la desconfianza impulsaría al alumno a comprobar que la información obtenida es correcta, lo que debería resultar positivo para su aprendizaje.
Para comprobar si esto es así, he investigado en qué medida los estudiantes universitarios confían en la información proporcionada por la inteligencia artificial y cómo la comprueban.
Los resultados del estudio muestran que casi el 80 % de los 132 estudiantes participantes la usan frecuente o muy frecuentemente. Ni uno solo de ellos afirmó no haber utilizado nunca esta herramienta con fines académicos.
Autopercepción frente a realidad
Más del 75 % de los estudiantes utilizan métodos considerados poco fiables para comprobar los resultados ofrecidos. En torno al 40 % ni siquiera realiza acciones básicas como solicitar las fuentes en las que se basa la respuesta. Algo particularmente preocupante teniendo en cuenta que más del 75 % admite que las herramientas de inteligencia artificial proporcionan respuestas inadecuadas algunas veces o muy frecuentemente.
Pero lo más interesante es que la inmensa mayoría (más del 90 % de los encuestados) se considera capaz de identificar respuestas inadecuadas al menos ocasionalmente, y ninguno informó ser incapaz de hacerlo. En cambio, perciben que los profesores no son capaces de detectar tales errores.
Subjetividad irracional
La mayor parte de las universidades están impulsando el uso de la IA con formaciones específicas tanto para docentes como para los estudiantes. Por ejemplo, la Universidad Camilo José Cela, donde enseño e investigo, está haciendo un notable esfuerzo que va desde formación continua hasta la organización de grandes eventos como el Global Education Forum o la financiación de investigaciones como la que nos ocupa.
Pero un elevado número de alumnos desconfía de las herramientas de inteligencia artificial de pago proporcionadas por la universidad porque les preocupa ver comprometida su privacidad. Creen que la universidad puede tener acceso a sus consultas y saber si han empleado la IA de manera inadecuada.
Nuestro estudio evidencia un grado de subjetividad irracional por parte de los alumnos, que nos indica que el uso que se hace de esta herramienta no es el adecuado. Esto es así en cuanto a la verificación de la información, pero también respecto de cuáles son las herramientas más adecuadas para el uso académico y cómo emplearlas. Muchos docentes observamos en el día a día cómo los alumnos ni siquiera son conscientes de estar empleándola mal en su proceso de aprendizaje.
A más confianza, peor aprendizaje
La inteligencia artificial es útil para completar las tareas académicas, pero esto no implica necesariamente que lo sean para aprender. Cuando los alumnos confían en las respuestas proporcionadas por la IA y no comprueban sus indicaciones, el aprendizaje no puede ser el mismo.
Este exceso de confianza en la IA dificulta su uso como herramienta de aprendizaje, pues no actúa el pensamiento crítico ni la metacognición: los procesos mentales en funcionamiento cuando necesitamos resolver un problema. Paradójicamente, gran parte del tiempo que los estudiantes se «ahorran» en estas tareas lo dedican a eliminar posibilidades de ser detectados en su uso de la IA.
Aunque la utilización de la IA pueda ser clave para su desempeño laboral, los estudiantes necesitan aprender a usarla como herramienta de aprendizaje, algo distinto de su hipotético uso en el ámbito profesional. Queda, por tanto, un largo camino para conseguir que la IA se integre de forma eficiente en el contexto educativo, y los estudios de este tipo son necesarios para ir tomando el pulso e ir adoptando las medidas necesarias.
David Martín Moncunill, Profesor Investigador en Interacción con IA, Universidad Camilo José Cela
Este artículo fue publicado originalmente en The Conversation. Lea el original.
