Centauros del campus. Asombros y paradojas de la IA
«El CEO de Anthropic dibuja una fase de ‘centauros’: seres humanos que ya no podremos sino cabalgar a lomos de las aplicaciones de la inteligencia artificial»

Imagen generada con IA.
Esta semana me correspondía analizar con mis estudiantes de la asignatura de Argumentación Jurídica —una materia que se imparte en el segundo curso del Grado en Derecho— la sentencia del Tribunal Constitucional 11/2016. Se trata de la resolución de un recurso de amparo de una mujer a la que, tras haber abortado voluntaria y legalmente, le es negada la posibilidad de incinerar al feto en una ceremonia íntima, porque, invocando una normativa no concluyente, los fetos de menos de 180 días de gestación no deben ser incinerados: ¿qué es una laguna?, ¿cuál es el alcance del derecho a la intimidad en la jurisprudencia del Tribunal Europeo de Derechos Humanos?, ¿qué es un argumento contrario censo?, ¿qué significa tratar igual casos iguales y cómo ese principio opera en este supuesto? Esas y otras tantas cuestiones de relevancia serían objeto de nuestro análisis a partir del caso.
Le pedí a Claude, la aplicación de Anthropic, que, a partir de mis notas sobre la sentencia (un documento de ocho folios), me hiciera unas cuantas diapositivas para llevar el hilo del seminario. Las hizo en menos de dos minutos y dudo si yo las hubiera hecho mejor o más vistosas. Tampoco estoy seguro de que, de haberle proporcionado la sentencia directamente, Claude no me hubiera hecho unas notas mejores.
Tras la clase, una estudiante me comentó que en pocos minutos había generado un podcast a partir de mis diapositivas utilizando Notebook de Google. Ante mi sorpresa, me explicó que se trata de una conversación en la que dos voces virtuales conversan animadamente sobre el caso. De ese modo repasa la materia escuchando ese podcast con sus auriculares en el gimnasio o mientras viene al campus en tren. Se puede hacer en cualquier idioma, lo cual les viene muy bien a los estudiantes Erasmus. Luego, ChatGPT le proporciona innumerables modelos de exámenes de opción múltiple para poner a prueba sus conocimientos.
Una amiga que estudia Medicina, me comentó, utiliza Suno, la IA generativa de creación de música más popular (y controvertida, por sus impactos ya perceptibles en la industria musical), para componer canciones de rap en las que las letras son listas de fármacos y de esa forma los memoriza mejor. «Y le pone una voz como la de Kanye West», remacha. ¿No seguía usted reglas nemotécnicas para aprenderse los ríos y sus afluentes, o capitales de provincia o los gases nobles de la tabla periódica? Pues eso… Pero mucho mejor.
Hace poco más de un mes, Matt Shumer, un programador de inteligencia artificial e inversor neoyorquino, lanzó un sopapo viral en la forma de un artículo —Something big is happening— que se cuenta entre los más leídos en la historia de X y en el que pronostica la desaparición a muy corto plazo de una ingente cantidad de puestos de trabajo de «cuello blanco» dados los avances de la inteligencia artificial generativa.
«La asistencia que brindan aplicaciones de IA proyecta una alargadísima sombra sobre el destino de muchísimas profesiones»
Recientemente, la autoridad regulatoria británica Solicitors Regulation Authority (SRA) ha autorizado a LawFairy para operar en el tráfico jurídico como plataforma de asesoría jurídica plenamente automatizada mediante inteligencia artificial. Cierto: su operativa se circunscribe a aquellas áreas de la práctica jurídica plenamente regladas, allí donde el Derecho puede operar de modo puramente algorítmico, cuando lo que la norma jurídica o conjunto de normas jurídicas disponen está casi plenamente determinado. Sabemos que el Derecho y la práctica jurídica son mucho más que eso, pero ¿cuántas gestorías o despachos de abogados dedicados fundamentalmente a ese tipo de rutinaria y reglada práctica no deberían empezar a poner sus barbas a remojar?
Sea lo de Shumer una oblicua estrategia de puro marketing, un muy exagerado diagnóstico sobre lo cerca que se está de que ya no haya necesidad de programadores humanos o de lograr una «inteligencia artificial general» que entiende, como han destacado especialistas diversos, lo cierto es que la asistencia que brindan aplicaciones como las anteriormente apuntadas —más otras como el célebre ChatGPT— proyectan una alargadísima sombra sobre el destino de muchísimas profesiones no manuales y la evidente reemplazabilidad que, no ya mañana, sino hoy mismo, tienen miles y miles de «asistentes humanos» en tareas tales como, sin ánimo exhaustivo, redactar contratos, demandas, informes o dictámenes; localizar fuentes relevantes para el análisis jurídico, quien sabe si redactar borradores de sentencias o… ejercer tareas docentes.
Si, más allá del bullshit autocomplaciente y onanista al que acostumbramos los que estamos en este negociado de la educación superior, admitimos que la misión de la universidad es esencialmente transmitir conocimiento —o «facilitar el aprendizaje», como señalan más campanudos los «expertos en pedagogía»— o adquirir ciertas destrezas; lo que también en el ámbito académico nos tenemos hoy que preguntar es cuántos de nosotros hacemos hoy falta o seremos necesarios en el futuro.
Tómese una lista de «objetivos de aprendizaje» y admítase que, hoy en día, esa determinación sigue siendo humana —demasiado humana—. Súmese a ese prompting —como se dice en la jerga de la IA— una serie de fuentes básicas —todavía nos es dado suponer que el docente cuenta con mejores indicaciones al respecto— y fíjese un momento para comprobar si se ha aprendido suficientemente. ¿Qué querrá decir entonces «dar clases» a partir de ese momento? Si es que seguirá teniendo algún sentido, no será desde luego el de su tradicional y actual recurrencia: horas y horas en aulas rebosantes de estudiantes a los que, más veces de las apetecibles, hay que mandar callar o que no se distraigan repasando los goles del Madrid en sus pantallas o scrolleando tiktoks supurantes de odio facha.
«¿Qué destino deberán tener entonces los docentes si es que no las universidades mismas?»
¿Quizá reunirse de cuando en cuando para echar un vistazo a los podcast, diapositivas, resúmenes u otros recursos generados por el propio estudiante a partir del material proporcionado y resolver dudas? ¿Y si probamos qué estudiantes obtienen mejores resultados en los exámenes, si quienes han generado sus propios podcast con Notebook y han utilizado masivamente la IA o quienes siguen yendo a «lecciones magistrales» a la vieja o no tan vieja usanza? ¿Qué destino deberán tener entonces los docentes, si es que no las universidades mismas?
Repárese en que, al menos en mi ámbito, bajo este esquema se da la paradoja de que podré tener a mi cargo muchos, muchísimos más estudiantes —usar IA en mi labor docente aumenta mi productividad en un factor colosal—, pero la inmensa mayoría de ellos no podrán competir a la hora de dar sus primeros pasos profesionales con esos Claude, ChatGPT, etc. que ellos han explotado durante sus años de estudio. ¿Para qué estudian tantos, pues?
Pero se me antoja que la paradoja, en este estadio del desarrollo de esta tecnología hipnotizante, es todavía más profunda. Si hacemos caso a quienes más la entienden y dominan, las aplicaciones de inteligencia artificial que usan LLM (modelos extensos de lenguaje) no son más que «loros estocásticos» (la lingüista Emily Bender dixit), es decir, son capaces de «imitarnos» en la generación de textos gracias a su potencia de cálculo predictivo sobre el término que sigue en un enunciado, capacidad predictiva que trae causa de su previo «entrenamiento» a partir de fuentes y recursos en una escala que escapa a la comprensión humana. ¿Pasan el célebre test de Turing? Sin duda. Con nota. ¿Comprenden lo que hacen y dicen? No: el informático Michael John Wooldridge dixit. El corolario asoma: la actividad humana fue la condición necesaria para la emergencia de esta IA y de aquella no cabe prescindir si es que se anhela que siga evolucionando, pero, a la vez, con dicho desarrollo parece difuminarse la necesidad de lo humano.
Es por todo ello por lo que, con feliz imagen, el CEO de Anthropic, Dario Amodei, dibuja una fase de «centauros»: seres humanos que ya no podremos sino cabalgar a lomos de, si es que no fundirnos con, las aplicaciones de la inteligencia artificial.
¿Durante cuánto tiempo?