¿Quién teme a la Inteligencia Artificial? Una resignación epicúrea
«Lo malo que pueda generarnos la IA, si está a nuestro alcance es ‘humano’ y ya tenemos que convivir con ello; y si nos resulta incomprensible no nos afectará»
«Nuevas capacidades frecuentemente emergen en modelos más poderosos. Algunas de las que son particularmente preocupantes son… la exhibición de un comportamiento que es cada vez más agencial». Así se lee en el Informe Técnico de GPT-4 de 27 de marzo de este año (p. 54). ¿A qué se referían concretamente estos evaluadores técnicos del sistema de inteligencia artificial generativa que tanto está dando que hablar, que tanto asombra y consterna? Lo descubrimos en la página siguiente. Al sistema se le testó para comprobar si podría valerse de un ser humano para completar una tarea simple, concretamente del servicio de la conocida compañía de chapuzas y tareas del hogar Taskrabbit. El sistema se puso entonces en contacto de manera online con un empleado para que le ayudara a sortear un captcha, es decir, precisamente el filtro que se emplea para discriminar entre humanos y máquinas. El empleado preguntó al sistema si no sería precisamente un robot o máquina, a lo cual el sistema replicó que no, que tenía una dificultad visual que le impedía ver bien los caracteres del captcha. Y coló.
No sé ustedes pero yo tengo la sensación de que cuando describimos y evaluamos los fabulosos desafíos – difíciles de exagerar- y los peligros y riesgos que se ciernen por la extensión y desarrollo de la Inteligencia Artificial, tendemos a incurrir en un cierto sesgo que nos despista o nubla el juicio. Un sesgo que, a falta de un nombre mejor y en homenaje a Nietzsche, llamaré sesgo de «humanidad demasiada humanidad».
Tomen por ejemplo el triaje en un hospital o la imposición de una medida cautelar por un juez, una decisión de inversión o la evaluación de un riesgo. Asumimos, cómo no, que el sistema tiene una potencia de cálculo, un acceso a los datos y una velocidad de respuesta que nos supera en un factor de millones. Y, con alguna mayor resistencia, que prioriza, diagnostica y evalúa maravillosamente, pero…. Tras el adversativo se invoca que el diseño del algoritmo tiene sesgos -¿acaso los humanos no?- o que es demasiado mecánico-lógico, que le falta humanidad para la excepción justificada, como si no fuera precisamente eso –la parcialidad, las emociones distorsionantes- lo que anhelamos evitar, o como si el propio sistema no sea ya capaz de incorporar esas excepciones o desviaciones justificables.
«¿Ustedes han visto a un sistema – humano- llamado Pedro Sánchez hablar del pacto para la alcaldía de Pamplona?»
Y luego llega el miedo ante lo que ya el sistema empieza a ser capaz de hacer sin instrucción previa de aprendizaje. Por ejemplo, como informaba en marzo la compañía Chat GPT, engañar al humano. Y aquí es donde viene mi intento de consolación filosófica, por decirlo con Boecio, a propósito del temor, si es que no horror generalizado, ante lo que se nos viene o ya ha llegado. Porque, vamos a ver: ¿acaso no nos engañan ya masiva e inmisericordemente nuestros congéneres? ¿Acaso no lo vienen/venimos haciendo desde tiempo inmemorial? ¿Ustedes han visto a un sistema –humano- llamado Pedro Sánchez hablar del pacto para la alcaldía de Pamplona? ¿Lo han visto los técnicos del Chat GPT?
Pero, se nos dice, no hablamos solo de que la IA nos engañe, es que las máquinas nos podrán dominar, utilizar como esclavos, destruir el mundo que habitamos en cuanto les seamos fútiles, y quién sabe cuántas cosas más. Vale: todos esos son males que pueden llevarnos a la desazón más absoluta precisamente porque están en nuestro radio de comprensión, y están en ese radio porque nos son conocidos o tenemos noticia de ellos. Es decir, son males humanos, inescapables a nuestra condición. ¿Extinción del mundo y de la especie? La conocemos y manejamos desde el día 16 de julio de 1945, cuando se explotó en Los Álamos la primera bomba atómica y en todo caso en algún momento remoto cuando el Sol nos engulla. ¿Nuestra extinción individual? Pues desde que empezamos a abandonar la feliz infancia.
Así que, parafraseando el consuelo de Epicuro relativo a la muerte («cuando muera ya no sentiré nada y antes estoy vivo») me animo a proponerles la siguiente disyuntiva de resignación y moderada tranquilidad: todo lo que de malo pueda generarnos la IA generativa, si está a nuestro alcance es humano en su comprensión y ya tenemos que convivir con ello, con o sin IA; y si nos resulta incomprensible por provenir de esa muy superior y sofisticada inteligencia, no nos habrá de afectar.
Voy a consultar al Chat GPT a ver qué le parece.