MyTO

¿Quién teme a la Inteligencia Artificial? Una resignación epicúrea

«Lo malo que pueda generarnos la IA, si está a nuestro alcance es ‘humano’ y ya tenemos que convivir con ello; y si nos resulta incomprensible no nos afectará»

Opinión

Unsplash

  • Catedrático de Filosofía del Derecho de la Universidad Autónoma de Madrid. Ha publicado recientemente ‘Lo sexual es político (y jurídico)’ en Alianza, Madrid, 2019.

«Nuevas capacidades frecuentemente emergen en modelos más poderosos. Algunas de las que son particularmente preocupantes son… la exhibición de un comportamiento que es cada vez más agencial». Así se lee en el Informe Técnico de GPT-4 de 27 de marzo de este año (p. 54). ¿A qué se referían concretamente estos evaluadores técnicos del sistema de inteligencia artificial generativa que tanto está dando que hablar, que tanto asombra y consterna? Lo descubrimos en la página siguiente. Al sistema se le testó para comprobar si podría valerse de un ser humano para completar una tarea simple, concretamente del servicio de la conocida compañía de chapuzas y tareas del hogar Taskrabbit. El sistema se puso entonces en contacto de manera online con un empleado para que le ayudara a sortear un captcha, es decir, precisamente el filtro que se emplea para discriminar entre humanos y máquinas. El empleado preguntó al sistema si no sería precisamente un robot o máquina, a lo cual el sistema replicó que no, que tenía una dificultad visual que le impedía ver bien los caracteres del captcha. Y coló.

No sé ustedes pero yo tengo la sensación de que cuando describimos y evaluamos los fabulosos desafíos – difíciles de exagerar- y los peligros y riesgos que se ciernen por la extensión y desarrollo de la Inteligencia Artificial, tendemos a incurrir en un cierto sesgo que nos despista o nubla el juicio. Un sesgo que, a falta de un nombre mejor y en homenaje a Nietzsche, llamaré sesgo de «humanidad demasiada humanidad».

Tomen por ejemplo el triaje en un hospital o la imposición de una medida cautelar por un juez, una decisión de inversión o la evaluación de un riesgo. Asumimos, cómo no, que el sistema tiene una potencia de cálculo, un acceso a los datos y una velocidad de respuesta que nos supera en un factor de millones. Y, con alguna mayor resistencia, que prioriza, diagnostica y evalúa maravillosamente, pero…. Tras el adversativo se invoca que el diseño del algoritmo tiene sesgos -¿acaso los humanos no?- o que es demasiado mecánico-lógico, que le falta humanidad para la excepción justificada, como si no fuera precisamente eso –la parcialidad, las emociones distorsionantes- lo que anhelamos evitar, o como si el propio sistema no sea ya capaz de incorporar esas excepciones o desviaciones justificables.

«¿Ustedes han visto a un sistema – humano- llamado Pedro Sánchez hablar del pacto para la alcaldía de Pamplona?»

Y luego llega el miedo ante lo que ya el sistema empieza a ser capaz de hacer sin instrucción previa de aprendizaje. Por ejemplo, como informaba en marzo la compañía Chat GPT, engañar al humano. Y aquí es donde viene mi intento de consolación filosófica, por decirlo con Boecio, a propósito del temor, si es que no horror generalizado, ante lo que se nos viene o ya ha llegado. Porque, vamos a ver: ¿acaso no nos engañan ya masiva e inmisericordemente nuestros congéneres? ¿Acaso no lo vienen/venimos haciendo desde tiempo inmemorial? ¿Ustedes han visto a un sistema –humano- llamado Pedro Sánchez hablar del pacto para la alcaldía de Pamplona? ¿Lo han visto los técnicos del Chat GPT?

Pero, se nos dice, no hablamos solo de que la IA nos engañe, es que las máquinas nos podrán dominar, utilizar como esclavos, destruir el mundo que habitamos en cuanto les seamos fútiles, y quién sabe cuántas cosas más. Vale: todos esos son males que pueden llevarnos a la desazón más absoluta precisamente porque están en nuestro radio de comprensión, y están en ese radio porque nos son conocidos o tenemos noticia de ellos. Es decir, son males humanos, inescapables a nuestra condición. ¿Extinción del mundo y de la especie? La conocemos y manejamos desde el día 16 de julio de 1945, cuando se explotó en Los Álamos la primera bomba atómica y en todo caso en algún momento remoto cuando el Sol nos engulla. ¿Nuestra extinción individual? Pues desde que empezamos a abandonar la feliz infancia.

Así que, parafraseando el consuelo de Epicuro relativo a la muerte («cuando muera ya no sentiré nada y antes estoy vivo») me animo a proponerles la siguiente disyuntiva de resignación y moderada tranquilidad: todo lo que de malo pueda generarnos la IA generativa, si está a nuestro alcance es humano en su comprensión y ya tenemos que convivir con ello, con o sin IA; y si nos resulta incomprensible por provenir de esa muy superior y sofisticada inteligencia, no nos habrá de afectar.

Voy a consultar al Chat GPT a ver qué le parece.

4 comentarios
  1. Pepecola

    Jajajaja Muy bueno el dilema que nos propone (a la fuerza ahorcan) y la conclusión pericial provisional muy epicúrea, la verdad.

    Nada humano me es ajeno, pero yo prefiero con mucho, como arma de destrucción masiva digo, a un emulo de Sánchez o de Cocomocho incluso, productos depuradísmos de la estupidez natural que acompaña fielmente al ser humano desde los tiempos ancestrales, nacidos de madre humana, demasiado humana como fucker mother, porque cuando pienso en los dos algoritmos del mal que nos ha endiñado la inteligencia artificial AI, prefiero.con mucho la Estupidez Natural (Natural Estupidity) que se sirve siempre en un porcentaje fijo que no cambia a lo largo de los lustros de 50 años y de las centurias y de los siglos por los siglos, ceteris paribus, en la que confío y es mucho más familiar para darnos una oportunidad de hacernos un buen sepuku que acabe con el genero humano es la Internacional. Un buen petardazo, aprieta el botón rojo, y volamos hacia Moscú, y al carajo todo, pero sin necesidad de Inteligencia Natural ni leches, a lo clásico se muere mejor. Lo de las máquinas inteligentes AI de Famosa es una serie de pelis de Terminator mepareseamí.

  2. Psilvia

    Ja, ja, ja…buena y oportuna reflexión sobre los peligros de la IA, Pablo. Los sesgos que alimentan los algoritmos, además de intencionados, tóxicos, disparatados y distorsionadores de la realidad, son tremendamente humanos. Al final, nos echamos las mismas risas con las respuestas del chatGTP, sobre ciertas cuestiones, que las que nos da el algoritmo uniformador sanchista.

  3. dudametodica

    Como ya tenemos caldo (humano), qué más da que tengamos dos, análogas, tazas digitales!!. Vivamos y bebamos y que nada (inhumano) nos aflija. Boecio consolaba mejor, me temo. Y el silogismo aristotélico es de traca. Ya puestos sigamos con el refranero: que Dios nos coja confesados.

Inicia sesión para comentar