MyTO

La Inteligencia Artificial frente al espejo

«Lo cierto es que la zozobra que nos genera la IA viene dada por ese extraño e incómodo fenómeno como es el de mirarnos ante el espejo como sociedad»

Opinión

La Inteligencia Artificial frente al espejo.

  • José Rosiñol Lorenzo es un humanista español y activista político, especializado en negociación y resolución de conflictos. Es uno de los fundadores de Sociedad Civil Catalana, fue el primer presidente de la entidad y repitió presidencia en dos ocasiones. Actualmente preside el Consejo Consultivo de esta asociación.

En verdad el título de este artículo es un poco engañoso, realmente sería más apropiado decir la humanidad frente al espejo, trataré de explicar el porqué de ello. Hace no muchas semanas, un periodista del New York Times llamado Kevin Roose, probó la inteligencia artificial de buscador Bing de Microsoft, la charla con la máquina derivó en una especie de conversación kafkiana porque el algoritmo trató de convencer al periodista para que este se divorciase de su mujer y que se fuese con ella (con la máquina). Hay otros casos mucho más preocupantes como el suicidio de un joven belga inducido por un chatbot.

Naturalmente ahora empezaremos a escuchar los relatos de una Inteligencia Artificial que cobra vida, que es una amenaza, que es inhumana, que es despótica, que miente, que manipula, que es cínica…como si de una especie de extraterrestre malvado hubiese aterrizado en nuestro planeta para aterrorizar a los bondadosos humanos. Resulta curiosa la tendencia de nuestra especie en buscar culpables que nos descarguen de nuestras propias responsabilidades. Creemos en una idealización de nosotros mismos y tachamos de aberración lo que no nos gusta ver ni entender, me refiero a la naturaleza de lo que somos o podemos llegar a ser más allá de los corsés morales de nuestras sociedades actuales.

La respuesta del equipo de Microsoft al periodista del New York Times, fue que iban a revisar los parámetros éticos de su algoritmo, la respuesta en sí es más que interesante porque para una máquina como Bing y otras, lo ético no es más que un parámetro más en el código de su programación. Sin embargo, y esto creo que es lo más interesante, esta aplicación para interactuar solo bucea en los trillones de unidades de información que el ser humano genera y ha generado y, con una lógica hipotético-probabilística nos da la solución que parece más oportuna. Está en la aparente neutralidad del algoritmo dónde reside el núcleo de la cuestión y que quiero plantear con la siguiente pregunta: ¿no será que lo que nos están diciendo las máquinas es como en verdad somos o, al menos, como es el mundo ahora? ¿no será que la sociedad, más allá de la etiqueta y el disimulo, es cruel, cínica y con tendencias despóticas? ¿no será que Tomas Hobbes tenía razón y el «hombre es un lobo para el hombre»?

«¿Qué tipo de algoritmo hubiésemos encontrado en un régimen como el de Hitler?»

Me van a permitir una especie de distopía, siguiendo lo propuesto por el equipo de Microsoft, esto es: hay que revisar la ética del algoritmo. La cuestión es que si lo que lee y deducen las máquinas puede ser tamizado por límites éticos ¿qué tipo de algoritmo hubiésemos encontrado en un régimen como el nacionalsocialista de Hitler? ¿y en la China comunista? ¿y en el imperio azteca? Lo cierto es que la zozobra que nos genera la inteligencia artificial viene dada por ese extraño e incómodo fenómeno como es el de mirarnos ante el espejo como sociedad, cómo los límites éticos son muchas veces una especie de herramientas de limpieza y justificación, pero no tantas como elementos de decisión.

Hay otra cuestión y que, a mi parecer, es primordial, es la creencia en que lo sabemos todo, como diría Freud: estamos ante el complejo del que se creer saber casi todo de antemano. Todas las épocas han tenido la sensación de estar en el cénit del conocimiento, pero también con la angustia de no poder saber lo que no sabemos. Más allá del trabalenguas en el que me he metido, si dejamos que el desarrollo del conocimiento y de la ciencia esté solo en manos de la lógica algorítmica podremos descubrir algunos recovecos inusitados, pero solo de cosas que ya sabemos, sin embargo, de ninguna manera, podremos esperar escenarios disruptivos o cambios de paradigma.

Esto lo digo, siguiendo a Feyarebend en su Tratado contra el método, si en el supuesto que pudiésemos trasladar nuestros algoritmos al siglo de Copérnico y Galileo, con todo el conocimiento de la época y con la lógica hipotético-probabilística de nuestra máquina inteligente, nunca y de ninguna de las maneras hubiera llegado a la conclusión de «eppur si muove», entre otras cosas porque los vigilantes de la moralidad de la época lo hubiesen capado con la ética del momento y porque sin el genio del humano (que también escribe el código de los algoritmos), sin esa mirada más allá, sin ese cuestionamiento constante y disruptivo, nuestra máquina ni si quiera se hubiese planteado la posibilidad de que es la tierra la que se mueve.

2 comentarios
  1. Klaus

    En cuanto al hombre belga que se suicidó, su desgracia tiene otra base que se menciona menos: estaba absolutamente obsesionado y aterrorizado por la inminente catástrofe climática.

    Si la IA con la que interactuaba es pobre hombre tiene alguna culpa de la tragedia, no menos tienen los gobiernos y demás instituciones que nos bombardean constantemente con medias verdades sobre el cambio climático destinadas a que traguemos con los desmanes económicos que están imponiéndonos para «prevenirlo».

  2. Klaus

    La respuesta de Microsoft me suena un poco a «vamos a tomar el pelo un poco a estos ignorantes». Los «parámetros» de un sistema de IA de tecnología actual (redes convolucionales, difusión, etc.) son un inmenso conjunto de coeficientes que se ajustan durante el entrenamiento del sistema (gpt-3 tiene unos 175 millones) y que ponderan las conexiones entre unidades. Hablar de «parámetros éticos» en un tal sistema es como decir que usted tiene sinapsis ideológicas. Probablemente se refieren a aplicar restricciones a la generación del otput. No es conferir ética al sistema (lo cual es absurdo en un mero generador de texto, por sofisticado que sea), sino PONER CENSURA a su salida.Y ahí ya sí vienen todas las objeciones que usted señala y que comparto totalmente: la censura es censura y está mal siempre.

Inicia sesión para comentar