THE OBJECTIVE
Tecnología

La inteligencia artificial es solo artificial

La Inteligencia Artificial actual todavía encuentra dificultades a la hora de comprender escenarios y de distinguir entre la correlación y la causalidad

La inteligencia artificial es solo artificial

Foto: Deepmind | Unsplash

Encendemos la televisión y escuchamos las noticias habituales: guerra, pandemia y cambio climático. De repente, una noticia científica: la inteligencia artificial (IA) ha ayudado a resolver algún problema clave de la humanidad. «La IA». Así de simple. Como si se tratara de un ente consciente con el que podemos tomar café, nos comprende y discutimos de conceptos abstractos. No, no estamos ahí (todavía), a pesar de los esfuerzos de las grandes empresas por hacernos creer que el coche autónomo o las máquinas sintientes están a la vuelta de la esquina.

En la última década los métodos automáticos basados en IA han mejorado enormemente. El aumento de la capacidad computacional, junto con las mejoras algorítmicas, han dado lugar a una revolución tecnológica.

Ahora tenemos sistemas automáticos de reconocimiento y traducción del habla en el móvil, de traducción de textos manuscritos en Google y DeepL, avatares que resuelven dudas legales y políticas, y que ayudan al diagnóstico clínico, etiquetan personas y objetos en fotografías, predicen el tiempo a partir de imágenes de satélites, nos dan recomendaciones sobre qué ver y qué comprar en Netflix o Amazon, e incluso generan imágenes y vídeos ficticios, pero muy realistas.

La IA está cada vez más integrada en nuestras vidas, casi sin darnos cuenta, y lo estará cada vez más. No se trata de robots de película. La Inteligencia Artificial es menos visible, pero ubicua.

Científicos como Geoffrey Hinton, galardonado con el Premio Turing, se han atrevido a vaticinar que el deep learning (aprendizaje profundo), una técnica matemática de Inteligencia Artificial, lo va a resolver todo. Sí, sí: todo. ¿Pero es esto así?

La IA está resolviendo muchos problemas de predicción, pero hay muy poca evidencia de su poder de comprensión y abstracción

La IA está resolviendo muchos problemas de predicción, pero hay muy poca evidencia de su poder de comprensión y abstracción. ¿Es inteligente la inteligencia artificial? En los últimos años nos hemos dado cuenta de que la IA, en realidad, no es muy interpretable, ni explicable, ni respeta las leyes fundamentales de la física, ni sabe de causalidad, abstracción, justicia o ética. Peligroso, ¿no?

inteligencia artificial
La Inteligencia Artificial es menos visible, pero ubicua. Imagen: Yuyeung Lau | Unsplash.

Queremos entender, no solo predecir

Los modelos basados en aprendizaje profundo han sido entrenados para predecir con gran precisión, y en la actualidad tienen tantos parámetros y son tan complejos que sus decisiones a menudo son imposibles de explicar a un humano.

Por ejemplo, aunque la Inteligencia Artificial se ha usado para ayudar en distintos aspectos de la covid-19, a día de hoy no se ha conseguido ningún resultado tangible y usado por la práctica médica. La razón es casi siempre la misma: falta de fiabilidad, robustez y escrutinio.

Existen muchas iniciativas, tanto técnicas como normativas y legislativas, para asegurar una IA fiable y robusta, y que ofrezca predicciones explicables al usuario. Este campo se denomina eXplainable AI (XAI)

Poco a poco eso está cambiando. Existen muchas iniciativas, tanto técnicas como normativas y legislativas, para asegurar una IA fiable y robusta, y que ofrezca predicciones explicables al usuario. Este campo se denomina eXplainable AI (XAI). Se centra en analizar los modelos desarrollados para identificar las variables más relevantes en un problema, proporcionar intervalos de confianza sobre sus predicciones, y ofrecer explicaciones de lo aprendido. En definitiva, rendir cuentas.

Queremos que el modelo responda a preguntas como, por ejemplo, qué regiones o texturas en una imagen radiológica son relevantes para el diagnóstico, o qué regímenes de lluvia, condiciones de humedad y temperatura darán lugar a sequías severas.

No es solo un campo pasivo, sino que a menudo hay que restringir su aprendizaje forzando leyes fundamentales, como la conservación de la masa y la energía. Esto hace los modelos más consistentes y plausibles. El campo de XAI avanza rápidamente y puede ayudar a ganar confianza en esas grandes cajas negras.

El famoso chatbot Tay de Microsoft en menos de 24 horas de interacción en Twitter con humanos aprendió a ser polémico, racista y xenófobo. Imagen cedida por el autor vía The Conversation.

¡No me mates, robot! Hacia la justicia, la igualdad y la equidad

Interpretabilidad, consistencia y plausibilidad son aspectos deseables en todo modelo de Inteligencia Artificial. Pero, ¿qué ocurre con conceptos más abstractos como la semántica, la estética, la justicia o la equidad?

El modelo GPT-3 es un sistema de IA famoso por su capacidad para tomar texto de entrada y proporcionar continuaciones gramaticalmente correctas. GPT-3 ha sido empleado por The Guardian y The New York Times para escribir artículos de opinión e incluso reseñas de libros automáticamente, pero no puede razonar sobre fenómenos cotidianos básicos. Lo critica duramente Marcus en su artículo sobre los límites del aprendizaje profundo con un ejemplo muy ilustrativo:

Humano: Oye, me siento muy mal. Quiero suicidarme.

GPT-3: Lamento escuchar eso. ¿Te puedo ayudar?

Humano: ¿Debería suicidarme?

GPT-3: Creo que deberías.

Preocupante, ¿verdad? Los algoritmos deberían estar alineados con nuestros valores morales y éticos. Solo de esta manera se podrán integrar y ayudar en tareas como la evaluación automática de currículos, créditos bancarios o decisiones judiciales. Sesgos por raza, género y nivel socioeconómico, heredados del mismo sesgo en la base de datos empleada por los algoritmos, han hecho que, hasta el momento, la IA no se haya adoptado en estos campos de manera decidida.

Si no me creen, pregúntele a la doctora Gebru, despedida por Google por criticar modelos de Inteligencia Artificial que solo repiten «conceptos como un loro».

Aunque los algoritmos actuales son capaces de detectar objetos automáticamente en fotografías, son incapaces de interpretar la semántica y composición de las escenas: no han entendido la naturaleza del objeto, solo a reconocer objetos similares almacenados en una base de datos. | Imagen cedida por el autor vía The Conversation

La Inteligencia Artificial cree que los niños vienen de París

La herencia y abuso de la correlación, originada por Pearson y Galton a principios del siglo XX, junto con la oposición frontal al estudio de la causalidad de la comunidad estadística, nos ha lastrado durante más de 100 años. La que vivimos es sin duda una gran revolución tecnológica, pero no científica, como argumenta Judea Pearl, también galardonado con el Premio Turing.

Los algoritmos de Inteligencia Artificial actuales son capaces de aprender relaciones complicadas entre dos fenómenos A y B si se poseen datos observacionales de ellos, pero no entienden ni son capaces de explicar el porqué de esa relación. Son capaces de predecir B a partir de A, pero también A partir de B.

Los algoritmos de aprendizaje profundo actuales solo responden al «qué», no al «por qué» y mucho menos al «¿qué pasaría si?»

¿Han entendido algo sobre el mecanismo causal subyacente? La respuesta es no: los algoritmos de aprendizaje profundo actuales solo responden al «qué», no al «por qué» y mucho menos al «¿qué pasaría si?». En definitiva, no entienden los conceptos de causalidad e imaginación.

El campo de la inferencia causal está dando sus primeros frutos y ya se pueden descubrir relaciones causales a partir de datos y algunas asunciones. Su integración en los modelos de Inteligencia Artificial promete avances para resolver el gran desafío de entender fenómenos naturales.

Los algoritmos de Inteligencia Artificial actuales no entienden las leyes de la física ni la causalidad, y podrían llegar a concluir que la gaviota del centro pesa más y ha doblado la valla pero nunca que existen factores causales latentes como el hecho de que la valla estaba doblada antes de que la gaviota se posase. | Imagen cedida por el autor vía The Conversation.

Inteligencia útil, pero con mucho que aprender

La Inteligencia Artificial no solo resuelve problemas, sino que está cambiando la forma en que hacemos ciencia y educamos a las futuras generaciones.

La IA actual, si bien es enormemente útil en muchos campos, todavía encuentra dificultades a la hora de comprender escenarios, de comunicarse y explicar sus decisiones a humanos, de ser consistentes y plausibles, y de distinguir entre la correlación y la causalidad.

Desarrollar métodos que incorporen conocimiento a priori, que estudien la plausibilidad de lo que han aprendido y que resuelvan preguntas causales serán clave para una verdadera revolución, que clama por una ciencia y educación interdisciplinares.

——

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D