¿Amenaza o fantasía? Este es el momento de la inteligencia artificial general
Llamada a superar al ser humano en todos los campos, la AGI representa para algunos la mayor distopía de la historia

Escena de la película 'Yo, robot'. | Hispano Foxfilm
Desde que la moda de la inteligencia artificial generativa se instaló en los medios, los fondos de inversión y algunas empresas, el debate en torno al futuro del trabajo también ha pasado al primer plano. De vez en cuando, al ciudadano se le recuerda que una economía sin trabajadores podría ser posible en un futuro incierto, aunque tal vez no muy remoto. Ese es uno de los objetivos perseguidos con el desarrollo de la IA General (AGI en sus siglas en inglés).
La definición facilitada por el chatbot español de Luzia dice que la AGI «se refiere a un tipo de inteligencia artificial que tiene la capacidad de entender, aprender y aplicar conocimientos de manera similar a un ser humano. A diferencia de la inteligencia artificial estrecha (o débil), diseñada para asumir tareas específicas (reconocimiento de voz, traducciones), la AGI sería capaz de acometer cualquier tarea cognitiva propia de las personas».
Cinco son las características definitorias de la AGI: versatilidad, aprendizaje autónomo, comprensión de conceptos abstractos, toma de decisiones e interacción social. Se trata, en esencia, de igualar y superar al sapiens en todos los campos del intelecto, con un alto factor de riesgo: la independencia de la máquina, es decir, la ausencia de supervisión o la existencia –en el mejor de los casos– de un control humano demasiado blando y difuso.
Agua debe llevar este río cuando en su cauce suenan los nombres de OpenAI, Anthropic, Google (DeepMind), Microsoft, Meta y Nvidia, todas ellas compañías multimillonarias y todas ellas con apuestas firmes sobre la mesa para avanzar en el campo de la AGI. Por ahora, nadie se atreve a lanzar un pronóstico sobre cuándo estas herramientas podrían estar disponibles a escala industrial. Si los más optimistas creen que la eclosión tendrá lugar en la década que arranca en 2030, otros aseguran que la AGI queda aún a siglos de distancia.
Tres son los desafíos que plantea esta disrupción aún nebulosa. Uno afecta directamente al empleo, ya que la tentación de relevar al humano con máquinas superinteligentes, con el consiguiente ahorro de costes y la sacrosanta eficiencia por bandera, conduciría a una sociedad con elevadas tasas de paro donde la única solución sería instaurar una renta básica universal de notable importe (sólo así se salvaría el consumo).
Otro alude a una concentración todavía mayor de la riqueza. La brecha entre ricos y pobres crece, pero también lo hace la diferencia entre las empresas que dominan la economía mundial, muchas de ellas estadounidenses, y el resto. Si Google, Meta y Microsoft son propietarias de esas AGIs cuasi perfectas, en sus manos estaría el porvenir de sociedades enteras. Tampoco es baladí el efecto secundario que ya se atisba con Elon Musk y Larry Ellison: los tecno-magnates quieren su parte del pastel político. Más poder sobre el poder.
El tercero aterriza de lleno en el corazón del cibercrimen. La AGI podría ponerse al servicio de campañas de desinformación y todo tipo de ataques digitales. A escala bélica, igual que ocurre hoy con los drones en la guerra de Ucrania, ejércitos y resistencia podrían recurrir a un grado de automatización inédito e incluso derivar algunas decisiones estratégicas a estos cerebros sintéticos.
Aunque llueve sobre mojado y la AGI no supone de momento más que una aspiración en la eterna carrera disruptiva, el debate sobre el componente ético ya existe e incluso es alentado desde el propio sector, empezando por OpenAI y acabando por Microsoft. «Será la propia sociedad –explica el profesor y consultor Juan Ignacio Rouyet– la que termine pidiendo una IA confiable».