The Objective
CUADERNOS FAES

La irrupción de la inteligencia artificial en un mundo humano

No existe un solo tipo de IA y su aparición tiene infinitas implicaciones en el mundo real

La irrupción de la inteligencia artificial en un mundo humano

Inteligencia artificial.

Este artículo ha sido publicado originalmente en la revista ‘Cuadernos FAES de pensamiento político’. Si quiere leer otros textos parecidos o saber más sobre esa publicación, puede visitar su página web.

I. ¿Qué es la IA?

Como tecnología que se encuentra en constante expansión, algunos autores han rechazado ofrecer una definición definitiva de la IA (inteligencia artificial)1. Sin embargo, abordamos su aproximación desde tres perspectivas diferentes. La perspectiva lingüística, ofrecida por el Diccionario de la Real Academia, entendiendo por tal la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico.

La perspectiva legal, ofrecida por el art. 3 del Reglamento (UE) 2024/1689 de 13 de junio de 2024, que la define como un sistema basado en máquinas que está diseñado para funcionar con distintos niveles de autonomía y que puede exhibir capacidad de adaptación después de su implementación y que, para objetivos explícitos o implícitos, infiere, a partir de la información que recibe, cómo generar resultados tales como predicciones, contenido, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales.

La perspectiva científica, dada por Nilsson2, para quien, en una definición amplia y un tanto circular, la inteligencia artificial tiene por objeto el estudio del comportamiento inteligente en las máquinas. El comportamiento inteligente supone percibir, razonar, aprender, comunicarse y actuar en entornos complejos. La definición de la IA es una aproximación que es incompleta si no explicamos los enfoques técnicos que el hombre ha diseñado para alcanzar esta tecnología.

II. Enfoques de la inteligencia artificial

El concepto de la IA es acordado por John McCarthy, Marvin Minsky y Claude Shannon, en el taller de estudio celebrado en el verano de 1956 en el Dartmouth Collage, en Estados Unidos. McCarthy definió la inteligencia artificial en aquellos años como “la ciencia e ingeniería de hacer máquinas inteligentes” y creó el lenguaje de programación informática LISP.

Es en esta reunión en donde se definen dos enfoques para abordar y desarrollar la IA que conservan su vigencia en la actualidad: el enfoque simbólico y el enfoque conexionista.

Enfoque simbólico o IA débil

El primer enfoque es el simbólico o IA débil, también conocida como ANI (Narrow AI) o inteligencia artificial específica. Representa el conocimiento mediante símbolos, a los que se aplican reglas lógicas para extraer consecuencias. 

Herbert Simon y Newell fueron pioneros en crear un sistema de inteligencia artificial llamado Logic Theorist, conocido también como Máquina de la teoría lógica, en 1956. Resolvió los teoremas de la formalización matemática de Whitehead y Russell de 1910. Fue desarrollado por IBM y sus investigadores Harlan Mills y Niklaus Wirth.

Es un sistema que simula el comportamiento humano, aunque se encuentra limitado por la tarea o función programada sin opción de ampliar su aprendizaje a ámbitos diferentes. Son sistemas monotarea y el conocimiento se obtiene mediante deducción, es decir, de lo general a lo particular, que es una forma de deducción propiamente humana. 

Como ejemplo de esta perspectiva se encuentran los Sistemas Expertos (contracción de la frase “sistema experto basado en conocimiento”). El primer Sistema Experto fue desarrollado por Edward Feigenbaum de la Universidad de Stanford en 1965, especializado en análisis químico, Y se llamó DENDRAL.

Frente a la contingencia humana y toda su circunstancia existencial, los sistemas expertos son estables por su infalibilidad e inalterabilidad de sus soluciones ante un mismo problema en el tiempo. Como puntos negativos, carecen de sentido común y no son capaces de distinguir las cuestiones relevantes de las triviales. Científicos destacados de este primigenio enfoque son, entre otros, Allen Newell, Herbert Simon, Marvin Minsky, Edward Feigenbaum, Roger Schank y Barbara Grosz. Su fundamento filosófico se encuentra en Platón y en los filósofos racionalistas. 

Enfoque conexionista o IA fuerte 

A diferencia de la IA débil, la IA fuerte o sistema neuronal, intenta imitar la inteligencia humana a todos los niveles. Los algoritmos que se creen deben aplicarse a un hardware que emule la biología cerebral en donde se producen los procesos mentales que permiten recibir, procesar y elaborar la información. Por este motivo se ha creado la neurona artificial, cuyas conexiones con otras neuronas generan redes neuronales.

El enfoque conexionista emplea los elementos de más bajo nivel en los procesos cognitivos que generan un comportamiento inteligente. Este propósito requirió construir una neurona artificial o nodo, que básicamente es un algoritmo muy básico que solo realiza operaciones aritméticas y una operación comparativa. Conectada con otras neuronas forman redes neuronales. Cada neurona recibe señales de entrada, realiza cálculos y los transmite a la siguiente neurona y así sucesivamente. Las redes neuronales se entrenan sobre datos para aprender y generar predicciones o clasificaciones precisas. El conocimiento se obtiene mediante inducción, de lo particular a lo general, propio del pensamiento científico.

El enfoque conexionista cuenta con Rosenblatt como exponente doctrinal. Defiende que la estructura del cerebro humano es imprescindible para que emerja la función inteligente. Para ello debe crearse hardware que imite esta biología. Minsky, por su parte, estima más apropiado centrarse en el estudio del cerebro de seres vivos más pequeños3. Entre los filósofos sobre los que se fundamenta este enfoque están David Hume y Stuart Mill, además de los psicólogos Iván Pavlov y B.F. Skinner.

III. Enfoques sobre redes enuronales

Hay dos enfoques construidos sobre la tecnología de las redes neuronales. El Aprendizaje Automático (AA), en inglés: Machine Learning (ML), y el Aprendizaje profundo (AP), en inglés: Deep Learning (DL), ambos fundamentan la inteligencia artificial vigente.

Aprendizaje Automático (AA) o Machine Learning (ML)

El AA permite desarrollar algoritmos que aprenden de manera automática a partir de los datos suministrados. El algoritmo no cuenta con un código que le brinde todas las opciones posibles, sino que se le instruye, se le entrena por el hombre para que detecte e identifique patrones y relaciones en los datos de manera automática con distintas finalidades: para clasificar, agrupar o predecir. Emplean redes neuronales simples, a lo sumo con una o dos capas computacionales.

Existen a su vez tres subtipos de AA, en atención al entrenamiento de los algoritmos: supervisado, basado en tareas; aprendizaje no supervisado, basado en datos y aprendizaje por refuerzo, aprende a reaccionar a su entorno. Cada uno de ellos con sus algoritmos específicos: algoritmos de regresión; algoritmos bayesianos, algoritmos de agrupación…4. Entre otros, algunos científicos destacados en el AA son: Judea Pearl, Pedro Domingos, Michaerl I. Jordan, Daphne Koller y Sebastian Thrun. 

Desde 2010, las redes neuronales causaron una nueva era de la IA marcada por avances significativos en su capacidad técnica, dando lugar al AP. 

Aprendizaje Profundo (AP) o Deep Learning (DL)

El AP agrega complejidad a la actividad de la IA. Fue impulsada por tres elementos: algoritmos, datos y computación. Se utilizan redes neuronales artificiales con más de tres capas –de aquí procede el adjetivo profundo5–, también llamadas redes neuronales profundas, para reconocer patrones complejos en sus datos. Se pretende que la máquina aprenda, a partir de cantidades masivas de datos, a tomar decisiones como lo haría el cerebro humano6. La intervención del hombre es limitada, pues el aprendizaje del algoritmo se automatiza en un grado importante. 

Dentro del AP, el aprendizaje por refuerzo aplicado a redes neuronales logra resultados notables. En estos supuestos, la máquina aprende a tomar decisiones a través de la retroalimentación recibida del entorno. La base biológica de este modelo informático se construye sobre los descubrimientos realizados por el psicólogo Burrhus Fredric Skinner, quien pudo comprobar cómo concretos comportamientos de aprendizaje de animales seguían un patrón repetitivo de observación, acción y recompensa.

Es decir, una conducta que tiene consecuencias positivas tiende a ser repetitiva. Este fenómeno biológico fue insertado en el diseño de algoritmos aplicados a redes neuronales con resultados prometedores. Por ejemplo, el programa informático Alphago está entrenado para optimizar una función de recompensa particular y es ganar el juego. GPT ha sido entrenado para optimizar otra recompensa: predecir la siguiente palabra de una frase.

En estos supuestos no se le ordena a la máquina qué acciones realizar, sino qué debe descubrir. Aunque con límites, la IA puede encontrar patrones y conexiones en la ingente cantidad de datos que procesa, pero no comprenderá el motivo por el cual las cosas suceden. Judea Pearl lo explica empleando el ejemplo de la salida de sol y el canto del gallo. Una IA encontrará la relación entre el canto del gallo y la salida del sol, pero no será capaz de identificar si el gallo canta porque sale el sol, o si el sol sale porque canta el gallo7. Entre los científicos más reconocidos en el uso de la tecnología del AP destacan: David Rumelhart, Yoshua Bengio, Geoffrey Hinton, Andy Clark, John Searly, Fei-Fei Li y Yannn Lecun.

IV. Diferencias entre el aprendizaje automático y el aprendizaje profundo

Como diferencias más destacables, enumeramos las siguientes:

a) El AA emplea algoritmos simples, mientras que en el AP se usan algoritmos muy complejos; por ello, los primeros emplean pocos recursos y los segundos necesitan un mayor flujo energético. 

b) La estructura de la arquitectura en el AA solo utiliza redes neuronales simples con una o dos capas computacionales, mientras que en el AP se emplean tres o más capas (pudiendo alcanzarse cientos o miles de capas).

c) El AA necesita una Unidad Central de Procesamiento (CPU) y el AP requiere una Unidad de Procesamiento de Gráficos (GPU).

d) El AA puede ser entrenado con una pequeña porción de datos, mientras que el AP precisa de una gran cantidad de datos.

e) El AA necesita intervención humana, mientras que el AP aprende por sí mismo con una discreta intervención del hombre.

f) El AA emplea árboles de decisión que son algoritmos estadísticos para construir modelos predictivos, mientras que el AP emplea redes neuronales.

g) El AA necesita datos estructurados para aprender y poder trabajar con ellos, en tanto que el AP puede trabajar con datos sin estructurar; por ello es muy útil para detectar patrones y conexiones en la información suministrada. 

h) La precisión en los resultados en el AA es discreta, en tanto que el AP alcanza un nivel de gran complejidad y logra resultados más precisos, aunque es más lento en el procesamiento de los datos.

En la actualidad se emplea el AA y AP de forma indistinta en los programas de IA al uso. La experta en lenguaje aplicado a la IA y académica de la lengua Asunción Gómez Pérez, afirma que “en nuestros días, no existe esta superinteligencia artificial que sea capaz de resolver todas las tareas; al contrario, existen muchas inteligencias artificiales específicas que resuelven actividades concretas de forma muy satisfactoria”8.

V. Inteligencia artificial generativa (IAG), inteligencia artificial general y singularidad

La IAG se refiere a modelos de aprendizaje profundo, que gestionan grandes cantidades de información y generan resultados estadísticamente relevantes. Una vez entrenado adecuadamente, puede crear datos nuevos y originales9. Para IBM, es la IA que ofrece contenidos únicos, como texto, imágenes, video, audio o código de software a petición de un usuario10

Una definición más descriptiva la encontramos en Casar Corredera, para quien con el nombre de IAG nos referimos a los algoritmos específicos de aprendizaje no supervisado y en el acceso a muchos datos, que son capaces de aprender y de generar salidas coherentes, consistentes y compatibles con lo que podría producir un ser humano entrenado11.

Desde mi punto de vista, la IAG puede considerarse como una evolución sofisticada del AP debido a la concurrencia de cuatro circunstancias: la disponibilidad de masas enormes de datos; el incremento de las capacidades técnicas de computación y un hardware más avanzado; un coste reducido de la energía12 y un desarrollo de modelos neuronales más complejos.

Un ejemplo de IAG la encontramos en 2021, cuando la empresa OpenAI lanzó una nueva aplicación de IA, a la que llamó Dall-E, en un gesto hacia nuestro genial pintor Salvador Dalí. La máquina se entrenó con miles de fotografías y su función consiste en generar imágenes a partir de una descripción textual dada a la máquina. Ejemplo de científicos destacados en la IAG son, entre otros: Ian Goodfellow, Joshua Bengio, Dario Amodei, Alec Radford, Emad Mostaque y Andrej Karpathy.

En el ámbito teórico de la computación se han distinguido otras dos IA: la inteligencia artificial general y la superinteligencia artificial o singularidad.

La inteligencia artificial general, denominada por IBM como IA sólida, intenta replicar la inteligencia humana en todas sus aptitudes. Es una concepción teórica que alcanzaría la autoconsciencia y sería indistinguible de la mente humana. Podría responder a las cuestiones que se planteen manejando distintas áreas de conocimiento y diferentes disciplinas a través del autoaprendizaje. Es una tecnología que todavía se encuentra lejos de alcanzarse13. La superinteligencia artificial, o singularidad, es aquella que superaría a la inteligencia humana. Por su ininteligibilidad podría operar de modo impredecible para el hombre. Se trata de una construcción doctrinal meramente especulativa.

Advierte Yampolskiy, profesor de la Universidad de Louisville, que una vez que la IA supere la inteligencia humana, puede resultar imposible retener su control. Brent Smolinski, director global de IBM, ofrece una opinión más pesimista: “No creo que estemos ni siquiera en el lugar correcto para llegar a la superinteligencia”14.

VI. Impacto económico de la IAG

Tanto un informe como una encuesta de la consultora McKinsey, de junio y agosto de 202315, atribuyen a la IAG la capacidad de provocar la próxima ola de productividad. Esta posee el potencial de generar entre 2.6 billones y 4.4 billones de dólares anuales en valor en todas las industrias. El 75% de esa cifra sería aportada por cuatro áreas principales: operaciones con clientes, marketing y ventas, ingeniería de software e I+D. Pero el impacto sobre el tejido industrial será generalizado y profundo.

La IAG posee el potencial de automatizar actividades laborales que absorben entre el 60 y el 70 % del tiempo; así, podrá automatizarse la mitad del tiempo que se emplea en funciones accesorias. Ello redundaría en un incremento de la productividad al poder dedicarse más tiempo a cuestiones más críticas o que aporten más valor al producto y, por ello, a la misma empresa. LA IAG podría estimular la organización laboral entre el 0.1 y el 0.6 % anual hasta 2040.

Otro aspecto destacable es poder gestionar el conocimiento interno de la empresa. No solamente mostrando la información, sino aplicando esa información general al caso planteado específicamente por el operador. En ingeniería de software, el impacto directo de la IA en la productividad podría oscilar entre el 20 y el 45 % del gasto anual. Supondría la reducción del tiempo dedicado a actividades como la generación de borradores de código iniciales, la corrección y limpieza del código y la generación de nuevos diseños de sistemas. 

Los desarrolladores que utilizaron Github Copilot, ahora integrado con GPT-4 de OpenAI y Replit, utilizado por más de 20 millones de programadores, completaron las tareas un 56% más rápido que aquellos que no las utilizaron.

Según un estudio sobre impacto económico de la IA realizado por el Parlamento Europeo, actualizado a 15 de junio de 2023, la inversión en IA en EE. UU. superó los 18 000 millones de dólares, en Asia más de 9000 y en Europa más de 3000. El número de patentes relacionadas con IA ha crecido un 400 %. Para 2025 podrían generarse 60 millones de nuevos puestos de trabajo consecuencia del desarrollo de la IA y la robótica.

La consultora Avanade Advisory, arroja los resultados de una encuesta en donde se constata que un gran número de empresarios adopta aplicaciones de IAG con la esperanza de un retorno de inversión al menos 4 veces en menos de 12 meses. Un 85 % de las empresas tienen miedo a quedarse atrás en la adopción de aplicaciones de IAG. Y un 47 % confía en el incremento de la productividad esperado. En definitiva, el aumento de la productividad, el aumento de la eficiencia, junto a la reducción de costes de producción, son las aportaciones de la IAG.

VII. La automatización de la IA, el trabajo complejo y la creatividad 

Hay un aspecto en el informe de Mckinsey destacable: la automatización que asumirá la IAG afectará a las rutinas en organizaciones con cambios sustanciales en la forma en que se presta el trabajo y en el modo en cómo deben dirigirse los equipos. Arkady Volozh, fundador de NEBIUS, confirma que la IA genera automatización. Este es un dato preocupante. 

Una de las características que comparten todas las organizaciones son las rutinas y los patrones de comportamientos regulares y predecibles. Como apuntan Douma, Nelson y Winter las organizaciones producen mejor en entornos constantes y previsibles que en otros bajo incertidumbre16.

Ante esta situación, cabe preguntarse: ¿cómo afectará la democratización de la IA a los seres humanos?, ¿solo trabajará en escenarios caracterizados por una constante complejidad? De ser así, el desgaste profesional será un hecho con consecuencias perniciosas que deberán ser estudiadas. 

Sin embargo, una visión más optimista cree que “la IA traerá consigo un desplazamiento de tareas, no del trabajo”, que adquirirá un aspecto diferente y será un reto “que cada trabajador tenga suficiente información sobre la IA como para poder desplazar las tareas por sí mismo”17.

En todo caso, el panorama que se dibuja posee cierta turbidez; por un lado, el hombre solo trabajará en tareas complicadas y, además, como razona Harari, la IA seguramente ocasionará desempleo18 por su automatización: ¿qué consecuencias finalmente habrá? Esta es una pregunta todavía difícil de responder.

La situación presenta ciertas similitudes con el paradigma que presenciamos hoy con la sustitución de los automóviles movidos por combustibles fósiles por otros menos contaminantes. ¿Cuál será el futuro de las personas dependientes de la industria auxiliar de los automóviles de combustión?, ¿habrá una simple sustitución de tareas o solo un desplazamiento de las mismas? Esta es una cuestión que aún hoy no se ha planteado.

Hay otra área sensible a la incidencia de la IA. ¿Cómo será la cohabitación de los profesores de universidades, escuelas y liceos con programas de IAG que puedan impartir las asignaturas, incluso con atención personalizada a las aptitudes del alumno? 

En mi opinión, la persona todavía conserva aptitudes que la diferencia de las máquinas inteligentes, entre las más destacables, la capacidad de innovar, de crear pensamientos y cosas. La genialidad artística es un talento que no está racionalizado.

Frente al relato caótico que escuchamos sobre la IA, hay filósofos que optan por otros escenarios más colaborativos. Esta es la posición de Reid Hoffmann, quien defiende una IA humanista que complemente su productividad. Para él, la IA sería una oportunidad para el hombre y no una amenaza.

VIII. El sentido común y la conciencia de la IAG

Hoy día, existen varias limitaciones de la IAG. Una de las más críticas es que las IAG no entienden, no comprenden nada de lo que producen. La resolución de este problema se encuentra en estudio desde hace años con resultados dispares y no concluyentes. Otro problema es que las IAG carecen de sentido común. 

Henri Bergson lo define como la facultad para orientarse en la vida. Para George Edward Moore, es el concepto global de las opiniones comunes a casi todos los hombres. Desde mi punto de vista, el concepto engloba la percepción del bien, del mal, el conocimiento, la ignorancia, la proporción y la medida. Si una IA adquiriese dominio sobre la vida de los hombres, el hecho de que carezca de sentido común haría de esta tecnología algo preocupante.

Dreyfus en 1972 detectó que uno de los principales problemas de la IA es la imposibilidad de representar el sentido común19. Opinión sostenida en la actualidad por varios científicos de la computación como Ernest Davis y Gary Marcus20. Este último, junto a Zoubin Ghahramani, creó la empresa Geometric Intelligence que comenzó una investigación sobre el sentido común en la IA. Marcus se mostró pesimista porque se enfrenta a enormes desafíos: “El éxito puede requerir años e incluso décadas de trabajo, si es que llega […]”21.

Meritorios son también los estudios de Douglas Lenat, científico ignorado por sus colegas, que intentó dotar a la IA de sentido común mediante el procesamiento de millones de datos obvios, minúsculos, probados e incontestables22. Sin embargo, el sentido común no se obtiene por el hecho de procesar ingentes cantidades de datos –eso se está produciendo ya–, sino que refiere a un sentimiento de adecuación del acto del hombre a su entorno cultural y social. Ello implica asumir que los valores occidentales derivados del cristianismo inciden en la concepción del sentido común. Y este hecho debería ponderarse en el diseño de la IA, porque han sido estos valores los que han permitido alcanzar este progreso técnico.

El sentido común es esencial porque nos permite tomar decisiones en entornos de incertidumbre, algo inalcanzable por ahora en la IA debido, como apunta Torres, porque modelar matemáticamente la incertidumbre es muy complejo23. Precisamente la imposibilidad de programar el sentido común en la IAG es lo que permite limitar su fuerza expansiva. Es decir, constituye el obstáculo de la IA para asumir funciones de alto riesgo para personas y cosas.

Si la inteligencia artificial no ha alcanzado sentido común, ¿es imposible que la IA alcance conciencia? En septiembre de 2024, la empresa Anthropic designó a un investigador para el “bienestar de la IA”. Su objeto de estudio trata de comprobar si los sistemas empleados de IA por la empresa avanzan lentamente hacia la conciencia. 

Filósofos y expertos en IA estiman posible este avance. De hecho, Nick Bostrom, filósofo de la Universidad de Oxford, ha afirmado que la IA ha mostrado indicios de sensibilidad24. Este hecho, de comprobarse, acercaría la IA a la singularidad –el filósofo la califica de explosión de inteligencia25–, con el peligro de superar a la inteligencia humana. Este escenario cuestionaría los conceptos de inteligencia y conciencia, así como el de antropocentrismo renacentista e incluso la cualidad más importante del hombre, como es su dignidad. Este hecho fomentaría, además, el transhumanismo permitiendo identificar como persona lo que solo es máquina.

No obstante, tanto el filósofo de la Universidad de Nueva York, David Chalmers, como el filósofo Jonathan Birch de la London School of Economics and Political Science, en sus trabajos para el informe “Tomar en serio la IA”26, no afirman la existencia de una sensibilidad o conciencia de la IA, sino solamente la incertidumbre sustancial sobre estas posibilidades.

Esta problemática la observamos con mayor pureza en la IA aplicada al ámbito jurídico. Las máquinas podrán exponer datos procesados, normas jurídicas y resoluciones judiciales, pero no podrán exponer el espíritu de la ley, el iusnaturalismo del derecho, preceptos que, conforme al profesor Fernández-Galiano, son aquellos acordes a la naturaleza del hombre, a su racionalidad y sociabilidad27. Desde este punto de vista, no es posible comprender que la conciencia sea producto de un ingente volumen de datos procesados por una máquina sino, más bien, fruto de un elemento intangible propio del ser humano. Y parece bastante más preferible esta opción a aquella otra que la concreta como un producto simplemente mecánico.

IX. Las leyes de la IA: innovación y burocracia

Científicos de muchas áreas de conocimiento han mostrado su preocupación por los avances de la IAG. Ante esta expansión sin medida, se han elaborado unas leyes para imprimir una razonable equidad en su creación, uso y expansión. Frank Pasquale, profesor de Derecho en la Facultad de Cornell, es el responsable de esta construcción que actualiza las viejas leyes de Issac Asimov plasmadas en su novela Yo, Robot, publicada en 1950.

Pascuale ofrece cuatro leyes que debe cumplir la IA y la robótica28:

1. Los sistemas robóticos y de IA deberán servir de complemento a los profesionales y no reemplazarlos.

2. Los sistemas robóticos o la IA no tienen que falsificar lo humano.

3. Los sistemas robóticos y la IA no deben fomentar la carrera armamentística de suma cero.

4. Los sistemas robóticos y la IA tienen que indicar siempre la identidad de sus creadores, controladores y propietarios.

Aunque el libro se publicó en 2020, las cuatro leyes se encuentran de plena actualidad dados los avances de la IAG. El temor ante la IA se ha materializado en distintas iniciativas por organismos internacionales. 

Así, en 2019, la OCDE actualizó su recomendación sobre IA, en donde se recogen una serie de principios, no vinculantes, de carácter político, dirigidos a una gestión responsable. En ellos se plasma la salvaguarda de los derechos humanos y valores democráticos, la inclusión, la equidad, la innovación y la promoción de bienestar. Dichas recomendaciones fueron suscritas en París, el 21 de mayo de 2019, por 42 países en la reunión del Consejo Ministerial de la OCDE, en consideración a distintos factores: impacto social de la IAG, preocupación por la desinformación, conductas responsables en el uso de la IA y promoción de la sostenibilidad medioambiental.

Para ponderar el gran impacto que la IAG tiene en nuestras sociedades, basta con explicar que ChatGPT se lanzó a finales de 2022 y que solamente en dos meses alcanzó más de 100 millones de usuarios29.

En Europa, el Reglamento (UE) 2024/ 1689, de 13 de junio de 2024, de Inteligencia Artificial, tiene por objeto, resalta en su epígrafe 176, la protección del ser humano frente a la IA; sus derechos enumerados en la Carta de los Derechos Fundamentales de la UE; el Estado de derecho y la democracia; la protección del medioambiente, la protección de la salud y la seguridad. Esta es la primera normativa vinculante sobre inteligencia artificial dictada en el mundo. 

Las regulaciones legales poseen un variado aspecto positivo, pero también algunos potencialmente negativos. Así, se ha criticado la norma por parte de algún sector empresarial, porque podría perjudicar la economía de la UE al impedir que las empresas utilicen y desarrollen tecnología inteligente artificial de última generación. También porque lastraría la innovación si reparamos en la inexistencia de marco regulatorio en otras partes del mundo. La competencia empresarial no conoce de distancias y todas luchan por la conquista del consumidor. Por ejemplo, Christian Klein, director de la multinacional SAP, mostró su disconformidad con la regulación tecnológica de la Ley de IA porque daña la competitividad de Europa. De hecho, las grandes empresas Apple y Meta han declinado presentar sus productos más avanzados en la UE30.

En EE.UU., el senador Chuck Schumer convocó una serie de reuniones informativas para mostrar qué áreas de la IA deben ser reguladas31. El gobierno federal, con antecedente en la norma europea, ha dictado la orden ejecutiva sobre Desarrollo y uso seguro, confiable y protegido de la inteligencia artificial, de 30 de octubre de 2023. Consecuencia de esas leyes se produce un fenómeno burocrático que condiciona la iniciativa empresarial a una previa autorización que no suele ser rápida, tampoco sencilla de tramitar y con resultados inciertos. Un incoveniente para la innovación32 y su impacto disruptivo33 en la economía. Frente a estos propósitos federales, algunos gobernadores de los EE. UU. han vetado proyectos normativos dirigidos a regular modelos de IA más potentes.

En el término medio se encuentra la virtud, evocando a Aristóteles en su Ética a Nicómaco, pero debe evitarse un exceso regulatorio que provoque la huida de empresas a otros lugares con legislación más laxa, impidiendo la creacion de empleo.

Notas

1 Torres, Jordi. (2023): La inteligencia artificial explicada a los humanos, Ed. Plataforma Actual, Barcelona, p. 18. 

2 Nilsson, Nils J. (1998): Inteligencia artificial. Una nueva síntesis, McGrawHill, Madrid.

3 Minsky, Marvin L. (2014): Premios Fronteras del Conocimiento, BBVA. https://www.premiosfronterasdelconocimiento.es/galardonados/marvin-l-minsky/ 

4 Jiménez Alfaro, A. y Díaz Ospina, J.V. (2021): “Revisión sistemática de literatura: Técnicas de aprendizaje automático (machine learning)”, Cuaderno Activa (Revista científica de la Facultad de Ingeniería), p. 119. https://ojs.tdea.edu.co/index.php/cuadernoactiva/article/view/849 

5 Mitchell, M. (2024): Inteligencia artificial: Guía para seres pensantes, Ed. Capitán Swift, Madrid, p. 48.

6 Holdsworth, J. y Scapicchio, M. (2024): “¿Qué es el aprendizaje profundo?”, IBM, 17 de junio. https://www.ibm.com/mx-es/topics/deep-learning 

7 Torres, J. (2023): La inteligencia artificial explicada a los humanos. cit., p. 70.

8 RAE (2023): “La experta en inteligencia artificial Asunción Gómez-Pérez ingresa en la RAE para ocupar la silla ‘q’”, 21 de mayo. https://www.rae.es/noticia/la-experta-en-inteligencia-artificial-asuncion-gomez-perez-ingresa-en-la-rae-para-ocupar-la 

9 Brenet, D. (2024): La inteligencia artificial explicada. De los conceptos básicos a las aplicaciones avanzadas de la IA. Ed. Eni, Barcelona, p. 27.

10 Stryker, C. y Scapicchio, M. (2024): “¿Qué es la IA generativa?”, IBM. 22 de marzo. https://www.ibm.com/es-es/topics/generative-ai 

11 Casar Corredera, J.R. (2023): “Inteligencia Artificial Generativa”, Anales de la Real Academia de Doctores de España, v. 8, núm.3, p. 483. 

12 Lorenzo de Membiela, J. (2024):, “Inteligencia artificial generativa y energía nuclear”, El Confidencial Digital, 8 de noviembre.

https://www.elconfidencialdigital.com/articulo/la_voz_del_lector/inteligencia-artificial-generativa-energia-nuclear/20241108092823873540.html

13 Oliver, N. (2024): Qué es la inteligencia artificial, Ellisa, 4 de diciembre.

14 Brodsky, S. (2023): “Superinteligencia de IA: ¿Exageración o realidad?”, IBM, 18 de diciembre. https://www.ibm.com/es-es/topics/artificial-superintelligence 

15 Chui, M., Roberts, R., Yee, L. Hazan, E., Singla, A., Smaje, K. y Sukharevsky, A. (2023): El estado de la IA en 2023: El año clave de la IA generativa. The economic potential of generative AI. The next productivity frontier. McKinsey & Company. Ambos en web: https://www.mckinsey.com/featured-insights/destacados/el-estado-de-la-ia-en-2023-el-ano-clave-de-la-ia-generativa/es

https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier#key-insights

16 Douma, S. y Schreuder (2004): Enfoques económicos para el análisis de las organizaciones, Civitas, Madrid, y Nelson, R.R. y Winter, S.G. (1982): “An evolutionary theory of economic change”, Harvard University Press, Cambridge.

17 Avanade (2024): “Hacer aquello que importa”. Informe de Avanade sobre la preparación para la IA. https://digitalassets.avanade.com/api/public/content/avanade-ai-readiness-report-es 

18 Harari, Yuval Noah (2016): Homo Deus. Breve historia del mañana, Debate, Madrid, p. 450.

19 Dreyfuss, H.L. (1972): What Computers Can´t do: A critique of Artificial Reason, The MIT Press.

20 Davis, E. y Marcus, G. (2015): “Commonsense Reasoning and Commonsense Knowledge in Artificial Intelligence”, Communications of the ACM, septiembre. https://dl.acm.org/doi/abs/10.1145/2701413 

21 DeAngelis, S. (2018): “Inteligencia artificial y sentido común”,Enterra Solutions, de 5 de abril. https://enterrasolutions.com/artificial-intelligence-and-common-sense/ 

22 Arias, Daniel E. (2023): “Murió Douglas Lenat, un precursor que quiso hacer más humana la inteligencia artificial”, AgendAR, de 6 de septiembre. https://agendarweb.com.ar/2023/09/06/murio-douglas-lenat-un-precursor-que-quiso-hacer-mas-humana-la-inteligencia-artificial/ 

23 Torres, J.: La inteligencia artificial explicada a los humanos, cit., p. 69.

24 Crisara, M. (2024): “La verdad sobre la inteligencia artificial: ¿Podrán las máquinas pensar o sentir de verdad?”, Esquire, 18 de febrero. https://www.esquire.com/es/ciencia/a46827179/sensibilidad-frente-conciencia-sistemas-inteligencia-artificial/ 

25 Bostrom, N. (2016): Superinteligencia, Teel editorial, Granada, p. 2.

26 Chalmers, David; Birch, Jonathan (2024). En “Taking AI Welfare Seriously” (AA. VV.) https://eleosai.org/papers/20241030_Taking_AI_Welfare_Seriously_web.pdf 

27 Fernández-Galiano, A. (1982): Derecho Natural. introducción filosófica al Derecho, 3ª edic., Madrid, p. 76. 

28 Pasquale, F. (2024): Las nuevas leyes de la robótica. Defender la experiencia humana en la era de la IA, Galaxia Gutenberg, pp. 28 y ss..

29 Velasco J.J. (2021): “La IA no es ciencia-ficción, está presente en nuestro día a día […]”, Bifurcaciones, núm. 16, p. 7. https://bifurcaciones.com/wp-content/uploads/2023/06/Inteligencia-Artificial_ED16.pdf 

30 Morris, S. (2024): “SAP chief warns EU against over-regulating artificial intelligence”, Financial Times, 1 de octubre. https://www.ft.com/content/9db8fe6d-3f8a-4886-a439-c23faf459c23 

31 Waters, R. (2024): “¿Cómo se regulará la IA?”, Financial Times, 5 de junio. https://www.ft.com/content/121fd932-f7b1-4756-8fe2-884f5a102456 

32 Bateman, T. y Snell, S. (2009): Administración, liderazgo y colaboración en un mundo competitivo”, 8ª edic., McGraw-Hill, México, p. 631

33 Von Mises, L. [1974]: Burocracia, Unión Editorial, Madrid, y Lorenzo de Membiela, J. (2016): Estructura burocrática y Administración Pública, Actualidad Administrativa, nº 10.

* Este artículo ha sido publicado originalmente en la revista ‘Cuadernos FAES de pensamiento político’. Si quiere leer otros textos parecidos o saber más sobre esa publicación, puede visitar su página web.

Publicidad