Inteligencia artificial: equilibrio en la balanza
Es impensable plantear un freno al avance tecnológico de la IA, pero sí es necesario regular su uso
Que el uso de la inteligencia artificial (IA) está en constante aumento es un hecho. El pasado año ChatGPT representó un 60% del tráfico con más de 14 billones de usuarios. En cifras totales se ha contabilizado un total de 24 billones de visitas mundiales a las 50 principales herramientas de IA.
En la última semana, se ha publicado el informe realizado por Sujan Sarkar, autor del estudio Uncovering the AI Industry: 50 Most Visited AI Tools and Their 24B+ Traffic Behavior, que muestra el ranking con los 20 países con más usuarios de inteligencia artificial, en donde Europa no empieza a ser visible hasta la sexta posición con el Reino Unido, mientras que todas las visitas realizadas en Europa solo representan un 16% del total. España está a la cola del ranking en la posición 14 con un 1,55% del total de las visitas.
En la cabeza se encuentra EEUU, que con 5,5 billones de visitas acapara la gran parte de visitas a herramientas de inteligencia artificial a escala mundial. Supone un 22,62% del total, por delante de India, que con 2,1 billones es el segundo país con más usuarios. El top 5 lo cierran Indonesia (1,4 billones), Filipinas (1,3 billones) y Brasil (1,3 billones).
¿Qué factores influyen en el uso de la IA?
Es evidente la correlación entre el número de habitantes de cada uno de estos países con el número de usuarios de la IA, pero tampoco es posible determinar que es uno de los factores decisivos porque países como EEUU, con una población de más de 330 millones de habitantes, reflejan más del doble de usuarios que India, con 1.400 millones de habitantes.
Pero es necesario tener un contexto completo de los factores que pueden estar influyendo en la posición que ocupa cada país en este ranking. Uno de estos elementos determinantes está constituido por el gasto de las naciones en inteligencia artificial, una mayor inversión en IA se traducirá en un mayor tráfico con estas herramientas y, por tanto, un mayor desarrollo en el uso de estas tecnologías.
Incidentes relacionados con la IA
En este escenario es imprescindible tener en cuenta los riesgos y desafíos que implica el uso de la IA, la protección de los datos personales, la transparencia de los algoritmos, el impacto social y ético de las decisiones automatizadas están en permanente tela de juicio. Estos riesgos a menudo se ven materializados como incidentes en los que está implicada la inteligencia artificial, afectando tanto a la confianza como a la integridad de los sistemas, además de las personas y las instituciones usuarias.
En los últimos años, se ha evidenciado un aumento significativo en la ocurrencia de incidentes vinculados con la IA. Este fenómeno, intrínsecamente ligado al rápido aumento tecnológico, suscita una serie de desafíos y preocupaciones a nivel global. El aumento exponencial de la adopción de tecnologías basadas en la IA supone un escenario propenso a incidentes que abarcan desde brechas de seguridad a violaciones de la privacidad y daños físicos.
Está considerado como un incidente relacionado con la IA cualquier evento en el que el uso de un sistema de inteligencia artificial es causante o contribuye a causar un daño o riesgo para las personas, organizaciones, sociedad o medio ambiente. Según la base de datos de incidentes relacionados con la IA, un incidente cumplirá los siguientes criterios:
– Debe involucrar a un sistema de IA, entendido como un sistema que realiza tareas que normalmente requerirían inteligencia humana, como el reconocimiento de imágenes, el procesamiento del lenguaje natural, la toma de decisiones o el aprendizaje automático.
– Debe causar o contribuir a causar un daño o un riesgo real, potencial o percibido, que puede ser físico, psicológico, económico, social, ético, legal o ambiental.
– Debe tener un impacto en el mundo real, es decir, que afecte a entidades reales, como personas, animales, plantas, objetos, instituciones, sistemas o ecosistemas.
– Debe ser verificable, es decir, que exista evidencia o testimonio de que el incidente ocurrió o pudo haber ocurrido, y que se pueda atribuir al sistema de IA o a su interacción con otros factores.
Clasificación de los incidentes por categorías:
La evaluación y clasificación de este tipo de incidentes se erige en una tarea ineludible para comprender y gestionar los riesgos que supone la adopción de esta tecnología. Estos incidentes no solo erosionan la confianza en los sistemas, sino que también comprometen la integridad de las entidades y las instituciones que hacen uso de la inteligencia artificial.
Un análisis detallado de los incidentes relacionados con la IA supone la clasificación según la tipología, pudiendo discernir y comprender la frecuencia y naturaleza de los contratiempos. El gráfico que se muestra a continuación arroja información sobre las áreas críticas, destacando patrones esenciales para la comprensión de la seguridad en los entornos en los que la IA desempeña un papel fundamental.
A partir de una exhaustiva revisión de los datos contenidos en distintas fuentes como la base de datos de incidentes relacionados con la IA y el informe Incibe sobre incidentes de ciberseguridad se elabora el ranking de los países con más incidentes en los que ha intervenido la IA, poniendo de manifiesto la apremiante necesidad de abordar los retos relacionados con el despliegue de la IA. La primera posición la ostenta Estados Unidos con un total de 54 incidentes, seguido de cerca por la India y el Reino Unido.
La base de datos de incidentes de IA, proyecto de la Responsible AI Collaborative, organización dedicada a promover el uso seguro, ético y sostenible de la IA, clasifica y recopila los incidentes de la IA según tipos de daños, entidades involucradas y respuestas, con el fin de prevenir y mitigar los impactos derivados de estos incidentes.
Observar si existe una relación entre el ranking de los países con mayor tráfico de IA y el ranking con más incidentes relacionados permite revelar los posibles patrones subyacentes y la correlación entre ambos. Esta comparativa puede establecer un marco en el que la formulación de políticas y regulaciones pueda adaptarse a los desafíos específicos y la madurez tecnológica de cada región.
Esta clara correlación subraya la dicotomía inherente entre el aumento de los incidentes relacionados con la IA, relacionada con el tráfico de cada uno de los países, y la necesidad imperativa de impulsar el progreso tecnológico de las naciones.
La premisa central es la noción de que, a mayor adopción de la IA por parte de la población, mayor es el riesgo de experimentar incidentes relacionados con esta tecnología. Los incidentes, que abarcan desde fallos de seguridad y violaciones de privacidad hasta consecuencias inesperadas de los algoritmos, plantean interrogantes fundamentales sobre la gestión responsable de la IA.
Esta correlación no debe obviar la importancia de fomentar el progreso tecnológico y la adopción generalizada de sistemas de IA para mantener la competitividad y fomentar el avance económico de las naciones. Se trata de una paradoja en la que el mismo impulso que implica un mayor riesgo de incidentes es esencial para la evolución tecnológica y el progreso de un país.
Es de vital importancia reconocer la capacidad transformadora de la IA en su uso como herramienta, con el potencial de revolucionar las industrias, mejorar la eficiencia y facilitar la resolución de problemas. El creciente uso de esta tecnología no solo impulsa la innovación, sino que también está posicionando a los países en la vanguardia de la economía digital, aunque este avance no esté exento de desafíos y amenazas.
Esta dicotomía se hace evidente en una pregunta ineludible, ¿es posible equilibrar la necesidad de avanzar tecnológicamente con la gestión eficaz de los riesgos asociados? La respuesta está fundamentada en políticas públicas y marcos de uso responsable que guíen la implementación y supervisión de los sistemas de IA, radicando en el establecimiento de regulaciones robustas que fomenten la innovación responsable.
Entender que el riesgo inherente a la adopción masiva de la IA no es una razón de peso para fomentar el freno de su desarrollo es fundamental, si no que más bien debe interpretarse como una llamada al fortalecimiento de mecanismos de supervisión. Siendo fundamental la estrecha colaboración entre instituciones gubernamentales, organizaciones académicas y la industria privada.
Medidas necesarias para regular el uso de la IA
Es impensable plantear un freno al avance tecnológico de la IA, pero sí es necesario regular su uso y con ese objetivo la Unión Europea ha aprobado el día 8 de diciembre una legislación pionera destinada a regular el despliegue y la aplicación de la IA. No se trata del primer marco regulatorio que trata de establecer límites a la inteligencia artificial, pues en 2021 los 193 estados miembros de la Unesco aprobaron el primer marco ético de la IA, pero el imparable avance de esta tecnología hace necesario regular las nuevas posibilidades que ofrece porque apenas una semana después de la publicación de este marco se presentaba ChatGPT descubriendo unas capacidades inimaginables.
Según el Índice de la Inteligencia Artificial 2023 de la Universidad de Stanford, 31 estados ya han aprobado al menos una ley relacionada con esta tecnología. En total, se han decretado más de 125 normas a nivel global, y 37 de estas se aprobaron solo en 2022. Estados Unidos encabeza la lista del reporte, con 22 leyes, seguido de Portugal y España con 13 y 10 respectivamente.
Y entonces, ¿cuál es la diferencia entre todas las regulaciones anteriores y la nueva propuesta de la UE? La respuesta es la IA Generativa, con especial atención a la identificación del contenido generado por IA y evitar que estos sistemas generen contenido ilegal. Este marco regulatorio clasifica los sistemas de IA en tres niveles de riesgo: bajo, alto e inaceptable, estableciendo obligaciones generales de transparencia para garantizar una utilización ética y responsable de esta tecnología.
Entre las cláusulas más destacadas se encuentran la prohibición de sistemas de vigilancia biométrica, la creación de escalas de comportamiento de buen ciudadano y la implementación de sistemas intrusivos o discriminatorios. Específicamente, la normativa también aborda la supervisión de sistemas de IA generativa, como el caso de ChatGPT, capaces de generar contenidos falsos o engañosos.
Este trascendental texto legal ha sido ratificado por el Parlamento Europeo con un respaldo significativo, contando con 499 votos a favor, 28 en contra y 93 abstenciones. Su próxima fase implica negociaciones con el Consejo Europeo y la Comisión, anticipándose su implementación para no más tarde de 2026. La aprobación de esta legislación refleja el compromiso de la Unión Europea con la salvaguarda de derechos, la ética y la transparencia en el desarrollo y utilización de la inteligencia artificial.
Ana Lazcano Rojas, directora de la Cátedra de Inteligencia Artificial de la Universidad Francisco de Vitoria.