THE OBJECTIVE
Internacional

La Eurocámara aprueba la primera ley para regular la inteligencia artificial

La norma fija las reglas con las que limitar los riesgos de la IA, que se aplicará plenamente a partir de 2026

La Eurocámara aprueba la primera ley para regular la inteligencia artificial

Una bandera de la Unión Europea 'pixelada'. | Europa Press

El pleno del Parlamento Europeo ha dado ‘luz verde’ este miércoles al acuerdo histórico alcanzado el pasado diciembre entre instituciones para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA) en la Unión Europea, un nuevo marco cuya aplicación plena está prevista a partir de 2026.

La nueva normativa ha salido adelante en la sesión plenaria celebrada en Estrasburgo (Francia) con el voto a favor de 523 eurodiputados, 46 en contra y 49 abstenciones, pero queda que los Veintisiete den también su visto bueno y que el reglamento pase una última comprobación jurídica-lingüística antes de su entrada en vigor.

Esta ley categoriza los niveles de riesgo y las restricciones que deben acompañar en función de la escala, lo que implica la prohibición en casos de riesgo «inasumible», como los sistemas de categorización biométrica, la extracción no dirigida de imágenes para crear bases de datos de reconocimiento facial, el reconocimiento de emociones, sistemas de puntuación social o sistemas que manipulan el comportamiento.

Para ello, están previstas una serie de estrictas excepciones que permitirán el uso de sistemas de vigilancia biométrica en espacios públicos, siempre que haya orden judicial previa y para una lista de delitos estrictamente definidos.

Asimismo, la supervisión biométrica en tiempo real se limitará en tiempo y ubicación y ello sólo para la búsqueda selectiva de víctimas de secuestro, trata o explotación sexual, para evitar una amenaza terrorista específica y presente y para localizar o identificar a un sospechoso de haber cometido un delito de los recogidos en la norma.

Además, quedan definidos los sistemas de IA autorizados pero considerados de muy alto riesgo por su importante impacto en la salud, la seguridad, los derechos fundamentales, el medio ambiente y el Estado de derecho.

Los sistemas de Inteligencia Artificial utilizados para influir en el resultado de las elecciones y el comportamiento de los votantes también se clasifican como de alto riesgo, y los ciudadanos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones basadas en sistemas de IA de alto riesgo que afecten a sus derechos.

Otra de las claves ha sido cómo introducir reglas específicas para los modelos fundacionales, como las plataformas ChatGPT o DALL-E, que vieron la luz después de que la Comisión Europea presentara su primera propuesta de regulación por lo que este capítulo se ha ido desarrollando en el curso de la negociación.

Esta legislación pionera también prevé sanciones para los incumplidores que irán desde los 35 millones de euros o el 7 por ciento del volumen de negocio global hasta los 7,5 millones, en función del tamaño de la compañía.

Así, el objetivo de la nueva regulación europea es fijar estándares de seguridad y de derechos fundamentales que eviten que la tecnología se use con fines represivos, de manipulación o discriminatorios; pero evitando una hiperregulación que lastre la competitividad de la Unión Europea.

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D