La UE prohíbe la creación de imágenes sexualizadas generadas con IA
El veto, que entrará en vigor el 2 de diciembre, se ha pactado tras el escándalo que ha causado Grok

Sede de la Comisión Europea.
Las instituciones de la Unión Europea llegaron este jueves a un acuerdo para prohibir la creación de imágenes sexualizadas generadas con inteligencia artificial, sin el consentimiento de las personas afectadas.
El pacto, cerrado de madrugada, prohíbe los sistemas de inteligencia artificial cuyo único propósito es el de generar este tipo de imágenes o de abuso sexual infantil, además de los que se pueden emplear para múltiples propósitos, si no tienen «medidas de seguridad razonables» para evitar la propagación de este contenido.
El veto, que entrará en vigor el 2 de diciembre de 2026, se ha pactado tras el escándalo que ha causado la generación de fotografías con Grok, la herramienta de inteligencia artificial de la red social X, que ahora tendrá hasta finales de año para diseñar medidas de protección adecuadas.
«Nuestras empresas y ciudadanos quieren dos cosas de las reglas de inteligencia artificial. Quieren poder innovar y sentirse seguros. El acuerdo de hoy hace ambas cosas», dijo en redes sociales la vicepresidenta de la Comisión Europea encargada de la política digital, Henna Virkkunen. La UE añade así una limitación adicional a la generación de este tipo de contenido, perseguido ya por el derecho penal en los Estados miembros.
Además, las instituciones comunitarias retrasaron hasta diciembre de 2026 la obligación de incorporar marcas de agua a todo tipo de contenido generados con inteligencia artificial, ya sean fotos, videos o audio, para que los usuarios puedan detectar con facilidad que se han generado con una máquina.
Sistemas de alto riesgo
El acuerdo pospone también hasta el 2 de diciembre de 2027 las obligaciones que la ley de inteligencia artificial de la UE impone a los sistemas de alto riesgo, como los que se usan para proteger a infraestructuras críticas, los que emplean los bancos para calcular la probabilidad de devolución de un préstamo, para contratar a personal o, por ejemplo, gestionar el control de las fronteras.
Inicialmente, la ley estableció este año para la entrada en vigor de estas obligaciones, pero las instituciones comunitarias han pactado un retraso de dieciséis meses porque Bruselas aún no ha diseñado los requisitos técnicos que deberán cumplir los sistemas de IA para ser seguros, sin poner en riesgo a las personas o vulnerar derechos fundamentales.
La reforma de la ley de inteligencia artificial se ha pactado, principalmente, con el pretexto de reducir la carga burocrática a las empresas y con este objetivo, se ha eximido a varios sectores industriales de tener que cumplir los requisitos de transparencia o de notificación de incidentes que la norma prevé para los sistemas de alto riesgo.
Productos como dispositivos médicos, juguetes o ascensores estarán exentos de tener que demostrar que sus sistemas de IA son seguros si otras normas sectoriales ya les imponen requisitos similares. «Para que Europa se convierta en un continente de IA, necesitamos promover la innovación, apoyar a las empresas emergentes y a las empresas en expansión», dijo la eurodiputada Arba Kokalari, ponente en la Eurocámara de la reforma de la normativa.
La organización CCIA Europe, que representa los intereses de las grandes tecnológicas, mostró su rechazo a la reforma. «Dadas las mínimas mejoras introducidas en la Ley de IA, resulta difícil ignorar la enorme brecha que existe entre la retórica política sobre la simplificación regulatoria y los resultados concretos», dijo esa plataforma en un comunicado.
