Innovación vs. regulación en el enfoque europeo sobre IA: ¿Una dicotomía falsa?
«La Unión no puede seguir presa de ese debate falso que la ha empujado a quizás sobrerregular ámbitos digitales»
En 2019, cuando la Inteligencia artificial (IA) comenzaba a hacerse notar entre el gran público, uno de sus principales expertos a escala mundial, el profesor de Berkeley Stuart Russell, subrayaba en su obra Human Compatible cómo «inevitablemente, la industria tecnológica va a tener que reconocer que sus productos importan; y, si importan, entonces importa también que esos productos carezcan de efectos nocivos. Esto significa que habrá reglas que regirán la naturaleza de las interacciones [de la IA] con los humanos«, incluso prohibiendo los diseños que generen esos efectos.
Russell no se equivocaba. Ya en 2023, un estudio de una de las principales consultoras globales, dado a conocer por el Foro Económico Mundial, y elaborado tras pulsar las opiniones de cientos de relevantes directivos empresariales de todo el planeta, arrojaba como resultado, no solo que esa regulación fuera necesaria, sino que debía acelerarse. En 2024, la IA está ya abordada regulatoriamente, con textos de mayor o menor obligatoriedad, desde instancias internacionales como las Naciones Unidas, la OCDE o el Consejo de Europa. También en países como China o los EE.UU. Y, en lo que aquí más importa, un Reglamento que establece normas sobre IA (Ley de Inteligencia Artificial, LIA) se publicaba el 12 de julio en el Diario oficial de la Unión Europea (UE), para entrar en vigor el 1 de agosto. Desde que a comienzos de diciembre de 2023 se lograse el acuerdo político al respecto entre Parlamento, Comisión y Consejo, esta Ley viene saludándose desde la UE como la primera del mundo en abordar los riesgos de la IA desde una perspectiva horizontal, en cuanto que basada en riesgos abstractos (y no derivados de sectores específicos), y en cuanto que comprensiva de las dos principales familias tecnológicas de IA. Estas son por un lado la llamada IA analítica, orientada a propósitos específicos y fundamentalmente dedicada al procesamiento de información; y, por otro, la IA generativa, utilizable con fines generales y capaz de crear contenidos, en forma de texto, imágenes, sonido o combinaciones de todos ellos. Esta última, desde su comercialización generalizada a partir de octubre de 2022, es la principal responsable de que, «como el Ford T a comienzos del siglo XX», la IA se haya convertido en una herramienta accesible y asequible para prácticamente cualquiera. Ambas familias, insisto, son objeto de la nueva LIA en nuestra Unión. Obviamente, la LIA lleva además a cabo todo esto conforme a los valores democráticos, y al respeto de los derechos y libertades que políticamente nos caracterizan.
Ahora bien, la UE es sobradamente consciente de que la IA no puede ni debe abordarse únicamente desde el punto de vista de los límites que se le haya de imponer. Por eso la LIA prevé algunas medidas orientadas a fomentar la innovación, entre las que destacan los llamados espacios controlados de pruebas (sandboxes), que ofrecen la posibilidad de ensayar con nuevos productos sin el temor a sanciones del regulador; ciertas facilidades de cumplimiento para las empresas pequeñas y medianas; y algunas (tímidas) pautas de favorecimiento de la investigación y la estandarización. Además, de modo simultáneo a estos pasos regulatorios, se han adoptado iniciativas que pretenden fomentar nuestra competitividad en este campo. En este contexto cabe situar el llamado Paquete de Innovación en IA, acordado en enero de 2024. Esta iniciativa se orienta fundamentalmente a potenciar la inversión y a reforzar nuestras capacidades de computación, imprescindibles en cuanto a la IA respecta.
En el citado Paquete de Innovación en IA de enero de 2024, la Comisión Europea nos recuerda que tres superordenadores europeos están entre los diez mayores del mundo (Leonardo, Lumi y Mare Nostrum 5, este último en Barcelona). Mientras que un prestigioso ranking de universidades especializadas en IA arrojaba el quizá sorprendente – pero maravilloso – resultado de que la Universidad de Granada es la número 30 del mundo (por delante de Oxford o Harvard), y número 1 de toda la UE, en investigación sobre IA.
Sin embargo, según datos de 2024 de la OCDE, más del 90% de la inversión mundial de capital-riesgo en IA, que se disparó de 2.700 millones de euros en 2022 a 24.000 millones de euros en 2023, se hace en Estados Unidos. La UE solo cuenta con 9 empresas entre las 100 mayores digitales del mundo (España tiene una), frente a 58 que son estadounidenses. Y de entre los 16 mayores modelos de IA generativa del mundo, solo hay uno europeo (alemán en concreto), siendo los otros 15 de los EE.UU.
Pese a que esas notas de talento en IA y esos datos de infraestructura digital invitan a la esperanza, la Unión parte pues de muy atrás. Cosa poco deseable, cuando es de nuevo la Comisión Europea quien deja constancia de que solo la IA generativa creará un valor empresarial de entre 2,4 y 4 billones de euros anuales.
Ante este escenario, es inevitable dudar si las mencionadas disposiciones de la LIA sobre innovación resultan suficientes. Que sean suficientes en una norma en la que la innovación, sí, se cuenta entre los principales objetivos, pero donde sin duda priman otros dos fines, la seguridad de una IA como producto y la salvaguarda de los derechos y la democracia frente a sus posibles daños. E inevitable es también dudar si el enfoque general que desde la UE se está otorgando a estas cuestiones es el más correcto o no.
Regulamos mucho en la Unión. Y a fuerza de hacerlo, nos hemos convertido indiscutiblemente en el principal bastión regulatorio de la tecnología digital. Basta mencionar normas como el Reglamento General de Protección de Datos para demostrarlo. Un bastión que además es emulado a escala global, lo que ha llevado a algunos a referirse a ello como «efecto Bruselas» (Anu Bradford, en su obra homónima).
Otra cosa es el balance, no ya regulatorio, sino tecnológico, que de ello quepa hacer. Y, para ello, basta comprobar datos como los aquí mencionados. En tecnología, la Unión golpea bien por debajo del peso que debe corresponder a la primera área comercial del mundo, que engloba a casi 500 millones de personas y genera el tercer producto bruto del planeta, con cerca de 15 billones de dólares.
Cuando contemplamos todo, solemos conformarnos, diciéndonos que al hilo de la regulación digital, nadie como nosotros está comprometido con los derechos y con la democracia. Que este modo de regular es «the European way». Que esta es la forma correcta de actuar ante tecnologías tan potencialmente dañosas como puede ser la IA, y ningún otro, dado que este es el modo que pensamos nos sirve para proteger nuestros valores. Algunos, incluso, llegan a asombrarse de que otros propugnemos el avance digital como un factor de primordial importancia, en la medida en que ese avance implica indudablemente riesgos, también para los derechos y libertades; una verdadera modalidad digital y continental del terrible «que inventen ellos» (los chinos y los estadounidenses ahora, eso sí): «Que inventen ellos», si de este modo evitamos el más mínimo riesgo regulatorio. Como si existiera alguna tecnología que carezca de riesgos.
Al menos en Europa, estos son los términos del debate. Se proclama la relevancia de la innovación, se adoptan medidas para fomentarla, y hasta se potencia su financiación, a la par que se aprueba una norma como la LIA, que regula muy intensamente estas cuestiones. En el fondo pues, el foco principal de atención sigue estando en la regulación, siendo la vocación esencial de esta el evitar riesgos. Desde posiciones razonables y equilibradas, por otro lado, ¿quién podría cuestionar que una regulación de la Europa del siglo XXI pretenda también evitar riesgos, en especial para los derechos de las personas? No es ni siquiera planteable.
Ahora bien, ¿de qué derechos estamos hablando cuando los invocamos para justificar una regulación conforme al patrón europeo? ¿Hablamos también del derecho a la salud e incluso del derecho a la vida, en cuanto pudieran verse beneficiados por el uso de la IA? ¿Hablamos del derecho a la educación, o a la vivienda, en esas mismas condiciones? Baste un ejemplo real para ilustrar este punto de vista: el empleo de IA en servicios de urgencias está implicando ya hoy ahorros de tiempo de hasta el 20% en personal médico. Lo atestigua la práctica de importantes entidades hospitalarias. ¿No redunda este uso de la IA en el derecho a la salud y hasta en el derecho a la vida de una persona que pudiera llegar a ser atendida gracias a esas mayores eficiencias, y que quizá en caso contrario no lo habría sido (o no lo habría sido a tiempo)?
Una abstracta invocación de los derechos resulta insuficiente y por tanto inadecuada para limitar la innovación. Ante todo porque ni siquiera derechos tan elementales como el de participación política habrían siquiera llegado a surgir sin el avance tecnológico del siglo XIX (lo prueba sin ir más lejos el profesor Gabriel Tortella en su magistral Capitalismo y revolución, de 2017). No descubro nada nuevo, es la vieja «libertad de ser libres» de Hannah Arendt. ¿Cómo puede nadie pretender votar si ni tan siquiera tiene garantizado el sustento? Primero vivir, después filosofar. En segundo lugar, porque los derechos no son solo los civiles y políticos, son también los económicos y los sociales y los culturales. Todos ellos, aquellos y estos, han florecido gracias a la innovación.
Nuestra prioridad a la regulación en materia digital tiene a Europa atenazada. Un «lujo» geopolítico que en la era de la IA, la UE sencillamente no se puede permitir. La Unión no puede seguir presa de ese debate falso que la ha empujado a quizás sobrerregular ámbitos digitales apenas nacientes a gran escala, como es la IA. ¿Son necesarias cerca de 150 páginas (más de 450 en texto no comprimido) para conseguir los objetivos de esta Ley? Algunos apuntan que su vocación es la de ser meros principios. Aunque no solo el propio título de la norma – atrás citado – desmiente esta afirmación, sino sus múltiples artículos, que en muchos casos establecen reglas (y obligaciones) de elevada concreción. Por otro lado, muchos conseguirían plasmar esos supuestos principios en bastante menos extensión. Para empezar, el Consejo de Europa, una institución justa y fundamentalmente nacida para preservar la paz y los derechos, que a comienzos de 2024 y en poco menos de 12 páginas, producía un texto ejemplar, este sí, de principios, para hacer posible una IA fiable.
Algunos llegan a tachar la innovación de ideología, «la ideología del capitalismo tecnológico» (así Eduard Aibar, en El culto a la innovación de 2023). Por fortuna, este punto de vista es claramente minoritario. Innovar es prosperar. Y prosperar, no solo en términos de crecimiento económico, siendo esto ya de por sí deseable. Innovar es también prosperar en derechos, en todos ellos, en cualesquiera de ellos, sean del tipo que sean.
Es necesario y urgente que Europa abandone esa dicotomía falsa entre innovación y regulación, que consume lo mejor de nuestras energías. En la UE, los hitos en materia digital se cuentan y se miden, sobre todo, en términos de normas aprobadas. Así se desprendía, por ejemplo, de la intervención en un evento especializado de 2023 en Madrid de una importante alto cargo de la Dirección general de la Comisión especializada en estos temas (DGConnect): los éxitos del Comisario del ramo fueron jalonados al paso, casi una tras otra, de todas las normas acordadas durante su gestión. Ni una palabra sobre iniciativas en favor de un uso fiable, pero también pionero y decidido de estas tecnologías.
La tecnología digital, la IA, puede poner en riesgo derechos. ¿Qué tecnología no? Aunque también puede garantizarlos y reforzarlos. Entorpecer a la IA a comienzos del siglo XXI sería equivalente a hacerlo al tren de vapor a inicios del XIX, o a Internet a fines del XX. Y el actual enfoque europeo puede terminar entorpeciéndola. Necesitamos una regulación que, salvaguardando en la mayor medida posible nuestros derechos, nos ayude sin embargo a utilizar en la mayor medida posible estas tecnologías. Iniciativas como el Paquete de Innovación en IA apuntan en la dirección correcta. La LIA lo hace en mucha menor medida, pese a ser consciente de deberlo lograr.