MyTO
Tecnología

Los retos jurídicos de la inteligencia artificial a través de seis casos reales

El riesgo más importante al que se enfrenta el uso de la inteligencia artificial tiene relación con la gran cantidad de datos que utiliza

Foto: Possessed Photography | Unsplash

La inteligencia artificial (IA) está cada día más presente en todos los sectores de nuestra sociedad, tanto que ha llegado incluso a ser calificada como «la nueva electricidad».

Los sistemas inteligentes tienen ya la capacidad de analizar su entorno y actuar de forma de autónoma, demostrando en ocasiones ser más eficaces que los humanos. Esto entraña de por sí importantes riesgos desde un punto de vista tecnológico, pero también jurídico. Veamos algunos de ellos:

1. Los datos

El riesgo más importante al que se enfrenta el uso de la inteligencia artificial tiene relación con la gran cantidad de datos que utiliza, puesto que disponer de un buen dataset o conjunto de datos es el primer paso de esta tecnología. Esto plantea dos retos a nivel jurídico:

  • Por una parte, el relativo al origen y la recogida de los datos, que genera conflictos con el derecho a la protección de datos.
  • Por otra, el hecho de que el dataset es absolutamente dependiente de la calidad y cantidad de los datos. Si estos no son correctos o contienen sesgos, los resultados que aporte la inteligencia artificial serán erróneos.

De estos dos problemas, el segundo es el que ha cobrado mayor relevancia, pues en la actualidad existen multitud de empresas dedicadas a la elaboración y venta de conjuntos de datos para la creación de aplicaciones de inteligencia artificial.

El salto del 5G al 6G: más inteligencia artificial y control del mundo real con gemelos virtualesEl salto del 5G al 6G: más inteligencia artificial y control del mundo real con gemelos virtuales

La existencia de sesgos resulta muy preocupante, sobre todo en lo que respecta a los algoritmos predictivos.

En el caso Wisconsin vs. Loomis, se demostró la existencia de un sesgo por razón del origen racial de las personas en Compass, un algoritmo predictivo de aprendizaje automático o machine learning adoptado por la Administración de Justicia de Estados Unidos para determinar el riesgo de reincidencia del individuo en diferentes etapas del proceso penal. Este daba siempre como resultado un porcentaje de reincidencia más elevado en las personas de raza negra.

Otro precedente de discriminación laboral por cuestión de género es el relativo a la utilización de un algoritmo de aprendizaje profundo o deep learning por parte de Amazon en los procesos de selección de personal. En este caso, el algoritmo detectó que el porcentaje de mujeres que habían llegado a la fase final de entrevista en los procesos de contratación de la empresa era muy escaso, motivo por el cual comenzó a rechazar sistemáticamente los currículum presentados por estas.

2. Las decisiones

El segundo aspecto fundamental de algunas aplicaciones de inteligencia artificial y uno de sus principales riesgos es la opacidad de sus decisiones.

En algunos casos no podemos comprender de qué modo funciona el algoritmo (trazabilidad) y/o por qué ha tomado una decisión (explicabilidad). Es lo que se conoce como el efecto caja negra. Este es un problema de gran calado no solo a nivel técnico sino también jurídico si se tiene en cuenta que desconocer estos datos puede conducir a vulneraciones ocultas e insospechadas de derechos fundamentales.

Eduardo Iribas Jimeno

Una sentencia del Tribunal Ordinario de Bolonia (Italia) de 31 de diciembre de 2020 declaró ilegal el algoritmo Frank incorporado en el sistema de reserva de Deliveroo porque provocaba discriminaciones entre los repartidores (conocidos como riders). La resolución explica que el fallo judicial se basa también en la imposibilidad de determinar los criterios específicos de cálculo para las estadísticas que el algoritmo realiza.

Igualmente, la sentencia del 5 de febrero de 2020 de la Corte de Distrito de la Haya (Países Bajos) declaró ilegal el algoritmo SyRI (Sistema de Indicación de Riesgos), utilizado por parte del Gobierno de los Países Bajos para combatir el fraude a la Seguridad Social. Ello con base en una invasión desproporcionada y discriminatoria de la privacidad, pero también porque no resultaba posible verificar cómo estaba diseñado el árbol de decisión que utilizaba el algoritmo y en qué pasos consistía.

3. El funcionamiento

Otro de los problemas que surge con el uso de la inteligencia artificial tiene que ver con los fallos o errores que comete. En no pocos casos, estos errores ocasionarán daños personales o materiales que deberán ser reparados y de los que deberá derivarse la correspondiente responsabilidad, ya sea civil o penal.

Tristemente, debe recordarse el caso de los Boeing 737 Max, un modelo de avión que, tras su puesta en circulación en el espacio aéreo a finales 2018, tuvo dos accidentes debidos a errores no descubiertos de diseño que costaron la vida a 346 personas.

Los fallos, además, pueden ser provocados por un tercero, un ciberdelincuente. Los sistemas de inteligencia artificial son extremadamente vulnerables a los ciberataques y esto puede conducir a fatales consecuencias.

Así, en 2020 una paciente que necesitaba cuidados intensivos en Alemania hubo de ser trasladada cuando los sistemas del hospital en el que se encontraba dejaron de funcionar a causa de un ataque ransomware, falleciendo durante el traslado.

4. La relación entre la tecnología y lo humano

Aparte del funcionamiento gradualmente autónomo de la inteligencia artificial, lo cierto es que a día de hoy resulta imposible desprenderse del factor humano. Tres son los aspectos más preocupantes en este escenario:

  • quién debe tener la última palabra en caso de discrepancia entre la máquina y el humano;
  • qué grado de responsabilidad debe tener el humano en caso de fallo del sistema de inteligencia artificial;
  • y, finalmente, no debe soslayarse que la inteligencia artificial en sí misma no debe utilizarse únicamente como medio para incrementar la productividad, sino también para mejorar las condiciones laborales de los trabajadores.

Todos estos son solo algunos ejemplos de hacia dónde debe dirigir la mirada el derecho cuando se trata de juzgar a una inteligencia artificial. Los problemas a los que se enfrenta actualmente dejan además entrever las importantes necesidades normativas que existen con relación a esta materia.

Es necesario garantizar que la traslación de los resultados de las investigaciones técnicas de inteligencia artificial a la realidad social y empresarial se produzca en un marco jurídico adecuado. Un marco que permita arbitrar un entorno seguro y libre de amenazas indeseadas para los usuarios de los productos y servicios derivados de la inteligencia artificial, de modo que, a su vez, se genere un clima de confianza y de aceptación social de estas tecnologías.

Como indica la Comunicación sobre Inteligencia Artificial de la Comisión de la Unión Europea: «Poner la inteligencia artificial al servicio del progreso humano exige dar solución a los problemas jurídicos que plantea, porque estas soluciones determinarán el tipo de sociedad y de desarrollo tecnológico del futuro».

***

Este artículo fue publicado originalmente en The Conversation. Lea el original.

3 comentarios
  1. Pzpd1

    podría seguir, pero ya he comentado bastante aunque no dejaré tampoco pasar que los ejemplos de «fallos» del punto 3, si se leen con detenimiento, no son achacables a la IA sino al software en general. Es verdad que falló un sistema de manejo automático del avión (en cierto modo una IA de pilotaje que sirve de ayuda al manejo del avión y que hoy en día casi los hace volar solos), pero porque el sistema automático recibía información errónea de unos sensores mal diseñados y para la IA, que percibe el mundo a través de esos sensores, el avión se iba a estrellar e intentaba estabilizarlo (y en realidad lo estrellaba). Un piloto humano en las mismas circunstancias (al que le llega información errónea y no tiene forma alguna de darse cuenta de que son erróneas) haría lo mismo (y más de un accidente aéreo y de otro tipo han sucedido por esas causas).
    Lo del hospital no tiene nada que ver con sistemas IA y lo ya dicho, los ciberataques en general no son más fáciles a sistemas IA que a cualquier software.

  2. Pzpd1

    Vaya, le día a enviar sin repasarlo y reorganizarlo… me ha salido el comentario del tirón… disculpad el estilo y que los puntos no hayan salido con una estructura uniforme (empiezo con el punto a y luego voy al 3 :-D)

  3. Pzpd1

    Varias puntualizaciones.
    a) Cajas negras. Todo este proceso en el que hay un boom de sistemas de caja negra (por lo general más precisos) seguida de la crítica por ser caja negra y un interés en sistemas transparentes (o interpretables), que los hay, pero son menos precisos, ya ha ocurrido antes en las anteriores primaveras de la IA (en los años 60, y luego en los 90). Ahora, al haber más confianza en los programas, posiblemente no llegue a los niveles de enfrentamiento de aquellas primaveras, pero pasará como entonces, que habrá ciertas aplicaciones (en los 90, por ejemplo, era difícil convencer a fondos de inversión de confiar en modelos de caja negra para comprar/vender acciones sin justificación, pero fueron poniendo menos pegas cuando la competencia empezó a tener esos sistemas y tenían esa ventaja competitiva) donde se exigirán sistemas transparentes y, donde no sea algo realmente vital, se usarán los de caja negra.

    punto 3. No es cierto que los sistemas de inteligencia artificial sean especialmente vulnerables a los ciberataques. El software en general lo es y, en la medida que la IA (especialmente la IA débil que ahora destaca y se toma por el todo, cuando solo es una forma de IA) es un ejemplo complejo de software, comparte esa debilidad general ante ataques maliciosos, pero no es mayor que cualquier otro programa, y puede protegerse como cualquier otro programa. Es más, en realidad la IA se está aplicando, y con mucho éxito (y es un buen campo para investigar y publicar, doy fe), en la ciberseguridad para detectar ataques, tanto desde el enfoque de detección de anomalías (caracterizar el uso no fraudulento y tachar cualquier desviación como potencial ataque) que suele tener mucho falso positivo, o detección de abusos (caracterizar el ataque y detectarlo cuando aparece) que tiene el problema de que los datos disponibles están muy descompensados (muchos ejemplos de uso normal y escasos de ataque) y los sistemas de aprendizaje automático tienen la mala «costumbre» (en realidad por como funciona el aprendizaje) de tender a ignorar (o caracterizar muy pobremente) clases muy minoritarias, con lo que esos enfoques tienen que hacer sobresampleo (modificar artificialmente la proporción de datos de entrenamiento de las clases minoritarias para que no sean ignoradas, pero eso introduce un sesgo ya que lo que se modela no es la realidad, sino una versión donde la clase minoritaria es «reforzada») o hacer subsampleo (lo mismo pero quitando ejemplos de clase mayoritaria, reduciéndola). Si se hace bien (que no es fácil) se puede conseguir que esas clases no sean ignoradas, pero no sale gratis, suele ser a costa de modelar peor la clase mayoritaria (por desgracia no es «las gallinas que entran por las que salen», lo que suele suceder es que por cada gallina de la clase minoritaria que entra puede ser que «salgan» muchas gallinas de la clase mayoritaria, que serán mal clasificadas para que la minoritaria no sea ignorada).
    Esto último vale para mi otra matización, lo del «sesgo» en los datos que, en varios artículos de opinión por parte de «expertos» mezcla varias cosas.
    Una cosa es un sesgo real en los datos, es decir, que los datos (que son una muestra del sistema a modelar) no sean una muestra representativa del sistema a modelar, es decir, que no se ha obtenido de manera homogénea y hay zonas sobre-representadas y otras sub-representadas. Ese es un tipo de sesgo que se «arregla», cuando se detecta, muestreando correctamente (se toman datos de las zonas subrepresentadas, p.e.).
    Otro «sesgo», que no es realmente tal, es cuando se ha hecho una muestra representativa pero existen «clases» muy pequeñas… Como he comentado antes, los algoritmos típicos de aprendizaje máquina (que hay muchos pero en su base hay unas pocas familias) tienden a ignorar clases con pocos datos (eso si no son directamente eliminados en el preprocesado al considerarse «outliers» o datos atípicos) porque no consigue caracterizarlas bien y le compensa más (producen tasas de acierto mayores) ignorarlas directamente (o caracterizarlas muy mal… total, como aparecen pocas veces su error es escaso). Este otro «sesgo» que realmente no lo es, es al que se aferran muchas críticas, especialmente las más escandalosas del tipo que la IA es racista/machista/loquesea-ista porque oprime a la minoría de turno… y abogan por retocar los datos artificialmente para quitar ese «sesgo» pero en realidad lo que se aboga realmente es por introducir un «sesgo» a algo no sesgado (porque al sobre-representar una clase minoritaria se está cambiando el sistema a modelar, aunque se haga para forzar a la IA a no ignorarla) con lo que los modelos, a nivel general, empeoran en rendimiento (porque no modelan la realidad sino una versión retocada de ella… y como decía ya Richard Feynman en sus conclusiones particulares al accidente del Challenger «Para que una tecnología sea exitosa, la realidad debe prevalecer sobre las relaciones públicas, ya que la naturaleza no puede ser engañada»… así que todos estos que abogan por retocar los datos para que la IA se comporte como creen que debería (edulcorando los datos reales para que sean más solidarios, igualitarios, etc.) pues puede pasar como con el challenger… que la IA tomará peores decisiones aunque sean más happyflower.

Inicia sesión para comentar