THE OBJECTIVE
España

El juez Marchena: «De un robot no puede esperarse una resolución justa, sino exacta»

El presidente de la Sala de lo Penal del Supremo toma posesión en la Real Academia de Doctores con un alegato contra la infalibilidad de las máquinas

El juez Marchena: «De un robot no puede esperarse una resolución justa, sino exacta»

El juez Marchena durante una conferencia en Sevilla. | Luna Flores (Europa Press)

«El proceso penal no ha podido sustraerse al paso del tiempo». Con esa frase ha iniciado el juez Manuel Marchena su discurso en la toma de posesión como Académico de la Real Academia de Doctores de España. El presidente de la Sala de lo Penal del Tribunal Supremo ha reconocido que los profesionales del Derecho «están permanentemente expuestos al desafío de su actualización», pero ha negado la infalibilidad de las máquinas. «Del juez robot no puede esperarse una resolución justa sino una resolución exacta», ha insistido el responsable de la sentencia del procés en 2019.

Marchena fue elegido miembro de la Real Academia de Doctores de España en febrero. Sucede a Jesús López-Medel en la Sección de Derecho con la medalla número 63. Ha catalogado a su predecesor como «un egregio jurista de amplísimo reconocimiento». La toma de posesión se ha celebrado en la tarde de este miércoles en el Paraninfo de la Universidad Complutense de Madrid. El magistrado ha estado acompañado por un centenar de personas, entre ellos los presidentes del Supremo y del Constitucional.

El ponente ha intervenido con un discurso titulado Inteligencia artificial y jurisdicción penal. Ha insistido en la necesidad de actualizar la metodología, aunque ha puesto en entredicho que los robots puedan realizar las mismas funciones que los jueces. «No puede esperarse una resolución justa». Ha reconocido que «la robótica lleva intrínseca un cambio de paradigma». Sin embargo, Marchena ha subrayado su «rotundo rechazo a los algoritmos predictivos».

Marchena y la inteligencia artificial

El presidente de la Sala de lo Penal del alto tribunal ha advertido de la posible «quiebra de derechos» si se acaba sustituyendo a jueces y fiscales por herramientas de inteligencia artificial. En su opinión, ese paso supondría transformaciones estructurales, lo que daría lugar a tensiones culturales, económicas y jurídicas «que comienzan a desbordar los límites históricos del constitucionalismo tal y como fue concebido».

Marchena ha reconocido la necesidad de apostar por la modernización del sistema judicial, aunque ha mostrado su rechazo a que la inteligencia artificial suponga algo más que «un elemento auxiliar». Ha advertido contra ellas y, como ejemplo, ha puesto diferentes sistemas desarrollados por países como China, donde esta tecnología puede acabar con la necesidad de juicio oral y hacer desaparecer el órgano de instrucción y de enjuiciamiento.

«China ha inventado un fiscal de inteligencia artificial capaz de elaborar escritos de acusación con un índice de acierto del 97%. Lo legitima en la necesidad de liberar a los fiscales de buena parte del trabajo rutinario para centrarse en asuntos de mayor trascendencia». No obstante, cree que los algoritmos no pueden sustituir el proceso porque se corre el riego de convertir en solución final lo que hoy solo es una propuesta del fiscal». Una afirmación que, en su opinión, «estremece a cualquier jurista».

El magistrado considera que «la confianza ciega en la predicción de unos algoritmos implicaría una clamorosa vulneración de los derechos del acusado». Ha alertado del peligro de dejar en manos de aplicaciones predictivas y de «la estadística artificial del algoritmo» la tarea de impartir Justicia porque acarrearía la quiebra de derechos fundamentales como el derecho de defensa o de presunción de inocencia. «No es fácil explicar la imparcialidad de una máquina» porque estas «puede tener sensores, pero solo un humano puede ser sensible».

Rigidez matemática

El nuevo Académico ha reconocido que el desarrollo de algoritmos «desarrollaría técnicas de control social para neutralizar la hipotética querencia de cualquier ciudadano al delito. Sería un patrulleo algorítmico». Marchena ha insistido en que las respuestas de un juez robot estarían siempre dominadas por esa rigidez matemática. Durante su intervención, que se ha dilatado durante una hora, se ha preguntado cómo se controla al programador y si un robot puede ser imparcial o inmune a los sesgos cognitivos.

«Aceptamos la imperfección de la resoluciones judiciales basadas en el prejuicio», ha indicado el magistrado, para quien la falta de transparencia algorítmica supondría «una quiebra del derecho de defensa». La respuesta por parte de la Real Academia de Doctores de España se la ha dado Jorge Rodríguez-Zapata, compañero de Marchena en el Supremo y miembro del Constitucional entre 2002 y 2011. Ha calificado el discurso de «soberbio» y augurado que sus reflexiones se estudiarán en futuras investigaciones.

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D