THE OBJECTIVE
Tecnología

Así se pueden detectar las inteligencias artificiales de clonación de voz

Llegará un día en el que será muy complicado verificar si un vídeo de un político diciendo unas frases es mentira o no

Así se pueden detectar las inteligencias artificiales de clonación de voz

Los vídeos de voz con inteligencia artificial se han viralizado enormemente en las últimas semanas. | Europa Press y Unsplash (Montaje)

La inteligencia artificial ha vuelto a cubrir todos los telediarios en las últimas semanas. El caso de la difusión de fotografías pornográficas modificadas por IA de unas menores en Extremadura —por parte de compañeros suyos (menores inimputables)—ha vuelto a poner sobre la mesa el peligro del avance y la facilidad para acceder a estas nuevas tecnologías.

No obstante, no es el único caso, ni el que más repercusión mediática ha tenido. La modificación visual se ha vuelto viral en nuestro país desde el famoso anuncio que ‘revivió’ a Lola Flores, pero la modificación auditiva parece ser aún un mayor misterio.

«La mentira siempre ha existido y se ha dicho que tiene las piernas muy cortas. Ahora le están creciendo las piernas. El problema de las deepfakes radica en que es muy complicado identificar que son mentira. Y cada vez lo será más. Hoy en día podemos identificar vídeos falsos creados con inteligencia artificial (IA) porque podemos detectar visualmente ciertos errores, pero esto es cuestión de avance tecnológico», explica a THE OBJECTIVE Juan Ignacio Rouyet Ruiz, profesor de Inteligencia Artificial en el máster de Gemelos Digitales de la Universidad Internacional de La Rioja (UNIR).

«Llegará un día en el que será muy complicado verificar si un vídeo de, por ejemplo, un político diciendo unas frases, es mentira o no», comenta.

Ejemplo de modificación de voz con Inteligencia Artificial. Los vídeos modificados de Cristiano Ronaldo se han convertido en un fenómeno viral en la red social china TikTok.

Los problemas de la inteligencia artificial de voz

Ya han ocurrido muchos casos. Hace cuatro años, en 2019, el director de una empresa británica recibió un mensaje de voz de su gerente, el cual le pedía una transferencia de 220.000 euros a un proveedor. Fue una estafa. Un mensaje de voz falso.

Un año después, el gerente de un banco en Hong Kong transfirió 400.000 dólares a una persona que conocía —y con quien tenía buena relación—, tras una llamada. La llamada era otra estafa hecha con un clonador de voz.

No por nada, un estudio realizado con 529 personas por la revista científica Plos One, recogido por este medio, demostró que las habilidades humanas tenían grandes dificultades para calificar de veraz un mensaje de voz. Los participantes fallaron una de cada cuatro veces. La mitad del grupo recibió un ‘entrenamiento’ antes de las pruebas, pero la mejora solo fue del 3% respecto al grupo sin preparación.

«Para detectar las deepfakes creadas por la IA podemos usar la propia IA. Por ejemplo, existen soluciones tecnológicas basadas en IA que permiten identificar si un texto ha sido escrito por ChatGTP. Si sabemos que algo ha sido generado por la IA, podemos ya tener una cierta sospecha sobre si será verídico o no», explica Rouyet.

«Otra solución consiste en aplicar con empeño nuestro sentido común (cosa que va decayendo). Habitualmente las noticias falsas provienen de medios poco fiables, de entornos sensacionalistas o de grupos con intereses poco éticos. Lo sensato, por tanto, es hacer dos cosas: recurrir a fuentes fiables y acceder a varias fuentes para verificar una noticia», prosigue.

Dificultades a futuro

Un problema mayor nace con el acceso ‘para todos’ a estas aplicaciones. No es la primera vez que nos habrá llegado un mensaje parecido a «¿Quieres ganar 300 euros fácilmente? Yo los gano diariamente con esta aplicación. Utilizo mi voz para decir frases y sólo con ello puedo vivir».

No son más que spam de las propias aplicaciones, las cuales desean registrar tu voz para imitarla a futuro. Pero, ¿qué derechos cedemos al prestar nuestra voz para estas aplicaciones? Un registro, una marca o que tu voz quede dentro de la red, como parte de ella, son algunas de estas cesiones.

«Lo que cedemos depende de la letra pequeña de cada aplicación. En toda página web en la que accedemos a servicios existe un enlace de condiciones legales, con lenguaje muy formal que advierte de todo lo que pueden hacer con tus datos. Depende, por tanto, de cada caso. No obstante, lo normal es que usen tus datos para lo siguiente: para generar nuevo negocio, analizando tu comportamiento; para venderlo a terceros; para perfeccionar su sistema de IA (usarlo como dato de entrenamiento). Con la voz ocurre lo mismo. La voz es un dato de tu persona. Un dato que hasta la fecha era muy complicado de analizar, y por ello no se consideraba, pero ahora resulta fácil extraer información de él», responde Rouyet.

No obstante, cabe la preocupación de que utilicen tu voz para cometer delitos, algo que el profesor también responde: «En otra dimensión se encuentra el uso de tu voz para fines delictivos. Es el caso de clonar tu voz para hacerse pasar por ti y cometer un delito. Esto ya son temas mayores de grupos muy específicos y, de nuevo, de sitios poco fiables. Pero hay que saber que es posible hacerlo».

También te puede interesar
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D