MyTO
Sociedad

El lado oscuro de la IA: así se usa para estafar clonando la voz y simulando un secuestro

El fraude telefónico da un giro aterrador con los últimos avances de la inteligencia artificial

Los ciberdelincuentes han visto en la inteligencia artificial una oportunidad de negocio. | Freepik

Se podría decir que la inteligencia artificial (IA) es sinónimo, al mismo tiempo, de una gran oportunidad en múltiples ámbitos, pero también de riesgos. Por ejemplo, esta tecnología es vista por muchos como una ventaja en el terreno de la educación —aunque también tiene sus detractores—, pero también es un arma poderosa que puede caer en las manos equivocadas. Un caso paradigmático es el de una tendencia criminal que se ha extendido en los últimos tiempos, la de las estafas por clonación de voz.

En efecto, una de las funcionalidades más llamativas de la inteligencia artificial es su capacidad de imitar la apariencia de una persona real, una tecnología que se ha testado ya en ámbitos tan diversos como la política o la salud. Sin embargo, algunos la utilizan con intenciones más espúreas.

Imitaciones de voz y secuestros falsos

En este sentido, los expertos en ciberseguridad advierten de un fraude que está tomando fuerza y que bien podría estar sacado de una película de Hollywood. La práctica consiste en contactar telefónicamente con una persona y tratar de convencerle de que un familiar suyo ha sido secuestrado. Así, un padre podría recibir una llamada en la que se asegura que su hijo ha sido raptado y en la que se le exige un rescate por su liberación. La clave para que el engaño funcione, que la víctima escuche la voz de su hijo al otro lado del aparato, lo que se consigue con inteligencia artificial.

Un parche como el de ‘Misión imposible’ permite hablar a personas con discapacidad vocalUn parche como el de ‘Misión imposible’ permite hablar a personas con discapacidad vocal

«Es un ejemplo aterrador de hasta dónde pueden llegar actualmente los estafadores para extorsionar a sus víctimas, utilizando la tecnología con fines nefastos», explica Josep Albors, director de Investigación y Concienciación de ESET España, una empresa dedicada a la ciberseguridad. «También muestra la calidad de la tecnología de clonación de voz por IA, que ahora es lo bastante convincente como para engañar incluso a familiares cercanos», añade.

Desde ESET explican el modus operandi habitual de este tipo de estafas. En primer lugar, los estafadores investigan a víctimas potenciales con las que contactar e intentar chantajear, un proceso que también se optimiza con el uso de herramientas de inteligencia artificial. A continuación, se elige también al familiar que será ‘secuestrado’, a quien llegan a través de las redes sociales o de otra información pública. Una vez escogidas las víctimas, los estafadores pueden investigar más a fondo para calcular cuál es el mejor momento para llamar. La idea es ponerse en contacto con el objetivo en un momento en que su ser querido esté en otro lugar, idealmente de vacaciones.

En ese momento es cuando se crean las falsificaciones de audio y se realiza la llamada. Utilizando programas informáticos de fácil acceso, los estafadores crean  un audio con la voz simulada del familiar de la víctima para convencerla de que su ser querido ha sido secuestrado. Además, explican desde ESET, en ocasiones usan información obtenida de las redes sociales para que la estafa parezca más convincente, por ejemplo, mencionando detalles sobre el ‘secuestrado’ que un desconocido no podría conocer.

«Si caes en la estafa, lo más probable es que te pidan que pagues de forma no rastreable como, por ejemplo, a través de criptodivisas», añaden desde la empresa de ciberseguridad.

Cómo protegerse

Por desgracia, la tecnología de clonación de voz ya es preocupantemente convincente, y cada vez más accesible para los estafadores. De hecho, explican desde ESET, un informe de inteligencia del pasado mes de mayo advertía de la existencia de herramientas legítimas de conversión de texto a voz de las que se podría abusar, y de un creciente interés en la clandestinidad de la ciberdelincuencia por la clonación de voz como servicio (VCaaS). «Si esta última despega, podría democratizar la capacidad de lanzar este tipo de ataques para toda la industria de la ciberdelincuencia, especialmente si se utiliza en combinación con herramientas IA generativa», advierte Albors.

Con el objetivo de ponerse a salvo de este tipo de estafas, desde esta empresa de ciberseguridad recomiendan no compartir demasiada información personal en las redes sociales, mantener los perfiles privados y estar atento a los mensajes de phishing (que podrían estar diseñados para hacerte entregar información personal confidencial o datos de acceso a cuentas de redes). Además, si se recibe una llamada alarmante, se puede tratar de llamar al presunto secuestrado desde otra línea o pedirle a alguien cercano que lo haga.

En todo caso hay que tratar de mantener la calma y no compartir ninguna información personal. Además, si es posible, se puede hacer una pregunta a los ‘secuestradores’ que sólo la persona raptada sabría contestar.