The Objective
Economía

Del engaño al negocio legítimo: la naturaleza dual del 'deepfake'

Tan rápido evoluciona la tecnología que ya se vaticina un futuro donde lo falso y lo real sean indistinguibles

Del engaño al negocio legítimo: la naturaleza dual del ‘deepfake’

Creación de un 'deepfake'.

La treta del deepfake ha dejado de ser munición de hackers para convertirse en recurso empresarial, educativo e incluso cotidiano. Lo que hace tres años era una impostura detectable ya corre a todo trapo por la autopista: hoy el avatar fraudulento es más creíble que el testigo presencial. Los fundadores de Captions subrayaban la semana pasada en The Verge que los deepfakes actuales son «los menos convincentes que se verán jamás» porque el avance tecnológico es tan brutal que lo «falso» se funde con lo «auténtico».

Las empresas lo saben. Accenture ha experimentado ya con la idea de los directivos digitales. Universidades como el Imperial College de Londres exploran esta misma herramienta para resolver preguntas de los alumnos fuera de clase. Estas aplicaciones de corte «positivo» están en fase beta, aunque existen startups como Colossyan que crean vídeos corporativos con avatares generativos en más de 70 idiomas. Ya los han usado corporaciones como BMW y Novartis.

En el punto actual de la tecno-curva, el deepfake ha alcanzado asimismo la madurez de la clonación digital. Disney revive a actores ya fallecidos en alta resolución (ocurre en Star Wars) y en Hollywood se reproducen alegremente voces de personajes legendarios. Pero no es sólo una moda en la industria del entretenimiento: con inteligencia artificial generativa, cientos de empresas forjan ejércitos de humanos sintéticos que responden con datos reales, conocimiento contextual y expresiones faciales al cliente.

Amigos digitales, ¿un futuro posible?

Si hoy muchos chavales conversan con chatbots empáticos, mañana podrían entablar amistad con un humano sintético muy realista capaz de recordar y responder a sus historias, ajustar su humor a su estado de ánimo e incluso mostrar emociones a través de la voz y mirada. Pero esta promesa esconde un lado oscuro. Las big tech aprovechan cualquier rendija para atrapar datos y perturbar las políticas de privacidad promovidas desde Bruselas. Cuestión aparte es el impacto sociológico inherente a este fenómeno en ciernes: ¿Está el sapiens preparado para involucrarse con un actor digital o estará colocando un filtro más entre su verdadera naturaleza animal y esa nueva realidad que conforman las redes sociales, los entornos gamificados y las apps de contactos?

La manipulación sigue al acecho

Más allá de lo inocente o lo estético, el deepfake corroe de tres maneras: a través del fraude, la desinformación e incluso la extorsión. En EEUU, este triple fenómeno ha repuntado un 1.740 % entre 2022 y 2023, según el Foro Económico Mundial. El vishing, la estafa
por llamada con una voz clonada, está a la orden del día y los deepfakes políticos dan lugar a trucos
como el protagonizado por el ex primer ministro paquistaní, Imran Khan, capaz de pronunciar un discurso desde un despacho pese a estar entre rejas.

Además, las garras del deepfake se extienden a la pornografía y son capaces de colocar a figuras públicas en situaciones que jamás protagonizarían. Movido en parte por esta preocupación, EEUU aprobó en mayo la Take It Down Act, según la cual constituye delito federal la publicación o amenaza de publicación de imágenes íntimas sin consentimiento, incluidas aquellas generadas mediante inteligencia artificial, especialmente si involucran a menores. Las penas pueden alcanzar hasta tres años de prisión.

La voluntad de crear un inmenso cortafuegos está ahí, pero avanza, como siempre que se trata de decisiones en la esfera política, demasiado despacio: Reino Unido calcula que este año se compartirán ocho millones de deepfakes frente al medio millón registrado en 2023. Los sistemas que detectan estas falsificaciones son cada día más precisos y la policía británica trabaja codo con codo con distintas startups para potenciar dichas herramientas.

En su AI Act, Bruselas cataloga al deepfake como «sistema de riesgo limitado» en lo que parece un cálculo poco realista. El artículo 52 de la norma estipula que es obligatorio etiquetar de forma clara y visible «cualquier contenido manipulado o generado por IA, identificando su origen artificial y, siempre que sea posible, al autor».

Publicidad