THE OBJECTIVE
España

La inteligencia artificial podría caer en malas manos, advierten expertos internacionales

Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

La inteligencia artificial podría caer en malas manos, advierten expertos internacionales

Expertos internacionales alertan en un informe publicado el miércoles sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de «Estados corruptos, de criminales o de terroristas» en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots), informa AFP.

Este extenso informe de 100 páginas ha sido redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en marcha mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial. «Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir», advierten.

Para ilustrar sus temores, estos especialistas mencionan varios «escenarios hipotéticos de usos malintencionado de la IA». Explican, por ejemplo, que los terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones.

Los autores imaginan también casos de robots de limpieza manipulados que se colarían entre otros robots encargados, por ejemplo, de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

Por otra parte, Seán Ó Héigeartaigh, uno de los autores del estudio, explica, en una entrevista con la agencia AFP, que «la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la IA». Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar, por ejemplo, información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero en su opinión, «el riesgo más grande, aunque es menos probable, es el riesgo político». «Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones», apunta.

Con la IA sería posible, por ejemplo, realizar vídeos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Los Estados autoritarios, agrega el informe, podrían también apoyarse en la inteligencia artificial para vigilar a sus ciudadanos.

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D