THE OBJECTIVE
Tecnología

El dron militar con IA aún no se ha vuelto contra sus controladores (pero podría ocurrir)

Una historia contada por un coronel británico ha causado mucho revuelo en los últimos días, y aunque no sea verdadera, sirve de advertencia sobre la IA

El dron militar con IA aún no se ha vuelto contra sus controladores (pero podría ocurrir)

Dron XQ-58 Valkyrie.

Es la pesadilla de los militares, y de los temerosos detractores de la inteligencia artificial: que un ingenio con capacidades destructivas acabe volviéndose contra sus creadores. La ciencia ficción lo ha planteado en múltiples ocasiones, y su ejemplo más espectacular es la saga de los androides violentos y todopoderosos de Terminator. En las afamadas cintas protagonizadas por Arnold Schwarzenegger se plantea que Skynet, una inteligencia artificial revolucionaria, cobra consciencia de sí misma y ataca a sus creadores.

No es que tenga nada contra ellos, sino que llega a la conclusión de que se tratan de un incordio para lograr la meta final para la que ha sido programada. Esta fue justo la situación que el Coronel Tucker «Cinco» Hamilton planteó en su exposición ante la Royal Aeronautical Society hace unos días y que ha causado cierto revuelo y la aparición de rimbombantes titulares con una información algo desviada.

Androides con mala leche

El militar estadounidense es el responsable de Pruebas y Operaciones de inteligencia artificial de las Fuerzas Aéreas de los EEUU. En la charla expuso el caso de un dron, que usando la inteligencia artificial, se revolvió contra sus controladores cuando fue consciente de que podían ser una traba para ejecutar una misión encomendada. Durante una prueba —simulada— para repeler un ataque con misiles, el sistema de inteligencia artificial con la que experimentan los militares norteamericanos intentó matar a su operador humano. El dron inteligente decidió que los oficiales humanos le impedían llevar a cabo la tarea principal de destruir el sistema de defensa aérea, por lo que atacó a su propia base porque se presentaba como un obstáculo.

Coronel Tucker “Cinco” Hamilton. | Royal Aeronautical Society

Tras el incidente, intentaron enseñar al sistema que matar a su ‘piloto’ era una mala idea. Como resultado, la IA rebelde lanzó un ataque contra la torre de comunicaciones que el operador utiliza para comunicarse con el aparato. La escena es propia de una película de ciencia ficción distópica y algo de lo que huyen los militares. No les hace mucha gracia que se les compare con Skynet, cuya historia giraba alrededor de exactamente la misma idea. Una posibilidad así puede hacer peligrar toda la tecnología y las bondades que lleva aparejadas, que son bastantes, y sin ella podrían quedar atrás antes posibles amenazas reales de fuerzas enemigas que si contasen con esta tecnología. Inteligencia artificial sí, pero muy controlada.

Ante el eco mediático y el espanto con que algunos interpretaron la noticia, Hamilton quiso aclarar que se trataba de un escenario virtual y nunca acaecido, sino planteado para encontrar soluciones antes de que ocurra algo similar. El coronel tuvo que explicarse mejor, y exponer que antes de implantar estas tecnologías han de asegurarse de que son plenamente confiables, y que aunque mejore, mute, crezca o se expanda, siempre estará en manos de los que la crearon. 

El problema es que en todas partes no se quieren adelantar al futuro y evitar que ocurra algo de esto… 

Drones y ChaosGPT

Hay muchas Inteligencias Artificiales de acceso público y gratuito, cada una con su especialidad. Whisper reconoce el lenguaje hablado y lo transcribe, Midjourney es capaz de generar increíbles imágenes sintéticas, o la más popular de todas, ChatGPT, que ofrece búsquedas de información que responde con texto bastante bien redactado. Una de las más curiosas es ChaosGPT, que con ese nombre no puede inspirar ninguna actividad creativa. Al parecer, algún majadero le pidió que trazase un plan basado en cinco preceptos: destruir a la humanidad, establecer el dominio mundial, provocar el caos y la destrucción, controlar a la humanidad mediante la manipulación y alcanzar la inmortalidad.

El sistema robotizado, siguiendo las órdenes recibidas, se puso manos a la obra y en ello anda. De momento, no ha tenido más éxito que el de encontrar en Google y otros buscadores información sobre explosivos nucleares, o la conocida Bomba del Zar rusa. Destruir a la humanidad es una tarea compleja que a día de hoy un ordenador solo no puede ejecutar. Pero hay quien teme que gracias a la omnipresencia de Internet, puede que algún día encuentre la manera de dar con el acceso a algo que explote, reviente, se apague, o deje de operar con vidas en juego de por medio. La diatriba reside en que al aparato le introdujeron un código final: que estuviera ejecutando el programa ad aeternum, o sea, hasta que acabe con el plan.

De momento, y de manera bastante sorprendente, lo que ha hecho es crearse una cuenta de Twitter, donde cuenta lo que va logrando, que de momento es muy poco; discreta no es, pero no parece detenerse. En la película Terminator 2, una de sus escenas más celebradas es justo una en la que no ocurre nada. Schwarzeneger está apostado ante un ventanal en posición de vigilancia, mientras que Sarah y John Connor descansan. El musculoso androide se queda completamente quieto ante la cristalera, y en un cambio de luces muy logrado, se refleja en pantalla cómo se pasa de la noche al día en unos segundos sin que el robot mueva una pestaña. Esa es la actitud de una IA, no inmutarse ante nada hasta cumplimentar su programación.

Con esta icónica imagen en mente, hay quien piensa que ChaosGPT puede saltar entre varios ordenadores para asegurar su supervivencia y al mismo tiempo acabar ejecutando su misión, que sería apoderase de cualquier sistema conectado que le confiriese poder real y tangible. Esto es justo lo que planteó el Coronel Hamilton en su charla y que atemorizó a sus oyentes, en la creencia de que el caso ya había ocurrido, pero no fue así. Al final del final, siempre tiene que haber una persona que ponga sentido común y decida. O eso parece pedir lo que tenemos hasta hoy. Si eso está regulado, mantenido y controlado, bien; el problema es que haya más pirados como el de ChaosGPT y una de esas inteligencias artificiales tozudas se encabezan en acabar con su tarea. Necesitaremos un botón rojo en alguna parte donde se lea STOP.

También te puede interesar
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D