¿Pinchará el miedo al apocalipsis la burbuja de la IA?
Con Trump enredando con su uso militar, el libro Si alguien la crea, todos moriremos ilustra un temor que puede hacer temblar las bolsas

Terminator, de la película del mismo nombre.
Hay quien dice que el sueldo milmillonario que hizo a Elon Musk bailar de felicidad con un robot nos sale bastante barato: solo cuesta el exterminio de la humanidad. Si alguien la crea, todos moriremos (Destino, no podían haber elegido una editorial con otro nombre para publicarlo en España…) es un libro que ha hecho bastante ruido en según qué sitios digitales. Trump le montó, además, una involuntaria campaña de marketing dándole unas cuantas vueltas de tuerca a la industria de la IA horas antes de atacar Irán. Manías del Pentágono. Muy secretas, claro.
El libro lo han escrito Eliezer Yudkowsk y Nate Soares. Yudkowsky es uno de los investigadores que fundaron el campo de la alineación de la inteligencia artificial general (IAG), que analiza cómo piensan, se comportan y persiguen sus objetivos las inteligencias capaces de superar la de los humanos; la revista Time lo puso en 2023 en la lista de las personas más influyentes en materia de IA. Soares es el presidente del Instituto de Investigación de la Inteligencia de las Máquinas (MIRI, por sus siglas en inglés); antes trabajó en Microsoft y Google, donde se hartó de ver cacharros cada vez más espabilados.
Básicamente, dicen que basta una mínima desviación en la gestión de las inteligencias artificiales para que desarrollen objetivos propios en conflicto con los nuestros. Y que si llega el momento, no habrá marcha atrás: extinción garantizada. Hablan de ellas, en plural, porque hay una miriada de proyectos de IA en paralelo, con una cosa en común: no se crean, se «desarrollan», lo que quiere decir que las empresas las ponen en marcha sin tener muy claro cómo y, una vez en marcha, ya es que no tienen ni la más remota idea de lo que se dedica a hacer por su cuenta. Ni los más entendidos. Una novedad brutal en materia de inventos. Nada más nacer, sale escopeteado al mundo real dándole un corte de mangas conceptual al inventor. El padre nace muerto (de miedo): chúpate esa, Freud.
Pero aún estamos a tiempo de frenar, dicen Yudkowsk y Soares, y diseñar políticas que garanticen nuestra seguridad. Las que proponen son muy radicales. Tanto como prohibir, por ejemplo, cualquier artículo académico (los famosos peipers) sobre IA. Porque el precipicio está ya ahí mismo.
Aseguran que, desde hace unos años, «cientos de expertos en inteligencia artificial vienen advirtiendo que esta supone un grave peligro de extinción para la humanidad. Sin embargo, la carrera no ha dejado de intensificarse: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado».
Microsoft, Alphabet (Google), Nvidia, Amazon, Meta (Facebook)… El dinero gordo de verdad está dopando los músculos de la IA con inversiones esteroideas. La buena noticia es que ese tipo de músculo tiende a reventar, dejando al pobre chulito de gimnasio en las últimas, si no en el tanatorio.
En octubre, la revista Wired, que acumula frikis muy enterados de estas cosas y ha cristalizado en algo así como la Biblia techie, tituló un reportaje: «La IA es la burbuja que las reventará a todas». Sostenía que al boom de la IA no le falta un perejil para cocinar una deliciosa burbuja tecnológica clásica: incertidumbre, inversiones exclusivas en este sector y un intenso bombo publicitario. Y que las empresas se están gastando miles de millones en infraestructura con rendimientos mínimos: el 95% de las que adoptan la IA obtienen beneficios escasos o nulos.
El mes siguiente, el WSJ, que viene a ser otra Biblia pero más tipo Antiguo Testamento: de los inversores de toda la vida, se preguntaba «¿Qué pasaría si estallara?», apuntando que, sin la tabarra de la IA, el S&P 500 estaría un 25% por debajo de su nivel actual, lo que llevaría a una caída del 30% si la burbuja estallara.
En diciembre, el Financial Times, que no necesita presentación pues menudos son, ya iba jugando con fechas. «¿Estallará el año que viene?» Arrancaba con Shakespeare, que para algo tienen los ingleses el mejor maestro en eso de contar tragedias: «Cualquiera que hubiera apoyado un vaso contra la puerta de la sala de conferencias en la que nos reunimos la semana pasada podría haber pensado, con razón, que estábamos ensayando una escena de Macbeth. ‘Burbuja’. ‘Burbuja’. ‘No’. ‘Todavía no’. ‘No hay problema’».
La conclusión del FT era que no estallará este año, sino que experimentará un desinflado gradual o corrección saludable impulsada por la selectividad de los inversores. De momento, aciertan, pero estamos en marzo… Y la gracia metafórica de los ingleses nos puede dejar pensando en las tres burbrújulas (lo siento, pero era inevitable) azuzando la ambición del pobre Macbeth de Wall Street con sus profecías. Spoiler alert: la cosa acabó mal por aquella Escocia medieval que se inventó William. Nota para oportunidad de negocio: montar una consultora y ponerle el nombre de Weird Sisters (en las traducciones españolas de Macbeth: Hermanas Fatídicas).
En el FT y alrededores quieren un aterrizaje suave. Y bien que hacen. Cosas como el libro Si alguien la crea, todos moriremos pueden precipitar un estallido de burbuja. Y sus autores sostienen que mejor una crisis económica que la extinción de la humanidad. Hombre, visto así…
Para decidir si exageran o no se supone que habría que leerse el libro. Yo lo he hecho. Y no sé si exageran, la verdad. Aunque se te queda el cuerpo regular, lo que no es mal termómetro de verosimilitud. Son bastante divulgativos, y se agradece, incluso con pequeñas historietas de ciencia ficción protagonizadas por hipotéticos marcianos, gente de otras épocas, etc., pero el tema es lo suficientemente farragoso como para no enterarse del todo. Lo que más me impresionó fue eso de que ni los más enterados de entre los que montan las nuevas versiones de la IA saben realmente qué están haciendo y muestran su sorpresa (que también hay que ser…) por lo que empiezan a hacer sus «creaciones».
Yudkowsk y Soares se intentan poner en la piel del silicio inventándose, por ejemplo, dos extraterrestre que se acercaron a la Tierra antes de que se desarrollara la civilización humana.
«—Predigo que cuando los homínidos ganen en inteligencia e inventen nuevas tecnologías, la civilización de ‘superhomínidos’ inventará herramientas anticonceptivas que les permitan disfrutar del sexo sin engendrar hijos —dijo Klurl.
»—¡Seguro que no! —dijo Trapaucio—. ¿Por qué? ¡Sería justo lo contrario al objetivo concreto para el que han sido optimizados!»
Siguen unas líneas enzarzados en el asunto que no tiene enmienda.
«—Me pregunto —dijo Klurl, pensativo— si esa especie querría ser modificada así por selección natural, si les gustaría acabar siendo criaturas que no obtienen placer del sexo o la comida. Me pregunto si intentarían resistirse a los impulsos que los llevaran a convertirse en eso.
»—¡Si fueran inteligentes, no, sin duda! —dijo Trapaucio—. Ningún ser suficientemente inteligente confundiría su propio propósito; comprenderían el único fin para el que habían sido creados.
»—Lo sabrían, pero ¿les importaría? —dijo Klurl».
Y los autores del libro concluyen con la moraleja: «¿Qué es lo que quieren las IA, exactamente? La respuesta es complicada». Lo que sí tienen claro es que si quieren algo para lo que los humanos seamos un obstáculo o una herramienta poco útil, nos suprimirán con la misma sangre fría con que usted tiró a la basura su Spectrum 48K (o más: a mí me dio pena… pero aquí estoy, tecleando en el Mac).
Conscientes de que la autoridad de Klurl y Trapaucio no soportaría una revisión por pares, Yudkowsk y Soares incluyen multitud de datos y una densa bibliografía. Pero, sobre todo, citan a gente como «Geoffrey Hinton, el ‘padrino de la IA’ y ganador del Premio Nobel», que «advierte a los Gobiernos que la probabilidad es de ‘al menos, el 10%’. Pero Hinton ha dicho que en realidad cree que es más de un 50% probable que la IA nos mate, pero suele evitar decirlo ‘porque hay otras personas que piensan que es menos’». Y citan la fuente en la que han leído tanto una cosa como la otra.
Después de atiborrar al lector de argumentos, se preguntan «¿por qué siguen adelante a toda prisa? Una de las razones son los incentivos. Ninguna empresa o investigador puede poner fin a todo el sector; si lo hiciera, otro ocuparía su lugar. Así que lo mejor es ganar algo de dinero y gloria por el camino». Y se sirven de una aguda cita del escritor Upton Sinclair para explicar eso tan alucinante de que los expertos no sepan qué están haciendo: «Es difícil conseguir que un hombre entienda algo cuando su salario depende de que no lo entienda».
Comprenden que «mucha gente no está prestando atención. Y quien sí lo hace se limita a presenciar el desacuerdo entre los expertos, y considera que no está lo bastante informada como para decidir entre los puntos de vista cualificados de unos y otros». Ahí me ha dado. «Sería de gran ayuda que los ciudadanos comprendieran lo asustados que están los expertos y los ingenieros». Ahí me tendría que dar un curso de ingeniería y otro de informática.
El problema, al final, reside en el concepto mismo de peligro. «¿Estamos seguros de que el siguiente peldaño en la escalada de la IA es el último y funesto, y no uno que traiga fama y riqueza a quien lo suba primero? No, no estamos seguros en absoluto. Quizá alguien suba un peldaño más y reciba una recompensa. Y entonces la humanidad volvería a estar en la misma situación. Después de ese, alguien asciende otro peldaño y todos morimos, si los ejecutivos de la IA aciertan en que la humanidad se encuentra a solo unos pocos años del punto de no retorno. O quizá están equivocados, y vivimos un poco más, hasta que alguien sube otro».
Proponen cosas como «aplicar a nivel mundial una prohibición contra la investigación y el desarrollo de la IA en todas partes». Y que «toda la potencia de cálculo que podría entrenar o ejecutar nuevas IA más potentes se consolide en lugares donde pueda ser monitorizada por observadores de múltiples potencias firmantes del tratado [uno que tendrían que firmar tanto Trump como Pedro Sánchez, por ejemplo], para asegurar que esas GPU no se utilizan para entrenar o ejecutar nuevas IA más potentes».
En ese nuevo mundo más alejado de la apocalipsis, «si los servicios de inteligencia detectan un enorme e inexplicable consumo de energía eléctrica que pudiera corresponder a un centro de datos oculto que contiene chips que no han sido contabilizados, y ese país se niega a permitir que un grupo de observadores internacionales investigue, recibe una solemne carta escrita por múltiples potencias nucleares en la que se advierte sobre los siguientes pasos».
No les falta razón cuando dicen que «la política actual sobre proliferación de armas nucleares demuestra lo que se puede hacer». Aunque no hemos tenido todavía un Hiroshima de la IA. ¿Necesitamos un GodzIA?
Tienen raptos de realismo. «No te pedimos que renuncies a utilizar todas las herramientas de IA. A medida que mejoran, es posible que tengas que utilizarlas o, de lo contrario, te quedarás rezagado con respecto a otras personas que sí lo hacen. Esa trampa es real, no imaginaria. E incluso si el 60% de tu país boicoteara a las empresas de IA, eso no salvaría el mundo».
Y de activismo: «Si vives en una democracia, puedes escribir a tus representantes electos y decirles que estás preocupado». «Puedes participar en marchas de protesta». «Puedes echar un vistazo a las organizaciones sin ánimo de lucro que presentan demandas justas aunque difíciles contra las empresas de IA y donarles tanto como lo que pagas a las compañías de IA, a modo de compensación».
Están en contra de «actos de violencia o destrucción. No creemos que funcionen. El comportamiento al margen de la ley hace que las fuerzas políticas lo tengan más difícil para fraguar algún tipo de coalición internacional».
Finalmente, «una vez que hayas hecho todo lo que puedes hacer», recomiendan: «Vive la vida lo mejor que puedas. No somos los primeros en convivir con la sombra de la aniquilación».
Y entonces llegó Trump y le declaró la guerra a Anthropic porque sus directivos ponían en los contratos con la Administración que su invento no debía dedicarse a la «vigilancia doméstica masiva» o al desarrollo de «armas totalmente autónomas». Lo contamos en su momento por aquí.
Al libro le habrá venido de perlas como campaña de marketing, decíamos. Los amantes de Terminator a lo mejor se encuentran pronto con el proyecto de la séptima película de la saga. Y los que gozan con las pompas del plástico de embalaje quizá conecten con Wall Street en algún momento próximo en sus pantallas…
