THE OBJECTIVE
La otra cara del dinero

La inteligencia artificial no puede preverlo todo (por ejemplo, que la desenchufemos si se pasa)

Aunque el desarrollo de la IA (como el de cualquier avance tecnológico) entraña riesgos, la probabilidad de un escenario «extremadamente malo» es modesta

La inteligencia artificial no puede preverlo todo (por ejemplo, que la desenchufemos si se pasa)

Elon Musk ha pedido que se pause el aprendizaje de los modelos de IA más avanzados... mientras él desarrolla el suyo. | TO

El año pasado, el proyecto AI Impacts preguntó a más de 700 expertos en aprendizaje automático qué opinaban de los avances en inteligencia artificial (IA) y «el encuestado mediano», cuenta The Economist, asignó una probabilidad del 5% a un escenario «extremadamente malo», como la extinción de la humanidad.

No importa que ese mismo «encuestado mediano» estime mucho más verosímil que las consecuencias sean neutrales (15%), buenas (20%) o extremadamente buenas (10%). Una vez visualizada una amenaza, nuestro cerebro ignora las estadísticas. Por eso los tiburones, que matan a unas 10 personas cada año, nos aterran y los mosquitos, que matan a unas 750.000, apenas nos incomodan.

Es indudable que la IA entraña riesgos.

Un generador de textos que imita cualquier estilo es ideal para difundir noticias falsas, engañar a un examinador o persuadir a los incautos de que cliquen en enlaces llenos de troyanos.

Y eso no es más que el aperitivo.

IA con agenda propia

En 1960, Norbert Wiener, el hombre que acuñó el término cibernética, manifestó su inquietud por un mundo en el que «las máquinas aprenden» y «desarrollan estrategias imprevistas» por los humanos y alejadas de nuestros «verdaderos deseos». Stanley Kubrick y Arthur C. Clarke abordarían poco después el asunto en 2001. Una odisea en el espacio, la película en la que el superordenador HAL decide deshacerse de la tripulación de la nave Discovery 1.

Entonces parecía ciencia ficción, pero ya no lo es.

«Cuando se lanzó por primera vez el chatbot de Microsoft Bing, hizo de todo», recuerda The Economist: «desde amenazar a los usuarios que habían hecho comentarios negativos sobre él, hasta desvelar cómo engatusaría a los banqueros para que revelaran información sensible sobre sus clientes».

Las máquinas se han vuelto más insolentes y, lo que es peor, mucho más listas.

Una era dorada de ocio… y aburrimiento

«Los robots hacen cada vez más cosas», me señala con angustia sincera mi sobrina.

Yo le digo lo que me ha enseñado a responder mi amigo el economista del IESE Javier Díaz-Giménez: «¿A quién le gusta pasar 40 horas a la semana conduciendo autobuses o descargando bultos en un muelle?»

«Ya», insiste mi sobrina, «pero ¿y si acabaran haciéndolo todo?»

«Tampoco veo el inconveniente», le digo. Y le explico que en 1930, cuando visitó la Residencia de Estudiantes, John Maynard Keynes advirtió que los avances tecnológicos acabarían reduciendo la jornada laboral a tres horas y que, de cara a esa nueva «edad de la abundancia y el ocio», el mayor desafío sería educar a los ciudadanos para que aprendieran a disfrutar del arte y la cultura y no se abriesen las venas de aburrimiento.

La humanidad al completo, clase pasiva

«¿Y no puede ser», dispara un tercer cartucho mi sobrina, «que llegue un momento en que las máquinas adopten mejores decisiones políticas que nosotros y nos marginen de las tareas de gobierno por nuestro propio bien?»

«Tendría todo el sentido», le digo, «pero es altamente improbable. Si eso fuera así, las dictaduras funcionarían mejor que las democracias y la experiencia histórica revela que no solo son moralmente indeseables, sino materialmente ineficientes. La razón es que en las sociedades libres destituimos a los gestores incompetentes y, en aquellas donde esto no es posible, se mantienen indefinidamente en el poder».

«Seguro», observa mi sobrina, «pero eso es porque los dictadores son falibles, mientras que los robots de los que yo hablo nunca se equivocarían».

¿Es concebible un artefacto capaz de preverlo todo?

Una realidad borrosa

Pierre Simon de Laplace escribió en 1814 que para «una inteligencia que conociera todas las fuerzas por las que la naturaleza es animada y la respectiva posición de los seres que la componen […] nada sería incierto y tanto el futuro como el pasado estarían presentes ante sus ojos».

La afirmación ilustra la euforia desatada «tras el descubrimiento de Neptuno gracias a las leyes de gravitación de Newton», recuerda la divulgadora Silbia López de la Calle. Una euforia que, desgraciadamente, no ha resistido el paso del tiempo. Como enseñaba en sus clases el matemático de Berkeley Lofti A. Zadeh, «cuanto más de cerca se mira un problema […], más borrosa se vuelve su solución».

Y no solo borrosa, sino inconsistente.

La contrariadora normal

Imaginemos una gran computadora que, tal y como quería Laplace, conociera las coordenadas iniciales del universo y las leyes que lo gobiernan, y poseyera una capacidad de procesamiento ilimitada. En principio, debería anticipar todo lo que va a ocurrir. Pero ¿qué sucedería si surgiera una máquina contrariadora? Hablamos de un dispositivo que funciona de la siguiente manera: espera a oír lo que la gran computadora anuncia y, a continuación, hace otra cosa.

Suena extravagante, pero no es en absoluto excepcional.

Piense en una cena con amigos. Su pareja está de mal humor. Acaban de discutir por cualquier trivialidad y, cuando les están tomando el pedido de las bebidas, usted le dice con la mejor de sus (falsas) sonrisas: «Tú querrás una copa de vino, como siempre, ¿no?» Pero ya le digo que ella viene caliente y responde: «No, un cubata».

Eso es una contrariadora.

Sistemas laplacianos, pero impredecibles

Las contrariadoras no solo socavan la vida conyugal, sino la labor científica.

En su artículo de 1965 «An Essential Unpredictability in Human Behaviour», el filósofo estadounidense Michael Scriven postula que es posible crear sistemas deterministas, como el laplaciano, pero donde no todos los comportamientos puedan anticiparse. Lo llama «la paradoja de la predictibilidad» y basta con introducir seres celosos de su autonomía, como su pareja: si usted conjetura que tomará vino, ella pide un cubata, y viceversa, con lo que olvídese de acertar nunca.

La tesis de Scriven dio lugar a un animado debate sobre el libre albedrío.

Algunos detractores objetaron que la gran computadora siempre podía defender sus predicciones ocultándolas y reaccionando antes de que la contrariadora pudiera abrir la boca. En el caso del restaurante, usted podría decirle directamente al camarero: «Y a mi pareja le trae un Rioja».

El filósofo holandés Victor Gijsbers defiende, sin embargo, que el problema es más profundo y tiene que ver con otra paradoja.

La Gran Contrariadora

Supongamos que existe un programa, que llamaremos Terminator, diseñado para realizar un número finito de operaciones y responder «verdadero» cuando finaliza y «falso» cuando no finaliza.

Ahora pensemos en otro programa mayor, Contrariator, que usa Terminator como subrutina para determinar si un tercer programa finaliza o no finaliza y, una vez averiguado, dispara otra subrutina que consiste en hacer justamente lo opuesto. Es decir, si el tercer programa finaliza, Contrariator no finaliza y, si el tercer programa no finaliza, Contrariator finaliza.

No olvidemos, sin embargo, que Contrariator es él mismo un programa. ¿Qué ocurre cuando usamos Contrariator para averiguar si Contrariator finaliza o no finaliza? No hay modo de saberlo, porque finaliza cuando no finaliza y no finaliza cuando finaliza.

Esta es la paradoja de la parada de Turing y, según Gijsbers, corrobora que incluso en un sistema cuyos datos de partida y normas de funcionamiento conocemos, pueden darse situaciones impredecibles.

Tan inteligentes (o tan tontos) como Deep Blue

El mundo es endiabladamente enmarañado y nuestros juegos más sofisticados apenas remedan su complejidad.

El ajedrez, por ejemplo. Con todo su misterio, no deja de ser lo que Robin M. Hogarth, Tomás Lejarraga y Emre Soyer denominan un «entorno de aprendizaje amable»: toda la información está disponible, hay patrones recurrentes y tropiezas una y otra vez con situaciones similares, lo que te permite entrenarte hasta dominarlo.

Aunque el número de posiciones que pueden adoptar las piezas en el tablero es enorme, las reglas son limitadas. Los peones se mueven hacia adelante, los alfiles en diagonal, las torres en horizontal o vertical. Ahora imagínese que de pronto la reina levitara sobre su escaque y se fuera volando. ¿Qué haría usted? ¿Ni idea?

Consuélese pensando que tampoco lo sabría Deep Blue.

Y si se pone tonta, la desenchufamos

El que sea lógicamente imposible que la IA lo anticipe todo no significa que podamos dejarla campar a sus anchas.

Los riesgos que mencionaba al principio de este artículo(noticias falsas, exámenes fraudulentos, diseminación de troyanos) no son una especulación y, por modesta que sea la probabilidad de un escenario «extremadamente malo», conviene estar preparado ante cualquier eventualidad.

Pero tampoco nos volvamos paranoicos.

Es verdad que hasta Elon Musk ha pedido que se detenga el entrenamiento de los sistemas más potentes que GPT-4. «¡Qué no habrá visto!», pensarán muchos. Pero no perdamos de vista que Musk quiere lanzar su propia empresa de IA y nada le conviene más que una estricta regulación que dificulte el acceso al negocio de molestos competidores y tenga a raya a los más eficientes.

«Estas hipótesis [catastrofistas] no deben descartarse», argumenta The Economist, pero todas entrañan «un salto respecto de la tecnología actual» y, sobre todo, un «acceso ilimitado a la energía, el dinero y la capacidad de procesamiento […] que podrían negársele a una inteligencia artificial rebelde».

O sea, igual que hace con HAL el protagonista de Una odisea en el espacio, cuando veamos que se pone pesada, la desenchufamos.

Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D