Amy Webb: «Nos acercamos a un escenario catastrófico con la inteligencia artificial»
Foto: Mary Gardella| Cedida

Futuro

Amy Webb: «Nos acercamos a un escenario catastrófico con la inteligencia artificial»

Hablamos con la autora de 'Los nueve gigantes', un libro que examina cómo nueve grandes empresas están cambiando el mundo a golpe de algoritmo

por Néstor Villamor

La revista Forbes la nombró una de las cinco mujeres que están cambiando el mundo mediante la tecnología. Amy Webb es asesora de algunas de las empresas más influyentes del mundo, como Microsoft, y, aunque se autodefine como futurista, que nadie imagine bolas de cristal porque, en sus propias palabras «no hace predicciones», sino «proyecciones para crear un estado de preparación, determinar acciones estratégicas, ayudar en la toma de decisiones, construir planes a largo plazo o simplemente imaginar estados futuros alternativos».

Ahora llega a España su libro Los nueve gigantes: Cómo las grandes tecnológicas amenazan el futuro de la humanidad (Península), en el que esta profesora de la Universidad de Nueva York revisa el papel que están jugando nueve empresas de alcance mundial, todas ellas estadounidenses o chinas: Alibaba, Amazon, Apple, Baidu, Facebook, Google, IBM, Microsoft y Tencent. En el libro, escrito originalmente en 2018, define tres posibles escenarios futuros a los que nos puede conducir el desarrollo de la inteligencia artificial: optimista, pragmático y catastrófico. Aunque inicialmente ella apostaba por el segundo, ahora asegura que nos estamos acercando más al catastrófico tercero.

Amy Webb: «Nos acercamos a un escenario catastrófico con la inteligencia artificial» 1

Portada de ‘Los nueve gigantes’. | Foto: Península

¿Por qué ha querido escribir este libro?

Hay mucha confusión con lo que es la inteligencia artificial, lo que no es, lo que hace, lo que no puede hacer y además me preocupaba un poco en que la gente parece obsesionada con cuándo aparecerá la inteligencia artificial. Y para mí esa es una pregunta un poco tonta porque ya está aquí. Lo que ocurre es que no tiene el aspecto que esperábamos: no es un robot que camina y habla, es algo distinto. Así que quería ayudar a enfocar la conversación.

¿Ha recibido respuesta de las empresas?

Después de que saliera el libro, una parte de mí estaba un poco preocupada. Pero tenía que ser muy honesta. Y Microsoft, que ahora es cliente mío, dijo: «Tenemos que repensar la inteligencia artificial». De las empresas chinas no he oído nada. Pero creo que estas empresas reconocen que hay un problema y creo que están intentando averiguar qué hacer. Y creo que la gente que trabaja en las empresas chinas también reconoce que hay un problema. El CEO de Alibaba fue despedido porque entendió que tenemos que construir un futuro mejor.

¿Cómo son de probables cada uno de los escenarios que menciona en el libro?

Cuando escribí el libro, pensé que el escenario catastrófico era posible, pero que el pragmático era el más probable. Ahora, han pasado unos años y creo que ya estamos viviendo en el escenario pragmático, creo que ya ha empezado a ocurrir. Y creo que nos estamos acercando al catastrófico, creo que es mucho más probable dado lo que ha estado haciendo China en el último año y medio, más o menos.

¿Debería regularse el uso de la inteligencia artificial o esperar a desarrollos futuros?

Creo que hay un punto intermedio. En Dubái, el Gobierno reunió a un grupo para idear y probar regulaciones para ver cómo funcionan, pero lo hacen al mismo ritmo al que avanza la tecnología. De alguna manera lo están haciendo juntos. Lo que vienen a decir es: «No sabemos cómo tiene que ser esa regulación. Vamos a intentar que se nos ocurran ideas juntos y ver lo que finalmente funciona». Ese es un enfoque muy difícil, pero creo que muy inteligente porque le da más flexibilidad a los reguladores y reconoce que no sabemos qué va a pasar con esa tecnología.

¿Qué opina de las regulaciones de la UE sobre las big tech?

Europa siempre ha sido muy rápida al regular, así que no creo que sea una sorpresa que la contribución europea ahora mismo sea la regulación. ¿Pero eso qué significa de cara al futuro? Tengo curiosidad por saber qué impacto ha tenido realmente el RGPD [Reglamento General de Protección de Datos] en la privacidad de las personas. No sé, quizá haya tenido un impacto. Pero, de cara al futuro, ¿qué impacto tendrán realmente impuestos como la tasa Google sobre el problema? Y creo que la pregunta es si la regulación es la mejor manera de resolverlo. Si intentas castigar a estas empresas con regulación, la cosa va a terminar con denuncias y las denuncias no son una solución. Y lo que es peor: a China no le importa. China va a seguir haciendo lo que quiere y cada segundo de cada día los abusos de los derechos humanos son peores en China. A mí me gustaría que los demás países, como Estados Unidos o los de la UE, crearan incentivos en vez de castigar, lo cual sabemos que va a terminar trayendo más problemas.

Escribe que China tiene acceso a los datos de casi 2.000 millones de personas. ¿Los países con más población están más en riesgo de volverse totalitarios?

Sí. El tema es que ya lleva pasando mucho tiempo en China. Nada de esto es nuevo. El Partido Comunista Chino del Gobierno lleva diciendo más de una década: «Ey, mundo, este es nuestro plan. Vamos a convertirnos en la potencia global de la inteligencia artificial». Han estado diciéndolo y parece que, de repente, todos están sorprendidos. La forma en la que China está borrando la democracia en Hong Kong y encarcelando a periodistas… no es algo nuevo. Creo que esto es un problema para los derechos humanos y para los ideales democráticos de Occidente. No estoy diciendo que Estados Unidos sea lo mejor, pero puedo decir que la libertad de expresión es importante y que, si tú eres gay, no debería ser un problema para los demás.

¿Existe una manera de usar la tecnología para ganarle la batalla a un régimen totalitario basado en la inteligencia artificial?

Estás describiendo Matrix [se ríe]. Creo que Tim Berners-Lee [inventor de la world wide web o www] está intentando crear una versión distinta de internet que se distribuya de forma que se escape de estos problemas. El problema es que no hay un interruptor para la inteligencia artificial, no se puede apagar: existe. Pero creo que creo que tenemos que darnos cuenta de que, en algún momento, tenemos que solucionar algunos sesgos de los sistemas, solucionar los datos y pensar bien qué estamos construyendo y por qué. Y yo espero que la suficiente gente diga: «Vamos a esperar y a pensarnos esto». Lo mejor que pueden hacer las personas a título individual es como lo que se hace con el cambio climático: si entiendes que existe el cambio climático, empiezas a hacer cosas para cambiar tu comportamiento porque no quieres que la temperatura del planeta siga aumentando. Así que, si estás preocupado por la inteligencia artificial, haz lo mismo: pequeños cambios. Con suerte, a los líderes mundiales también se les ocurrirán cambios que tengan un impacto duradero.

¿Cómo cree que la inteligencia artificial va a determinar la agenda política de los partidos para atraer votos?

Era parte del problema de Cambridge Analytica y Facebook y cómo se recogían los datos psicográficos de personas individuales y usándolos para dirigirse a ellas. Creo que el reto es que no supimos que eso estaba ocurriendo hasta después porque no hay una obligación de transparencia. Además, la política ahora está más polarizada en todas partes.Tenemos que vigilar muy bien cómo aplicamos la inteligencia artificial para aprender sobre personas individuales y luego usamos esos datos para intentar manipularlas. Es posible hacer eso. ¿Deberíamos hacerlo? No, probablemente no. Tampoco tenemos ningún mecanismo para evitar que eso ocurra.

Néstor Villamor

Gallego de nacimiento y madrileño de alquiler. Aprendí este apasionante oficio en La Voz de Galicia, Icon, BuenaVida, El País… Ahora sigo creciendo en The Objective.