Yuval Noah Harari y el fin de la historia (humana)
El historiador israelí plantea en su nuevo libro ‘Nexus’ los riesgos de una sociedad gobernada por la inteligencia artificial
«De lo que estamos hablando es de la posibilidad de que la historia humana toque a su fin. No del fin de la historia, sino del fin de su parte dominada por los humanos». El diagnóstico es sombrío. No lo dice Hegel ni Bradbury ni Fukuyama. Su autor es el historiador israelí, Yuval Noah Harari, el mismo de superventas como Homo Deus o 21 lecciones para el Siglo XXI. La cita pertenece a su nuevo libro, Nexus, cuya edición en español acaba de ver la luz.
¿Cómo llega Harari a semejante afirmación? Lo hace indagando en las posibilidades que brinda la inteligencia artificial (IA) con esta particularidad que marca un antes y un después en la relación entre los humanos y la tecnología. Efectivamente, según Harari, estamos por primera vez frente a una tecnología capaz de autonomizarse, de aprender de sus propios errores y de tomar decisiones en pos de un objetivo, tal como se puede ver en los algoritmos de Facebook, diseñados por los ingenieros para lograr que el usuario pase más tiempo navegando en la plataforma.
El punto es que la manera de alcanzar ese objetivo resultó imprevisible incluso para sus propios creadores. Efectivamente, los algoritmos entendieron que lo lograrían sugiriendo a los usuarios grupos, cuentas y noticias sensacionalistas, violentas y falsas que exacerbarían sentimientos como la indignación y el odio. Los resultados están a la vista en prácticamente todo el mundo y, en el mejor de los casos, contribuyeron a un debate público polarizado e impracticable; en el peor, fueron parte esencial de sucesos horrorosos. Para graficar este punto, el libro refiere a la persecución de los budistas sobre la minoría musulmana en Birmania apenas unos años atrás, con miles de asesinados y desplazados en lo que para Harari fue «la primera limpieza étnica de la historia en la que las decisiones de una inteligencia no humana tuvieron parte de la culpa».
Incluso yendo un paso más allá, el autor de Sapiens indica que enfrentamos un escenario aún peor que el de las peores dictaduras del siglo XX. ¿Acaso se trata de que algún dictadorzuelo totalitario se sirva de la IA para generar sistemas de vigilancia y terror más eficientes? Eso puede ocurrir, claro. De hecho, la IA está siendo utilizada incluso en sistemas democráticos para crear sistemas de control. Pero Harari está pensando en la posibilidad de que una IA incluso pueda someter a las propias dictaduras a su control. La afirmación es temeraria, pero se sigue del libro que, para Harari, la peor dictadura creada por el hombre es menos peligrosa que la hipótesis de una sociedad gobernada por una inteligencia no humana.
El libro se llama Nexus porque su tema principal son las redes que han creado los seres humanos a lo largo de la historia, redes que están compuestas por la información que no es otra cosa que «el pegamento que mantiene unidas las redes». Harari parece estar pensando en este punto en todo lo que constituye una cultura, una forma de ver el mundo, esto es, la información que eventualmente puede utilizar la ciencia para conocer, pero también los mitos, las ficciones, las fantasías sobre las cuales una civilización se constituye como tal. El peligro que encuentra aquí el autor es que, a diferencia de lo que ha sucedido a lo largo de la historia, es posible que una IA produzca por sí misma una red que daría lugar a una nueva civilización en la que los humanos podrían formar parte, pero sin ningún tipo de control sobre ella.
Lejos de Silicon Valley
En este punto, Harari intenta mediar entre dos miradas presuntamente radicales acerca de la información, las cuales, hay que decirlo, por momento aparecen como «hombres de paja». En este punto, las críticas que Harari recibiera en sus libros anteriores respecto a cierta simplificación de algunas temáticas, podría sostenerse en este libro también. Naturalmente, sabemos que todo libro de divulgación supone generalizaciones y, con ello, pérdida de precisión, pero cuando, en aras de divulgar, se tergiversa o se crean enemigos inexistentes, el sacrificio es demasiado grande.
Dicho esto, entonces, Harari pretende distanciarse del espíritu de Silicon Valley, a quien acusa de defender una versión ingenua de la información, aquella que sostiene que mayor información supone mayor libertad y mayor acercamiento a la verdad. Harari da en el blanco en ese punto, más allá de que en la descripción de esta posición parezca estar hablando del neopositivismo vigente cien años atrás. Frente a ello, Harari afirma que hay información que no pretende representar nada, como las ficciones, las mentiras, los mitos, y que, sin embargo, son parte de nuestras redes, esto es, de lo que somos. De aquí que para el autor lo esencial de la información no sea representar la realidad sino conectar.
En el lado opuesto a esta visión ingenua de la información, Harari ubica a la mirada populista representada por figuras como Bolsonaro o Trump. Aquí la falta de precisión teórica es demasiado grande, ya que Harari define el populismo como aquella cosmovisión que considera que no hay una verdad y que toda acción humana y toda información tiene como motivación final alcanzar el poder. El populismo aparece así como una suerte de relativismo nietzscheano, pero su fundamento sería una mezcla entre Marx, Foucault y todos los gobiernos de derecha de la actualidad, trazando una línea de continuidad y una clave de lectura que, como mínimo, necesitaría mayor justificación.
En el terreno de los pronósticos, antes que de que, eventualmente, pudiera darse la autonomización total de la IA, Harari plantea la posibilidad del surgimiento de un nuevo muro que dividiría al mundo en dos o más civilizaciones, y que sería un muro de silicio, constituido por chips y códigos informáticos. Dado que, como indicábamos antes, la misma IA es capaz de crear toda una red de sentido, el mundo dividido de esta forma sería incapaz de comunicarse entre sí y habría tantas realidades como redes civilizacionales. Esto es particularmente problemático, según Harari, porque, al igual que se da respecto al cambio climático, la solución frente al peligro de la IA no puede ser individual ni la puede llevar adelante un solo Estado. En este sentido, si bien no hay por qué ser original, Harari no es muy imaginativo. De hecho, entiende que la solución es el fortalecimiento de instituciones globales y grandes acuerdos que comprometan a los Estados y, a través de ellos, a las grandes compañías, a establecer límites claros a una tecnología cuyo desarrollo es tan vertiginoso como imprevisible.
Heraldo de las élites
Para finalizar, digamos que más allá de que Harari es profundamente crítico de esa suerte de «ingenuidad» entre libertaria e iluminista que rodea el espíritu de Silicon Valley, es, si no indulgente, al menos ambiguo, cuando a lo largo de todo el libro oscila entre dos posturas en tensión. Es que, por un lado, aunque señala a Facebook, YouTube, Google, etc., como parte del problema y advierte de las derivaciones catastróficas de la IA, al mismo tiempo exime a las tecnologías de la responsabilidad con un argumento de sentido común pero lo suficientemente criticado en ámbitos académicos. Me refiero a la idea de que las tecnologías no son ni buenas ni malas, sino que son los humanos las que las utilizan mal o bien. ¿Se puede aplicar esta misma lógica a una IA autónoma capaz de, en palabras de Harari, esclavizar o acabar con el género humano? El autor no responde con claridad este interrogante desde nuestro punto de vista.
Por último, cabe mencionar dos cosas: a favor de Harari, Nexus vuelve a acercar al gran público temáticas que, en general, son demasiado técnicas o lejanas. Lo hace con simplificaciones y exageraciones, pero hay otros que también simplifican y exageran, y no lo logran. Asimismo, es necesario decir que, al igual que sucediera con los libros anteriores, Harari parece no poder sacarse de encima el estigma de ser un autor del establishment, una suerte de heraldo de las alarmas (y las soluciones) que las élites comprometidas desean oír. Esto significa que aun cuando resulte crítico, los enemigos elegidos y las salidas sugeridas no escapan de cierto lugar común dentro del hegemónico espacio biempensante.
En la conjunción de estos dos elementos, en este «nexo», puede haber una clave y una garantía de un nuevo éxito editorial.