¿A qué debemos destinar más medios: a evitar el hambre en África o una rebelión de robots?
Toby Ord, líder del movimiento Altruismo Eficaz, calcula que la probabilidad de que la humanidad se extinga este siglo es de una entre seis, o sea, la de una ruleta rusa.
El 14 de noviembre de 1940, la aviación alemana lanzó dos oleadas devastadoras sobre Coventry. A lo largo de siete espantosas horas, medio millar de aparatos descargaron cientos de miles de bombas. La ciudad ardió como una pavesa. Murieron 600 personas.
A aquellas alturas de la guerra, los servicios de inteligencia alojados en los cobertizos de Bletchey Park habían descifrado el código Enigma de los nazis e interceptaban rutinariamente las instrucciones del alto mando de la Lutwaffe a sus escuadrones. La información se enviaba a continuación a Downing Street, en una caja fuerte cuya llave tenía el primer ministro. Winston Churchill se enteró así tres días antes de la operación Sonata Claro de Luna, el romántico nombre que el alto mando germano había asignado al ataque.
John Colville, uno de sus secretarios, recuerda en The Churchillians el dilema que aquello planteaba: «Todos éramos conscientes que no se podían levantar sospechas entre los alemanes a cambio de ventajas efímeras». Si al alertar de la incursión sobre Coventry en Berlín deducían que los ingleses poseían la clave de sus comunicaciones y la cambiaban, se perdería una ventaja decisiva y quizás toda la batalla de Inglaterra.
¿Era inevitable sacrificar Coventry? ¿Qué habría hecho usted de haber estado en los zapatos de Churchill?
El tranvía y los niños
Hay toda una rama de la ética consagrada al estudio de dilemas como el de Churchill. Se llama trolleyology, de trolley, tranvía, porque su formulación clásica es la de una vagoneta sin frenos que se precipita contra un grupo de niños que juega distraídamente en una vía muerta. Usted lo observa todo desde un promontorio. A su lado tiene un cambio de aguja. Puede accionarlo y desviar el bólido, pero en ese caso aplastará a otro niño. ¿Qué hace?
En los experimentos de laboratorio, la mayoría de los consultados opta por accionar el desvío, pero no es en absoluto una solución satisfactoria.
Cuando hace unos días argumenté en esta misma sección que los Tesla ahorraban millones de toneladas de CO2 cada año y que, si para lograrlo, Elon Musk debía desplazarse en un reactor que emitía unos cuantos miles de toneladas, tampoco había por qué rasgarse las vestiduras, un lector comentó que, según esa regla de tres, «si un médico salva 100 vidas, se podrá cargar a un par [de pacientes], ¿no?».
Le di un like y añadí: «Son las limitaciones del utilitarismo, sin duda».
El discurso del método
Altruismo Eficaz, el movimiento que efectúa un cálculo de coste-beneficio antes de comprometerse con ningún proyecto, es muy representativo de estas limitaciones. Para muchos filósofos (y no solo para mi comentarista), el planteamiento de sumar y restar vidas es «desalmado y simplista», pero ni siquiera hace falta entrar en profundidades como la dignidad intrínseca del ser humano, etcétera.
El propio método del coste-beneficio, tan aparentemente nítido y terso, presenta dobleces en cuanto se le examina más de cerca.
En el caso de Musk no hay problema. Una mera sustracción permite saber si compensa o no que use su jet privado. Tampoco es muy difícil (aunque bastante contraintuitivo) concluir que, para mejorar la educación de los niños kenianos, es más práctico donar vermífugos que libros de texto. Pero, ¿qué sucede cuando se introducen en la ecuación amenazas más especulativas?
Esa es la complicación con la que ha tropezado Altruismo Eficaz.
Jugando a la ruleta rusa
Después de un inicio fulgurante, en el que el movimiento revolucionó la cooperación, sus líderes comenzaron a reconsiderar sus prioridades. «En el primer mes de la pandemia», cuenta Gideon Lewis-Kraus en The New Yorker, «Toby Ord [una figura clave de Altruismo Eficaz] publicó El precipicio, un libro en el que calcula que las posibilidades de que la humanidad se extinga en los próximos 100 años son de una entre seis, es decir, las de una ruleta rusa». ¿Por el cambio climático? No, porque ni siquiera en sus escenarios más extremos una subida de la temperatura haría completamente inhabitable el planeta.
Los principales temores de Ord son los patógenos diseñados artificialmente (¿como el covid?) y una inteligencia artificial fuera de control.
El inconveniente de estos peligros es su aritmética. El coste-beneficio de repartir mosquiteros para combatir la malaria puede calcularse, pero ¿cómo se evalúan amenazas que, de momento, solo se dan en la ciencia ficción? Hay que asignarles una probabilidad y, cuando un riesgo es catastrófico, cualquier aumento insignificante en la posibilidad de que se materialice puede llevar a la conclusión de que vale más prevenir el ataque de un ejército de T-1000 en el futuro que salvar del hambre a 1.000 millones de personas hoy.
La verdad y su escolta de mentiras
Comparado con los sofisticados matemáticos del Altruismo Eficaz, Churchill era un pobre analfabeto. ¿Qué decidió respecto de Coventry?
Por fortuna para él, nada.
Como se puede comprobar en la entrada de Wikipedia, el dilema nunca existió. Churchill se enteró efectivamente el 11 de septiembre de la operación Sonata Claro de Luna, pero los mensajes interceptados no aclaraban ni el lugar ni el día del ataque. Hasta que, a última hora, «el sistema de señales [del alto mando de la Lutwaffe] no dirigió [los escuadrones] hacia la ciudad condenada. Nadie supo dónde iba a tener lugar el gran bombardeo», escribe Colville.
No se apresuren, de todos modos, a absolver a Churchill.
Es conocido su comentario de que «en tiempos de guerra la verdad es tan valiosa que debe protegerse con una escolta de mentiras». Mientras en el Parlamento aseguraba que la Royal Air Force se planteaba exclusivamente «objetivos de carácter militar», a los mandos les exigía que pusieran el punto de mira en «las zonas habitadas, y no en los astilleros y las fábricas de aviones», para socavar «la moral de la población».
¿El fin justifica los medios, entonces?
Depende. «Las soluciones utilitaristas son erróneas a veces, pero yo sospecho que son beneficiosas con mayor frecuencia», escribió Isaiah Berlin. Sostener que la matanza de 40.000 civiles alemanes era indispensable «para disuadir a cualquiera que tuviera ganas de iniciar una nueva guerra», como aseguró un general estadounidense tras planchar literalmente Dresde en 1945, es una salvajada.
Pero asignar el corazón o el respirador al paciente con mayores posibilidades de supervivencia no parece desalmado ni simplista.