«No se trata únicamente de una señal de alerta ante las potenciales amenazas de la inteligencia artificial (IA), sino un alegato sobre cómo un mayor conocimiento de estos riesgos puede permitir que la propia IA esté de nuestra parte de la batalla». Este fragmento pertenece a un informe de 100 páginas llamado The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation (‘El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación’, en castellano) en el que participan instituciones tan importantes como las universidades de Cambridge y Oxford.
En él se enumeran riesgos tan preocupantes como el perfeccionamiento en la propagación de noticias falsas, la sofisticación de los métodos terroristas a distancia o la creación de robots extraordinariamente inteligentes y con capacidad de autogestión.
Los expertos de este estudio comparten, pues, la visión de Elon Musk sobre la situación: son partidarios de un control minucioso del desarrollo de esta tecnología para evitar que acabe en las manos equivocadas. De hecho, esta cuestión condujo a Musk a una sonada discusión de Mark Zuckerberg, que le tildó de «alarmista».