THE OBJECTIVE
Tecnología

Los riesgos de la IA sin regulación: de las 'fake news' a la actividad por iniciativa propia

Más voces piden frenar el desarrollo de la inteligencia artificial. Pero Google y Microsoft están inmersos en una carrera sin control por el liderazgo.

Los riesgos de la IA sin regulación: de las ‘fake news’ a la actividad por iniciativa propia

Antes Stephen Hawking y ahora Geoffrey Hinton creen que una IA descontrolada podría acabar con la humanidad. | Unsplash

Los riesgos de la IA y el clamor por una regulación se han puesto de manifiesto en los últimos días a raíz de una entrevista en The New York Times. Quien ha hablado ha sido Geoffrey Hinton, el conocido como ‘padrino’ de la inteligencia artificial que ha sido uno de sus principales desarrolladores. No es el primero en advertirlo. Ya lo hizo Stephen Hawking antes de morir, de forma muy gráfica: puede ser «el fin de la raza humana», dijo. Y también lo han hecho Elon Musk y otros investigadores. La carrera de Google y Microsoft impulsa un crecimiento descontrolado y sin tener en cuenta todas las consecuencias.

Los líderes de la tecnología han estremecido al mundo con sus advertencias frente a lo que ellos mismos han contribuido a construir: la inteligencia artificial. Hinton, en concreto, es uno de los impulsores de las redes neuronales, la base del aprendizaje automático o machine learning. Hasta hace poco trabajaba en Google, pero ahora se ha sabido que ha dejado su puesto para alertar sobre los riesgos de la IA.

Ganador del Premio Turng, el premio Nobel de la computación, la red neuronal que puso en marcha en 2012 junto a Ilya Sutskever y Alex Krishevsky, sentó las bases de los actuales chatbots, con capacidad para aprender tras analizar miles de imágenes que le permitían identificar objetos de su entorno. Después vinieron los modelos de procesamiento de texto y de lenguaje natural.

Este salto ha sido el punto de inflexión que ha llevado a Hinton a alzar la voz de alarma sobre su rápida evolución en tan poco tiempo y el poder que pueden desplegar en escenarios de alto riesgo. ¿Un ejemplo de ello? El campo de batalla.

Riesgos de la IA: la desinformación

La generación masiva de contenidos falsos y la proliferación de las ‘fake news’ es una de los principales riesgos que ha destacado el exinvestigador de Google. Y es que cree que la capacidad de la inteligencia artificial para elaborar y publicar información distorsionada o directamente falsa puede poner en jaque el criterio humano: muchos serán incapaces de distinguir qué es verdad y qué es mentira.

Otro foco de preocupación es el potencial de que la IA derive en comportamientos inesperados, que actúe por su propia cuenta. Algo que parece de ciencia ficción y que ya hemos visto en numerosas películas es uno de los principales riesgos de la IA para Hinton.

A ello se suma que los chatbots inteligentes podrían ser capaces de actuar de forma impredecible, por propia iniciativa, generando un código y ejecutarlo sin necesidad de que alguien lo programe o le dé la orden de hacerlo.

Hinton reconoce que antes pensaba que faltaban muchos años, incluso décadas, para que algo así ocurriera. Pero ahora lo ve como algo más cercano y posible.

La carrera desatada de Google y Microsoft

Todos estos riesgos se verían potenciados por el alto grado de competitividad y el afán de liderazgo en el desarrollo de la IA entre los gigantes tecnológicos: Google y Microsoft, principalmente, pero también Facebook. Ninguno quiere quedarse rezagado ni perder la batalla por ser los ‘primeros en’. Pero las dudas surgen por un desarrollo amplio de esta tecnología sin los medios de control necesarios.

«No creo que deban ampliar esto mientras no hayan entendido si pueden controlarlo», ha dicho Hinton. Pero todas estas empresas están inmersas en una carrera por desarrollar la inteligencia artificial más potente, más natural, y sin ningún tipo de regulación ni control ni límites de seguridad que se apliquen a las habilidades que pueda adquirir.

Es lo que está pasando con ChatGPT, el chatbot basado en inteligencia artificial que ha desarrollado OpenAI. El propio CEO de esta compañía, Sam Altman, reconoció a Abc News que existe el riesgo de que esta tecnología se emplee para desplegar campañas de desinformación a escala global y para realizar ciberataques, como ya contamos en THE OBJECTIVE.

Sin embargo, Bill Gates, cofundador de Microsoft, no ve los riesgos de la IA. Al contrario, tiene una perspectiva bastante amable del potencial de esta tecnología. Recientemente comentaba que su capacidad sería tan importante en el futuro como la de un profesor humano y que en menos de 18 meses sería capaz de enseñarle a leer a un niño. La pregunta que surge parece obvia: ¿se necesita desarrollar la IA a este nivel para que los niños aprendan a leer?

Las advertencias de Stephen Hawking

Si tiramos de hemeroteca, veremos que Hinton no ha sido, ni mucho menos, el primero en advertir sobre los alcances del desarrollo de la IA. Un científico admirado y que utilizaba la tecnología más puntera para desarrollar su actividad intelectual cuando su cuerpo no respondía fue Stephen Hawking.

Antes de fallecer en 2018 debido al proceso degenerativo que le causó la esclerosis lateral amiotrófica (ELA) que padecía y que le impidió hablar, también dijo cosas importantes sobre la IA. En una entrevista concedida a la BBC en 2014 fue elocuente al afirmar que el desarrollo de la IA podría derivar en «el fin de la raza humana». Una respuesta que impactó a muchos, pero que la mayoría lo vio justamente como lo que él no quería: algo lejano e improbable.

En su libro póstumo Respuestas breves a las grandes preguntas también planteó su visión sobre esta consulta que solían preguntarle frecuentemente en las conferencias a las que asistía. Explicó que sería un error calificar como ciencia ficción el surgimiento de máquinas altamente inteligentes y advirtió que era muy probable que hubiera una explosión de inteligencia artificial que superasen con crecer a la inteligencia humana.

El rápido crecimiento de la inteligencia artificial ha sorprendido a los propios desarrolladores. | Befunky

Para él, la solución tenía que ir, por una parte, en tomarse en serio esta amenaza; y por otra, en entrenar a las máquinas para que se alineen con los objetivos humanos.

La IA que clama por su regulación

La inteligencia artificial tiene el potencial de destruir la civilización. Ya lo dijo Hawking y también lo ha dicho recientemente Elon Musk. De forma gráfica, explicó que la IA era más peligrosa que un mal diseño de un avión o que un error en la fabricación de un coche por el daño masivo que puede generar. Aunque admite que no le gusta la regulación, Musk reconoció que es necesario contar con un organismo regulador que conozca la problemática, escuche a la industria y elabore normas ad hoc.

Sin embargo, el magnate dueño de Tesla y Twitter y que fundó OpenAI no renuncia a la IA y aseguró que pretende poner en marcha ‘TruthGPT’, el competidor de ChatGPT para buscar lo que catalogó como «la verdad máxima».

Precisamente Musk fue apoyó la carta que varios investigadores firmaron pidiendo una pausa en el desarrollo de la inteligencia artificial. La iniciativa tuvo lugar sólo unas semanas después de que OpenAI lanzara GPT-4, una versión más potente del chatbot. El documento lo publicó Future of Life Institute, una organización sin ánimo de lucro que cuenta con el respaldo del también dueño de SpaceX.

Este parón se debería utilizar para aprobar protocolos compartidos y una regulación que garantice una planificación con controles. En la carta se reclamaba, incluso, una moratoria por parte de los gobiernos si no se frenaba por iniciativa propia de la industria.

Actualmente, algunos organismos reguladores de la privacidad en Europa han dado algunos pasos para poner coto o advertir sobre el uso que hace ChatGPT sobre los datos personales de sus usuarios. La carrera la están impulsando empresas como OpenAI, Microsoft y Google. Pero otras como Amazon, IBM, Baidu y Tencent también están desarrollando sus propias versiones, así como otras empresas de menor tamaño. Pero la esperada -y reclamada- regulación no llega. La cuestión es si las autoridades darán el paso de vetar el desarrollo de la IA.

También te puede interesar
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D