THE OBJECTIVE
Tecnología

Los peligros de ChatGPT: desde crear phishing al robo de identidad

En la deep web hay guías para crear herramientas automatizadas para el cibercrimen y el fraude utilizando el chatbot de OpenAI

Los peligros de ChatGPT: desde crear phishing al robo de identidad

ChatGPT puede ayudar a crear un código malicioso que encripte la información de una empresa | Unsplash

Ante el delirio y las enormes expectativas generadas por el potencial de la inteligencia artificial, pocos han puesto el foco en los peligros de ChatGPT o DALL-E, que preocupan a los negocios y a los especialistas en ciberriesgos. Esta preocupación se basa en el mal uso que se puede hacer los asistentes de OpenAI. Y es que se ha detectado que en la deep web se está difundiendo información sobre cómo crear herramientas para el cibercrimen y el fraude de forma automatizada.

Las herramientas públicas de OpenAI, como ChatGPT o DALL·E, pueden usarse mal en las manos equivocadas. Todo su potencial, que ha impresionado a millones de usuarios en todo el mundo, puede destinarse a actividades ilegales, como el phishing, el robo de identidad o de información personal y financiera, la creación de información falsa o discursos de odio, el robo de información a través de búsquedas de sistemas y su posterior envío, la ejecución de código malicioso en sistemas vulnerables.

Esto son solo algunos de los riesgos que ha destacado Borja Sánchez, Cibersecurity & Business Resilence Senior Manager en Marsh España. Por ello, ha puesto el acento en las consecuencias éticas de estos usos disfuncionales y las medidas que se deberían adoptar para prevenir el uso fraudulento de ChatGPT.

Se pueden pedir a ChatGPT que cree una herramienta automatizada para el fraude | Unsplash

Y un ejemplo claro es el del robo de información, el chatbot puede ayudar a crear una herramienta de forma sencilla, capaces de entrar en el sistema de una empresa o de un particular, buscar información a través de distintos archivos en formato PDF, Word, Excel u otros. Después, crea una carpeta temporal donde copia y comprime los datos recabados y los envía mediante FTP.

Alertas sobre los peligros de ChatGPT

No son pocas las voces que han alertado sobre los peligros de ChatGPT y de la inteligencia artificial, pero se les ha prestado poca atención. La sociedad está encandilada con todo lo que pueden hacer y con la calidad de los contenidos que generan. Pero conviene escuchar las voces críticas.

Uno de ellos ha sido Elon Musk, que ha calificado como muy peligroso el chatbot de OpenAI. «Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial», ha dicho, a pesar de haber trabajado él mismo en sus negocios con IA y de ser fundador de la compañía.

Ahora, más de 1.000 expertos han firmado un manifiesto en el que solicitan que se frene el desarrollo de la inteligencia artificial más allá de GPT-4 durante seis meses por los riesgos que puede conllevar. Entre los firmantes está Musk, Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell.

«Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles», dice la carta.

Las advertencias también vienen del campo de los ciberriesgos. «Estos sistemas se nutren de todo tipo de contenidos publicados en Internet sin contrastar y sin citar a las fuentes. Esto no sólo puede generar desinformación, sino que puede exponer a las empresas ante reclamaciones por competencia desleal o fraude empresarial», señala Natalia Mañas, abogada especialista del Centro de Asistencia Jurídica de DAS Seguros.

ChatGPT escribe muy bien, ¿y los derechos de autor?

Muchos de quienes han probado ChatGPT destacan las enormes habilidades que tiene la herramienta para generar contenido para su entorno profesional, para escribir un artículo o para dinamizar sus redes sociales. Otros también denuncian que, cuando hay cosas que no sabe, se las inventa directamente.

Lo cierto es que tiene una gran capacidad para redactar textos de forma natural, con un lenguaje apropiado y casi humano. Sin embargo, estos usos que en principio parecen inofensivos, también podrían estar vulnerando derechos de autor.

Los usuarios con fines fraudulentos podrían intentar monetizar y obtener un rendimiento económico mediante contenido generado por la inteligencia artificial  de ChatGPT o de Dall-E, en caso de que este sea gráfico.

Y es que el riesgo reside en la información que se ha utilizado para entrenar los algoritmos en los que se basan estas IA. Según explica el responsable de Marsh, ya se han visto casos de demandas por uso no autorizado de elementos sujetos a derechos de autor como imágenes o textos literarios.

Malas prácticas en el uso de ChatGPT

Pero no todo queda ahí. La herramienta más exitosa de OpenAI también puede ayudar a los cibercriminales a ejecutar un código malicioso de forma remota. Y es que ChatGPT es capaz de redactar líneas de código en varios lenguajes de programación, como Java o Python.

Este conocimiento puede ser de gran ayuda para alguien que planea un ciberataque mediante la generación de un código malicioso que ejecute en un ordenador vulnerable. Y a partir de ahí, lance cualquier programa mediante el uso de la consola de comandos de Windows y, por ejemplo, termine encriptando toda la información del sistema.

El sesgo es otro factor a tener en cuenta. Si los datos que se entregan a estas herramientas están sesgados, los resultados pueden ser contenidos discriminatorios. Esto puede tener consecuencias, por ejemplo, en la contratación de trabajadores, en la concesión de un préstamo o en decisiones de tipo legal.

Y algo similar ocurre con la propagación de información falsa o fake news. Estas herramientas pueden ser utilizadas de forma malintencionada para crear y difundir información falsa o engañosa, lo que puede tener un impacto negativo en la sociedad en general.

Responsabilidad y ética en el uso de la IA

Otros asuntos en los que también se pone el foco es en la violación de la privacidad. Y es que tanto ChatGPT como DALL-E se pueden utilizar para recopilar y utilizar información personal sin autorización de los interesados. Una práctica que podría vulnerar la normativa de protección de datos personales.

La capacidad para elaborar contenidos violentos, de generar discursos de odio y discriminatorio o bulos puede tener un impacto negativo en las personas, pero también a nivel social.

Desde DAS Seguros destacan el modo de aprendizaje de la inteligencia artificial como un riesgo de tipo legal y para la propiedad intelectual. «El modelo de lenguaje utilizado permite que éste continúe aprendiendo a través de la interacción de los usuarios, quedando registrada toda la información que se aporte. Esto supone un riesgo implícito, especialmente para las organizaciones que hacen uso de esta herramienta», explica la entidad.

«El uso irresponsable de estas herramientas puede poner en cuestión la ética y la responsabilidad de los desarrolladores, las compañías y la sociedad en general en el uso de la tecnología», explica Sánchez, que recuerda la necesidad de tener en cuenta estos desafíos éticos cuando se utiliza la inteligencia artificial de ChatGPT.

La responsabilidad en el manejo de estas innovaciones que prometen revolucionar nuestra vida de una manera que ahora desconocemos es la clave para que sus efectos sean positivos en lugar de negativos, para que supongan un verdadero avance en lugar de un retroceso social.

También te puede interesar
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D