THE OBJECTIVE
Tecnología

ChatGPT bajo sospecha: Europa pone la lupa en los datos personales que recopila OpenAI

La falta de transparencia sobre el tratamiento de los datos personales que hace esta inteligencia artificial está detrás de la decisión de las autoridades italianas

ChatGPT bajo sospecha: Europa pone la lupa en los datos personales que recopila OpenAI

El debate sobre bloquear ChatGPT ha pasado de Italia a Irlanda, Alemania y el Reino Unido | Unsplash

La voz de alarma llegó desde la italiana GPDP (Garante per la Protezione dei Dati Personali): Italia se convertía en el primer país occidental en bloquear el uso de ChatGPT. El motivo son las dudas que genera la recopilación y uso de los datos personales del chatbot de OpenAI, que ha revolucionado el sector tecnológico desde principios de año. El debate se ha abierto en varios países europeos, que han puesto la lupa sobre esta herramienta, cuestionada también por los líderes de la IA a nivel mundial. ChatGPT está bajo sospecha y una de las claves es la transferencia internacional de datos personales.

La falta de transparencia sobre el tratamiento de los datos personales que hace esta inteligencia artificial está detrás de la decisión de las autoridades italianas. También la falta de límites para el acceso de menores de edad. Y resulta inevitable hacer un paralelismo con lo ocurrido hace algunas semanas con TikTok, que ha sido vetado en los dispositivos de varios organismos oficiales europeos y de otros países líderes de Occidente.

Sin embargo, Italia no ha sido el primer país en cuestionar el chatbot de OpenAI. Ya lo habían vetado China, Irán, Corea del Norte y Rusia. Y ahora hay varios países europeos, entre ellos Francia y Alemania, donde se discute si deben seguir el mismo camino, el del bloqueo del uso de ChatGPT, o bien respetar el derecho legítimo de la empresa de usar datos abiertos en Internet para su entrenamiento.

Más de mil desarrolladores pidieron que se frenara el desarrollo de GPT4 |

Este chatbot de inteligencia artificial avanzada y sus respuestas no han dejado indiferente a nadie. Las opiniones van desde quienes lo alaban por su potencial aplicación en distintos campos, a quienes son más escépticos sobre su alcance en cuanto a la sustitución de trabajadores y la suplantación de habilidades que, hasta ahora, se habían asociado únicamente con la inteligencia humana.

La transferencia internacional de datos personales

Las garantías en materia de protección de datos son las que están detrás de la decisión de Italia. Y es que el uso de los datos personales por parte de ChatGPT genera dudas. En Irlanda, Francia y Alemania, y también en el Reino Unido, existe inquietud entre los responsables de administraciones públicas y de organismos de privacidad sobre el cumplimiento del Reglamento Europeo de Protección de Datos (RGPD).

Precisamente ahora, la Unión Europea está inmersa en el debate de la propuesta de Ley de inteligencia artificial, que regula los usos de esta tecnología. La idea es fomentar la innovación y reforzar la protección del interés público. El proyecto, que se publicó en abril de 2021, se basa en el establecimiento de requisitos y exigencias de cumplimiento legal específicos para cuatro escenarios de riesgo distintos. Pero, dos años después, aún no se ha aprobado.

Su objetivo es supervisar el acceso de terceros a datos personales e información confidencial, como secretos empresariales e innovaciones protegidas por normas de propiedad intelectual, para el entrenamiento y desarrollo de sistemas de IA que estén al servicio de los usuarios europeos. El reto no es menor: si el supervisor se excede en esta función, podría situar a los desarrolladores europeos en desventaja frente a competidores de otras zonas del mundo con regulaciones más laxas.

Como antecedente se cuenta con el actual RGPD, con amplias garantías para la protección de la privacidad, que regula las transferencias internacionales de datos personales. Esta norma exige que en los países a los que se transfieran datos personales de ciudadanos europeos existan garantías equivalentes a las europeas que sean vinculantes, algo que en estos momentos no ocurre con Estados Unidos. Y aquí es donde reside el principal escollo respecto del desarrollo de ChatGPT: su desarrollador, OpenAI, es una startup estadounidense con apoyo inversor de Microsoft. Y no hay seguridad de que aplique medidas equivalentes.

La Ley de inteligencia artificial, cuando se apruebe, deberá crear un marco legal equiparable entre los dos continentes, que proteja los derechos de los ciudadanos pero que no bloquee ni obstaculice el desarrollo de la IA ni deje a Europa en los márgenes de la innovación de esta tecnología. Y esto, visto lo visto con la normativa de protección de datos, no es fácil.

ChatGPT bajo sospecha

Hasta ahora ChatGPT ha sido testeado masivamente en su versión gratuita por usuarios de todo el mundo. La curiosidad, las ganas de ser los primeros en probar su inteligencia y su capacidad de aprendizaje en distintos sectores, la novedad de una IA que puede ocupar el lugar de un humano ha creado enormes expectativas y no se ha demostrado que limite su uso a los menores de edad.

Varias compañías se volcaron en lanzar alternativas a ChatGPT con interfaces similares y a invertir en innovaciones de la inteligencia artificial. También a colaborar con investigadores, como Meta, que ha abierto LLaMa a los desarrolladores a menor escala. Pero de momento ninguno ha estado a la altura de la herramienta de OpenAI.

No solo las autoridades y responsables de protección de datos europeos han cuestionado el chatbot. De hecho, ChatGPT está bajo sospecha en varios frentes y recientemente se ha alertado sobre los riesgos de esta herramienta. En la deep web ya se han publicado guías para hacer phishing, elaborar códigos maliciosos y realizar fraudes y robos de identidad.

Y hasta los mismos desarrolladores de IA a nivel mundial y empresarios tecnológicos han alzado la voz en una carta abierta para pedir que se frenen los avances en la versión GPT-4. Más de un millar pedía un parón que debería durar, al menos, seis meses. Entre ellos, estaban Elon Musk, CEO de Tesla; Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; desarrolladores de DeepMind (Google) e investigadores de la inteligencia artificial, como Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante seis meses.

Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.

Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.

«Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles», rezaba el manifiesto. 

La prohibición de TikTok

OpenAI aseguraba la semana pasada que adoptaría medidas y que informaría de ellas a las autoridades italianas, según recoge Reuters.

El caso de ChatGPT guarda algunas similitudes con el de la red social TikTok, cuyo uso se ha prohibido en numerosos países. La justificación por parte de distintas entidades se basaba en un supuesto riesgo para la seguridad, aunque sin ofrecer mayores detalles. Sin embargo, el punto en común son también los datos que recaba la aplicación.

La Comisión Europea aseguraba que las restricciones impuestas pretenden proteger los datos personales del personal que trabaja en dicha institución y también hablaba de su ciberseguridad. Y en términos similares se pronunciaba la Casa Blanca, que aludía a un potencial riesgo para la seguridad nacional. Además de Canadá, recientemente se sumaban a la prohibición Nueva Zelanda, Australia y Reino Unido. En este último país, la red social de origen chino era multada con 12,7 millones de libras (14,54 millones de euros) por «no haacer lo suficiente» para evitar que niños menores de edad accediesen a la plataforma.

En las próximas semanas habrá que analizar si las explicaciones que ofrezca OpenAI convencen a las autoridades italianas. Es probable que su respuesta siente un precedente para el resto de órganos de privacidad de los países europeos, en los que se ha abierto el debate sobre el bloqueo de la inteligencia artificial de ChatGPT. Algunos riesgos ya se conocen y no son pocos quienes advierten de que un desarrollo tan precipitado de esta tecnología, sin una regulación adecuada, pueda generar más perjuicios que beneficios.

También te puede interesar
Publicidad
MyTO

Crea tu cuenta en The Objective

Mostrar contraseña
Mostrar contraseña

Recupera tu contraseña

Ingresa el correo electrónico con el que te registraste en The Objective

L M M J V S D