La Federación Internacional de Periodistas usa Chat GPT para pedir una regulación "ética" en la Inteligencia Artificial
Proponen «la colaboración entre la industria de los medios de comunicación, las empresas tecnológicas y los sindicatos de periodistas» para «desarrollar un marco para la regulación de los chatbots»
Proponen «la colaboración entre la industria de los medios de comunicación, las empresas tecnológicas y los sindicatos de periodistas» para «desarrollar un marco para la regulación de los chatbots»
Los sistemas de inteligencia artificial pueden mejorar los medios de comunicación pero también generan amenazas por lo que, en un editorial redactado con la ayuda del propio sistema Chat GPT, la Federación Internacional de Periodistas (FIP) reclamó un «marco para el desarrollo ético y la regulación de los ‘chatbots'».
«Los bots conversacionales corren el riesgo de fomentar accidentalmente la desinformación y las noticias falsas» y, además, podrían «sustituir por completo a los y las periodistas, despojándoles de su seguridad laboral y dejando a muchos/as trabajadores/as de los medios de comunicación sin trabajo», alerta la FIP en su editorial del mes de abril.
Por eso, esa federación de prensa propone «la colaboración entre la industria de los medios de comunicación, las empresas tecnológicas y los sindicatos de periodistas» para «desarrollar un marco para el desarrollo ético y la regulación de los chatbots, blindando al mismo tiempo los puestos de trabajo».
«Este editorial ha sido elaborado por ChatGPT con pequeños retoques de la FIP», agrega la Federación Internacional de Periodistas, que ve la inteligencia artificial como una posible amenaza para la profesión, pero también como una herramienta positiva para el periodismo.
En ese sentido, señalan que los «bots conversacionales» pueden «permitir a los y las periodistas automatizar tareas rutinarias como la comprobación de hechos, los resúmenes de artículos y las traducciones».
«Esto podría ahorrar tiempo a los y las periodistas para centrarse en tareas más complejas, como el periodismo de investigación y el análisis», sostiene la FIP, que agrega que esos sistemas de inteligencia artificial podrían también «ayudar a los medios de comunicación a relacionarse con su público de forma más interactiva y personalizada».
En todo caso, si esos sistemas «no se diseñan de acuerdo con normas y regulaciones adecuadas, pueden contribuir a la difusión de información falsa y a socavar la confianza del público en los y las periodistas y en los medios de comunicación», remarca esa plataforma, que destaca el papel «fundamental» de los sindicatos de periodistas en el acompañamiento de esa tecnología.
«Los sindicatos también pueden defender la necesidad de invertir en la formación y el desarrollo de los y las periodistas para facilitar su adaptación a las nuevas tecnologías y garantizar que no se queden atrás», añaden.
Los cambios entre el texto original que escribió ChatGPT y el que publicó finalmente la FIP son mínimos, de tan solo dos frases en un escrito de cinco párrafos, según ha podido comprobar EFE.
Mientras el programa escribió que el ChatGPT es «una de estas tecnologías que está generando mucho interés», la FIP dijo que «está generando muchos titulares».
Y si el chat redactó que «podemos desarrollar un marco para el desarrollo ético y la regulación de los chatbots, blindando al mismo tiempo los puestos de trabajo y el futuro de los periodistas», el sindicato eliminó la alusión al «futuro de los periodistas».
Fuente: EFE