Riesgos en la confianza de datos personales a ChatGPT

 Riesgos en la confianza de datos personales a ChatGPT

ChatGPT, un modelo de lenguaje desarrollado por OpenAI, plantea interrogantes sobre la seguridad de los datos personales confiados durante las conversaciones. Aunque el propio ChatGPT niega la capacidad de procesar o almacenar información personal, la política de privacidad de OpenAI permite la utilización de dichos datos en casos específicos.

OpenAI puede emplear información de cuentas como nombre, datos de pago, interacciones en redes sociales y participación en encuestas. Este uso se destina a mejorar productos, realizar investigaciones, cumplir obligaciones legales y prevenir fraudes. Sin embargo, la empresa está sujeta a restricciones del Reglamento General de Protección de Datos (RGPD) y se expone a sanciones por un uso inadecuado.

La práctica de compartir información personal con inteligencias artificiales, como ChatGPT, se extiende a otras plataformas como Gmail, OneDrive y servicios de grandes empresas como Microsoft y Google. Aunque estas compañías pueden compartir datos con terceros según sus políticas de privacidad, el RGPD prohíbe su uso para fines no autorizados.

En España, las herramientas de inteligencia artificial generativa, incluyendo ChatGPT, reciben 377 millones de visitas anuales. A pesar de no entender completamente los documentos, estas herramientas analizan datos, responden consultas y mejoran servicios. Expertos y la Agencia Española de Protección de Datos (AEPD) aconsejan precaución al interactuar con chatbots, destacando riesgos como daño emocional, desinformación e inducción al engaño.

La AEPD sugiere a los usuarios limitar la información compartida y ser cautelosos con chatbots que soliciten datos innecesarios. Incluso ChatGPT aconseja precaución al compartir información personal y proporciona un formulario para eliminar datos personales, aunque la eliminación no está garantizada.

Desde el punto de vista legal, los usuarios pueden ejercer el derecho de supresión y portabilidad. Además, la anonimización de datos personales es una práctica recomendada por la AEPD para minimizar el uso de datos.

La nueva ley europea de inteligencia artificial impone a las empresas gestionar datos personales la revelación de detalles sobre el funcionamiento de algoritmos y mecanismos de supervisión humana. Aunque no es incompatible con el RGPD, esta norma establece pautas para garantizar la transparencia y seguridad en el uso de inteligencia artificial.

El siguiente paso para la inteligencia artificial podría ser la creación de repositorios personales, según el experto Borja Adsuara, donde la información recopilada se mantenga sin alimentar la inteligencia artificial generativa de manera universal.