Aunque los sistemas como ChatGPT están diseñados para proteger la información de los usuarios, es fundamental entender cómo se manejan y almacenan los datos para evitar malentendidos y asegurar una experiencia segura.
En un mundo donde los datos personales son un recurso valioso, los usuarios deben entender qué sucede con la información que comparten. Si bien OpenAI asegura que ChatGPT cumple con estrictos protocolos de privacidad, no está exento de críticas ni de investigaciones por parte de autoridades regulatorias. Por ejemplo, el Garante de Protección de Datos de Italia ha planteado preocupaciones serias sobre el manejo de datos personales, lo que llevó a una prohibición temporal del servicio en dicho país.
Al utilizar ChatGPT, se recopilan diversos tipos de información: desde las indicaciones y respuestas que introduces hasta datos más técnicos como tu dirección IP, tipo de dispositivo y datos de geolocalización. OpenAI afirma que esta información se utiliza para mejorar el servicio y entrenar sus modelos de IA, pero la recopilación masiva de datos plantea interrogantes sobre la capacidad de los usuarios para controlar su privacidad. Según estimaciones, ChatGPT maneja 175 billones de parámetros y procesa hasta 10 millones de solicitudes diarias, lo que amplifica la cantidad de datos recopilados.
Juan Pablo Baeza, CEO de Plaglabs, menciona que es importante diferenciar “entre la recopilación de datos autorizada y el robo de datos. ChatGPT no tiene intenciones de “robar” información; su diseño se enfoca en procesar datos de forma segura y en mejorar las respuestas sin comprometer la privacidad”.
Además, explicó que “cualquier sistema que dependa de grandes volúmenes de datos corre el riesgo de almacenar y procesar información sensible si los usuarios no tienen cuidado con lo que comparten. En este sentido, los propios usuarios pueden proteger su privacidad, evitando compartir información confidencial o personal de forma innecesaria”.
Aunque OpenAI declara que los datos recopilados se anonimizan, algunos expertos cuestionan la eficacia de este proceso. La política de privacidad de la compañía tiene un enfoque de “capturar todo ahora y procesarlo después”, lo que deja margen para errores o brechas.
Daniel Montero, Gerente de Servicios de Dsac señaló que que «los usuarios deben ser educados sobre cómo proteger su información y las implicaciones de compartir datos personales. Las empresas tienen la obligación de ofrecer configuraciones claras y accesibles para que las personas puedan gestionar su privacidad de forma efectiva. Estas herramientas deben ser acompañadas por una comunicación efectiva y comprensible, evitando términos legales complejos que puedan desalentar su uso”.
Los problemas de privacidad no son nuevos para OpenAI. Desde su lanzamiento, el modelo ha enfrentado críticas por utilizar datos personales obtenidos de plataformas públicas como Reddit y otros sitios web. Esta práctica llevó a la prohibición temporal en Italia y generó preocupaciones sobre el uso indebido de datos. Fallos de seguridad, como los reportados en la aplicación de escritorio para macOS, también han sido motivo de alerta, evidenciando la importancia de una gestión cuidadosa de la privacidad.
¿Qué dicen los reguladores?
El Reglamento General de Protección de Datos (RGPD) de la Unión Europea impone estrictas normas sobre la recopilación y tratamiento de datos personales. Sin embargo, la implementación de estas normas en tecnologías como ChatGPT aún está siendo evaluada.
«En un entorno digital cada vez más interconectado, el manejo adecuado de los datos personales es un componente crucial para la sostenibilidad y aceptación de estas tecnologías. OpenAI y otras compañías deben asumir la responsabilidad de proteger la información no solo por obligación legal, sino como un compromiso ético hacia sus usuarios» concluyó Montero.