OpenAI cambia sus condiciones sobre datos de entrenamiento: lo que afecta a los usuarios europeos


OpenAI actualizó esta semana sus políticas de uso de datos para usuarios de la API y de ChatGPT, con cambios que afectan directamente a cómo se gestionan las conversaciones para el entrenamiento de modelos. El ajuste no es menor: en la práctica, modifica quién tiene que optar activamente para que sus datos no se usen y bajo qué condiciones se aplica la protección por defecto para usuarios sujetos al RGPD.

El cambio ha pasado relativamente desapercibido en los medios generalistas, pero en las comunidades de desarrolladores y en foros técnicos europeos lleva días generando debate. No es la primera vez que OpenAI retoca sus condiciones en esta área, pero el contexto regulatorio es ahora diferente: la entrada en aplicación del AI Act europeo y la presión sostenida de las autoridades de protección de datos de varios países están obligando a todas las grandes plataformas de IA a precisar sus políticas con un nivel de detalle que antes eludían.

Qué cambia exactamente

Hasta ahora, los usuarios de ChatGPT en Europa podían desactivar el uso de sus conversaciones para entrenamiento desde los ajustes de la cuenta. El nuevo marco mantiene esa opción, pero introduce una distinción relevante entre usuarios de cuentas gratuitas, de pago y empresariales que antes no estaba tan explicitada.

Para los usuarios de ChatGPT Free en Europa, la protección requiere acción activa: hay que entrar en Configuración, ir a la sección de Controles de Datos y desactivar "Mejorar el modelo para todos". OpenAI alega que en los países donde el RGPD se aplica directamente, esta opción viene desactivada por defecto para nuevas cuentas. El problema es que eso no se aplica retroactivamente a las cuentas existentes creadas antes del cambio.

Para los usuarios de ChatGPT Plus y Team, el nuevo texto indica que sus conversaciones no se usan para entrenamiento por defecto, sin necesidad de configuración manual. Eso ya era así en la práctica, pero ahora está explícitamente recogido en la política.

Para usuarios de la API, los datos nunca se han usado para entrenamiento sin consentimiento explícito, y eso no cambia.

Por qué importa la base legal

El RGPD obliga a que cualquier tratamiento de datos personales tenga una base legal válida. Para el entrenamiento de modelos de IA, las opciones disponibles son básicamente tres: consentimiento explícito del usuario, interés legítimo del responsable del tratamiento, o cumplimiento de una obligación legal. OpenAI ha operado durante años argumentando interés legítimo, una base que las autoridades de protección de datos europeas han cuestionado repetidamente.

La Autoridad Italiana de Protección de Datos fue la primera en actuar en 2023, llegando a bloquear temporalmente ChatGPT en Italia. Desde entonces, el regulador irlandés (que supervisa a OpenAI en Europa porque es donde está su sede europea) ha estado revisando las prácticas de la compañía. Los cambios en las condiciones de esta semana están diseñados, al menos en parte, para responder a esa presión regulatoria antes de que lleguen decisiones más vinculantes.

Qué hacer si usas ChatGPT con datos profesionales

Si accedes a ChatGPT con información de trabajo, ya sea para redactar documentos, analizar datos o cualquier otra tarea que involucre datos de terceros, hay dos acciones inmediatas:

Primero, verificar el estado del ajuste de entrenamiento en tu cuenta. La ruta es Configuración > Controles de Datos > Mejorar el modelo para todos. Si está activado y no quieres que tus conversaciones se usen para entrenar modelos, desactívalo.

Segundo, valorar si el plan gratuito es adecuado para ese uso. Las condiciones de las cuentas de pago son más claras en este punto. Para uso profesional con datos sensibles, la cuenta Plus o, mejor aún, el plan Team o Enterprise (que incluye protección adicional y acuerdos de tratamiento de datos disponibles bajo petición) ofrece más garantías explícitas.

Una alternativa que cada vez más organizaciones están evaluando es ejecutar modelos localmente con herramientas como LM Studio u Ollama, sin que los datos salgan del dispositivo. La proliferación de modelos capaces de correr en hardware convencional hace que esa opción sea ya viable para muchos casos de uso que hace dos años requerían acceso a la nube.

El debate sobre qué hacen las plataformas de IA con los datos de los usuarios no va a resolverse con un cambio de condiciones. Y no afecta solo a las conversaciones de chat: los agentes de IA que ya operan en entornos corporativos plantean preguntas aún más complejas sobre qué datos procesan, dónde y bajo qué condiciones. Entender exactamente qué dice la letra pequeña es el primer paso para tomar decisiones informadas sobre qué se comparte y con quién.

Publicar un comentario

0 Comentarios