Los usuarios europeos de ChatGPT ya tienen acceso al modo Operator, el sistema que permite a la IA ejecutar tareas en webs y servicios de terceros de forma autónoma: rellenar formularios, hacer reservas, comparar precios o gestionar correos sin que el usuario tenga que confirmar cada paso. Llega con más de seis meses de retraso respecto al despliegue en Estados Unidos, y no precisamente porque la tecnología no estuviera lista.
Por qué tardó tanto en llegar a Europa
La respuesta corta es el RGPD y el AI Act. Anthropic publicó en marzo su análisis sobre agentes autónomos y tratamiento de datos personales, y OpenAI se encontró con el mismo problema: cuando un agente actúa en nombre de un usuario en una web de terceros, ¿quién es el responsable del tratamiento de los datos que ese agente lee, procesa y almacena? La regulación europea no tiene una respuesta clara para este escenario todavía, y OpenAI optó por negociarlo con la Agencia Española de Protección de Datos y sus homólogas europeas antes del lanzamiento.
El resultado es una versión del modo Operator con restricciones específicas para Europa: no puede acceder a servicios de salud ni financieros sin verificación explícita adicional, los registros de actividad del agente se almacenan en servidores dentro del Espacio Económico Europeo, y el usuario puede desactivar el historial de acciones en cualquier momento. Estas restricciones no existen en la versión estadounidense.
Qué puede hacer, exactamente
En la práctica, el modo Operator puede hacer cosas razonablemente útiles: buscar vuelos y comparar precios en varias webs, rellenar formularios de registro con los datos del usuario, gestionar devoluciones en tiendas online, o resumir y clasificar correos electrónicos con acceso a Gmail o Outlook.
Lo que no puede hacer por defecto es ejecutar transacciones financieras, acceder a cuentas bancarias, enviar mensajes en nombre del usuario sin confirmación previa o hacer compras. Estas acciones requieren aprobación explícita en cada sesión. El sistema funciona con lo que OpenAI llama "niveles de autonomía" configurables: el usuario decide si el agente puede actuar solo, actuar pero notificando, o siempre pedir confirmación.
El problema que nadie quiere nombrar
La pregunta que no aparece en los comunicados de prensa es simple: ¿qué pasa cuando el agente toma una decisión equivocada? Si el modo Operator completa una reserva de hotel en la fecha incorrecta o introduce un dato erróneo en un formulario con consecuencias legales, la cadena de responsabilidad no está clara. OpenAI incluye en los términos de servicio que el usuario es responsable de las acciones del agente en todo momento. Lo que equivale a decir: si algo sale mal, es tu problema.
Cómo se compara con lo que ya existe en el mercado
El modo Operator de OpenAI no es el primer sistema de este tipo, ni el único disponible. Anthropic desplegó capacidades similares con Claude Cowork en marzo, y Google lleva meses probando un sistema equivalente bajo el nombre Project Astra integrado en Google Assistant. La diferencia es que OpenAI lo ha empaquetado como una función del producto de consumo, accesible desde ChatGPT Plus sin configuración adicional, lo que le da una ventaja de adopción masiva que los otros no tienen todavía.
Microsoft, que tiene integrado GPT-4 en su ecosistema de productos, está desarrollando Copilot Actions con un enfoque similar pero más limitado al entorno de Microsoft 365. Su ventaja es que ya está donde están muchas empresas: el calendario, el correo, los documentos. Su limitación es exactamente la misma: opera sobre datos corporativos sensibles con una capa de responsabilidad que los departamentos legales están empezando a cuestionar.
Lo que falta en la ecuación
Ninguna de estas implementaciones ha resuelto el problema del contexto. Un agente autónomo que actúa en webs de terceros tiene que tomar decisiones en tiempo real sobre qué es relevante, qué riesgos son aceptables y cuándo parar. Los sistemas actuales no tienen esa capacidad de forma fiable. Son útiles para tareas repetitivas y bien definidas: comparar precios en Amazon, verificar disponibilidad de vuelos, rellenar formularios estándar. Fallan cuando el contexto es ambiguo, cuando la web no se comporta como esperaban o cuando la tarea requiere juicio real sobre prioridades.
El rol del usuario en un sistema que actúa solo
Hay una contradicción en el centro del concepto de agente autónomo como producto de consumo. Si el usuario tiene que supervisar activamente lo que hace el agente para evitar errores, el ahorro de tiempo que promete el producto desaparece en gran medida. Y si no supervisa, asume la responsabilidad de lo que el agente decida sin su intervención.
OpenAI ha optado por un equilibrio intermedio: el modo Operator envía resúmenes de las acciones realizadas después de completarlas, con opción de revertir las que sean reversibles. Es mejor que nada, pero sigue siendo una arquitectura de "actúa primero, informa después" que traslada la carga de revisión al usuario en lugar de requerir aprobación previa para acciones con consecuencias.
La alternativa, pedir confirmación para cada acción, sería exactamente tan frustrante como no tener el agente. El equilibrio correcto entre autonomía y supervisión sigue siendo una pregunta abierta que cada empresa está resolviendo de forma diferente y, hasta ahora, ninguna ha dado con una respuesta que convenza a todos los usuarios en todos los escenarios.
Eso no invalida la utilidad del sistema, pero conviene tenerlo presente antes de darle acceso a tu bandeja de entrada o a tu cuenta de Amazon. Los agentes de IA ya están trabajando en entornos empresariales con consecuencias reales, y la versión de consumo es solo la punta visible de un icono de carga que lleva meses creciendo. La cuestión no es si los agentes autónomos van a formar parte del flujo de trabajo digital cotidiano, sino quién responde cuando algo falla y qué significa realmente "actuar en nombre del usuario" cuando el usuario no está mirando.
0 Comentarios