Un estudio de Epoch AI publicado en marzo preguntó a trabajadores estadounidenses si la inteligencia artificial había reemplazado alguna tarea de su trabajo. El 27% de los que usan IA a diario dijo que sí. El 21% reconoció que ahora realiza funciones que directamente no existían antes de que llegara. Son datos de encuesta, con todos los matices que eso implica, pero apuntan a algo que lleva meses pasando en silencio: los agentes de IA han salido del PowerPoint de la consultora y han aterrizado en el trabajo real. Y muchas veces sin que nadie haya tomado una decisión explícita al respecto.
Del chatbot que responde al agente que ejecuta
La diferencia entre un chatbot y un agente de IA parece técnica, pero en la práctica cambia todo. Un chatbot espera que le hagas una pregunta y te da una respuesta. Un agente recibe un objetivo, lo descompone en pasos, usa herramientas para ejecutarlos y te entrega un resultado. No necesita que estés pendiente en cada momento.
Hasta hace poco eso era más promesa que realidad. Los primeros experimentos con AutoGPT en 2023 eran más demostración tecnológica que herramienta útil: impresionantes en vídeo, frustrantes en la práctica. Lo que ha cambiado en 2025 y principios de 2026 es que los modelos subyacentes son lo suficientemente buenos como para que la autonomía funcione en tareas acotadas. No en todas, pero sí en suficientes como para que las empresas empiecen a integrarlo en sus flujos reales.
Microsoft Copilot ya gestiona correos y agenda sin que el usuario tenga que decirle qué hacer en cada paso. Los equipos de desarrollo usan agentes que detectan errores, proponen soluciones y abren pull requests. En atención al cliente, hay agentes que resuelven incidencias de principio a fin sin escalar a un humano. Gartner estima que el 40% de las aplicaciones empresariales incorporará algún tipo de agente especializado antes de que acabe 2026. Hace un año ese porcentaje era del 5%.
El problema que nadie está discutiendo
Aquí está la parte incómoda: buena parte de esta adopción no está pasando por los departamentos de IT ni por decisiones estratégicas de la dirección. Está pasando porque alguien del equipo de marketing encontró una herramienta que le ahorra dos horas al día, la conectó a los sistemas de la empresa y listo. O porque el equipo de ventas empezó a usar un agente que accede al CRM y envía seguimientos automáticos. Sin política de seguridad, sin revisar qué datos maneja, sin saber exactamente qué está haciendo.
El término que se está usando en el sector es "shadow AI", en paralelo al viejo "shadow IT" de cuando los empleados instalaban Dropbox en los ordenadores de empresa porque el servidor corporativo era un desastre. La diferencia es que un agente de IA con acceso a tus sistemas y tus datos tiene un radio de acción bastante mayor que una aplicación de sincronización de archivos.
Vasu Jakkal, vicepresidenta de Microsoft Security, lo planteó de forma directa a principios de año: cada agente debería tener controles de seguridad equivalentes a los de cualquier empleado humano. Identidad definida, acceso limitado a lo necesario, registro de lo que hace. En la práctica, la mayoría de implementaciones actuales no tienen nada de eso.
La pregunta que sí importa
El debate público sobre IA y trabajo lleva dos años girando alrededor de si los robots nos van a quitar el empleo. Es un debate legítimo, pero está tapando una pregunta más inmediata: ¿quién decide qué tareas se delegan a un agente, con qué criterios y bajo qué supervisión?
Porque el estudio de Epoch AI también revela que uno de cada doce estadounidenses ya ha usado un agente autónomo, y que las tareas más afectadas son búsqueda de información, redacción y generación de ideas. No son tareas mecánicas ni repetitivas en el sentido clásico. Son tareas que implican criterio, contexto y, en muchos casos, responsabilidad sobre el resultado.
Delegar eso a un sistema que ejecuta con autonomía y sin supervisión constante no es necesariamente malo. Pero requiere que alguien haya pensado qué pasa cuando el agente se equivoca, quién revisa que los resultados son correctos y qué ocurre con los datos que procesa por el camino. Esas preguntas no están en el manual de ninguna herramienta.
El salto de chatbot a agente es real y está pasando más rápido de lo que la mayoría de organizaciones está gestionando. Lo interesante de 2026 no es si los agentes funcionan, que ya está bastante demostrado, sino descubrir quién en cada empresa se está haciendo cargo de que funcionen bien.
0 Comentarios