IA entre el vértigo y el escepticismo: trabajo, delito y seguridad en el filo

La expansión de la inteligencia artificial ha convertido 2025 en un año de titulares entusiastas y declaraciones grandilocuentes. Pero bajo esa ola de promesas late un malestar creciente: miedo a perder el trabajo, auge del cibercrimen y dudas serias sobre la eficacia real de la IA en defensa.

Los datos hablan de un impacto económico enorme, con inversiones que tiran del PIB y disparan el valor en bolsa de las grandes tecnológicas. Al mismo tiempo, ciudadanos, reguladores y profesionales de la seguridad se preguntan si la cuenta final la pagarán ellos: empleos recortados, fraudes cada vez más sofisticados y sistemas de protección convertidos en escaparate de marketing.

En este contexto, el debate ya no es si la IA “va a cambiarlo todo”, sino a quién beneficia, a quién desplaza y cuánto hay de humo en el relato de la revolución.

La productividad sube, la tranquilidad baja

Las grandes cifras económicas son difíciles de ignorar. En la primera mitad de 2025, la inversión ligada a la IA ha aportado más crecimiento al producto interior bruto mundial que el propio consumo privado. Una parte importante del aumento reciente del valor bursátil se concentra en unas pocas empresas volcadas en esta tecnología, convertidas en el nuevo centro de gravedad de los mercados.

Mientras tanto, en el mercado laboral se extiende la sensación de estar en terreno movedizo. Un análisis del banco central estadounidense apunta a que la IA ya está desplazando puestos de entrada y frenando nuevas contrataciones, especialmente en trabajos de oficina y servicios avanzados. En Estados Unidos, la tasa de paro entre jóvenes con estudios superiores ronda el 9,5%, frente a un desempleo general del 4,4%, una brecha que alimenta la idea de que la “clase media de cuello blanco” podría ser la siguiente víctima de la automatización.

Las encuestas reflejan esta inquietud: cerca de tres cuartas partes de los ciudadanos temen que la IA deje a demasiada gente sin trabajo de forma permanente. A la vez, el 61% muestra preocupación por el impacto energético de los centros de datos que sostienen estos modelos, en un momento en que proliferan los conflictos locales por el consumo eléctrico de las nuevas granjas de servidores.

Del ataque puntual al delito automatizado

Si el empleo es el lado visible de la transformación, el crimen digital es su cara más oscura. Las mismas herramientas que permiten automatizar tareas corporativas se están utilizando para multiplicar la escala y la velocidad del delito.

La combinación de modelos generativos, clonación de voz y falsificación de imágenes ha convertido los deepfakes en un arma cotidiana. Distintos estudios señalan que en 2024 se registró, a nivel global, un ataque con contenidos sintéticos cada pocos minutos, con un incremento de más del 200% respecto al año anterior. Este material ya no se usa solo para difamar o acosar, sino para abrir cuentas bancarias, superar verificaciones de identidad y engañar a sistemas de seguridad “confiados” en lo que ven y oyen.

En paralelo, los sistemas de pago en tiempo real se han convertido en objetivo prioritario para redes criminales que combinan identidades sintéticas con automatización masiva. Proyecciones financieras apuntan a que las pérdidas derivadas de fraude apoyado en IA generativa podrían alcanzar decenas de miles de millones de dólares en apenas un par de años, solo en Estados Unidos. Lo que antes exigía bandas amplias y mucho trabajo manual puede orquestarse ahora con scripts, modelos y bots que no duermen.

Cuando la IA defiende… y también abre brechas

La paradoja es que la IA se vende, al mismo tiempo, como solución a estos problemas. Herramientas que prometen detectar anomalías, correlacionar eventos y cerrar brechas en segundos han inundado el mercado de ciberseguridad. Sin embargo, una parte de la comunidad profesional mira esta ola con un escepticismo difícil de disimular.

En foros especializados, analistas y administradores describen un panorama en el que muchas soluciones de “ciber-IA” no son tanto una revolución como un reempaquetado de tecnologías ya existentes, ahora cubiertas de términos de moda. En la práctica diaria, siguen lidiando con paneles llenos de ruido, modelos poco explicables y procesos que requieren revisar a mano lo que la herramienta señala como urgente o crítico.

El problema se agrava cuando estas plataformas se integran en organizaciones que ni siquiera tienen sus básicos en orden: inventarios incompletos, registros mal configurados, procedimientos de respuesta improvisados. En ese contexto, añadir modelos por encima equivale a automatizar el caos. Varios profesionales alertan de que la fe ciega de ciertos directivos en la “IA que lo arregla todo” puede llevar a recortar equipos humanos o relajar controles clásicos justo cuando más falta hace criterio experto.

Regulación a contrarreloj y brecha de expectativas

Ante este panorama, los poderes públicos intentan ponerse al día. En Estados Unidos, algunos estados han empezado a legislar contra deepfakes dañinos y a exigir etiquetado de contenidos sintéticos en campañas políticas. A nivel federal se han aprobado normas para proteger a víctimas de explotación con imágenes manipuladas y se discuten propuestas para obligar a incluir marcadores rastreables en contenidos generados por IA.

Pero la velocidad de la regulación contrasta con la del mercado y la del delito. Mientras los legisladores debaten, las herramientas y los modelos se actualizan en ciclos de semanas, y los grupos criminales experimentan sin las restricciones que sí tienen empresas e instituciones. En paralelo, los propios profesionales de seguridad reclaman algo más prosaico que una gran ley: métricas claras, transparencia sobre cómo se entrenan los modelos defensivos y la posibilidad de auditar decisiones antes de automatizarlas.

En el plano laboral, las compañías empiezan a integrar en un mismo ejercicio estratégico la planificación de plantilla y los proyectos de IA. Recursos humanos y tecnología se sientan ahora en la misma mesa para decidir qué tareas se automatizan, cuáles se redistribuyen y qué perfiles hay que reciclar. La promesa oficial es que la IA “libera tiempo” para trabajo de mayor valor; la percepción en muchos equipos es que, de momento, el estrés y la incertidumbre van muy por delante de las oportunidades claras.

Al final, el balance de este tramo de la revolución de la IA es ambivalente. La tecnología está generando riqueza, abriendo posibilidades y aportando herramientas útiles en muchas áreas. Pero también está concentrando poder económico, facilitando nuevas formas de delito y poniendo bajo presión a trabajadores y defensores que aún no han tenido tiempo de adaptarse. Lo que ocurra en los próximos años dependerá menos de la potencia de los modelos que de cómo empresas, gobiernos y sociedad decidan usarlos, controlarlos… y poner límites donde haga falta.

Publicar un comentario

0 Comentarios