La “revolución” de la IA en ciberseguridad que muchos no ven por ninguna parte

Mientras el discurso comercial insiste en que la inteligencia artificial va a revolucionar la ciberseguridad, una parte de la comunidad profesional empieza a decir basta. En un foro especializado, varios expertos han desmontado la narrativa triunfalista y describen la situación más como una fiebre del oro alimentada por el marketing que como un cambio real en su día a día.

El mensaje de fondo es incómodo para muchos proveedores: la IA ayuda, sí, pero no sustituye al trabajo humano, y su integración apresurada puede estar creando una falsa sensación de seguridad justo cuando los ataques son más sofisticados que nunca.

Un foro cansado del marketing de “magia negra”

Los participantes del debate comparten una sensación recurrente: la distancia entre las promesas de la IA y lo que realmente aporta en un SOC o en un equipo de respuesta a incidentes. Los anuncios hablan de “revolución”, de sistemas que “piensan como un analista” o “detienen amenazas en tiempo real”, pero quienes están frente a los paneles de alertas siguen viendo logs ruidosos, correlaciones imperfectas y mucho trabajo manual.

Varios profesionales critican que la IA se venda como si fuera a eliminar de golpe la escasez de talento en seguridad. En la práctica, explican, muchas de estas herramientas se apoyan en reglas y modelos que ya existían, solo que ahora vienen envueltos en un vocabulario más glamuroso. Cuando se aparta la capa de marketing, lo que queda se parece más a una evolución incremental que a un salto radical.

También aflora un cierto hartazgo con los proyectos “desde arriba”: iniciativas de IA impulsadas por la dirección o por el área de innovación, que aterrizan sobre los equipos de seguridad sin haber pasado por pruebas serias ni por un ajuste a los procesos reales de operación.

Lo que la IA sí aporta… y dónde se rompe el relato

El escepticismo no significa rechazo total. Muchos reconocen que la IA puede ser útil para agilizar tareas de bajo nivel, como resumir informes, agrupar alertas similares, ordenar tickets por prioridad aparente o ayudar a generar reglas y consultas de detección a partir de lenguaje natural.

Donde salta la chispa es cuando se intenta presentar estas capacidades como sustituto del criterio humano. Varios expertos subrayan que, en ciberdefensa, el contexto lo es todo: conocer la organización, su infraestructura, sus riesgos reales y hasta su cultura interna. Ningún modelo genérico puede incorporar eso sin un trabajo muy fino de adaptación y supervisión continua.

Además, la IA no trabaja en el vacío; se alimenta de datos que pueden estar sesgados, incompletos o directamente mal etiquetados. Si el material de entrenamiento es pobre, el resultado son modelos que amplifican errores: priorizan lo que no importa, ignoran lo crítico o generan una cascada de falsos positivos que termina saturando al equipo. En ese escenario, la IA no ahorra tiempo, lo consume.

Integración prematura: automatizar el caos

Otro de los ejes de la discusión es el riesgo de integrar IA sin que los fundamentos de seguridad estén resueltos. Algunos profesionales lo describen con crudeza: si tu inventario es un desastre, tus logs están incompletos y tus procesos de respuesta son caóticos, meter un modelo de IA encima solo consigue automatizar ese caos.

Hay preocupación por cómo ciertos responsables no técnicos empiezan a confiar en “la herramienta de IA” como si fuera un oráculo, sin entender sus límites. Esto puede derivar en que se relajen controles tradicionales o se reduzcan equipos con la idea de que el modelo “se encarga”. Cuando llega un incidente real, son las mismas personas de siempre quienes tienen que reconstruir lo ocurrido a partir de resultados opacos y a veces contradictorios.

También se critica la presión por “poner IA en todo” para no quedarse atrás frente a la competencia, incluso cuando el caso de uso no está claro. Desde la perspectiva de quienes operan estas soluciones, la prioridad debería ser otra: menos pilotos vistosos y más rigor en pruebas, métricas y validación antes de declarar que algo mejora la defensa.

Modelos frágiles en un entorno que ataca de vuelta

La ciberseguridad tiene una particularidad que varios usuarios remarcan: es un entorno abiertamente adversarial. No se trata de clasificar fotos de gatos, sino de enfrentarse a atacantes que adaptan su comportamiento para engañar a sistemas de detección. En ese contexto, los modelos de IA pueden convertirse en un nuevo punto débil si no se diseñan pensando en que el adversario también los va a estudiar.

Entre los riesgos que se mencionan están la manipulación de datos para engañar al modelo, la posibilidad de que técnicas de evasión relativamente sencillas dejen ciega la detección basada en IA, o la exposición de información sensible si se vuelcan telemetrías ricas en datos internos en servicios poco controlados. Sin garantías sólidas de privacidad, auditoría y robustez frente a ataques, la promesa de “más inteligencia” puede salir cara.

Todo esto se suma a un problema práctico: la opacidad. Cuando un modelo actúa como una caja negra, explicar por qué se tomó una decisión puede ser imposible. Y en ciberseguridad, justificar por qué se ha bloqueado un servicio crítico o por qué se ha ignorado un indicador es parte esencial del trabajo.

Qué piden realmente los profesionales de ciberseguridad

Lejos de ser tecnófobos, muchos participantes piden algo muy concreto: realismo y control humano. Quieren herramientas de IA que se integren como asistentes, no como sustitutos; que les permitan experimentar en entornos aislados, ajustar comportamientos y medir resultados con claridad antes de afectar producción.

También reclaman transparencia sobre cómo se entrenan los modelos, qué datos utilizan y qué límites tienen. Sin esa información, resulta difícil confiar en que una decisión generada por IA sea algo más que una sugerencia que hay que revisar de arriba abajo. La visión predominante en el debate es que la IA puede ser útil como multiplicador de capacidades de un equipo competente, pero no como excusa para recortar experiencia ni procesos.

En el fondo, este intercambio de opiniones funciona como un contrapeso saludable al ruido del mercado: recuerda que, en ciberseguridad, las “revoluciones” no se decretan en folletos comerciales, sino que se ganan —o se desmienten— en los turnos de madrugada del SOC, cuando hay que decidir en minutos qué alerta merece atención y cuál puede esperar.

Publicar un comentario

0 Comentarios