Una inteligencia artificial que predice quién podría cometer un delito. No es ciencia ficción. Es el nuevo plan del Gobierno británico. Y sí, huele a “Minority Report”.
Reino Unido está desarrollando una herramienta de IA capaz de identificar a potenciales criminales antes de que hayan cometido un delito. Suena distópico, porque lo es. El proyecto, inicialmente llamado “Predicción de Homicidios”, utiliza datos personales de entre 100.000 y 500.000 ciudadanos: historial médico, salud mental, adicciones, discapacidades… todo sin un consentimiento explícito. Bienvenido al futuro, versión Orwell 2.0.
Así funciona esta IA “adivinadora”
La herramienta —rebautizada eufemísticamente como “Intercambio de datos para mejorar la prevención de riesgos”— no se basa en evidencias de delitos cometidos, sino en patrones estadísticos. El sistema analiza perfiles de personas que han sido víctimas, testigos o autores de delitos… y a partir de ahí construye una predicción.
El problema: esos perfiles incluyen datos extremadamente sensibles. Y nadie firmó que quería ser parte de un experimento de sociología computacional de dudosa ética.
La Cadena SER ha destapado los detalles más polémicos del programa, generando un debate abierto sobre si esto es prevención o persecución preventiva.
El fantasma de la policía predictiva vuelve a escena
No es la primera vez que se intenta algo así. En Estados Unidos ya se probaron sistemas de policía predictiva como PredPol, con resultados más bien turbios: reforzaban sesgos raciales y se alimentaban de sus propios errores.
Lo curioso es que la crítica no viene solo desde ONG o activistas. Incluso algunos expertos en IA han advertido que este tipo de sistemas no solo pueden fallar: pueden hacerlo con autoridad.
Ya lo analizamos en Kernel Reload cuando hablamos de los riesgos de automatizar decisiones sensibles en el artículo “¿Puede una IA decidir tu destino migratorio?”. Y aquí la pregunta es parecida: ¿de verdad queremos que una máquina tenga la última palabra sobre el futuro de alguien?
¿Seguridad o paranoia algorítmica?
Lo más inquietante es la tendencia: cada vez más gobiernos están tentados a usar la IA como oráculo. En lugar de reformar sistemas sociales, prefieren que un algoritmo les diga a quién vigilar antes de que pase algo.
Este tipo de enfoques no solo rozan lo ilegal en muchos países europeos, sino que además erosionan el principio básico de cualquier democracia: la presunción de inocencia.
Ya vimos cómo el miedo al delito está siendo usado para justificar recortes de derechos en nuestro artículo “Lo más jugoso en ciberseguridad está pasando en la sombra”. Y esto parece otro capítulo de la misma serie.
Lo que nadie te cuenta sobre esto
Cuando un algoritmo falla, nadie va a la cárcel. Pero si te etiqueta como potencial criminal, tú sí puedes acabar en una lista. Y en un sistema sin transparencia ni supervisión, eso es más peligroso que el delito que se quiere evitar. El verdadero crimen es dejar que una IA juegue a ser juez y parte.
¿De verdad queremos vivir en un mundo donde ser diferente se convierta en un “riesgo estadístico”?

0 Comentarios