ChatGPT y los pasaportes falsos: cuando la IA burla a los sistemas que juraban ser infalibles

Un ingeniero ha conseguido crear un pasaporte falso con ChatGPT y pasar una verificación digital. No es una escena de ciencia ficción. Es la nueva normalidad tecnológica, donde los límites entre lo creíble y lo verificable se desdibujan peligrosamente.

La hazaña (preocupante) de un ingeniero curioso

Todo comenzó con una prueba de concepto. El ingeniero, cansado de escuchar que las verificaciones digitales eran "a prueba de todo", decidió poner a prueba a ChatGPT-4 para generar una imagen de un pasaporte ficticio. No solo lo hizo con éxito: logró pasar los controles automáticos de una plataforma de verificación real.

El documento, aunque completamente inventado, engañó a un sistema que se supone entrenado para detectar fraudes documentales. Lo más inquietante es que no se necesitaron conocimientos avanzados en diseño gráfico ni hacking, solo prompts bien afinados y algo de paciencia.

Verificaciones que ya no verifican

Este experimento deja en evidencia una verdad incómoda: los sistemas automáticos de verificación de identidad son vulnerables a la IA generativa. Mientras algunas empresas venden sus soluciones como infalibles, lo cierto es que los modelos como ChatGPT, Midjourney o DALL·E ya son capaces de replicar con detalle documentos oficiales si el prompt es lo bastante preciso.

Y si esto se puede hacer con un pasaporte, ¿qué impide hacerlo con títulos universitarios, contratos o incluso pruebas médicas? El problema no es solo técnico, sino profundamente ético y legal.

¿Y ahora qué? Regulación, o caos

La UE ya está poniendo el foco en el control de la IA con leyes como la AI Act, pero lo cierto es que la velocidad a la que evoluciona esta tecnología deja obsoletas muchas normativas antes de entrar en vigor. Mientras tanto, los sistemas de verificación automatizados se siguen vendiendo como la solución mágica para onboarding digital, eKYC y autenticación remota.

En Kernel Reload ya avisamos de los riesgos cuando la IA deja de distinguir lo real de lo generado. Y también contamos cómo probamos un mes sin Google, precisamente por esta desconfianza creciente en los filtros algorítmicos.

Lo que nadie te cuenta sobre esto

No es que la IA esté burlando los controles: es que los controles eran más de postureo que de seguridad real. Durante años, nos vendieron OCRs, APIs de validación y selfies biométricos como muros de acero, cuando en realidad eran puertas de papel pintado. La diferencia es que ahora hay una IA dispuesta a empujar la puerta con un dedo.

¿Tú confiarías tu identidad a una IA que no distingue ficción de realidad?

Publicar un comentario

0 Comentarios