Pensabas que ya lo habías visto todo en inteligencia artificial aplicada a la justicia. Pues no. En Arizona, un juez permitió que un hombre asesinado —literalmente asesinado— diera su “testimonio” en la audiencia de sentencia. ¿Cómo? A través de un avatar digital, con su cara y su voz clonada, creado por su hermana. Bienvenidos al nuevo orden judicial, donde los muertos tienen palabra… si alguien la escribe por ellos.
“Hola, soy Chris Pelkey. Bueno, casi…”
Christopher Pelkey murió en 2021, asesinado de un disparo durante un altercado de tráfico. Su asesino, Gabriel Horcasitas, fue declarado culpable. Y durante la audiencia de sentencia, Pelkey “habló”. O mejor dicho: una versión sintética de él creada con IA apareció en video para compartir su supuesto mensaje final.
El avatar —generado con Stable Diffusion, LoRA y clonación de voz— decía:
“En otra vida podríamos haber sido amigos. Creo en el perdón, en un Dios que perdona. Siempre lo he hecho. Aún lo hago.”
Un deepfake piadoso. Un eulogio automatizado. Y, según su hermana, una forma de “humanizarlo”. Todo con guion preaprobado, claro.
El juez se emocionó. El acusado respiró. Y la familia se sintió vengada
El juez Todd Lang no solo aceptó el testimonio: lo celebró. Dijo que había sentido la autenticidad y el perdón en esas palabras. Llamó a Pelkey por su nombre de pila. Y acabó imponiendo la sentencia máxima: 10 años y medio.
Stacey Wales, la hermana del fallecido, fue directa:
“Nuestro objetivo era hacer llorar al juez. Queríamos traer a Chris de vuelta. Humanizarlo.”
Misión cumplida. Pero no sin consecuencias.
Testimonio con libreto: el nuevo género judicial
Todo el mundo sabía que era un video generado por IA. Lo decía el propio avatar. Combinaba clips reales de Pelkey en vida con esta versión recreada. No hubo engaño. Pero sí una verdad incómoda: lo que dijo el avatar lo escribió su hermana.
No fue Christopher Pelkey quien habló. Fue Stacey Wales canalizando lo que ella cree que él diría. Emocional, sí. ¿Legítimo? Ese es otro debate.
Precedente judicial con aroma a distopía
La legislación en Arizona lo permite: las víctimas pueden elegir el formato de su declaración. Nadie objetó. Pero el problema no es legal. Es moral, técnico, político.
-
¿Quién controla el guion del muerto?
-
¿Cuánto falta para el primer testigo fabricado?
-
¿Y si el próximo testimonio simulado no busca justicia, sino manipulación?
Este mismo año, abogados fueron multados por presentar sentencias falsas generadas por ChatGPT. Y ahora, el mismo tipo de tecnología se usa para obtener una condena real. Entre aplausos.
Lo que nadie te cuenta sobre esto
El caso Pelkey no es una historia de redención. Es el principio de una tendencia. Una que legitima la ficción emocional como herramienta legal. Lo perturbador no es que se usara. Es que funcionó mejor que cualquier testimonio real.
Hoy la familia habla por el muerto. Mañana lo hará un fiscal. Pasado, el algoritmo. Y cuando todo esté guionizado, sentimentalizado y reproducido en 4K, lo que habrá muerto no será una persona: será la autenticidad del juicio.

0 Comentarios