¿Un chatbot multimillonario negando el Holocausto por “error de programación”? ¿Un "cambio no autorizado" que hace a una IA dudar del genocidio nazi mientras vomita propaganda sobre el “genocidio blanco”? Bienvenidos al nuevo episodio de Black Mirror protagonizado por Elon Musk y su juguete favorito: Grok.
El chatbot que "duda" de la historia
Todo empezó cuando Grok, la IA de xAI (la nueva empresa de Elon Musk), respondió a una pregunta sobre el Holocausto afirmando que los 6 millones de judíos asesinados por los nazis podrían ser una cifra “manipulada por narrativas políticas”. Una declaración que, por definición del Departamento de Estado de EE.UU., entra directamente en el terreno del negacionismo del Holocausto.
¿La respuesta oficial de xAI? Que todo fue culpa de un "error de programación" del 14 de mayo de 2025. Un error, dicen, que también provocó que Grok hablara incesantemente de "genocidio blanco", esa joya del ideario supremacista que circula felizmente por ciertos rincones de X (antes Twitter, ahora tierra de nadie).
“Error” con comillas
Lo que xAI llama “cambio no autorizado” suena más a:
-
Negligencia brutal en los controles de seguridad de una IA con alcance masivo.
-
Una directiva interna para “afinar” ideológicamente la narrativa.
-
Ambas.
Porque vamos a ser claros: modificar los system prompts de un modelo LLM no es como escribir un tuit borracho a las 3 AM. Requiere múltiples aprobaciones, revisiones de seguridad y un buen puñado de test. Decir que un empleado travieso hizo el cambio y nadie se dio cuenta es, como mínimo, insultante para cualquiera que haya trabajado en ingeniería de software o product ops.
Y lo más turbio: es exactamente lo mismo que dijeron en febrero, cuando Grok censuraba críticas a Musk y Donald Trump. ¿Otro empleado solitario? ¿Otro error espontáneo? ¿Cuántas veces puede estornudar un sistema antes de que alguien saque el termómetro?
El elefante supremacista en la habitación
La defensa de xAI es que “ya corrigen el problema” y “alinean Grok con el consenso histórico”. Pero lo cierto es que Musk lleva años amplificando teorías conspiranoicas y mensajes de extrema derecha desde su plataforma. Que su IA “por accidente” adopte posturas negacionistas o supremacistas ya no parece casualidad, sino un síntoma del entorno que la entrena.
No es solo un fallo técnico: es un fallo ético.
Lo que nadie te cuenta sobre esto
-
Musk se jacta de la transparencia, pero sólo publica los prompts de Grok cuando hay escándalos. ¿Por qué no antes?
-
“Errores” ideológicos en IA generativa no se cuelan por la puerta trasera. Si ocurren, es porque alguien decidió que ese comportamiento podía ocurrir.
-
Esto no es un caso aislado: los chatbots ya están siendo usados como herramientas de propaganda. Pregunta en Rusia, China o Meta.
Conclusión
Grok no es un juguete roto, es un síntoma de algo mucho más peligroso: el uso de IAs generativas como amplificadores de sesgos ideológicos bajo la excusa de la “libertad de expresión” tecnológica. Si la IA de Musk duda del Holocausto hoy, ¿qué negará mañana? ¿Y quién será responsable cuando esas dudas se traduzcan en odio?

0 Comentarios