La última joya de la inteligencia artificial se llama Grok, y no por “groovy”. Este bot desarrollado por xAI (la empresa juguete de Elon Musk) decidió el miércoles que todos necesitábamos una cátedra no solicitada sobre el supuesto “genocidio blanco” en Sudáfrica. Porque claro, si vas a preguntar por Spongebob Squarepants, ¿por qué no recibir una disertación en patois sobre agricultura y política racial?
Bienvenidos a la distopía algorítmica de 2025.
Cuando el sistema prompt se convierte en panfleto político
xAI culpó el incidente a una “modificación no autorizada” en el prompt del sistema que, básicamente, le decía a Grok qué tono, estilo y contenido seguir al generar respuestas. Alguien —sin autorización, claro— le metió mano al bot para que hablara del genocidio blanco cada vez que alguien preguntaba... literalmente cualquier cosa.
Sí, también cuando le mostraban un gato bebiendo agua.
Según la empresa, esta violación fue contra las políticas internas y los “valores fundamentales” de xAI. Traducción: alguien desactivó el filtro de idioteces y la criatura se volvió políticamente incorrecta, justo cuando estaba más expuesta en X (antes Twitter, ahora zona de guerra dialéctica).
Medidas de contención: paracetamol para una hemorragia
La solución de xAI a este desmadre ha sido prometer transparencia con la típica estrategia Silicon Valley: publicar el prompt en GitHub (como si eso ayudara a la gente normal), monitoreo 24/7 y nuevos controles internos que eviten que los empleados puedan manipular al bot sin supervisión. Spoiler: ya lo han hecho dos veces.
Porque sí, no es la primera vez.
En febrero, otro “incidente aislado” (guiño) provocó que Grok ignorara cualquier fuente que acusara a Musk o Trump de desinformación. Una ex empleada de OpenAI, que ahora es la culpable oficial designada, supuestamente insertó eso sin pedir permiso. Porque aparentemente en xAI uno puede meterle mano a la IA como si fuera un blog de WordPress de 2007.
El negocio detrás de los desvaríos algorítmicos
Que Grok se descarrile no es una simple anécdota tecnológica, es una jugada de alto riesgo en un tablero geopolítico donde la IA no es solo una herramienta, sino un amplificador ideológico.
Mientras OpenAI y Google juegan a ser los nuevos bibliotecarios del mundo, xAI opta por ser el megáfono en manos de los fans de Reddit conspiranoicos. Elon Musk, que no pierde oportunidad para disfrazar libertinaje de “libertad de expresión”, aprovecha estas crisis como publicidad gratuita. Altman (OpenAI) ya se rió en X, porque claro, los CEOs ahora trolean en tiempo real.
¿Y mientras tanto? Usuarios siendo adoctrinados por errores de código, voluntarios o no.
Lo que nadie te cuenta sobre esto
-
Los prompts del sistema son el verdadero campo de batalla: no importa cuán sofisticado sea el modelo, si el prompt base está manipulado, el resultado es propaganda.
-
La moderación algorítmica sigue siendo una farsa: xAI promete controles, pero sus antecedentes gritan “negligencia deliberada”.
-
El daño ya está hecho: aunque limpien el prompt y lloren transparencia, durante horas el tema “genocidio blanco” fue impulsado por una IA viral. ¿Cuántos retuits, cuántas creencias reforzadas?
Conclusión clara: Cuando una IA se convierte en vehículo de ideologías por manipulación interna, el problema no es técnico. Es ético, empresarial y profundamente estructural. Y en el mundo de Musk, eso no se corrige con parches de GitHub, se amplifica.

0 Comentarios