El código puede compilar, pero ¿puede mantener tu sueldo?
"¿Funciona? Sí. ¿Está bien hecho? Pues ya tal."
Cada vez más devs están usando ChatGPT como copiloto, pero no por acompañamiento emocional, sino por pura necesidad o presión. El problema es que ese copiloto no sabe si estás aterrizando o cayendo en picado. Aquí va un repaso por errores reales que han convertido código funcional en bombas de tiempo.
El Stack Overflow con esteroides
Lo que antes era copiar/pegar de foros ahora es copiar/pegar de la IA sin contexto. El resultado:
-
Variables sin propósito.
-
Código redundante.
-
Funciones con nombres que ni explican ni hacen lo que prometen.
Ejemplo real:
Un desarrollador usó ChatGPT para montar una API. Todo parecía perfecto… hasta que descubrieron que el bot había creado un endpoint expuesto al mundo sin autenticación. Porque claro, “no lo pediste explícitamente”.
"Esto funciona... en otro universo"
Muchos errores surgen porque el modelo mezcla tecnologías incompatibles o hace suposiciones incorrectas sobre el entorno.
Caso típico:
Código generado en Python para FastAPI que usa funciones asincrónicas… ¡con SQLite sin soporte async! Todo muy bonito en teoría, pero en producción: cuelgues aleatorios y errores fantasmas.
El síndrome del “happy path”
ChatGPT no escribe código robusto, escribe código optimista. Asume que todo saldrá bien, como un recién licenciado en su primer lunes. ¿Validación de datos? ¿Gestión de errores? ¿Logs útiles? Eso se lo dejas a los humanos... si tienen tiempo.
Errores detectados:
-
Formularios que aceptan cualquier cosa.
-
Controladores que petan si el usuario no envía justo lo que espera.
-
Aplicaciones que se caen por no manejar una excepción de red.
La falsa seguridad del compilador
Compilar ≠ estar listo para producción. Una app puede arrancar sin que nadie note que:
-
Las contraseñas se guardan en texto plano.
-
Los tokens de sesión no expiran.
-
El CORS está abierto a todo Internet.
Sí, compila. También lo hacía el Hindenburg.
Y cuando todo falla... ChatGPT tampoco lo explica
Porque no hay trazabilidad. No hay contexto. No hay documentación que te diga por qué hizo lo que hizo. El código generado es una caja negra disfrazada de ayudante brillante.
Lo que nadie te cuenta sobre esto
El problema no es ChatGPT. El problema es usarlo sin saber.
Los equipos lo tratan como si fuera un senior que no se cansa, cuando en realidad es un becario muy entusiasta con acceso a toda la Wikipedia… pero cero experiencia real.
Y no, “le pedí que hiciera tests” no es una excusa válida cuando esos tests solo confirman que 2+2 sigue siendo 4.
Moraleja: úsalo como apoyo, no como arquitecto. Y siempre revisa.
Si el código puede compilar pero no puede mantener tu sueldo, tienes un problema. El problema se llama complacencia disfrazada de productividad. Y viene con fecha de despido.

0 Comentarios