Spoiler: el 80% de lo que hace GPT podría hacerlo un becario... mal pagado.
La moda que vino a comerse al mundo (y se atragantó)
Basta de teatro. En 2023 nos vendieron que la IA generativa iba a rediseñar el trabajo, eliminar tareas repetitivas, automatizar lo creativo y bla, bla, bla. Un año después, seguimos teniendo presentaciones de PowerPoint que parecen hechas por un becario con resaca. Y sí, muchas sí las hizo una IA.
Las empresas corren a integrar GPT, Claude, Gemini o el flavor del mes, pero lo que están metiendo en realidad es un papagayo dopado. No piensa. No entiende. Solo repite, con buena sintaxis, cosas que ya ha visto en internet. Es el nuevo "excel macro" pero con más hype y menos control.
Automatiza, pero mal
¿Generar contenido? Sí. Pero genérico, plano y con el entusiasmo de una reunión de compliance. ¿Emails automáticos? Claro. Hasta que usas el mismo prompt que media empresa y todos los clientes reciben el mismo "Hola [NOMBRE], espero que estés bien". ¿Diseños? Solo si te gustan los flyers con estética de 2012.
Y lo peor: muchos managers ni revisan. “Lo hizo la IA, debe estar bien”. Así empieza la decadencia: errores que antes corregía un becario con criterio ahora pasan porque “es que lo puso GPT”.
Coste cero, valor cero
Nos prometieron eficiencia. Lo que obtuvimos fue saturación. LinkedIn, Medium y los blogs están llenos de textos indistinguibles, creados en masa por prompts reciclados. La originalidad murió aplastada por la productividad. Lo barato sale caro, especialmente cuando tu contenido suena igual que el de todos.
Además, todo el mundo usa las mismas herramientas con los mismos modelos entrenados en los mismos datos. ¿Resultado? Uniformidad absoluta. Misma voz. Mismo tono. Mismo aburrimiento.
Las consultoras, encantadas
¿Quién gana con esto? Las consultoras, que ahora venden “transformación digital con IA” en paquetes que básicamente consisten en:
-
Darte acceso a ChatGPT Enterprise.
-
Escribir un par de prompts.
-
Cobrarte 250.000€ por "disrupción basada en machine learning".
Y sí, en la demo funciona. Pero luego nadie la usa porque el output sigue siendo mediocre, y las automatizaciones se rompen al primer caso raro. Eso sí, ya hay titulares, caso de estudio y bonus de final de año para el partner.
Lo que nadie te cuenta sobre esto
-
El 80% del contenido generado por IA no se lee. Ni por humanos ni por Google.
-
Muchos modelos generan textos con sesgos y errores legales graves. Pero el becario digital no puede ir a juicio.
-
Las herramientas de IA no sustituyen talento. Solo lo imitan. Y mal.
-
Lo que parece magia es estadística con esteroides. Y como toda estadística, depende de los datos. Y los datos están llenos de basura.
Conclusión: mucho ruido, poca inteligencia
La IA generativa no es el problema. El problema es el fanatismo ciego. Se usa para tareas que no necesita, se vende como varita mágica y se defiende como religión. Pero la realidad es que la mayoría de usos reales hoy podrían hacerse igual… o mejor… por un becario mal pagado. Y al menos ese, si se equivoca, puede aprender.

0 Comentarios