“No puedes lamer un tejón dos veces”: Google, la IA y el arte de inventarse refranes como si fueran verdad

Google ha entrado oficialmente en su era de "profesor cuñado". Con su nueva función AI Overview, ya no necesitas sentido común, experiencia lingüística ni contacto con la realidad: basta con preguntarle qué significa “no puedes lamer un tejón dos veces” y te lo explicará con la seguridad de un sabio que ha vivido 500 vidas en proverbios que nadie ha dicho jamás.


Bienvenidos al festival del disparate con cita falsa

Todo empezó con una frase que nadie había dicho nunca: “You can’t lick a badger twice”. Un usuario la escribió en Google con la palabra “meaning” al final, y la IA respondió con una explicación seria, profunda y completamente inventada. En cuestión de horas, medio Internet estaba probando con sus propias tonterías. Spoiler: todas funcionaban. Google se inventaba una interpretación con tono solemne y mirada de monje zen.

¿“El caballo que ronca en otoño nunca gana la carrera”? Google lo traduce como una advertencia sobre confiar en la apariencia de fuerza. ¿“Las cebras no tienen cumpleaños”? Una reflexión sobre la identidad y la normalización cultural.

No es que la IA se equivoque. Es que está confabulando con confianza, como ese amigo que no sabe nada pero siempre responde con voz firme para parecer sabio. El problema es que este “amigo” aparece en mil millones de búsquedas al día.


AI Overview: el horóscopo generativo de Google

Lo que Google ha implementado con AI Overview es básicamente una máquina de horóscopos: frases que suenan bien, parecen profundas y pueden aplicarse a cualquier situación, aunque estén construidas con palabras sin sentido.

Y lo peor no es que se invente significados. Es que los presenta como verdades. No hay un “quizá”, un “se podría interpretar” o un “esto es una invención al vuelo”. No. Te lo da con la certeza de una entrada de Wikipedia escrita por un académico de Oxford… que está alucinando por hongos.

¿Y las fuentes? Pues también se las inventa. A veces cita páginas que no existen o combina párrafos de artículos sin relación para construir su explicación pseudopoética.


La IA de Google ya no responde preguntas: las fabula

Esto no es un bug. Es una función. Lo más preocupante de todo esto no es que Google confunda ficción con realidad, sino que lo haga por diseño. El objetivo de AI Overview no es darte información verificada, sino darte una respuesta que parezca creíble. Aunque se la saque de la manga.

Esto rompe por completo la lógica del buscador. Google se suponía que era una herramienta para encontrar contenido que ya existe, no para generar contenido nuevo y atribuirle una existencia que jamás tuvo. Se ha convertido en un generador de folklore digital espontáneo.


Esto va más allá de los refranes: implica confianza

Hoy son refranes inventados. Mañana puede ser información médica, consejos legales o datos históricos. Si Google puede inventarse el significado de "lamer un tejón", también puede inventarse por qué deberías tomar cierta vitamina o invertir en cierta acción. Y la mayoría de los usuarios no notarán la diferencia.

Además, Google no tiene incentivo para corregir esto. ¿Por qué lo haría, si la gente sigue usando el buscador y la prensa está hablando de ellos?


Lo que nadie te cuenta sobre esto

  • Google está dejando de ser un motor de búsqueda y convirtiéndose en un motor de generación de contenido automático con tono autoritario.

  • Los errores no se presentan como errores, sino como verdades absolutas sin contexto ni advertencias.

  • Esto no es nuevo, solo más visible: Google ya llevaba años mostrando "respuestas destacadas" sacadas de contexto que causaban confusión.

  • La IA no distingue entre lo real y lo verosímil. Y eso, en un entorno de búsqueda, es dinamita.


Conclusión: no, no puedes lamer un tejón dos veces. Pero Google dirá que sí.

El problema no es que Google invente refranes. El problema es que los presenta como si fueran verdad, en un mundo donde la desinformación se propaga más rápido que los tejones.

Y si esto te parece divertido, espera a que alguien le pregunte a Google si la Tierra es plana… y la IA, con su mejor tono de enciclopedia, le dé un “sí, pero con matices”.

Publicar un comentario

0 Comentarios