La IA que te escribe ensayos y pasa exámenes… pero no sabe leer un reloj

Puede generar imágenes fotorrealistas, escribir como si tuviera alma y hasta resolver ecuaciones diferenciales. Pero pregúntale qué hora es en un reloj de manecillas o en qué día cae el 23 de agosto y se queda mirando al vacío digital. Literal.

Un nuevo estudio presentado en la conferencia ICLR 2025 ha dejado claro que los modelos de IA más avanzados —incluyendo GPT-4o, Claude-3.5, Gemini 2.0 y LLaMA 3.2 Vision— fallan estrepitosamente en tareas que un niño de primaria domina sin esfuerzo.


¿La hora? Ni idea. ¿Un calendario? Solo si es digital.

Investigadores de la Universidad de Edimburgo alimentaron a varios modelos de lenguaje multimodal con imágenes de relojes analógicos y calendarios. Lo que esperaban era una interpretación simple: leer la hora o decir qué día cae una fecha dada.

El resultado: más del 50% de las respuestas fueron incorrectas. Es decir, estos modelos —capaces de resumir novelas, interpretar sentimientos y analizar código— no pueden entender un círculo con dos agujas o calcular qué día cae el próximo miércoles 13.


El elefante en la sala de datos: la IA no fue entrenada para vivir en el mundo real

Según el investigador principal, Rohit Saxena, “estos errores evidencian una brecha crítica entre las capacidades humanas básicas y lo que puede hacer la IA”. Porque mientras todos hablamos de AGI y autonomía digital, la realidad es que estas máquinas aún no saben si llegan tarde a una cita.

¿Por qué? Porque las tareas espaciales (como leer la posición relativa de manecillas) y temporales (como entender el ciclo de un calendario) no están bien representadas en los datasets que entrenan a los modelos.


Lo que esto significa para el futuro de la automatización

Imagina un asistente de IA que debe gestionar tus citas, coordinar vuelos y ayudarte con tus deadlines… pero no distingue entre las 4:15 y las 8:20. O una IA en un coche autónomo que no entiende si el reloj del salpicadero dice “sal ya” o “espera 5 minutos”.

La IA puede sonar brillante en papel, pero aún tropieza con lo básico. Y eso, en aplicaciones del mundo real, es un fallo de diseño con consecuencias.


Lo que nadie te cuenta sobre esto

  • Leer un reloj implica visión espacial. Algo que muchos modelos lingüísticos, aunque "multimodales", aún manejan con torpeza.

  • Los datasets de entrenamiento están llenos de texto, no de lógica temporal ni espacial. Por eso las IA pueden hablar sobre el tiempo, pero no decirte qué hora es.

  • La obsesión por la IA generativa ha dejado de lado tareas básicas. Estamos entrenando modelos para crear arte, pero no para gestionar realidades simples.

  • Esto afecta directamente a los proyectos de IA en educación, movilidad, automatización y accesibilidad. Si no entienden el tiempo, no entienden el contexto.


Conclusión clara: si tu IA no puede leer un reloj, no debería organizar tu agenda

Este estudio no es solo una curiosidad geek: es un recordatorio brutal de que el hype por la inteligencia artificial a veces nos hace olvidar lo más obvio. Una IA que no distingue la hora no está lista para encargarse de decisiones reales.

Publicar un comentario

0 Comentarios