ChatGPT ya puede ver, oír y hablar: ¿de verdad es eso una buena idea?

 ChatGPT no solo escribe; ahora también escucha, habla e interpreta imágenes. ¿Estamos ante el avance definitivo hacia los asistentes inteligentes o simplemente ante un Siri con esteroides? El nuevo modo “multimodal” de OpenAI tiene más de truco que de magia y plantea preguntas incómodas que pocos se atreven a formular.

Más humano, pero no más listo

La reciente actualización de ChatGPT introduce capacidades de voz e imagen que permiten mantener conversaciones habladas en tiempo real o analizar lo que ve a través de una cámara. Puedes mostrarle una foto de tu nevera y pedirle recetas, o apuntar con la cámara del móvil y preguntarle qué edificio estás viendo. Suena espectacular, sí… pero el resultado no siempre lo es.

Mientras algunos lo presentan como el paso definitivo hacia una IA conversacional, lo cierto es que, en muchos casos, responde peor por voz que por texto. Tiene problemas de contexto, se corta, se repite. Vamos, que ni se acerca al nivel de una conversación humana fluida. ¿Utilidad real? Por ahora, testimonial.

El espejismo del "modo voz": lo que no te cuentan

La mayoría de los vídeos que circulan en redes mostrando a ChatGPT hablando "como una persona" son demostraciones cuidadosamente preparadas. En la práctica, aún hay latencia, errores de reconocimiento y respuestas forzadas. ¿Impresiona? Sí. ¿Sirve para algo más que para posturear en TikTok? Pues depende.

Eso sí, si eres de los que ya se ilusionaron con el fallido Google Duplex, esto te va a sonar familiar. Porque el hype siempre vuelve. Y esta vez con voz sexy y avatar sonriente.

Mucho más que hablar: el verdadero poder está en ver

Aunque el modo voz acapare titulares, la función de análisis visual es la que tiene más potencial real. Poder mostrar una captura de pantalla, un error en código o una imagen de producto y obtener ayuda contextual en segundos puede cambiar las reglas del juego en educación, diseño o soporte técnico.

Aquí sí hay chicha. Y es donde Google, Apple y compañía deberían empezar a preocuparse. Porque si OpenAI consigue integrar todo esto en un dispositivo tipo Rabbit R1 o Humane AI Pin (pero que funcione de verdad), el mercado de los asistentes digitales se va a sacudir.

En “Las 5 mejores herramientas de IA que sí valen la pena en 2025” ya anticipábamos que la clave no es cuánta IA uses, sino cómo la integras en tu flujo de trabajo. Esta nueva capa visual puede marcar la diferencia.

Y como comentamos en “La IA no va a quitarte el trabajo… pero alguien que la use, sí”, la adopción eficaz —no la pirotecnia— es lo que realmente va a transformar el mercado laboral.


Lo que nadie te cuenta sobre esto

La verdadera revolución de ChatGPT no está en que te hable bonito, sino en que aprende a interpretar el mundo más allá del texto. Pero si seguimos valorando estas novedades por lo bien que quedan en un vídeo de presentación, acabaremos con asistentes que brillan en redes… pero fallan cuando más los necesitas.

¿Y tú? ¿Le hablarías a una IA como si fuera tu colega?

Publicar un comentario

0 Comentarios