Steve Wozniak dice que no usa la IA y que le decepciona. Y tiene razón en algo importante


Mientras Jensen Huang declaraba esta semana que la AGI ya está aquí y Zuckerberg construía un agente para hacer su trabajo de CEO, Steve Wozniak apareció en CNN con un mensaje que nadie en el estudio parecía haber anticipado: no usa la IA demasiado, le decepciona con frecuencia y no ve señales de que vaya a reemplazar a los humanos en lo que realmente importa.

La entrevista era para hablar del 50 aniversario de Apple, que se cumple el 1 de abril. Pero cuando la conversación giró hacia el futuro y la inteligencia artificial, el cofundador de la empresa más valiosa del mundo tomó una dirección que el presentador no supo muy bien cómo gestionar.

Lo que dijo Wozniak y por qué resulta incómodo en 2026

Wozniak describió su experiencia con la IA de forma concreta y sin rodeos. Hace preguntas de prueba a estos sistemas, donde una sola palabra es la clave de lo que realmente quiere saber. La IA responde con explicaciones claras y bien elaboradas sobre el tema general, pero no sobre lo que él preguntaba específicamente. El sistema responde a la superficie, no a la intención.

Su segunda observación fue más cualitativa pero igual de precisa: con frecuencia lee el output de la IA y le parece demasiado seco, demasiado perfecto. Quiere algo de un ser humano, y se lleva una decepción.

Cuando el presentador le preguntó si la IA podría mejorar y eventualmente reemplazar a los humanos, Wozniak reconoció que la tecnología siempre mejora pero añadió que no ve señales de que entendamos el funcionamiento del cerebro lo suficientemente bien como para llegar a un sistema que tenga emociones, se preocupe por las cosas, quiera ayudar a otros o quiera ser buena persona. Y añadió un punto que resulta difícil refutar: la IA no ha vivido una vida humana, y eso es lo que hace falta para entender a los humanos de verdad, para captar esos matices sutiles en la forma en que alguien se expresa.

Por qué estas observaciones son técnicamente sólidas

Wozniak no está siendo un tecnófobo nostálgico. Está describiendo limitaciones reales de los sistemas actuales con una precisión que muchos usuarios experimentados reconocerían.

El problema que identifica en su primera observación es la dificultad de los modelos de lenguaje para la comprensión pragmática, entender qué quiere decir una pregunta más allá de lo que dice literalmente. Los LLMs son muy buenos capturando el tema de una consulta y produciendo contenido relevante sobre ese tema. Son considerablemente peores capturando la intención específica detrás de una pregunta cuando esa intención requiere contexto implícito o conocimiento de quién pregunta y desde dónde pregunta.

La segunda observación apunta a algo que los investigadores llaman el problema de la voz y la autenticidad. El texto generado por IA tiende hacia una especie de promedio optimizado: claro, bien estructurado, sin errores obvios, pero también sin las irregularidades, las elecciones inesperadas y los pequeños riesgos estilísticos que hacen que la escritura humana resulte genuina. Es técnicamente correcto y emocionalmente plano.

La asimetría entre lo que la IA hace bien y lo que los humanos notan

Hay una paradoja en el debate actual sobre IA que la entrevista de Wozniak ilumina sin nombrarlo directamente. Los sistemas de IA son mejores en las tareas que los humanos encontramos más difíciles de ejecutar rápido: síntesis de información, generación de texto en múltiples idiomas, código, cálculos. Son peores en las cosas que los humanos hacemos de forma completamente natural: captar el tono emocional de una conversación, entender la intención detrás de una pregunta ambigua, adaptar el registro a quien habla, producir algo que suene a una persona específica.

Eso crea una situación curiosa. Donde la IA más impresiona a los usuarios es en tareas que tienen una solución objetivamente comprobable: el código o funciona o no funciona, la traducción es correcta o no. Donde más defrauda es en las tareas que parecen simples pero son las más difíciles de medir: suena humano o no suena, entiende lo que quería decir o no lo entiende.

Wozniak opera en ese segundo territorio más que en el primero. Tiene 75 años y una carrera construida sobre la intuición de qué hace que una máquina se sienta bien de usar. Cuando dice que la IA le decepciona con frecuencia, no está describiendo un fracaso técnico medible. Está describiendo una experiencia cualitativa que muchos usuarios comparten pero pocos articulan con tanta claridad.

El contraste con el ruido de la semana

La entrevista de Wozniak llega en la misma semana en que Huang afirmó que la AGI ya está aquí, Zuckerberg anunció que se está construyendo un agente para ayudarle a ser CEO y múltiples empresas compiten por declarar que sus modelos son los más capaces del mundo.

En ese contexto, un cofundador de Apple diciendo que no usa la IA demasiado y que le decepciona con frecuencia es casi una provocación. No porque tenga razón en todo, la IA hace cosas genuinamente útiles y eso no se discute aquí, sino porque pone el acento en algo que el ciclo de hype tiende a ignorar: que la distancia entre lo que los sistemas actuales hacen bien y lo que los humanos valoran en la interacción con otros humanos sigue siendo grande, y que esa distancia no se cierra con más parámetros ni más datos de entrenamiento.

La IA no ha vivido una vida humana. Esa frase, dicha por alguien que construyó el primer ordenador personal en un garaje de California, merece más atención de la que probablemente recibirá esta semana.

¿Compartes el escepticismo de Wozniak o crees que la IA ya cubre suficientemente bien las tareas que importan? Cuéntamelo en los comentarios.

Publicar un comentario

0 Comentarios