Jensen Huang participó esta semana en el podcast de Lex Fridman y dijo que la AGI ya está aquí. Fridman arqueó una ceja. Huang tardó aproximadamente treinta segundos en matizar que quizás no. Y el ejemplo concreto que usó para ilustrar las capacidades actuales de la IA fue alimentar a un Tamagotchi.
Es difícil no ver ahí una metáfora perfecta de dónde estamos con el debate sobre la inteligencia artificial general.
Lo que dijo Huang y lo que luego dijo
El contexto fue una pregunta de Fridman sobre si un sistema de IA podría establecer, hacer crecer y operar una empresa tecnológica valorada en más de mil millones de dólares en un plazo de cinco a veinte años. Huang reformuló la pregunta a su favor y afirmó que los sistemas actuales ya pueden crear un servicio web viral que genere brevemente mil millones de dólares en ingresos. Desde ahí, el salto fue directo: "creo que es ahora. Creo que hemos logrado la AGI."
Fridman señaló que eso iba a levantar cejas. Huang empezó a matizar.
A continuación reconoció que la probabilidad de que cien mil agentes de IA construyan hoy una empresa como NVIDIA es del cero por ciento. Los agentes actuales pueden crear éxitos virales y fugaces, no organizaciones con décadas de ventaja tecnológica acumulada, cultura interna y capacidad de adaptación a largo plazo. En ese mismo hilo de pensamiento llegó el Tamagotchi: la IA actual es perfecta para crear una app que alimente a tu mascota virtual. Eso podría convertirse en un éxito instantáneo que genere mucho dinero. Pero eso no es la AGI que la industria lleva años prometiendo.
El problema con cómo se usa el término AGI
Lo que Huang hizo en ese podcast es sintomático de un patrón que se repite con una frecuencia preocupante entre los líderes de las grandes empresas de IA. El término AGI, inteligencia artificial general, tiene una definición técnica razonablemente clara: un sistema capaz de realizar cualquier tarea cognitiva que un humano puede realizar, con al menos el mismo nivel de competencia. Es una definición que implica comprensión real, razonamiento causal, aprendizaje desde cero con pocos ejemplos y capacidad de generalización genuina a dominios completamente nuevos.
Lo que tenemos en 2026 son modelos de lenguaje grandes, extremadamente potentes para las tareas en las que han sido entrenados, capaces de resultados que hace cinco años habrían parecido imposibles, pero cuyo funcionamiento sigue siendo fundamentalmente estadístico: predicción de la siguiente palabra probable dadas todas las anteriores, con variantes y afinaciones para tareas concretas. No hay comprensión del mundo en el sentido en que los humanos comprenden el mundo. Hay patrones muy complejos extraídos de cantidades masivas de texto humano.
Yann LeCun, uno de los investigadores más influyentes en el campo y durante años jefe de IA en Meta, ha sido consistente al señalar que los modelos de lenguaje son un callejón sin salida para llegar a la AGI. Su argumento es que la ruta correcta pasa por los modelos de mundo, sistemas que aprenden del entorno físico, pueden imaginar escenarios y operan con algo más parecido a la causalidad que a la correlación estadística. Eso no existe todavía de forma funcional.
Por qué los líderes del sector siguen diciendo que la AGI ya llegó
La respuesta más cínica es la más simple: hay mucho dinero en juego en la narrativa de que la AGI está a la vuelta de la esquina o ya ha llegado. NVIDIA vende GPUs. OpenAI vende suscripciones y acceso a API. Anthropic vende lo mismo. Todos tienen un incentivo directo para que el mercado crea que la IA actual es tan poderosa como sea posible.
Hay además un componente de competencia geopolítica que amplifica esa dinámica. Cuando el debate sobre IA se enmarca como una carrera entre Estados Unidos y China, cada declaración sobre capacidades propias tiene también una función de señalización hacia el exterior. Decir que ya tenemos AGI es también decir que vamos ganando esa carrera, independientemente de si la afirmación se sostiene técnicamente.
El patrón es conocido: Huang lo dijo ahora, Sam Altman lleva meses creando expectativa sobre la superinteligencia mientras ChatGPT sigue cometiendo errores básicos de razonamiento, Zuckerberg montó un superequipo para lograr la AGI, Dario Amodei de Anthropic escribe que está a las puertas y Elon Musk apunta que Grok 5 podría rozarla. Todos diferentes, todos con el mismo mensaje de fondo, todos con incentivos directos para sostenerlo.
Lo que sí es real y lo que no
Que la IA actual no sea AGI no significa que no sea tremendamente poderosa ni que no esté transformando industrias enteras. Los modelos de lenguaje de 2026 hacen cosas que los de 2022 no podían ni aproximarse a hacer. La velocidad de mejora ha sido real y considerable. Los agentes de IA que ejecutan tareas complejas de múltiples pasos son genuinamente útiles para quienes los integran en sus flujos de trabajo. Todo eso es cierto.
Lo que no es cierto es que eso equivalga a la inteligencia artificial general tal como la define el campo de la investigación. Y la distinción importa porque las expectativas que se crean alrededor del término AGI tienen consecuencias reales: en decisiones de inversión, en políticas públicas, en cómo las organizaciones planifican su dependencia de estas herramientas y en cómo la sociedad en general calibra los riesgos y las oportunidades de una tecnología que cambia más rápido de lo que la mayoría puede seguir.
Alimentar a un Tamagotchi es un caso de uso legítimo para un agente de IA. No es AGI. Jensen Huang lo sabe. El problema es que le cuesta un par de frases decirlo claramente.
¿Crees que la IA actual merece el término AGI o es solo marketing? Cuéntamelo en los comentarios.
0 Comentarios