Yann LeCun está harto: “La inteligencia artificial general es un error de concepto”

El padre del deep learning vuelve a hablar claro. Y esta vez, contra todos los que venden humo con la AGI.

Yann LeCun no es un cualquiera. Es uno de los pioneros de la inteligencia artificial moderna, Premio Turing y actual responsable científico de IA en Meta. Y también es, posiblemente, el azote más incómodo para los gurús apocalípticos que sueñan con una IA que lo sepa todo y lo destruya todo. En su última aparición pública, LeCun ha disparado a quemarropa: "Estoy cansado del término inteligencia artificial general. Es un error."

La AGI no existe. Y si existiera, tampoco serviría para tanto

LeCun considera que la supuesta AGI —esa IA todopoderosa que dominaría cualquier tarea intelectual humana— es una ilusión mal planteada. No sólo porque esté lejos en el tiempo, sino porque parte de un concepto erróneo: creer que una única arquitectura de modelo puede resolver todo tipo de problemas, contextos y entornos sin adaptación ni entrenamiento específico.

En su opinión, los modelos actuales —como ChatGPT, Gemini o Claude— son sofisticados imitadores del lenguaje, pero incapaces de razonar, planificar o entender el mundo físico como lo haría, por ejemplo, un gato. Literalmente.

Y para quien piense que se le va la mano con la metáfora felina, LeCun aclara que ni siquiera tienen memoria persistente ni modelos internos del mundo. Lo que hacen es predecir la siguiente palabra. Bien, sí. Pero eso no es "inteligencia general". Ni de lejos.

Meta va por otro camino. Aunque casi nadie mire ahí

Mientras medio planeta tecnológico parece obsesionado con inflar los LLMs hasta el absurdo, LeCun sigue apostando por una IA diferente: más simbólica, más eficiente y más alineada con la forma en que los humanos aprenden del entorno.

Su equipo en Meta trabaja en modelos que combinan visión, física, memoria y aprendizaje no supervisado. Suena a ciencia dura. Lo es. Y también suena mucho más realista que la avalancha de papers que anuncian cada mes que "ya casi tenemos la AGI".

Esto conecta con la crítica que ya hicimos en “La IA no va a quitarte el trabajo... pero alguien que la use, sí”, donde analizábamos el verdadero impacto de la IA más allá del hype. Y también con la duda que planteamos en “¿Puede una IA decidir tu destino migratorio?”, donde lo preocupante no era su poder, sino su falta de comprensión del contexto.

El circo mediático no ayuda. Pero sí vende

LeCun ha sido especialmente crítico con los discursos catastrofistas. Llamar "dioses digitales" a los modelos actuales —como hizo Altman— es, para él, una irresponsabilidad ridícula. Pero también muy rentable. Porque cuanto más miedo se genere, más poder concentran unas pocas empresas para “protegernos” del futuro.

El problema, como siempre, no es la tecnología, sino cómo la narramos. Y a quién beneficia esa narrativa.

Lo que nadie te cuenta sobre esto

El ruido mediático en torno a la AGI no tiene que ver con la ciencia, sino con la geopolítica empresarial. Decir que estás creando una IA omnipotente te da acceso a inversión, regulación preferente y titulares. Mientras tanto, los que realmente construyen inteligencia —como LeCun— tienen que explicar por qué eso aún no existe. Y quizá nunca lo haga.

¿Tú de quién eres, de los que inflan el modelo… o de los que entienden cómo aprende un gato?

Publicar un comentario

0 Comentarios