Cada empresa quiere su modelo de IA propio. La mayoría no lo necesita


Esta semana Microsoft presentó sus modelos propios de voz, imagen y texto bajo MAI. Hace un mes, Meta cerró el open source con Muse Spark. Apple sigue construyendo los suyos para iOS 26. Amazon tiene Titan y Nova. El mensaje implícito de todo esto es que tener un modelo propio es la señal de madurez tecnológica, el equivalente corporativo de tener tu propia central eléctrica.

Hay algo que no cuadra en esa narrativa.

El argumento de la soberanía tecnológica, bien aplicado

Que los grandes laboratorios de IA tengan modelos propios tiene sentido perfectamente claro. Microsoft no podía seguir dependiendo de OpenAI para sus productos más estratégicos, especialmente con una salida a bolsa de OpenAI en el horizonte. Apple no puede construir privacidad diferencial sobre modelos de terceros que procesen datos en servidores ajenos. Google lleva años con los suyos por razones obvias.

Para esas empresas, el control sobre el modelo fundacional es control sobre el producto, sobre los datos que procesa, sobre la dirección técnica. Es una decisión estratégica que se paga con miles de ingenieros y miles de millones en infraestructura, pero que tiene una lógica clara.

La imitación que no tiene lógica

El problema es cuando esa narrativa se filtra hacia abajo. En los últimos meses he visto casos de empresas medianas, con equipos de tecnología de diez o veinte personas, explorando seriamente si deberían "entrenar su propio modelo". La justificación suele girar alrededor de dos ideas: privacidad de los datos y diferenciación competitiva.

La privacidad de los datos es un argumento legítimo, pero no requiere entrenar un modelo propio. Requiere elegir bien el proveedor, revisar los contratos de procesamiento de datos y, en muchos casos, simplemente usar modelos en local con herramientas como Ollama sobre hardware propio. Eso ya lo cubre el self-hosting de herramientas de IA sin el coste de construir nada desde cero.

La diferenciación competitiva mediante un modelo propio es, en la mayoría de casos, una ilusión. El modelo fundacional no es donde reside la ventaja en las aplicaciones empresariales de IA: reside en los datos propios, en los flujos de trabajo específicos, en la integración con los sistemas existentes. Una empresa con datos únicos y buenos procesos que use GPT-5.4 bien ganará casi siempre a una empresa sin datos diferenciados que haya gastado dos años entrenando un modelo propio mediocre.

Lo que sí vale la pena construir

El fine-tuning sobre modelos existentes es una historia distinta. Adaptar un modelo fundacional con datos propios específicos del dominio, con un coste de recursos razonable, puede producir mejoras medibles en tareas concretas. Eso sí tiene sentido para empresas con volumen de datos suficiente y casos de uso definidos.

Los sistemas de recuperación aumentada (RAG), donde el modelo accede a tu base de conocimiento en tiempo de inferencia, son otra alternativa que no requiere entrenamiento y resuelve el problema de contextualización en la mayoría de casos empresariales.

La fiebre por los modelos propios es, en parte, el mismo fenómeno que ocurrió con las bases de datos NoSQL hace una década: una tecnología que tiene casos de uso reales y específicos se convirtió temporalmente en la solución por defecto para todo, independientemente del problema. Muchas empresas que migraron a NoSQL porque era lo que tocaba acabaron volviendo a Postgres dos años después.

El modelo de IA propio puede tener sentido. Pero la lista de empresas para las que eso es cierto es bastante más corta que la lista de empresas que lo están considerando.

Publicar un comentario

0 Comentarios