Sí, otra vez estamos hablando de "el año de Linux en el escritorio", pero esta vez hay un giro: la inteligencia artificial ha entrado en escena, y el código abierto está oliendo sangre. Con chips dedicados como los NPUs de Intel y AMD integrándose en portátiles para ejecutar IA en local, la pregunta no es si Linux puede aprovecharlo. La pregunta es si alguien va a dejarle jugar.
La nueva guerra no es por el kernel, es por el silicio
Con la llegada de los chips AI integrados (Neural Processing Units), los fabricantes de hardware se han lanzado a una orgía de controladores propietarios. Qualcomm, por ejemplo, no suelta prenda sin NDA de por medio. AMD promete, pero no entrega. Intel… bueno, es Intel.
Mientras tanto, Microsoft ya tiene todo esto embutido en Copilot+ y Windows 11, vendiendo la idea de una IA que te ayuda en todo, incluso a espiar tu productividad. ¿Y Linux? A medio camino entre el entusiasmo y el "si compila, corre".
El problema, como siempre, no es técnico, sino político y económico. Porque sí, los drivers están ahí, pero el soporte completo para ejecutar modelos localmente con aceleración vía NPU sigue siendo una ruleta rusa.
Torch, Tensor, pero sin GPU: el cuello de botella del open source
Correr LLMs (grandes modelos de lenguaje) como Llama.cpp o Whisper en local ya es posible. Pero optimizarlos para NPUs específicas en Linux es otro tema. Un buen ejemplo: el soporte para ROCm (la plataforma de AMD para computación heterogénea) sigue siendo una fiesta exclusiva para tarjetas específicas y distros bendecidas.
Y ni hablar de optimizar para Intel AI Boost. Todo bien con los benchmarks en papel, pero el soporte real está en el limbo, mientras Microsoft se lo lleva calentito controlando el stack completo.
La trampa del “open” en la nueva era del silicio cerrado
En teoría, Linux tiene todo para ganar: comunidad, flexibilidad, y una buena base de herramientas como HuggingFace, ONNX Runtime, PyTorch, etc. Pero en la práctica, estamos viendo cómo las grandes marcas abrazan el código abierto… mientras lo encapsulan en blobs y SDKs semi-opacos.
La pregunta ya no es si el open source puede competir, sino si se lo van a permitir.
Y ojo: esto no es nuevo. Ya lo vimos con las GPU, con los modems, con los sensores de huellas... Todo lo que no sea teclado y pantalla, acaba encerrado detrás de un binario.
¿Quién está apostando realmente por el open source en IA?
-
Frameworks como llama.cpp y MLC están empujando fuerte para que los modelos grandes corran en local en cualquier sistema.
-
Canonical (Ubuntu) quiere posicionarse como el sistema operativo para desarrolladores de IA, pero sigue dependiendo de que el hardware lo permita.
-
Proyectos como Tuxedo, System76 y Slimbook empiezan a hablar de portátiles con IA nativa bajo Linux, pero aún están en fase de "ya casi".
Mientras tanto, otros como Apple van a lo suyo, con chips optimizados y un sistema cerrado que funciona… si aceptas vivir en su ecosistema.
Lo que nadie te cuenta sobre esto
El “año de Linux en el escritorio” ahora depende de chips diseñados por empresas que ni siquiera consideran a Linux una prioridad de soporte. ¿La paradoja? Los proyectos de IA open source nacen y crecen en Linux… pero corren mejor en Windows o macOS. ¿Quién lo iba a decir?
¿Y tú? ¿Te fiarías de una IA que no puedes ni compilar?

0 Comentarios