Gemma 4: la IA de Google que corre gratis en tu móvil sin internet y sin ceder tus datos


Google ha vuelto a mover el tablero de la inteligencia artificial, pero esta vez sin ruido de presentación ni evento multitudinario. El 2 de abril de 2026, DeepMind publicó en silencio Gemma 4, una familia de modelos de lenguaje de código abierto bajo licencia Apache 2.0 que hace algo que hasta ahora era territorio exclusivo de los grandes servidores en la nube: funcionar completamente dentro de tu móvil, sin conexión a internet, sin enviar un solo byte fuera del dispositivo y sin cobrarte nada. En un momento en que la crisis de la memoria RAM está encareciando el hardware y la dependencia de grandes centros de datos se ha vuelto estructural para la IA, Gemma 4 apunta en dirección contraria: la inteligencia artificial que cabe en el bolsillo.

Cuatro modelos para cuatro realidades

La familia Gemma 4 no es un modelo único sino cuatro variantes diseñadas para diferentes niveles de hardware. Los modelos E2B (~2.000 millones de parámetros) y E4B (~4.000 millones) están pensados para smartphones de gama media y alta, con optimizaciones específicas para consumir poca batería y memoria. El 26B MoE (Mixture of Experts, 26.000 millones de parámetros con activación parcial) apunta a ordenadores de sobremesa y portátiles potentes. El 31B Dense es la versión de máximo rendimiento, orientada a desarrollo profesional y servidores locales propios.

Lo que diferencia a esta generación de sus predecesoras no es solo el tamaño. Gemma 4 es multimodal nativo: todos los modelos procesan texto e imágenes; los compactos E2B y E4B incluyen además un codificador de audio capaz de transcribir voz y traducir segmentos de hasta 30 segundos. Los modelos grandes analizan vídeo de hasta 60 segundos a un fotograma por segundo. La ventana de contexto alcanza los 256.000 tokens en las versiones medianas, suficiente para analizar un contrato legal extenso o un repositorio de código completo sin perder el hilo. Y soporta más de 140 idiomas, incluyendo español con alta precisión.

Cómo instalarlo: Google AI Edge Gallery

El punto de entrada para usuarios no técnicos es Google AI Edge Gallery, una aplicación de código abierto disponible tanto para Android como para iOS. El proceso es simple: instalas la app desde Google Play o el repositorio oficial en GitHub, seleccionas la variante de Gemma 4 que se adapta a tu dispositivo, la descargas (desde 2 GB para el E2B hasta 16-31 GB para los modelos grandes) y listo. A partir de ese momento tienes acceso a varias funciones que se ejecutan íntegramente en local: un chatbot de IA sin conexión, análisis de imágenes mediante la cámara o la galería, transcripción y traducción de audio, y un modo agente que permite ejecutar flujos de trabajo encadenados dentro del propio dispositivo. No hace falta cuenta de Google ni conectarse a ningún servidor.

Para quienes prefieren la vía técnica, Gemma 4 está disponible en Hugging Face, Google AI Studio y Ollama, este último con soporte nativo para tarjetas NVIDIA y procesadores ARM, lo que lo hace compatible también con Raspberry Pi y dispositivos NVIDIA Jetson para proyectos de edge computing. Ejecutar modelos de lenguaje de forma local en tu propio hardware nunca había sido tan accesible para el usuario medio.

Benchmarks: por encima de DeepSeek, Qwen y Kimi

Google afirma que Gemma 4 supera a las últimas versiones de DeepSeek, Qwen y Kimi en los benchmarks más relevantes para modelos de su tamaño. Los datos más llamativos vienen de las pruebas de matemáticas avanzadas AIME 2026: el modelo grande pasó de un 20,8% de precisión en Gemma 3 a un 89,2%. En programación competitiva, la puntuación Codeforces ELO escaló de 110 a 2.150, el equivalente a pasar de nivel principiante a programador experto. En el Arena AI Leaderboard, el ranking comunitario considerado el más fiable de la industria, Gemma 4 ocupa actualmente el tercer puesto, solo por detrás de GPT-5 y Claude Opus. No es un modelo de juguete: es una herramienta de producción seria que además es gratuita y corre sin internet.

La privacidad como argumento central

El giro estratégico más interesante de Gemma 4 no es técnico sino conceptual. La IA on-device ha pasado de ser una curiosidad de feria a una demanda real del mercado, especialmente en sectores donde los datos no pueden abandonar el dispositivo: medicina, derecho, finanzas, periodismo. Con Gemma 4, una consulta médica, un contrato confidencial o unas notas de empresa pueden procesarse por IA sin que un solo dato viaje a un servidor externo. Todo ocurre dentro del chip del móvil o del portátil del usuario. Eso elimina de raíz los problemas de cumplimiento GDPR o HIPAA que han frenado la adopción corporativa de herramientas de IA en la nube.

La licencia Apache 2.0 refuerza este enfoque: uso comercial libre, posibilidad de hacer fine-tuning con datos propios, sin royalties y sin restricciones sobre el número de usuarios o llamadas a la API. Google se posiciona así no solo frente a OpenAI y Anthropic sino también frente a las herramientas de gestión de modelos locales como OpenClaw y Ollama, con las que de hecho es compatible.

Un cambio de paradigma que ya está aquí

La IA no va a dejar de necesitar centros de datos para sus modelos más grandes, pero Gemma 4 demuestra que el extremo opuesto del espectro, el modelo que vive en tu bolsillo y trabaja en modo avión, ya es una realidad funcional y no un prototipo de laboratorio. Con más de 400 millones de descargas acumuladas en versiones anteriores de la familia Gemma y más de 100.000 variantes personalizadas creadas por la comunidad open source, Google tiene una base de desarrollo activa que va a acelerar la adopción de esta cuarta generación. Para el usuario de a pie, el mensaje es claro: ya existe una IA gratuita, potente, privada y que funciona sin internet instalada en su móvil. Solo hay que descargarla.

Publicar un comentario

0 Comentarios