La guerra de los chips ya no es solo de GPUs: ASIC, chiplets y la nueva carrera del hardware de IA


Durante los últimos tres años, la conversación sobre chips para IA ha girado casi en exclusiva alrededor de las GPUs de NVIDIA. H100, H200, Blackwell: cada generación fijaba el listón y el resto del mercado intentaba acercarse. En 2026, esa narrativa está cambiando. La competencia ya no es solo sobre quién fabrica la GPU más potente: es sobre qué arquitectura resuelve mejor los problemas concretos de la inferencia y el entrenamiento de modelos de IA, y ahí las GPUs generalistas no son necesariamente la respuesta más eficiente.

Hay tres tendencias que están rediseñando el mercado del hardware de IA: los ASICs (chips diseñados específicamente para una tarea), los chiplets (chips modulares que se combinan en vez de escalar en silicio monolítico) y la irrupción de actores nuevos que hasta hace poco no existían como competidores reales.

Por qué los ASIC están ganando terreno

Una GPU es un chip de propósito general optimizado para computación paralela. Funciona muy bien para entrenar redes neuronales, pero no fue diseñado exclusivamente para eso: tiene circuitos para renderizado gráfico, para operaciones de geometría, para casos de uso que en un servidor de IA no se usan nunca. Esa generalidad tiene un coste en eficiencia energética y densidad de cómputo por vatio.

Un ASIC de IA elimina todo lo que no necesita y maximiza lo que sí: las operaciones de multiplicación de matrices, la atención (el mecanismo central de los transformers), la gestión eficiente de memoria para contextos largos. El resultado es un chip más estrecho en funcionalidad pero mucho más eficiente en su caso de uso específico.

Google lleva años con sus TPUs (Tensor Processing Units), que son exactamente esto: ASICs diseñados para las operaciones que necesita TensorFlow y sus modelos. Amazon tiene sus Trainium e Inferentia para entrenamiento e inferencia respectivamente en AWS. Meta tiene sus MTIA (Meta Training and Inference Accelerator). En 2026, prácticamente todos los grandes hiperescaladores tienen su propio silicio de IA o están en proceso de desarrollarlo.

La razón es económica. Cuando el gasto en chips de IA se mide en miles de millones de euros al año, un 20-30% de mejora en eficiencia energética o en coste por inferencia es un ahorro de cientos de millones. A esa escala, el coste de diseñar y fabricar un ASIC propio se amortiza rápidamente.

Chiplets: modularidad contra la ley de Moore

El silicio tiene límites físicos. Fabricar un chip monolítico cada vez más grande con más transistores es progresivamente más caro y tiene rendimientos decrecientes: la superficie de silicio aumenta, los defectos de fabricación también y el coste se dispara. AMD fue pionero en popularizar los chiplets como alternativa: en lugar de un único dado de silicio grande, varios dados más pequeños (chiplets) especializados conectados mediante una interconexión de alta velocidad.

La ventaja es que cada chiplet se puede fabricar en el nodo más adecuado para su función: la parte de computación en el nodo más avanzado (3nm, 2nm), la memoria o la lógica de E/S en nodos más maduros y baratos. El conjunto tiene el rendimiento de un chip avanzado sin el coste y los problemas de fabricar todo en el nodo más caro.

Intel está apostando fuerte por esta arquitectura con sus diseños Ponte Vecchio y sus sucesores. AMD la tiene en sus GPUs de la serie MI. Y NVIDIA, que tardó más en adoptar el enfoque, lo incorpora en sus diseños más recientes para centros de datos.

Para las cargas de trabajo de IA, los chiplets permiten escalar la memoria HBM (High Bandwidth Memory, fundamental para manejar los pesos de modelos grandes) de forma más flexible, conectando más stacks de memoria al procesador sin que el tamaño del dado principal sea el factor limitante.

Los nuevos actores que no existían hace tres años

La demanda de hardware de IA ha atraído capital y talento hacia startups de semiconductores que hace tres años eran desconocidas fuera de Silicon Valley. Groq diseña chips LPU (Language Processing Unit) específicamente optimizados para inferencia de modelos de lenguaje, con velocidades de token por segundo que superan a las GPUs en esa tarea concreta. Cerebras construye el mayor chip del mundo (el WSE-3, con más de cuatro billones de transistores) para entrenamiento de modelos masivos. d-Matrix y Etched van por caminos similares, cada uno con una apuesta arquitectónica diferente.

En China, la situación de las restricciones a las exportaciones de chips estadounidenses ha acelerado el desarrollo de alternativas propias. Huawei con sus Ascend 910B y los esfuerzos de Cambricon y otros fabricantes chinos están produciendo chips que, aunque todavía no alcanzan el rendimiento de H100, han mejorado significativamente y cubren una demanda interna que las sanciones han dejado sin acceso a las opciones líderes del mercado.

Qué significa esto para los usuarios finales

Para la mayoría de empresas y desarrolladores, este cambio en el hardware es transparente: acceden al cómputo a través de APIs o plataformas cloud sin ver qué chip hay debajo. Pero tiene consecuencias reales en el coste y la disponibilidad de los modelos de IA.

La mayor diversidad de arquitecturas significa más competencia, lo que a medio plazo debería traducirse en menores costes de inferencia. Las APIs de los grandes modelos han bajado de precio de forma consistente durante el último año, y parte de esa reducción se debe a mejoras en el hardware de los centros de datos.

También significa que la dependencia de NVIDIA, que fue casi absoluta durante 2023 y 2024, se está diversificando. No va a desaparecer en el corto plazo: NVIDIA sigue teniendo la arquitectura más madura, el mejor ecosistema de software (CUDA sigue siendo el estándar) y la mayor variedad de productos. Pero por primera vez desde que arrancó el boom de la IA, tiene competencia real en más de un frente.

El próximo campo de batalla es la inferencia eficiente de modelos cada vez más grandes con ventanas de contexto cada vez más largas. Quien resuelva ese problema de forma más eficiente a nivel de hardware va a tener una ventaja muy significativa, y por primera vez en años, no está claro que la respuesta venga de Santa Clara.

Publicar un comentario

0 Comentarios