El nuevo campo de batalla: la IA se desplaza del entrenamiento a la inferencia
En la primavera de 2026, la industria de la inteligencia artificial recibio una nueva senal de cambio: Reuters informo que Anthropic estaba explorando la posibilidad de disenar sus propios chips. Para una empresa de modelos que ya supera los 30 mil millones de dolares de ingresos anuales y cuyo uso de Claude sigue creciendo con rapidez, la sola idea de pasar de consumir capacidad a definirla ya es relevante.
Aunque el plan seguia en fase temprana y la empresa aun no habia cerrado una propuesta final ni un equipo dedicado, el mensaje para el mercado era claro. Cuando una compania centrada en modelos empieza a plantearse el diseno de silicio, la competencia por el hardware de inferencia ha entrado en una fase mucho mas intensa.
Hoy Anthropic utiliza tanto TPU de Google como chips Trainium de Amazon para entrenar y ejecutar Claude. Ademas, firmo acuerdos de largo plazo con Google y Broadcom, socio clave en el diseno de TPU. Esa combinacion de compras externas multimillonarias y exploracion interna recuerda la trayectoria seguida anos antes por Meta y Microsoft, que terminaron desarrollando sus propios chips.
Disenar un chip de IA de primer nivel puede costar en torno a 500 millones de dolares. Pero mas importante que el costo es la senal estrategica: la inferencia se esta convirtiendo en el frente donde se definira la siguiente etapa del poder computacional.
La gran migracion: del entrenamiento a la inferencia
En los ultimos dos anos, la demanda de computo de IA se ha desplazado rapidamente desde el entrenamiento hacia la inferencia. El entrenamiento exige clusters masivos de GPU y ejecuciones que pueden durar semanas o meses. La inferencia, en cambio, sucede cada vez que un modelo responde a un usuario, y por eso prioriza latencia baja, alto rendimiento sostenido y consumo energetico reducido.
Segun Barclays, para 2026 la inferencia representara mas del 70% de la demanda total de computo de IA, unas 4.5 veces el volumen vinculado al entrenamiento. En otras palabras, el verdadero campo de batalla futuro para los chips de IA ya no esta solo en entrenar modelos mas grandes, sino en responder mas consultas, mas rapido y con menor costo.
NVIDIA ha construido un foso de una decada en el entrenamiento. Pero si ese dominio no se extiende con la misma fuerza a la inferencia, el mapa competitivo puede reescribirse. Esa presion ayuda a explicar por que, a finales de 2025, la compania anuncio un acuerdo de licencia no exclusiva con Groq y termino incorporando a su fundador Jonathan Ross, a su presidente Sunny Madra y a varios ingenieros clave en una operacion valorada en torno a 20 mil millones de dolares.
Groq: el ascenso y la absorcion de un retador de inferencia
Groq habia captado atencion porque ataco justo donde la GPU es menos comoda. Jonathan Ross, que participo en el proyecto TPU de Google, entendio que la complejidad de los planificadores y de la gestion de memoria, utiles en entrenamiento, introduce variabilidad de latencia en inferencia.
La apuesta de Groq fue radical: eliminar el scheduler a nivel hardware y trasladar la definicion del flujo de datos a la etapa de compilacion, de modo que el chip funcionara como una tuberia de precision casi nanosegundo a nanosegundo. Esa arquitectura, llamada LPU, llego a mostrar velocidades de generacion de palabras mas de diez veces superiores a ciertas GPU de NVIDIA, con un consumo por token cercano a una decima parte.
Ese rendimiento atrajo a mas de 1.5 millones de desarrolladores y respaldo de inversores como Cisco, Samsung y BlackRock, llevando la valoracion de la empresa hasta 6.9 mil millones de dolares. Pero el mismo exito tecnico que la hizo visible tambien la convirtio en un objetivo estrategico. Desde esa perspectiva, la integracion en el ecosistema de NVIDIA fue menos una expansion ofensiva y mas una defensa preventiva.
La respuesta de los gigantes de la nube: el auge de los ASIC de inferencia
Sin embargo, el espacio no se agota en Groq. Mucho antes de su ascenso, los grandes hyperscalers ya estaban desarrollando sus propias rutas de computo. Google tiene TPU, Amazon tiene Trainium y Microsoft cuenta con Maia. Lo relevante ahora es que esas plataformas internas estan entrando en una madurez suficiente como para respaldar ofertas comerciales externas.
Google posiciono su TPU de septima generacion, Ironwood, como una plataforma optimizada para la era de la inferencia. Frente a la generacion anterior, mejora de forma significativa el rendimiento por chip y permite interconectar clusters de hasta 9,216 unidades. La decision de Anthropic de utilizar hasta un millon de TPU para futuras cargas de Claude refuerza ademas la validacion comercial de esa ruta.
AWS siguio una logica distinta. Su estrategia se apoya en los chips desarrollados por Annapurna Labs y en acuerdos complementarios con proveedores externos. La cooperacion plurianual con Cerebras para desplegar chips WSE en centros de datos refleja esa idea: usar Trainium para cargas de inferencia de menor costo y reservar soluciones de altisima velocidad para clientes especialmente sensibles a la latencia.
La economia de la inferencia explica esta carrera. Una GPU de NVIDIA puede consumir cerca de 700 W, mientras que un chip especializado de inferencia, con potencia computacional comparable en ciertos escenarios, puede mantenerse por debajo de 200 W. En despliegues de cientos de miles de chips, esa diferencia se traduce en cientos de millones de dolares al ano.
Intel y SambaNova: una via pragmatica hacia la inferencia heterogenea
Si la ruta de los gigantes cloud representa una apuesta de largo plazo respaldada por enormes recursos, la cooperacion entre Intel y SambaNova muestra un camino mas pragmatico. En 2026 presentaron una solucion de inferencia heterogenea con tres capas: GPU para el prefill, procesadores Intel Xeon 6 para el control y la ejecucion principal, y RDU de SambaNova para la fase de decoding.
La tesis es sencilla: los sistemas puramente basados en GPU siguen siendo fuertes en etapas paralelas, pero en entorno productivo la velocidad y el costo dependen tambien de la planificacion del CPU y de la eficiencia del acelerador especializado. Intel intenta recuperar relevancia apoyandose en la base x86 de los centros de datos y en el papel de sus Xeon dentro de una arquitectura mixta.
Cerebras: de startup llamativa a proveedor de nube
Cerebras es otro actor que ayuda a entender el momento. Tras retirar su intento de salida a bolsa, muchos dudaron de su futuro. Pero un acuerdo con OpenAI por mas de 10 mil millones de dolares para aportar capacidad a ChatGPT devolvio a la empresa al centro de la conversacion.
Su tecnologia WSE, basada en usar una oblea completa como un unico chip, busca romper los limites fisicos del recorte tradicional. En ciertas cargas de inferencia y decoding, Cerebras afirma poder multiplicar varias veces la velocidad frente a GPU convencionales. El acuerdo de AWS para introducir WSE en sus centros de datos marca un cambio importante: Cerebras deja de ser solo una historia de capital y se convierte en proveedor real de infraestructura.
CoreWeave: el habilitador de infraestructura
La otra cara de la guerra de chips es la reconstruccion del lado de la oferta de infraestructura. Ahi CoreWeave se ha vuelto dificil de ignorar. Meta firmo acuerdos para comprar decenas de miles de millones de dolares en capacidad de IA hasta la proxima decada, y eso llevo la cartera de pedidos de CoreWeave hasta niveles extraordinarios.
Su crecimiento resume una transformacion importante: la GPU ya no es solo un componente escaso, sino un activo de infraestructura arrendable. Para companias de IA que no quieren depender por completo del ecosistema de un unico hyperscaler, CoreWeave ofrece una via intermedia. Pero esa expansion tambien exige una financiacion enorme y deja a la empresa expuesta a la necesidad de sostener el ritmo de crecimiento con deuda y capital externo.
El panorama futuro: coexistencia heterogenea
La exploracion de chips propios por parte de Anthropic, la absorcion de Groq por NVIDIA, la madurez de TPU y Trainium, la entrada de Cerebras en despliegues cloud y la alianza Intel-SambaNova apuntan todos en la misma direccion: la inferencia es ya el nuevo frente central de la competencia semiconductor.
El cambio de foco tambien modifica la arquitectura dominante. Esta vez no se trata de una sustitucion simple como la vieja narrativa de GPU reemplazando CPU. El mercado se esta moviendo hacia combinaciones heterogeneas: GPU para prefill masivo, aceleradores especializados para decoding, CPU para coordinacion y control, y una separacion creciente entre necesidades cloud y edge.
Eso significa que el resultado sigue abierto. Para unos jugadores, disenar chips propios es una forma de ganar autonomia. Para otros, cerrar el ecosistema y capturar tecnologia rival es una forma de defensa. Y para el resto del mercado, la conclusion es directa: la batalla por la IA ya no se gana solo con mejores modelos, sino con mejores respuestas, mejor eficiencia y mejor control de la infraestructura que las hace posibles.


