
Durante más de una década, el avance de la inteligencia artificial ha estado marcado por el desarrollo de nuevos modelos, arquitecturas y algoritmos, mientras que el hardware quedaba relegado a un papel de mero soporte. Nvidia, con sus GPU dominando el sector, parecía tener la hegemonía asegurada. Sin embargo, el entrenamiento de Gemini, el ambicioso sistema de IA de nueva generación de Google, ha puesto en marcha un cambio de paradigma que amenaza con alterar profundamente la industria.
Por primera vez, un actor de escala global demuestra no solo que existen alternativas reales a las GPU tradicionales, sino que esas alternativas pueden convertirse en el motor de la próxima etapa de crecimiento de la IA. Y todo ese giro se apoya en los chips desarrollados por la propia Google: las TPU, o Tensor Processing Units.
-Un giro histórico: de depender de GPU a construir hardware a medida
El entrenamiento de modelos de inteligencia artificial ha pasado de ser un proceso experimental a constituir una industria multimillonaria altamente especializada. Durante años, las GPU diseñadas por Nvidia fueron la única vía viable para escalar la potencia computacional necesaria. Aunque nacieron para el procesamiento gráfico, su capacidad para manejar miles de operaciones paralelas las convirtió en la herramienta ideal para el aprendizaje profundo.
Pero a medida que los modelos se vuelven más densos, multimodales y energéticamente exigentes, las GPU empiezan a mostrar limitaciones en eficiencia y coste. Aquí es donde entra el movimiento estratégico de Google. Al utilizar su propia familia de TPUs, la compañía decide que la forma de avanzar no es recurrir a un hardware genérico, sino apostar por chips diseñados desde cero para las operaciones matemáticas que definen el aprendizaje profundo moderno.
En otras palabras, Google está apostando por un hardware que no busca servir para todo, sino para hacer una cosa excepcionalmente bien: entrenar modelos a gran escala.
-TPUs frente a GPU: una apuesta que va más allá de la velocidad
La transición de GPU a TPU no es únicamente una cuestión de rendimiento, sino de rediseñar por completo la relación entre hardware, software y arquitectura de IA. Los chips TPU v5p, la generación que Google empleó para Gemini, son el ejemplo más claro de ello.
Las TPUs están optimizadas para las operaciones matriciales masivas que requieren los modelos modernos. Al igual que una herramienta industrial especializada puede superar ampliamente a una herramienta multipropósito, estas unidades ofrecen un rendimiento más eficiente cuando se las integra dentro del ecosistema de Google. Pero la verdadera ventaja surge cuando todo el stack —desde el modelo hasta el compilador y el chip físico— se desarrolla en conjunto.
Esa integración permite reducir tiempos de entrenamiento, ahorrar energía y ejecutar ciclos de experimentación más cortos. Y en un sector donde cada día de entrenamiento supone millones de dólares en consumo energético y recursos técnicos, esta diferencia no solo es tecnológica: es económica.
-La dimensión económica: controlar los costes para seguir escalando
En el fondo, la decisión de Google también responde a un desafío muy concreto: entrenar modelos del tamaño de Gemini con hardware ajeno es terriblemente caro. El mercado ya ha sufrido la escasez de GPU, los elevados precios y la dependencia de un único fabricante dominante. Con su propia familia de chips, Google logra un doble objetivo: aumentar su autonomía tecnológica y reducir los gastos asociados al entrenamiento masivo de modelos.
El mensaje que envía al sector es evidente: para seguir creciendo, las grandes tecnológicas deberán controlar cada capa de su infraestructura. La dependencia de terceros no solo las vuelve vulnerables, sino que limita la velocidad con la que pueden evolucionar sus productos.
Un dato interesante que circula en el sector es que Meta, una de las mayores compradoras de GPU, ha explorado acuerdos para utilizar la infraestructura TPU de Google. Que un gigante del tamaño de Meta considere esta alternativa evidencia que el monopolio de Nvidia comienza a mostrar fisuras.
-Un impacto directo sobre la nube: Google Cloud como puerta de acceso a hardware especializado
El efecto de esta estrategia no se limita al entrenamiento interno de los modelos de Google. La compañía planea ofrecer estas TPUs a través de su plataforma en la nube, lo que permitirá a miles de empresas acceder a un tipo de hardware que hasta ahora estaba fuera de su alcance.
La disponibilidad de estas unidades a través de Google Cloud abre la puerta a que startups, centros de investigación y corporaciones medianas puedan entrenar modelos más ambiciosos sin invertir en infraestructura propia. La diversificación del hardware también obliga al resto de proveedores cloud —incluyendo AWS y Azure— a acelerar sus propios desarrollos o alianzas para no quedarse atrás.
El resultado es un ecosistema mucho más variado, que rompe la dependencia casi total que el sector tenía del hardware de Nvidia. Aunque su plataforma CUDA sigue siendo el estándar dominante, cada nuevo competidor erosiona ese liderazgo y obliga a redefinir las reglas del juego.
-Lo que se viene: una infraestructura de IA más diversa y fragmentada
A pesar del salto que suponen las TPUs, las GPU seguirán siendo fundamentales en el mundo de la inteligencia artificial. La madurez de su ecosistema, la disponibilidad de bibliotecas y la adaptabilidad hacen que resulten indispensables para investigación, desarrollo y despliegue de modelos en una amplia variedad de entornos.
Sin embargo, el camino iniciado por Google deja claro que el futuro de la IA no dependerá exclusivamente de una sola arquitectura. A medida que los modelos exigen más potencia y optimización energética, el hardware genérico empieza a quedarse corto. La industria se dirige hacia un mundo donde los chips especializados —como las TPUs, y otras alternativas futuras— serán tan importantes como los algoritmos que ejecutan.
-Un mensaje al sector: la IA del futuro se construye desde el silicio
La decisión de Google de entrenar Gemini con TPUs no es un movimiento aislado. Es una declaración de intenciones. Significa que, para liderar la próxima generación de sistemas inteligentes, ya no basta con desarrollar mejores modelos: hay que controlar el hardware que los hace posibles.
Gemini se convierte así en la prueba de que la innovación en IA ya no puede separarse del diseño de chips. Quien controle la computación, controlará el ritmo de avance. Y en ese nuevo escenario, Google ha elegido no seguir dependiendo del hardware de otros, sino construir la ruta hacia su propia visión del futuro.