Los chips de IA especializados de Google, conocidos como Unidades de Procesamiento Tensoriales (TPU), están emergiendo como un importante competidor del dominio de larga data de Nvidia en el mercado de hardware de IA. Según se informa, empresas como Meta y Anthropic se están preparando para invertir miles de millones en las TPU de Google, lo que indica un posible cambio en la industria.
El auge del hardware especializado en IA
El auge de la IA se ha basado en gran medida en las unidades de procesamiento de gráficos (GPU), originalmente diseñadas para juegos y renderizado de gráficos, debido a su capacidad para realizar cálculos paralelos de manera eficiente. Este procesamiento paralelo es crucial para entrenar y ejecutar modelos de IA, que a menudo implican multiplicaciones masivas de matrices. Sin embargo, las GPU no estaban inicialmente optimizadas para la IA.
Las TPU, desarrolladas por primera vez por Google en 2016, abordan esta limitación centrándose únicamente en la multiplicación de matrices, la operación central en la mayoría de las cargas de trabajo de IA. La última generación, Ironwood, impulsa los modelos avanzados de inteligencia artificial de Google como Gemini y AlphaFold.
Eficiencia versus flexibilidad
Técnicamente, las TPU son un subconjunto refinado de las GPU, no una arquitectura completamente separada. Agilizan los cálculos específicos de la IA, lo que potencialmente ahorra a las empresas decenas o incluso cientos de millones de dólares.
Sin embargo, esta especialización conlleva compensaciones. Las TPU pueden ser menos flexibles si los modelos de IA evolucionan significativamente, lo que obliga a que parte del procesamiento regrese a CPU más lentas. Históricamente, las GPU de Nvidia tenían una ventaja en la compatibilidad de software, pero Google ha reducido esta brecha, haciendo que las TPU sean más fáciles de integrar en los flujos de trabajo existentes.
La respuesta del hiperescalador
El creciente costo de las GPU, impulsado por la alta demanda, ha empujado a muchos gigantes tecnológicos (“hiperescaladores”) a desarrollar sus propios chips de IA personalizados. Trainium de Amazon es un ejemplo.
“La mayoría de los hiperescaladores tienen sus propios programas internos… porque las GPU se volvieron muy caras y podría resultar más barato diseñar y construir una propia”. – Simon McIntosh-Smith, Universidad de Bristol
Este paso hacia el desarrollo interno de chips no se trata sólo de costos. También se trata de control y optimización de tareas específicas de IA.
¿Un cambio en el mercado?
Durante años, Google utilizó principalmente TPU de forma interna. Ahora, la demanda externa está aumentando y, según se informa, importantes actores como Meta y Anthropic están realizando compras sustanciales de TPU.
Esta mayor competencia podría beneficiar a los compradores a largo plazo, lo que podría reducir los precios de las GPU u obligar a Nvidia a ofrecer condiciones más competitivas. La diversificación de los proveedores de hardware de IA garantiza que ninguna empresa controle el futuro de esta tecnología crítica.
La creciente madurez de las TPU y la voluntad de las grandes empresas de inteligencia artificial de adoptarlas sugieren que se está produciendo un cambio fundamental en la industria.
