Os chips AI do Google desafiam o domínio da Nvidia

25

Os chips especializados de IA do Google, conhecidos como Tensor Processing Units (TPUs), estão emergindo como um concorrente significativo do domínio de longa data da Nvidia no mercado de hardware de IA. Empresas como Meta e Anthropic estão se preparando para investir bilhões nas TPUs do Google, sinalizando uma mudança potencial na indústria.

A ascensão do hardware especializado em IA

O boom da IA tem dependido fortemente de Unidades de Processamento Gráfico (GPUs) – originalmente projetadas para jogos e renderização gráfica – devido à sua capacidade de realizar cálculos paralelos de forma eficiente. Este processamento paralelo é crucial para treinar e executar modelos de IA, que muitas vezes envolvem multiplicações massivas de matrizes. No entanto, as GPUs não foram inicialmente otimizadas para IA.

As TPUs, desenvolvidas pela primeira vez pelo Google em 2016, abordam essa limitação concentrando-se exclusivamente na multiplicação de matrizes, a operação principal na maioria das cargas de trabalho de IA. A última geração, Ironwood, alimenta os modelos avançados de IA do Google, como Gemini e AlphaFold.

Eficiência vs. Flexibilidade

Tecnicamente, as TPUs são um subconjunto refinado de GPUs, não uma arquitetura completamente separada. Eles simplificam os cálculos específicos de IA, economizando potencialmente dezenas ou até centenas de milhões de dólares para as empresas.

No entanto, essa especialização traz compensações. As TPUs podem ser menos flexíveis se os modelos de IA evoluírem significativamente, forçando parte do processamento a voltar para CPUs mais lentas. Historicamente, as GPUs Nvidia tinham uma vantagem na compatibilidade de software, mas o Google reduziu essa lacuna, facilitando a integração das TPUs nos fluxos de trabalho existentes.

A resposta do hiperescalador

O custo crescente das GPUs, impulsionado pela alta demanda, levou muitos gigantes da tecnologia (“hyperscalers”) a desenvolver seus próprios chips de IA personalizados. O Trainium da Amazon é um exemplo.

“A maioria dos hiperescaladores tem seus próprios programas internos… porque as GPUs ficaram muito caras e pode ser mais barato projetar e construir as suas próprias.” – Simon McIntosh-Smith, Universidade de Bristol

Essa mudança em direção ao desenvolvimento interno de chips não envolve apenas custos. Trata-se também de controle e otimização para tarefas específicas de IA.

Uma mudança no mercado?

Durante anos, o Google usou TPUs principalmente internamente. Agora, a procura externa está a aumentar, com grandes intervenientes como a Meta e a Anthropic a fazer compras substanciais de TPU.

Este aumento da concorrência poderia beneficiar os compradores no longo prazo, potencialmente reduzindo os preços das GPUs ou forçando a Nvidia a oferecer condições mais competitivas. A diversificação dos fornecedores de hardware de IA garante que nenhuma empresa controle o futuro desta tecnologia crítica.

A crescente maturidade das TPUs e a vontade das grandes empresas de IA em adotá-las sugerem que está em curso uma mudança fundamental na indústria.