I chip AI di Google sfidano il dominio di Nvidia

24

I chip AI specializzati di Google, noti come Tensor Processing Unit (TPU), stanno emergendo come un concorrente significativo per il dominio di lunga data di Nvidia nel mercato dell’hardware AI. Secondo quanto riferito, aziende come Meta e Anthropic si stanno preparando a investire miliardi nelle TPU di Google, segnalando un potenziale cambiamento nel settore.

L’ascesa dell’hardware IA specializzato

Il boom dell’intelligenza artificiale ha fatto molto affidamento sulle unità di elaborazione grafica (GPU), originariamente progettate per i giochi e il rendering grafico, grazie alla loro capacità di eseguire calcoli paralleli in modo efficiente. Questa elaborazione parallela è fondamentale per l’addestramento e l’esecuzione di modelli di intelligenza artificiale, che spesso comportano massicce moltiplicazioni di matrici. Tuttavia, inizialmente le GPU non erano ottimizzate per l’intelligenza artificiale.

Le TPU, sviluppate per la prima volta da Google nel 2016, risolvono questa limitazione concentrandosi esclusivamente sulla moltiplicazione delle matrici, l’operazione principale nella maggior parte dei carichi di lavoro AI. L’ultima generazione, Ironwood, alimenta i modelli avanzati di intelligenza artificiale di Google come Gemini e AlphaFold.

Efficienza e flessibilità

Tecnicamente, le TPU sono un sottoinsieme raffinato delle GPU, non un’architettura completamente separata. Semplificano i calcoli specifici dell’intelligenza artificiale, facendo potenzialmente risparmiare alle aziende decine o addirittura centinaia di milioni di dollari.

Tuttavia, questa specializzazione comporta dei compromessi. Le TPU possono essere meno flessibili se i modelli di intelligenza artificiale si evolvono in modo significativo, costringendo parte dell’elaborazione a CPU più lente. Storicamente, le GPU Nvidia avevano un vantaggio in termini di compatibilità software, ma Google ha ridotto questo divario, rendendo le TPU più facili da integrare nei flussi di lavoro esistenti.

La risposta dell’iperscaler

Il costo crescente delle GPU, guidato dalla forte domanda, ha spinto molti giganti della tecnologia (“hyperscaler”) a sviluppare i propri chip AI personalizzati. Il Trainium di Amazon è un esempio.

“La maggior parte degli hyperscaler hanno i propri programmi interni… perché le GPU sono diventate così costose e potrebbe essere più economico progettarne e costruirne di proprie.” – Simon McIntosh-Smith, Università di Bristol

Questo passaggio allo sviluppo interno dei chip non è solo una questione di costi. Riguarda anche il controllo e l’ottimizzazione di compiti specifici dell’IA.

Un cambiamento nel mercato?

Per anni Google ha utilizzato le TPU principalmente internamente. Ora, la domanda esterna è in aumento, con i principali attori come Meta e Anthropic che, secondo quanto riferito, effettuano ingenti acquisti di TPU.

Questa maggiore concorrenza potrebbe avvantaggiare gli acquirenti nel lungo periodo, riducendo potenzialmente i prezzi delle GPU o costringendo Nvidia a offrire termini più competitivi. La diversificazione dei fornitori di hardware AI garantisce che nessuna singola azienda controlli il futuro di questa tecnologia critica.

La crescente maturità dei TPU e la volontà delle grandi aziende di intelligenza artificiale di adottarli suggeriscono che è in corso un cambiamento fondamentale nel settore.