Les puces IA spécialisées de Google, connues sous le nom de Tensor Processing Units (TPU), apparaissent comme un concurrent important à la domination de longue date de Nvidia sur le marché du matériel IA. Des sociétés comme Meta et Anthropic se prépareraient à investir des milliards dans les TPU de Google, signalant un changement potentiel dans le secteur.
L’essor du matériel d’IA spécialisé
Le boom de l’IA s’est fortement appuyé sur les unités de traitement graphique (GPU) – conçues à l’origine pour les jeux et le rendu graphique – en raison de leur capacité à effectuer efficacement des calculs parallèles. Ce traitement parallèle est crucial pour la formation et l’exécution de modèles d’IA, qui impliquent souvent des multiplications matricielles massives. Cependant, les GPU n’étaient pas initialement optimisés pour l’IA.
Les TPU, développés pour la première fois par Google en 2016, répondent à cette limitation en se concentrant uniquement sur la multiplication matricielle, l’opération principale de la plupart des charges de travail d’IA. La dernière génération, Ironwood, alimente les modèles d’IA avancés de Google comme Gemini et AlphaFold.
Efficacité vs flexibilité
Techniquement, les TPU sont un sous-ensemble raffiné de GPU, et non une architecture complètement distincte. Ils rationalisent les calculs spécifiques à l’IA, permettant ainsi aux entreprises d’économiser des dizaines, voire des centaines de millions de dollars.
Cependant, cette spécialisation comporte des compromis. Les TPU peuvent être moins flexibles si les modèles d’IA évoluent de manière significative, obligeant certains traitements à revenir à des processeurs plus lents. Historiquement, les GPU Nvidia avaient un avantage en termes de compatibilité logicielle, mais Google a réduit cet écart, facilitant ainsi l’intégration des TPU dans les flux de travail existants.
La réponse de l’hyperscaler
Le coût croissant des GPU, entraîné par une forte demande, a poussé de nombreux géants de la technologie (« hyperscalers ») à développer leurs propres puces d’IA personnalisées. Trainium d’Amazon en est un exemple.
“La plupart des hyperscalers ont leurs propres programmes internes… parce que les GPU sont devenus très chers et qu’il pourrait être moins cher de concevoir et de construire les vôtres.” – Simon McIntosh-Smith, Université de Bristol
Cette évolution vers le développement de puces en interne n’est pas seulement une question de coût. Il s’agit également de contrôle et d’optimisation pour des tâches spécifiques d’IA.
Un changement dans le marché ?
Pendant des années, Google a principalement utilisé les TPU en interne. Aujourd’hui, la demande externe augmente, et des acteurs majeurs comme Meta et Anthropic auraient effectué des achats substantiels de TPU.
Cette concurrence accrue pourrait profiter aux acheteurs à long terme, en faisant baisser les prix des GPU ou en obligeant Nvidia à proposer des conditions plus compétitives. La diversification des fournisseurs de matériel d’IA garantit qu’aucune entreprise ne contrôle à elle seule l’avenir de cette technologie critique.
La maturité croissante des TPU et la volonté des grandes entreprises d’IA de les adopter suggèrent qu’un changement fondamental est en cours dans l’industrie.





























