De AI-chips van Google dagen de dominantie van Nvidia uit

23

De gespecialiseerde AI-chips van Google, bekend als Tensor Processing Units (TPU’s), zijn in opkomst als een belangrijke concurrent van Nvidia’s langdurige dominantie op de AI-hardwaremarkt. Bedrijven als Meta en Anthropic bereiden zich naar verluidt voor om miljarden te investeren in de TPU’s van Google, wat een mogelijke verschuiving in de sector aangeeft.

De opkomst van gespecialiseerde AI-hardware

De opkomst van AI is sterk afhankelijk geweest van Graphics Processing Units (GPU’s) – oorspronkelijk ontworpen voor gaming en grafische weergave – vanwege hun vermogen om parallelle berekeningen efficiënt uit te voeren. Deze parallelle verwerking is cruciaal voor het trainen en uitvoeren van AI-modellen, waarbij vaak enorme matrixvermenigvuldigingen nodig zijn. GPU’s waren aanvankelijk echter niet geoptimaliseerd voor AI.

TPU’s, voor het eerst ontwikkeld door Google in 2016, pakken deze beperking aan door zich uitsluitend te concentreren op matrixvermenigvuldiging, de kernbewerking bij de meeste AI-workloads. De nieuwste generatie, Ironwood, drijft de geavanceerde AI-modellen van Google aan, zoals Gemini en AlphaFold.

Efficiëntie versus flexibiliteit

Technisch gezien zijn TPU’s een verfijnde subset van GPU’s, en geen volledig afzonderlijke architectuur. Ze stroomlijnen AI-specifieke berekeningen, waardoor bedrijven mogelijk tientallen of zelfs honderden miljoenen dollars kunnen worden bespaard.

Deze specialisatie brengt echter nadelen met zich mee. TPU’s kunnen minder flexibel zijn als AI-modellen aanzienlijk evolueren, waardoor een deel van de verwerking terug moet naar langzamere CPU’s. Historisch gezien hadden Nvidia GPU’s een voordeel op het gebied van softwarecompatibiliteit, maar Google heeft deze kloof verkleind, waardoor TPU’s gemakkelijker te integreren zijn in bestaande workflows.

De hyperscaler-reactie

De stijgende kosten van GPU’s, gedreven door de grote vraag, hebben veel technologiegiganten (“hyperscalers”) ertoe aangezet hun eigen op maat gemaakte AI-chips te ontwikkelen. Amazons Trainium is daar een voorbeeld van.

“De meeste hyperscalers hebben hun eigen interne programma’s… omdat GPU’s zo duur zijn geworden en het misschien goedkoper is om je eigen programma’s te ontwerpen en te bouwen.” – Simon McIntosh-Smith, Universiteit van Bristol

Deze stap richting interne chipontwikkeling gaat niet alleen over de kosten. Het gaat ook om controle en optimalisatie voor specifieke AI-taken.

Een verschuiving in de markt?

Jarenlang gebruikte Google voornamelijk TPU’s intern. Nu neemt de externe vraag toe, waarbij grote spelers als Meta en Anthropic naar verluidt substantiële TPU-aankopen doen.

Deze toegenomen concurrentie zou op de lange termijn ten goede kunnen komen aan kopers, waardoor de GPU-prijzen omlaag zouden kunnen gaan of Nvidia gedwongen zou worden om concurrerender voorwaarden aan te bieden. Het diversifiëren van AI-hardwareleveranciers zorgt ervoor dat geen enkel bedrijf de toekomst van deze cruciale technologie controleert.

De groeiende volwassenheid van TPU’s en de bereidheid van grote AI-bedrijven om ze te adopteren duiden erop dat er een fundamentele verschuiving in de sector gaande is.