Googles spezialisierte KI-Chips, bekannt als Tensor Processing Units (TPUs), entwickeln sich zu einem bedeutenden Konkurrenten für Nvidias langjährige Dominanz auf dem KI-Hardwaremarkt. Berichten zufolge bereiten sich Unternehmen wie Meta und Anthropic darauf vor, Milliarden in die TPUs von Google zu investieren, was auf einen möglichen Wandel in der Branche hindeutet.
Der Aufstieg spezialisierter KI-Hardware
Der KI-Boom hat sich aufgrund ihrer Fähigkeit, parallele Berechnungen effizient durchzuführen, stark auf Grafikprozessoren (GPUs) verlassen, die ursprünglich für Spiele und Grafik-Rendering entwickelt wurden. Diese Parallelverarbeitung ist entscheidend für das Training und die Ausführung von KI-Modellen, die oft massive Matrixmultiplikationen beinhalten. Allerdings waren GPUs ursprünglich nicht für KI optimiert.
TPUs, die erstmals 2016 von Google entwickelt wurden, beheben diese Einschränkung, indem sie sich ausschließlich auf die Matrixmultiplikation konzentrieren, die Kernoperation in den meisten KI-Workloads. Die neueste Generation, Ironwood, unterstützt die fortschrittlichen KI-Modelle von Google wie Gemini und AlphaFold.
Effizienz vs. Flexibilität
Technisch gesehen sind TPUs eine verfeinerte Untergruppe von GPUs und keine völlig separate Architektur. Sie rationalisieren KI-spezifische Berechnungen und können Unternehmen potenziell Dutzende oder sogar Hunderte Millionen Dollar einsparen.
Diese Spezialisierung ist jedoch mit Kompromissen verbunden. TPUs können weniger flexibel sein, wenn sich KI-Modelle erheblich weiterentwickeln, wodurch ein Teil der Verarbeitung auf langsamere CPUs zurückgeführt wird. In der Vergangenheit hatten Nvidia-GPUs einen Vorteil bei der Softwarekompatibilität, aber Google hat diese Lücke verringert, sodass sich TPUs einfacher in bestehende Arbeitsabläufe integrieren lassen.
Die Hyperscaler-Antwort
Die durch die hohe Nachfrage steigenden Kosten für GPUs haben viele Technologiegiganten („Hyperscaler“) dazu veranlasst, ihre eigenen maßgeschneiderten KI-Chips zu entwickeln. Ein Beispiel ist Amazons Trainium.
„Die meisten Hyperscaler haben ihre eigenen internen Programme … weil GPUs so teuer geworden sind und es möglicherweise billiger ist, eigene zu entwerfen und zu bauen.“ – Simon McIntosh-Smith, Universität Bristol
Bei diesem Schritt hin zur internen Chipentwicklung geht es nicht nur um die Kosten. Dabei geht es auch um Steuerung und Optimierung für konkrete KI-Aufgaben.
Eine Marktverschiebung?
Jahrelang nutzte Google intern hauptsächlich TPUs. Jetzt steigt die externe Nachfrage, und große Player wie Meta und Anthropic tätigen Berichten zufolge umfangreiche TPU-Käufe.
Dieser verstärkte Wettbewerb könnte den Käufern auf lange Sicht zugute kommen, indem er möglicherweise die GPU-Preise senkt oder Nvidia dazu zwingt, wettbewerbsfähigere Konditionen anzubieten. Die Diversifizierung der KI-Hardwarelieferanten stellt sicher, dass kein einzelnes Unternehmen die Zukunft dieser entscheidenden Technologie kontrolliert.
Die zunehmende Reife von TPUs und die Bereitschaft großer KI-Unternehmen, sie einzuführen, deuten darauf hin, dass in der Branche ein grundlegender Wandel im Gange ist.
