Chipy AI Google’a rzucają wyzwanie dominacji Nvidii

21

Niestandardowe chipy AI firmy Google, znane jako jednostki przetwarzające Tensor (TPU), stają się poważnym konkurentem firmy Nvidia, która od dawna dominuje na rynku sprzętu AI. Według doniesień firmy takie jak Meta i Anthropic przygotowują się do zainwestowania miliardów dolarów w TPU Google, co może sygnalizować potencjalną zmianę w branży.

Powstanie wyspecjalizowanego sprzętu AI

Boom na sztuczną inteligencję w dużej mierze opierał się na jednostkach przetwarzania grafiki (GPU) — pierwotnie zaprojektowanych do gier i renderowania grafiki — dzięki ich zdolności do wydajnego wykonywania obliczeń równoległych. To równoległe obliczenia mają kluczowe znaczenie dla uczenia i uruchamiania modeli sztucznej inteligencji, które często wymagają ogromnego mnożenia macierzy. Jednak procesory graficzne nie były pierwotnie zoptymalizowane pod kątem sztucznej inteligencji.

TPU, opracowane po raz pierwszy przez Google w 2016 r., rozwiązują ten problem, koncentrując się wyłącznie na mnożeniu macierzy, co jest podstawową operacją w większości obciążeń AI. Najnowsza generacja Ironwood obsługuje zaawansowane modele sztucznej inteligencji Google, takie jak Gemini i AlphaFold.

Wydajność kontra elastyczność

Technicznie rzecz biorąc, TPU jest udoskonalonym podzbiorem procesora graficznego, a nie całkowicie odrębną architekturą. Optymalizują obliczenia specyficzne dla sztucznej inteligencji, potencjalnie oszczędzając dziesiątki, a nawet setki milionów dolarów.

Specjalizacja ta ma jednak swoje wady. TPU mogą być mniej elastyczne, jeśli modele sztucznej inteligencji znacznie się rozwiną, co zmusi do powrotu do niektórych obliczeń i wykorzystania wolniejszych procesorów. Historycznie rzecz biorąc, procesory graficzne Nvidia miały przewagę pod względem kompatybilności oprogramowania, ale Google wypełnił tę lukę, ułatwiając integrację TPU z istniejącymi przepływami pracy.

Odpowiedź hiperskali

Rosnące koszty procesorów graficznych, napędzane dużym popytem, zmusiły wielu gigantów technologicznych („hiperskalerów”) do opracowania własnych, niestandardowych chipów AI. Jednym z przykładów jest Amazon Trainium.

„Większość hiperskalarników ma własne programy wewnętrzne… ponieważ procesory graficzne stały się zbyt drogie i tańsze może być projektowanie i budowanie własnych.” – Simon McIntosh-Smith, Uniwersytet w Bristolu

Ta zmiana w kierunku opracowywania chipów we własnym zakresie nie wynika wyłącznie z kosztów. Chodzi także o kontrolę i optymalizację pod konkretne zadania AI.

Zmiana rynku?

Przez lata Google korzystał głównie z TPU wewnętrznie. Obecnie popyt zewnętrzny rośnie, a główni gracze, tacy jak Meta i Anthropic, dokonują podobno znacznych zakupów TPU.

Ta zwiększona konkurencja może w dłuższej perspektywie przynieść korzyści kupującym, potencjalnie obniżając ceny procesorów graficznych lub zmuszając Nvidię do oferowania bardziej konkurencyjnych warunków. Dywersyfikacja dostawców sprzętu AI sprawi, że żadna firma nie będzie kontrolować przyszłości tej kluczowej technologii.

Rosnąca dojrzałość TPU i gotowość dużych firm zajmujących się sztuczną inteligencją do ich przyjęcia sugerują, że w branży zachodzi zasadnicza zmiana.