Chip AI Google Menantang Dominasi Nvidia

20

Chip AI khusus Google, yang dikenal sebagai Tensor Processing Units (TPU), muncul sebagai pesaing signifikan terhadap dominasi Nvidia yang sudah lama ada di pasar perangkat keras AI. Perusahaan seperti Meta dan Anthropic dilaporkan bersiap untuk menginvestasikan miliaran dolar di TPU Google, yang menandakan potensi perubahan dalam industri ini.

Bangkitnya Perangkat Keras AI Khusus

Perkembangan AI sangat bergantung pada Graphics Processing Unit (GPU) – yang awalnya dirancang untuk gaming dan rendering grafis – karena kemampuannya untuk melakukan perhitungan paralel secara efisien. Pemrosesan paralel ini sangat penting untuk melatih dan menjalankan model AI, yang sering kali melibatkan perkalian matriks besar-besaran. Namun, GPU pada awalnya tidak dioptimalkan untuk AI.

TPU, yang pertama kali dikembangkan oleh Google pada tahun 2016, mengatasi keterbatasan ini dengan berfokus hanya pada perkalian matriks, yang merupakan operasi inti di sebagian besar beban kerja AI. Generasi terbaru, Ironwood, mendukung model AI canggih Google seperti Gemini dan AlphaFold.

Efisiensi vs. Fleksibilitas

Secara teknis, TPU adalah bagian GPU yang disempurnakan, bukan arsitektur yang sepenuhnya terpisah. Mereka menyederhanakan penghitungan khusus AI, sehingga berpotensi menghemat puluhan atau bahkan ratusan juta dolar bagi perusahaan.

Namun, spesialisasi ini memiliki konsekuensinya. TPU bisa menjadi kurang fleksibel jika model AI berkembang secara signifikan, sehingga memaksa beberapa pemrosesan kembali ke CPU yang lebih lambat. Secara historis, GPU Nvidia memiliki keunggulan dalam kompatibilitas perangkat lunak, namun Google telah mempersempit kesenjangan ini, membuat TPU lebih mudah diintegrasikan ke dalam alur kerja yang ada.

Respons Hiperscaler

Meningkatnya biaya GPU, didorong oleh tingginya permintaan, telah mendorong banyak raksasa teknologi (“hyperscaler”) untuk mengembangkan chip AI khusus mereka sendiri. Trainium Amazon adalah salah satu contohnya.

“Sebagian besar hyperscaler mempunyai program internalnya sendiri… karena GPU menjadi sangat mahal dan mungkin lebih murah untuk merancang dan membuat sendiri.” – Simon McIntosh-Smith, Universitas Bristol

Langkah menuju pengembangan chip internal bukan hanya soal biaya. Ini juga tentang kontrol dan optimalisasi untuk tugas AI tertentu.

Pergeseran Pasar?

Selama bertahun-tahun, Google terutama menggunakan TPU secara internal. Saat ini, permintaan eksternal meningkat, dengan pemain besar seperti Meta dan Anthropic dilaporkan melakukan pembelian TPU dalam jumlah besar.

Meningkatnya persaingan ini dapat menguntungkan pembeli dalam jangka panjang, berpotensi menurunkan harga GPU atau memaksa Nvidia untuk menawarkan persyaratan yang lebih kompetitif. Diversifikasi pemasok perangkat keras AI memastikan tidak ada satu perusahaan pun yang mengendalikan masa depan teknologi penting ini.

Semakin matangnya TPU dan kesediaan perusahaan AI besar untuk mengadopsinya menunjukkan adanya perubahan mendasar dalam industri ini.