Ambisi Gila Elon Musk: 50 Juta GPU untuk xAI di Tahun 2030, Mungkinkah?
UPBERITA.COM - Elon Musk kembali membuat gebrakan dengan ambisi barunya di bidang kecerdasan buatan (AI). CEO SpaceX dan Tesla ini mengumumkan target ambisius untuk xAI, perusahaannya yang fokus pada pengembangan AI: membangun infrastruktur komputasi setara dengan 50 juta unit GPU kelas H100 Nvidia pada tahun 2030.
Angka ini terdengar fantastis, bahkan mustahil bagi sebagian orang. Namun, pernyataan Musk ini perlu dipahami dengan lebih cermat. Ia tidak secara literal berarti xAI akan menggunakan 50 juta GPU fisik. Yang dimaksud adalah kapasitas komputasi yang setara dengan kemampuan 50 juta GPU H100. Meskipun begitu, target ini tetap menyiratkan komitmen infrastruktur yang luar biasa, khususnya dalam hal daya listrik dan investasi modal.
Pernyataan Musk di platform X menyebutkan, "tujuan xAI adalah 50 juta unit komputasi AI setara H100 (tetapi dengan efisiensi daya yang jauh lebih baik) online dalam waktu 5 tahun." Setiap GPU H100 Nvidia mampu menghasilkan sekitar 1.000 TFLOPS dalam format FP16 atau BF16, format umum untuk pelatihan AI. Untuk mencapai 50 ExaFLOPS (50 miliar miliar FLOPS) menggunakan patokan tersebut, secara teoritis dibutuhkan 50 juta H100.
Namun, kemajuan pesat dalam arsitektur GPU AI membuat skenario ini menjadi lebih kompleks. Arsitektur yang lebih baru, seperti Blackwell dan Rubin dari Nvidia, secara dramatis meningkatkan kinerja per chip. Proyeksi kinerja menunjukkan bahwa hanya sekitar 650.000 GPU dengan arsitektur masa depan seperti Feynman Ultra yang mungkin dibutuhkan untuk mencapai target tersebut. Hal ini menunjukkan bahwa prediksi Musk didasarkan pada teknologi yang masih dalam tahap pengembangan.
xAI sendiri telah menunjukkan kemajuan pesat dalam adopsi teknologi terdepan. Klaster Colossus 1 mereka saat ini didukung oleh 200.000 GPU berbasis Hopper H100 dan H200, ditambah 30.000 chip GB200 berbasis Blackwell. Klaster baru, Colossus 2, dijadwalkan akan beroperasi segera dengan lebih dari 1 juta unit GPU, yang menggabungkan 550.000 node GB200 dan GB300. Hal ini menempatkan xAI di antara pengadopsi tercepat teknologi pelatihan model dan penulis AI mutakhir.
Pilihan xAI menggunakan H100 sebagai referensi, bukan H200 yang lebih baru, mungkin karena H100 lebih dikenal luas di komunitas AI, telah banyak diuji, dan digunakan dalam penyebaran besar-besaran. Throughput FP16 dan BF16-nya yang konsisten menjadikannya satuan ukur yang jelas untuk perencanaan jangka panjang.
Namun, tantangan terbesar mungkin terletak pada konsumsi energi. Klaster AI 50 ExaFLOPS yang didukung oleh GPU H100 akan membutuhkan 35 GW, setara dengan konsumsi energi 35 pembangkit listrik tenaga nuklir! Bahkan dengan GPU yang diproyeksikan paling efisien, seperti Feynman Ultra, klaster 50 ExaFLOPS masih bisa membutuhkan hingga 4,685 GW daya. Ini lebih dari tiga kali lipat penggunaan daya Colossus 2 mendatang milik xAI. Meskipun ada kemajuan dalam efisiensi, peningkatan pasokan energi tetap menjadi ketidakpastian utama.
Selain itu, biaya juga menjadi masalah besar. Berdasarkan harga saat ini, satu GPU Nvidia H100 berharga lebih dari $25.000. Menggunakan 650.000 GPU generasi berikutnya pun masih bisa mencapai puluhan miliar dolar hanya untuk perangkat keras saja, belum termasuk interkoneksi, pendinginan, fasilitas, dan infrastruktur energi.
Kesimpulannya, rencana Musk untuk xAI secara teknis mungkin, tetapi sangat menantang secara finansial dan logistik. Ambisi ini menunjukkan komitmen yang besar terhadap pengembangan AI canggih, tetapi juga menimbulkan pertanyaan besar tentang keberlanjutan dan dampak lingkungan dari proyek skala raksasa tersebut. Apakah target ini akan tercapai? Hanya waktu yang akan menjawab. Namun, yang pasti, rencana ini sekali lagi menunjukkan visi futuristik dan ambisi tanpa batas Elon Musk di dunia teknologi.
Sumber : techradar.com