ARM Masuk Produksi Chip Sendiri, Meta Dan OpenAI Langsung Menyambutnya

Arm resmi memasuki tahap baru dalam bisnis semikonduktor dengan memperkenalkan AGI CPU, chip in-house pertamanya yang dirancang untuk beban kerja AI skala besar di pusat data. Langkah ini langsung menarik perhatian pemain besar seperti Meta dan OpenAI, karena chip tersebut diposisikan sebagai fondasi infrastruktur untuk AI agentik yang terus berjalan, bernalar, merencanakan, dan bertindak secara otomatis.

Berbeda dari peran Arm yang selama ini lebih dikenal sebagai perancang arsitektur chip, AGI CPU menandai keterlibatan perusahaan ke produksi silikon secara langsung. Fokus utamanya bukan sekadar kecepatan komputasi, melainkan efisiensi, kepadatan workload, dan performa yang stabil saat beban kerja berlangsung terus-menerus.

Chip baru untuk gelombang AI berikutnya

Arm menyebut AGI CPU sebagai “next evolution of the Arm compute platform”. Chip ini ditujukan untuk data center AI modern yang membutuhkan kapasitas pemrosesan besar, latensi rendah, dan efisiensi daya yang lebih baik dibandingkan sistem konvensional.

Secara teknis, AGI CPU mendukung hingga 136 core Neoverse V3 per CPU, dengan bandwidth memori 6GB/s per core dan latensi di bawah 100 nanodetik. Kombinasi ini ditujukan untuk menjaga kinerja tinggi saat menjalankan banyak tugas AI sekaligus, termasuk distribusi beban kerja pada server yang padat.

Arm juga menempatkan TDP chip ini di level 300 watt, dengan desain core khusus untuk satu thread program. Pendekatan ini menunjukkan bahwa chip tersebut dibangun untuk konsistensi performa, bukan hanya lonjakan kecepatan sesaat seperti yang sering dibutuhkan sistem komputasi tradisional.

Kapasitas rak menjadi sorotan

Salah satu klaim paling menonjol dari Arm adalah kemampuan AGI CPU meningkatkan kepadatan komputasi pada level rak. Dalam konfigurasi server 1U berpendingin udara, sistem ini disebut mampu mendukung hingga 8.160 core per rak, sedangkan penerapan pendingin cair dapat mencapai 45.000 core per rak.

Arm juga menyebut performanya bisa lebih dari dua kali lipat dibandingkan CPU x86 per rak. Klaim ini penting karena data center AI saat ini tidak hanya mengejar performa mentah, tetapi juga efisiensi energi, penggunaan ruang, dan biaya operasional jangka panjang.

Poin kapasitas utama AGI CPU dapat diringkas sebagai berikut:

  1. Hingga 136 core Neoverse V3 per CPU.
  2. Bandwidth memori 6GB/s per core.
  3. Latensi di bawah 100 nanodetik.
  4. TDP 300 watt.
  5. Hingga 8.160 core per rak dengan pendingin udara.
  6. Hingga 45.000 core per rak dengan pendingin cair.

Meta menjadi mitra utama pengembangannya

Meta tercatat sebagai mitra utama sekaligus co-developer AGI CPU. Integrasi chip ini akan dikaitkan dengan Meta Training and Inference Accelerator atau MTIA, yang dipakai untuk mengoptimalkan performa pusat data perusahaan tersebut.

Keterlibatan Meta memperlihatkan bahwa chip ini tidak hanya dilihat sebagai produk komersial biasa, tetapi juga sebagai komponen strategis untuk infrastruktur AI generasi berikutnya. Dukungan dari perusahaan berskala besar biasanya menjadi sinyal penting bagi pasar, terutama saat sebuah teknologi masih berada pada fase awal adopsi.

OpenAI juga masuk dalam daftar pengguna awal bersama Cerebras, Cloudflare, Positron, Rebellions, SAP, dan SK Telecom. Kehadiran nama-nama itu menunjukkan bahwa pasar untuk chip AI efisien semakin luas, terutama di kalangan penyedia cloud, perusahaan perangkat lunak, dan operator layanan AI.

Ekosistem industri ikut menguat

Arm mengatakan lebih dari 50 pemimpin industri dari sektor hyperscale, cloud, semikonduktor, memori, jaringan, perangkat lunak, dan desain sistem mendukung peluncuran chip ini. Skala dukungan tersebut penting karena keberhasilan chip AI sangat bergantung pada kompatibilitas dengan ekosistem yang lebih luas.

Beberapa mitra perangkat keras juga ikut terlibat, termasuk Lenovo, Supermicro, Quanta Computer, dan ASRock Rack. Sistem awal akan dipasok melalui kolaborasi dengan OEM dan ODM tersebut, sementara ketersediaan yang lebih luas dijadwalkan pada paruh kedua 2026.

James Hamilton, SVP dan Distinguished Engineer Amazon, menegaskan bahwa kerja sama dengan Arm telah memberi hasil besar lewat Graviton. Ia mengatakan, “the majority of compute capacity AWS added to our fleet in 2025 was powered by Graviton,” dan menyebut kolaborasi itu terus memberi price/performance yang lebih baik bagi pelanggan.

Apa arti langkah ini bagi pasar AI

Masuknya Arm ke produksi chip AI internal dapat mengubah dinamika persaingan di data center, terutama di segmen server efisien untuk inferensi dan orkestrasi beban kerja. Pasar saat ini tidak hanya membutuhkan GPU berdaya besar, tetapi juga CPU pendukung yang mampu menangani control plane, manajemen akselerator, serta hosting API dan tugas enterprise.

Arm menempatkan AGI CPU sebagai fondasi untuk deployment AI skala besar, dan itu sejalan dengan arah industri yang bergerak ke model sistem campuran. Dalam model tersebut, CPU, GPU, dan akselerator khusus bekerja bersama untuk menekan biaya sekaligus menjaga throughput tetap tinggi.

Namun keberhasilan chip ini tetap bergantung pada adopsi nyata di data center, integrasi dengan memori dan akselerator yang sudah ada, serta pembuktian performa di lapangan. Jika klaim efisiensi dan densitas rak terbukti konsisten, AGI CPU berpotensi menjadi salah satu komponen penting dalam infrastruktur AI enterprise dan cloud pada fase berikutnya.

Berita Terkait

Back to top button