
Microsoft meluncurkan Maia 200, akselerator inferensi AI terbaru yang dirancang untuk meningkatkan kecepatan dan efisiensi pemrosesan kecerdasan buatan di platform Azure. Maia 200 merupakan chip SoC berteknologi 3nm dengan TDP 750W yang membawa teknologi tensor core FP8/FP4 native untuk menangani beban kerja AI secara efektif. Sistem ini menggunakan memori 216GB HBM3e dengan bandwidth tinggi mencapai 7 TB/s serta 272MB SRAM on-chip, menjadikannya akselerator inferensi paling efisien yang pernah dikerahkan Microsoft.
Akselerator Maia 200 menawarkan peningkatan kinerja per dolar sebesar 30% dibandingkan generasi hardware terbaru di armada Microsoft saat ini. Satya Nadella, CEO Microsoft, menegaskan bahwa Maia 200 kini sudah tersedia di Azure dan mampu mencapai throughput hingga 10+ PFLOPS untuk FP4 dan sekitar 5 PFLOPS untuk FP8. Keunggulan ini memungkinkan pengguna Azure untuk menjalankan beban kerja AI tingkat lanjut dengan performa tinggi sekaligus menekan biaya operasional.
Spesifikasi dan Arsitektur Maia 200
Setiap chip Maia 200 dirancang dengan lebih dari 140 miliar transistor, fokus pada pekerjaan AI skala besar. Sistem memorinya mengoptimalkan tipe data presisi sempit yang diolah melalui DMA engine khusus, SRAM on-die, dan jaringan NoC (Network-on-Chip) berkapasitas tinggi. Konfigurasi ini mempercepat throughput token untuk model bahasa besar seperti GPT-5.2. Maia 200 juga mengadopsi desain jaringan skala dua tingkat berbasis Ethernet standar yang memungkinkan bandwidth scale-up dua arah mencapai 2,8 TB/s dan operasi kolektif yang stabil di cluster hingga 6.144 akselerator.
Inovasi dalam arsitektur ini menyederhanakan pemrograman dan meningkatkan fleksibilitas beban kerja. Jaringan seragam Maia 200 mengurangi kapasitas yang tidak termanfaatkan serta menjaga kinerja dan efisiensi biaya secara konsisten di tingkat cloud.
Fungsi dan Penggunaan Maia 200 di Azure
Akselerator ini mendukung berbagai model AI, termasuk model GPT-5.2 terbaru dari OpenAI. Maia 200 dioptimalkan untuk meningkatkan efisiensi kinerja pada layanan Microsoft Foundry dan Microsoft 365 Copilot. Selain itu, tim Microsoft Superintelligence akan menggunakan Maia 200 untuk proses generasi data sintetis dan pembelajaran penguatan guna mengembangkan model AI generasi berikutnya secara internal. Hal ini menunjukkan pentingnya Maia 200 sebagai fondasi teknologi untuk inovasi AI jangka panjang Microsoft.
Sistem Pendingin dan Validasi Pra-Silicon
Sebelum peluncuran, Maia 200 telah melalui pengujian intensif menggunakan lingkungan pra-silicon yang mensimulasikan pola komputasi dan komunikasi model bahasa besar secara akurat. Perancangan ini juga mencakup elemen sistem kompleks seperti backend network dan unit pendingin cair tertutup generasi kedua yang disebut Heat Exchanger Unit milik Microsoft. Pendinginan canggih ini memastikan operasional Maia 200 tetap stabil meski beban kerja sangat berat dan suhu tinggi.
Kesempatan untuk Pengembang dan Akses di Azure
Microsoft kini membuka akses awal bagi pengembang, startup AI, dan kalangan akademis untuk mengeksplorasi dan mengoptimalkan model AI menggunakan Maia 200 melalui SDK terbarunya. SDK tersebut mencakup Triton Compiler, dukungan PyTorch, pemrograman tingkat rendah dengan NPL, serta simulator dan kalkulator biaya Maia yang membantu mengoptimalkan efisiensi pada tahap pengembangan kode. Integrasi mulus dengan Azure mempercepat adopsi Maia 200 pada berbagai skenario penggunaannya.
Dengan Maia 200, Microsoft menunjukkan komitmen yang kuat untuk mendukung ekosistem AI terkini. Akselerator ini tidak hanya meningkatkan daya komputasi tetapi juga menegaskan posisi Azure sebagai platform unggulan untuk menjalankan aplikasi kecerdasan buatan berskala besar dan kompleks secara lebih hemat dan efektif. Ketersediaan Maia 200 membuka peluang baru dalam inovasi solusi AI untuk pelanggan dan pengembang di seluruh dunia.





