AI Akhirnya Melaju Dua Kali Lebih Cepat, Ilmuwan Jinakkan “Ekor Panjang” yang Hambat Prosesor Saat Training Model Besar

Penelitian terbaru menunjukkan kemajuan besar dalam efisiensi pelatihan model kecerdasan buatan (AI). Tim dari Massachusetts Institute of Technology bersama sejumlah kolaborator telah berhasil menggandakan kecepatan pelatihan AI dengan mengatasi masalah klasik pada pemanfaatan prosesor, terutama pada proses yang dikenal sebagai "long-tail inefficiencies". Upaya ini berpotensi mengurangi waktu dan biaya besar yang selama ini menjadi tantangan utama dalam pengembangan model bahasa besar yang mampu melakukan penalaran kompleks.

Permasalahan utama pada pelatihan reinforcement learning terletak pada tahap “rollout”, yaitu saat model AI menciptakan banyak respons potensial untuk belajar menentukan jawaban terbaik. Proses rollout ini bisa menyedot hingga 85% waktu pelatihan secara keseluruhan. Sering kali, beberapa prosesor menyelesaikan peranannya lebih cepat dan akhirnya menunggu prosesor lain yang menangani tugas lebih rumit. Kondisi tersebut menyebabkan sebagian besar perangkat keras yang seharusnya bisa dimanfaatkan justru menganggur, memperlambat proses pengembangan AI.

Solusi: Sistem TLT dan Spekulatif Decoding

Untuk mengatasi inefisiensi tersebut, para peneliti menghadirkan sistem “Taming the Long Tail” (TLT). Sistem ini menggunakan model drafter adaptif yang bekerja pada prosesor-prosesor yang sedang tidak dipakai. Dengan demikian, model drafter yang berukuran lebih kecil dan ringan mampu secara cepat menebak hasil keluaran model utama, sambil tetap mengedepankan akurasi hasil akhir.

Verifikasi atas prediksi model drafter dilakukan secara paralel dan serempak oleh model target melalui teknik yang disebut speculative decoding. Inovasi TLT juga memungkinkan penyelarasan model drafter secara berkelanjutan ketika proses pelatihan sedang berjalan, tanpa menambah beban komputasi.

Keunggulan TLT Dibanding Metode Konvensional

Kelebihan utama sistem ini terletak pada adaptasinya yang real-time. Pada metode speculative decoding tradisional, model drafter yang statis biasanya cepat usang dan tidak relevan seiring pembaruan data pelatihan. Sebaliknya, pada TLT, drafter terus diselaraskan sehingga prediksi tetap akurat dan sesuai perkembangan data.

Selain itu, sistem ini menghadirkan adaptive rollout engine yang mengoptimalkan proses lebih jauh. Mesin ini mengelola kumpulan graf pre-captured secara efisien dan menyesuaikan strategi decoding untuk setiap batch input baru sehingga seluruh prosesor tetap aktif dan tidak ada waktu terbuang sia-sia.

Peningkatan Efisiensi dan Efek Jangka Panjang

Berdasarkan evaluasi yang dilakukan pada beberapa model penalaran, inovasi TLT berhasil meningkatkan kecepatan pelatihan AI sebesar 70-110% jika dibandingkan dengan sistem pelatihan paling mutakhir yang sebelumnya diandalkan. Seluruh percepatan ini tercapai tanpa kehilangan akurasi model, bahkan menghasilkan model drafter berkualitas tinggi yang siap diterapkan sebagai produk sampingan tanpa biaya tambahan.

Peningkatan tersebut memberikan dampak langsung dalam menekan konsumsi energi dan biaya pengembangan AI canggih. Efisiensi ini sangat penting karena pengembangan model AI terbaru membutuhkan sumber daya komputasi yang tidak sedikit, baik dari sisi perangkat keras maupun waktu riset.

Ringkasan Inovasi Sistem TLT

Berikut ringkasan langkah kerja sistem TLT:

  1. Memanfaatkan prosesor yang idle untuk melatih drafter model secara kontinu.
  2. Drafter membuat perkiraan output model utama secara efisien.
  3. Model utama melakukan verifikasi seluruh hasil perkiraan sekaligus melalui speculative decoding.
  4. Drafter diselaraskan dengan model utama selama pelatihan tanpa menambah beban komputasi.
  5. Adaptive rollout engine terus memantau serta memilih strategi decoding terbaik untuk input baru.

Sistem “Taming the Long Tail” membuka peluang luas bagi laboratorium riset dan industri yang mengembangkan kecerdasan buatan dengan kebutuhan kalkulasi sangat tinggi. Pengurangan waktu pelatihan tidak hanya membuat riset lebih terjangkau, namun juga mempercepat adopsi AI untuk tugas-tugas yang menuntut kemampuan penalaran dan perencanaan multilangkah. Penerapan teknik ini diharapkan menjadi solusi fundamental dalam mengembangkan model AI masa depan yang lebih efisien dan berdaya saing tinggi di tingkat global.

Source: www.notebookcheck.net

Berita Terkait

Back to top button