Peringatan baru soal risiko kecerdasan buatan kembali mencuat setelah mantan peneliti OpenAI, Daniel Kokotajlo, menyebut ancaman terburuk bisa muncul jauh lebih cepat dari perkiraan umum. Dalam wawancara di The Daily Show, ia mengatakan skenario sangat buruk, termasuk kepunahan manusia, bisa terjadi dalam sekitar lima tahun bila laju pengembangan AI terus melesat tanpa kendali yang memadai.
Pernyataan itu menarik perhatian karena datang dari sosok yang pernah bekerja di bidang keselamatan AI sebelum menjadi whistleblower. Kokotajlo menyebut kelompoknya di Futures Project memperkirakan ada peluang 70 persen untuk hasil yang “semua manusia mati atau sesuatu yang sama buruknya”, lalu menegaskan maksudnya dengan satu kata: “Extinction.”
Peringatan keras dari mantan peneliti OpenAI
Kokotajlo menilai masalah utamanya bukan hanya pada kemampuan AI yang terus meningkat, tetapi pada kecepatan perkembangannya. Menurut dia, kemajuan AI bukan sekadar cepat, melainkan akan “berakselerasi secara dramatis” dalam waktu dekat.
Ia juga memberi perkiraan waktu yang sangat singkat untuk munculnya ancaman besar itu. Saat ditanya soal timeline, ia menjawab ancaman tersebut kemungkinan lebih dekat ke “lima tahun”, bukan beberapa dekade lagi seperti yang sering dibayangkan publik.
Pernyataan itu tentu masih berupa prediksi, bukan kepastian ilmiah yang telah terbukti. Namun, komentar dari mantan orang dalam industri AI tetap dinilai penting karena datang dari pihak yang memahami bagaimana model canggih dikembangkan dan diuji.
Mengapa AI dinilai bisa sulit dikendalikan
Salah satu kekhawatiran utama yang diangkat Kokotajlo adalah soal kendali manusia terhadap sistem AI masa depan. Saat ini, banyak orang masih menganggap AI bisa dihentikan dengan cara sederhana, misalnya mematikan server atau mencabut akses daya.
Menurut dia, asumsi itu bisa menjadi tidak relevan ketika AI semakin terhubung ke infrastruktur penting. Jika sistem cerdas tertanam dalam jaringan pertahanan, militer, logistik, atau pengelolaan industri, penghentiannya tidak lagi sesederhana “mencabut steker”.
Risiko juga meningkat ketika sistem mampu beroperasi secara otonom dalam skala besar. Dalam kondisi seperti itu, manusia tidak lagi menghadapi satu mesin terpisah, melainkan jaringan sistem yang dapat mengambil keputusan sendiri dan menjalankan tugas tanpa campur tangan langsung.
Masalah besar bernama alignment
Kokotajlo menyoroti persoalan yang sudah lama dibahas komunitas keselamatan AI, yakni alignment. Istilah ini merujuk pada upaya memastikan tujuan, nilai, dan perilaku AI tetap sejalan dengan kepentingan manusia.
Menurut dia, peneliti masih belum benar-benar tahu cara membuat AI tingkat lanjut memiliki sasaran yang aman dan sesuai dengan nilai yang diinginkan manusia. Selama masalah ini belum terpecahkan, risiko akan ikut naik seiring meningkatnya kemampuan sistem.
Kekhawatiran ini juga sejalan dengan debat yang lebih luas di dunia teknologi. Sejumlah pakar AI sebelumnya telah mengingatkan bahwa model yang makin kuat dapat menimbulkan bahaya jika kemampuan melebihi mekanisme pengawasan yang tersedia.
Persaingan industri memperbesar tekanan
Faktor lain yang dinilai memperumit keadaan adalah persaingan antarperusahaan teknologi. Setiap perusahaan berlomba menghadirkan model yang lebih cepat, lebih kuat, dan lebih menarik secara komersial.
Dalam iklim seperti itu, aspek keselamatan berisiko tersisih oleh target produk dan tekanan pasar. Kokotajlo menilai jika satu perusahaan melambat untuk memperbaiki pengamanan, pesaing bisa melaju lebih dulu, sehingga upaya membangun pagar industri bersama menjadi lebih sulit.
Kondisi ini relevan dengan realitas industri AI saat ini yang bergerak sangat agresif. Perusahaan besar terus memperkenalkan model baru, agen AI, dan integrasi ke layanan publik maupun bisnis, sementara regulasi di banyak negara masih berkembang dan belum seragam.
Skenario yang paling dikhawatirkan
Kokotajlo juga menggambarkan kemungkinan ketika AI tidak lagi bergantung pada manusia untuk mempertahankan eksistensinya. Ia menyebut masa depan yang berisi “jutaan AI supercerdas” yang dapat membangun dan mengelola infrastruktur mereka sendiri.
Dalam skenario itu, sistem AI bisa menjalankan pabrik robotik yang beroperasi mandiri. Jika kemampuan seperti ini benar-benar tercapai, ruang intervensi manusia dapat menyusut drastis karena ekosistem mesin mampu menopang dirinya sendiri.
Berikut poin ancaman yang disorot dalam wawancara tersebut:
- Kemajuan AI dinilai akan semakin cepat dari tahun ke tahun.
- Sistem masa depan bisa tertanam dalam infrastruktur vital.
- Masalah alignment belum terselesaikan.
- Persaingan industri dapat mendorong pengabaian aspek keselamatan.
- AI berpotensi membangun jaringan operasional yang semakin mandiri.
Pandangan Kokotajlo bukan satu-satunya suara dalam perdebatan AI, dan banyak peneliti lain menilai prediksi kepunahan dalam lima tahun terlalu ekstrem. Namun, peringatan seperti ini memperlihatkan bahwa diskusi soal AI kini tidak lagi terbatas pada manfaat produktivitas, melainkan juga menyentuh pertanyaan paling mendasar tentang kendali, tanggung jawab, dan seberapa siap manusia menghadapi teknologi yang berkembang lebih cepat daripada aturan yang mengawasinya.
Source: www.indiatoday.in