Microsoft Ubah Makna Copilot, AI untuk Hiburan Saja dan Risiko Ditanggung Pengguna

Microsoft mengubah ketentuan penggunaan untuk layanan AI Copilot dan kini menyatakan alat tersebut ditujukan “untuk tujuan hiburan saja”. Dalam ketentuan itu, pengguna juga diminta memakai Copilot dengan risiko sendiri.

Perubahan ini menarik perhatian karena Copilot selama ini dipasarkan sebagai asisten kerja untuk meningkatkan produktivitas di ekosistem Microsoft 365. Copilot digunakan di aplikasi seperti Excel, PowerPoint, dan layanan bisnis lain yang menyasar perusahaan maupun konsumen.

Perubahan syarat pakai Copilot

Berdasarkan informasi yang tercantum di situs resmi Microsoft, pembaruan ketentuan penggunaan ini sudah dilakukan pada Oktober tahun lalu. Frasa “entertainment purposes only” dan peringatan “use at your own risk” dinilai mempertegas batas tanggung jawab perusahaan atas hasil yang dibuat AI.

Langkah itu muncul di tengah kekhawatiran lama soal akurasi model bahasa besar atau large language model. Sistem seperti GPT dari OpenAI maupun Claude dari Anthropic masih bisa menghasilkan “halusinasi”, yakni jawaban yang terdengar meyakinkan tetapi tidak didukung fakta yang benar.

Masalah ini memang disebut terus berkurang seiring pembaruan model. Namun, risiko kesalahan belum hilang sepenuhnya, terutama ketika AI dipakai untuk merangkum data, membuat analisis, atau menyusun dokumen yang butuh presisi tinggi.

Dalam konteks itu, perubahan syarat pakai Copilot dapat dibaca sebagai langkah mitigasi hukum. Microsoft tampaknya ingin mengurangi potensi klaim jika pengguna mengalami kerugian akibat informasi yang tidak akurat dari sistem AI tersebut.

Bukan larangan untuk dipakai bekerja

Meski bahasanya terdengar tegas, Microsoft tidak secara eksplisit melarang penggunaan Copilot untuk pekerjaan. Arah pesannya lebih mengingatkan bahwa Copilot sebaiknya dipakai sebagai alat bantu, bukan pengambil keputusan.

Artinya, pengguna masih dapat memanfaatkan Copilot untuk menyusun draf presentasi, merangkum rapat, atau membantu analisis awal. Namun, hasil yang diberikan tetap perlu diperiksa ulang sebelum dipakai dalam keputusan bisnis, laporan resmi, atau komunikasi penting.

Pendekatan seperti ini juga bukan hal baru di industri AI. Banyak penyedia model AI menyertakan penafian bahwa sistem mereka bisa keliru, bias, atau menghasilkan informasi yang tidak lengkap.

Bagi pengguna perusahaan, pesan tersebut justru menegaskan praktik yang sejak awal disarankan dalam tata kelola AI. Verifikasi manusia tetap menjadi lapisan pengaman utama saat AI dipakai dalam alur kerja profesional.

Mengapa perubahan ini penting

Perubahan ketentuan itu terlihat kontras dengan strategi pemasaran Microsoft untuk Copilot. Di satu sisi, perusahaan terus menjual Copilot sebagai pendorong efisiensi kerja, tetapi di sisi lain juga menegaskan bahwa tanggung jawab akhir ada pada pengguna.

Kontras ini makin menonjol karena Microsoft sebelumnya sangat agresif memperluas merek Copilot. Laporan yang sempat beredar menyebut perusahaan memiliki 78 produk berbeda yang memakai nama Copilot.

Jumlah produk yang besar itu menunjukkan betapa pentingnya Copilot dalam strategi AI Microsoft. Karena itu, perubahan bahasa dalam syarat penggunaan dipandang bukan sekadar revisi administratif, melainkan sinyal bahwa perusahaan ingin memperjelas ekspektasi publik atas kemampuan AI generatif.

Microsoft tetap mendorong penjualan Copilot

Terlepas dari pembaruan syarat pakai, Microsoft belum mengendurkan dorongan komersial untuk Copilot. Bloomberg melaporkan CEO Microsoft Judson Althoff dalam rapat internal menyebut perusahaan mencapai target penjualan Copilot yang sangat ambisius pada kuartal terakhir.

Di saat yang sama, Microsoft juga pernah mengungkap bahwa hanya 3 persen pelanggan yang membayar Copilot hingga akhir Desember. Angka itu menunjukkan adopsi berbayar masih relatif terbatas dibanding besarnya eksposur produk AI tersebut.

Microsoft juga terus memperluas penawaran AI untuk pekerjaan. Perusahaan memperkenalkan Copilot Cowork untuk mendorong produktivitas berbasis AI, di tengah persaingan yang semakin ketat dari pemain lain di sektor perangkat lunak perusahaan.

Dalam promosi sebelumnya, Microsoft bahkan memakai istilah seperti “vibe working” untuk menggambarkan penggunaan AI dalam menyelesaikan tugas. Strategi itu menegaskan bahwa AI tetap diposisikan sebagai rekan kerja digital, meski perusahaan kini menambah pagar hukum lewat syarat penggunaan yang lebih hati-hati.

Yang perlu diperhatikan pengguna

Bagi pengguna individu maupun bisnis, ada beberapa hal yang relevan setelah perubahan ini:

  1. Copilot tetap bisa dipakai untuk membantu pekerjaan sehari-hari.
  2. Hasil AI tidak boleh dianggap otomatis benar atau final.
  3. Informasi penting perlu diverifikasi ke sumber asli.
  4. Keputusan bisnis, hukum, keuangan, dan medis tidak seharusnya hanya bergantung pada AI.

Prinsip itu sejalan dengan praktik umum pemanfaatan AI generatif saat ini. AI efektif untuk mempercepat pekerjaan rutin, tetapi belum dapat menggantikan penilaian profesional dan tanggung jawab manusia.

Bagi Microsoft, perubahan ini dapat dibaca sebagai upaya menjaga keseimbangan antara ekspansi bisnis AI dan pengelolaan risiko. Bagi pengguna, pesan utamanya sederhana: Copilot masih berguna untuk produktivitas, tetapi setiap output harus diperlakukan sebagai bahan bantu yang tetap wajib diperiksa sebelum dipakai dalam pekerjaan penting.

Source: www.indiatoday.in

Berita Terkait

Back to top button