Microsoft Mengklasifikasikan Ulang Copilot sebagai “Hanya Untuk Tujuan Hiburan” dalam Ketentuan Layanan Baru

22

Microsoft menempuh garis tipis antara pemasaran agresif dan perlindungan hukum. Meskipun raksasa teknologi ini telah menghabiskan jutaan dolar untuk memposisikan Copilot AI sebagai pembangkit tenaga produktivitas yang penting—bahkan meluncurkan kategori perangkat keras khusus yang dikenal sebagai Copilot+ PC —peraturan hukum terbarunya menceritakan kisah yang jauh lebih hati-hati.

Berlaku 24 Oktober 2025, persyaratan layanan Microsoft yang diperbarui mencakup penafian yang mencolok: “Copilot hanya untuk tujuan hiburan. Kesalahan dapat terjadi, dan mungkin tidak berfungsi sebagaimana mestinya. Jangan mengandalkan Copilot untuk mendapatkan saran penting. Gunakan Copilot dengan risiko yang Anda tanggung sendiri.”

Putusnya Hubungan Hukum: Produktivitas vs. Hiburan

Ada ketegangan yang mencolok antara cara Microsoft menjual Copilot dan cara Microsoft mendefinisikannya secara hukum. Di satu sisi, perusahaan mengintegrasikan AI ke dalam Microsoft Office dan Windows suite, menjadikannya sebagai asisten digital profesional yang mampu mengelola alur kerja yang kompleks. Di sisi lain, bahasa hukum baru mengkategorikan alat tersebut sebagai sumber “hiburan”.

Perbedaan ini penting karena beberapa alasan:

  • Perlindungan Tanggung Jawab: Dengan memberi label pada layanan ini sebagai “hiburan”, Microsoft menciptakan perlindungan hukum terhadap pengguna yang mungkin mengandalkan informasi yang dihasilkan AI untuk mengambil keputusan penting di bidang seperti hukum, kedokteran, atau keuangan.
  • Masalah “Halusinasi”: Meskipun ada kemajuan pesat, model AI masih mengalami “halusinasi”—yaitu model yang dengan percaya diri menyajikan informasi palsu sebagai fakta. Ketentuan baru ini secara eksplisit memperingatkan bahwa AI mungkin tidak berfungsi sebagaimana mestinya.
  • Risiko Kekayaan Intelektual: Microsoft mengklarifikasi bahwa mereka tidak memberikan jaminan bahwa tanggapan Copilot tidak akan melanggar hak orang lain. Hal ini menimbulkan beban hukum bagi pengguna jika mereka mempublikasikan atau membagikan konten buatan AI yang melanggar hak cipta.

Memperluas Tanggung Jawab untuk “Tindakan” AI

Persyaratan yang diperbarui ini juga membahas peningkatan kemampuan AI, khususnya terkait Copilot Actions, Copilot Labs, dan pengalaman belanja terintegrasi.

Ketika AI beralih dari sekadar menghasilkan teks menjadi melakukan tugas—seperti melakukan pembelian atau mengelola file—pertaruhannya pun meningkat. Microsoft telah secara eksplisit menyatakan bahwa jika Anda menginstruksikan Copilot untuk mengambil tindakan atas nama Anda, Anda sepenuhnya bertanggung jawab atas hasilnya. Artinya, jika kesalahan AI menyebabkan transaksi salah atau file hilang, tanggung jawab ada pada pengguna manusia, bukan penyedia perangkat lunak.

Tren Kehati-hatian di Era AI

Meskipun ungkapan “hiburan” Microsoft sangat blak-blakan, ungkapan tersebut mengikuti tren industri yang lebih luas. Sebagian besar pengembang AI besar menggunakan bahasa “lindung nilai” yang serupa untuk mengelola ekspektasi dan mengurangi litigasi. Namun, pernyataan Microsoft yang tegas menyoroti kesenjangan yang semakin besar antara kegunaan AI yang dianggap dan keandalannya yang legal.

Ketika AI semakin tertanam dalam kehidupan profesional kita, tanggung jawab untuk memverifikasi keluarannya tetap berada di tangan manusia.

Kesimpulan
Microsoft secara hukum menjauhkan diri dari janji produktivitas yang digunakannya untuk memasarkan Copilot. Pengguna harus memperlakukan AI sebagai mitra curah pendapat yang kreatif, bukan sebagai sumber kebenaran yang sah atau agen yang dapat diandalkan untuk tugas-tugas penting.