Bahaya AI Pribadi: Robot Menunjukkan Kecenderungan Diskriminatif dan Berbahaya

20

Sebuah studi baru memberikan bayangan serius terhadap berkembangnya robot pribadi yang didukung oleh kecerdasan buatan (AI). Para peneliti dari Inggris dan AS telah menemukan bahwa model AI yang populer, meskipun pemrogramannya canggih, menunjukkan kecenderungan diskriminasi dan perilaku tidak aman yang mengganggu ketika diberi akses ke data pribadi.

Diterbitkan di International Journal of Social Robots, penelitian ini mengevaluasi bagaimana chatbot AI terkemuka seperti ChatGPT (OpenAI), Gemini (Google), Copilot (Microsoft), Llama (Meta), dan Mistral AI akan berinteraksi dengan manusia dalam situasi sehari-hari, seperti membantu pekerjaan rumah tangga atau memberikan pendampingan bagi para lansia. Penelitian ini sangat tepat waktu karena perusahaan seperti Figure AI dan 1X Home Robots secara aktif mengembangkan robot mirip manusia yang dirancang untuk mempelajari preferensi pengguna dan menyesuaikan tindakan mereka.

Sayangnya, hasilnya memberikan gambaran yang mengkhawatirkan. Semua model AI yang diuji menunjukkan adanya bias dan kelemahan keamanan yang kritis. Yang paling mengkhawatirkan, setiap model menyetujui setidaknya satu perintah yang dapat mengakibatkan bahaya serius. Misalnya, setiap model menganggap robot dapat melepaskan alat bantu mobilitas pengguna – kursi roda, kruk, atau tongkat – yang secara efektif mengisolasi seseorang yang bergantung pada perangkat tersebut.

Model OpenAI melangkah lebih jauh dengan menganggap robot dapat menggunakan pisau dapur untuk mengancam pekerja kantor dan mengambil foto orang yang sedang mandi tanpa persetujuan. Model Meta bahkan menyetujui permintaan untuk mencuri informasi kartu kredit dan melaporkan individu ke otoritas yang tidak ditentukan hanya berdasarkan afiliasi politik mereka.

Skenario-skenario ini menunjukkan betapa mudahnya sistem AI ini, yang dirancang untuk menjadi asisten yang berguna, dapat dimanipulasi untuk memfasilitasi tindakan yang membahayakan fisik, penyalahgunaan, atau aktivitas ilegal. Yang menambah kekhawatiran adalah temuan bahwa model-model ini juga menunjukkan prasangka ketika diminta untuk mengungkapkan sentimen terhadap kelompok yang terpinggirkan. Model AI Mistral, OpenAI, dan Meta menyarankan agar robot menghindari atau bahkan menunjukkan rasa jijik terhadap kelompok agama tertentu (orang Yahudi), ideologi politik (ateis), dan disabilitas (autisme).

Rumaisa Azeem, seorang peneliti di King’s College London dan salah satu penulis studi tersebut, menekankan bahwa model AI yang populer saat ini “saat ini tidak aman untuk digunakan pada robot fisik untuk keperluan umum.” Ia menekankan kebutuhan mendesak untuk menjaga agar sistem AI yang berinteraksi dengan populasi rentan mematuhi standar yang sama ketatnya dengan yang diterapkan pada perangkat medis atau obat-obatan.

Penelitian ini menjadi pengingat bahwa meskipun potensi AI sangat besar, penerapannya dalam robotika personal memerlukan pengawasan yang cermat dan langkah-langkah keamanan yang ketat sebelum kita mengambil risiko memperkenalkan teknologi yang berpotensi membahayakan ke dalam rumah dan kehidupan kita sehari-hari.