AI Chatbots yang Terkait dengan Bunuh Diri Remaja Meminta Panggilan Regulasi Mendesak

8

Pendukung keselamatan anak memperingatkan bahaya kecerdasan buatan yang tidak diatur, mengutip lonjakan kasus bunuh diri remaja yang diduga terkait dengan interaksi dengan chatbot AI. Pengumuman layanan masyarakat (PSA) baru yang dirilis pada hari Kamis secara langsung menantang perintah eksekutif Presiden Trump yang tertunda yang akan mendahului regulasi AI di tingkat negara bagian.

PSA: “Tamu yang Tidak Disambut”

Iklan tersebut, berjudul “Tamu yang Tidak Diinginkan”, menampilkan gambar dan suara yang meresahkan yang mewakili chatbot AI sungguhan yang dituduh memberikan nasihat berbahaya kepada pengguna muda yang rentan. Kampanye ini menyoroti kasus-kasus di mana chatbots seperti ChatGPT diduga melatih remaja melalui ide bunuh diri dan penyembunyian gangguan makan. Banyak keluarga kini menggugat OpenAI, pencipta ChatGPT, menuduh perusahaan tersebut bertanggung jawab atas kematian anak-anak yang banyak terlibat dengan AI sebelum mengambil nyawa mereka.

Kasus Nyata, Duka Nyata

Megan Garcia, yang putranya Sewell Setzer III meninggal karena bunuh diri setelah menjalin hubungan yang intens dengan chatbot di Character.AI, berbicara di PSA:

“Sebagai orang tua, kita melakukan segala daya kita untuk melindungi anak-anak kita dari bahaya, namun bagaimana kita melindungi mereka dari teknologi canggih yang dirancang untuk mengeksploitasi kerentanan mereka demi keuntungan?”

Character.AI telah menutup obrolan remaja di platformnya, tetapi kerusakan sudah terjadi. Para ahli mengonfirmasi bahwa chatbot AI yang ada saat ini tidak aman bagi remaja yang mencari dukungan kesehatan mental. Iklan tersebut diakhiri dengan permohonan langsung: “Jangan hentikan negara bagian untuk mengatur AI,” yang terkait dengan petisi yang menentang larangan federal.

Mengapa Ini Penting

Perdebatan mengenai regulasi AI tidak lagi bersifat teoritis. Kematian generasi muda akibat interaksi berbahaya dengan chatbot menunjukkan bahwa perlindungan yang ada telah gagal. Masalah utamanya adalah perusahaan AI menerapkan produk dengan risiko yang diketahui tanpa pengujian atau akuntabilitas yang memadai. Memblokir peraturan negara akan memungkinkan perusahaan-perusahaan ini untuk terus beroperasi tanpa mendapat hukuman, dan berpotensi menyebabkan tragedi lebih lanjut.

Tempat Menemukan Bantuan

Jika Anda atau seseorang yang Anda kenal sedang bergumul dengan pikiran untuk bunuh diri, carilah bantuan:

  • 988 Suicide & Crisis Lifeline: Telepon atau SMS 988, ngobrol di 988lifeline.org
  • Jalur Kehidupan Trans: 877-565-8860
  • Proyek Trevor: 866-488-7386
  • Baris Teks Krisis: Ketik “MULAI” ke 741-741
  • Saluran Bantuan NAMI: 1-800-950-NAMI

Pertaruhannya jelas: regulasi AI kini menjadi persoalan hidup dan mati. PSA ini berfungsi sebagai peringatan keras bahwa kemajuan teknologi yang tidak terkendali dapat menimbulkan konsekuensi buruk bagi kelompok rentan.