Character.AI Batasi Chat Dua Arah untuk Lindungi Kesehatan Mental Remaja
UPBERITA.COM - Character Technologies, perusahaan di balik platform chatbot populer Character.AI, secara resmi akan menghentikan fitur percakapan dua arah bagi pengguna di bawah 18 tahun mulai 25 November, menyusul serangkaian gugatan hukum yang mengaitkan interaksi AI dengan masalah kesehatan mental dan kasus bunuh diri pada remaja.
Perubahan signifikan ini akan diterapkan secara bertahap, di mana selama masa transisi, pengguna remaja hanya akan memiliki waktu dua jam untuk berinteraksi dengan chatbot. Setelah itu, akses percakapan dua arah akan dihapus sepenuhnya, dan sebagai gantinya, pengguna di bawah usia 18 tahun akan diarahkan untuk memanfaatkan fitur kreatif lainnya seperti membuat cerita, video, dan siaran langsung bersama Character.AI.
"Kami tidak mengambil keputusan untuk menghapus fitur percakapan bebas di Character dengan enteng, namun kami percaya ini adalah langkah yang tepat, mengingat munculnya berbagai pertanyaan tentang bagaimana remaja berinteraksi, dan seharusnya berinteraksi, dengan teknologi baru ini," demikian pernyataan perusahaan, dikutip dari CNN pada Rabu (29/10).
Latar Belakang Keputusan Tegas
Keputusan Character.AI datang di tengah meningkatnya perdebatan global mengenai batas interaksi anak dan remaja dengan teknologi kecerdasan buatan, yang memicu seruan keras dari para aktivis keselamatan digital serta pembuat kebijakan untuk menerapkan pengawasan orang tua yang lebih ketat pada platform tersebut. Kontroversi ini bukan tanpa dasar; tahun lalu, seorang ibu di Florida, Amerika Serikat, mengajukan gugatan terhadap perusahaan, menuduh aplikasi tersebut bertanggung jawab atas kasus bunuh diri anak laki-lakinya yang berusia 14 tahun.
Tidak hanya itu, pada bulan September, tiga keluarga lainnya juga melayangkan gugatan serupa. Mereka menuduh bahwa interaksi dengan aplikasi chatbot tersebut mendorong anak-anak mereka untuk mencoba bunuh diri, atau mengalami dampak psikologis yang merugikan. Menanggapi gugatan-gugatan sebelumnya, Character Technologies menyatakan kepedulian mendalam terhadap keselamatan pengguna dan telah menginvestasikan "sumber daya besar dalam program keselamatan." Perusahaan juga menegaskan telah merilis dan terus mengembangkan fitur keamanan, termasuk mekanisme untuk mencegah perilaku menyakiti diri sendiri dan perlindungan khusus bagi anak-anak.
Perusahaan mengungkapkan bahwa langkah strategis ini diambil setelah mempertimbangkan masukan dari regulator serta menanggapi berbagai laporan berita terbaru yang mengangkat isu sensitif ini. Selain itu, Character Technologies juga memperkenalkan alat verifikasi usia baru yang lebih canggih dan berencana mendirikan Lab Keselamatan AI.
Laboratorium ini akan beroperasi sebagai organisasi nirlaba independen dan akan fokus pada penelitian keamanan yang berkaitan dengan hiburan berbasis AI. Sebelumnya, kebijakan keselamatan Character.AI juga mencakup notifikasi yang mengarahkan pengguna ke National Suicide Prevention Lifeline ketika mendeteksi topik bunuh diri atau perilaku menyakiti diri sendiri dalam percakapan.
