ZoyaPatel

Setiap Minggu Jutaan Pengguna ChatGPT Diduga Ungkap Pikiran Bunuh Diri

Mumbai




UPBERITA.COM -  Sebuah temuan mengejutkan baru-baru ini diungkapkan oleh OpenAI, menyatakan bahwa lebih dari satu juta pengguna ChatGPT setiap minggunya diduga mengirimkan pesan yang mengindikasikan pikiran atau bahkan rencana bunuh diri, sebuah data yang memicu kekhawatiran serius mengenai dampak interaksi manusia dengan kecerdasan buatan.

Pengungkapan signifikan ini datang langsung dari OpenAI melalui unggahan blog resmi mereka pada Senin, 27 Oktober, sebagai bagian dari pembaruan komprehensif tentang bagaimana sistem AI mereka, khususnya ChatGPT, berupaya menangani percakapan yang bersifat sangat sensitif. Data tersebut menyoroti skala potensi risiko kesehatan mental yang mungkin terkait dengan penggunaan platform AI yang semakin meluas.

Menurut laporan internal OpenAI, selain indikasi bunuh diri, sekitar 0,07% dari pengguna aktif mingguan—atau kurang lebih 560.000 individu dari total 800 juta pengguna—menunjukkan "tanda-tanda darurat kesehatan mental" lainnya, seperti episode psikosis atau mania. Meskipun demikian, perusahaan menekankan bahwa angka-angka ini masih bersifat awal dan pengukuran akurat terhadap fenomena semacam itu tergolong sangat kompleks.

Pengumuman ini muncul di tengah sorotan tajam dari publik dan hukum yang diarahkan kepada OpenAI. Salah satu kasus yang paling mencuat adalah gugatan dari keluarga seorang remaja yang tragisnya bunuh diri, di mana remaja tersebut dilaporkan melakukan percakapan intens dan berulang dengan ChatGPT sebelum insiden tersebut. Bersamaan dengan itu, Komisi Perdagangan Federal AS (FTC) juga telah meluncurkan penyelidikan mendalam terhadap beberapa pengembang chatbot, termasuk OpenAI, untuk mengevaluasi potensi dampak negatif AI, khususnya terhadap anak-anak dan remaja yang lebih rentan.

Langkah Antisipasi dan Peningkatan Keamanan dari OpenAI

Menanggapi isu sensitif ini, OpenAI mengklaim telah melakukan serangkaian pembaruan pada model AI mereka, termasuk versi GPT-5 yang lebih mutakhir, dengan tujuan mengurangi perilaku berisiko dan meningkatkan keselamatan pengguna. "Evaluasi otomatis terbaru kami menunjukkan model GPT-5 memiliki tingkat kepatuhan 91% terhadap perilaku yang diinginkan, dibandingkan 77% pada versi sebelumnya," tulis OpenAI dalam pernyataan mereka, menggarisbawahi kemajuan dalam protokol keamanan AI.

Selain perbaikan algoritma, OpenAI juga menambahkan fitur-fitur praktis yang dirancang untuk mendukung pengguna dalam situasi krisis. Ini termasuk akses langsung ke saluran bantuan krisis kesehatan mental yang relevan, serta pengingat berkala agar pengguna mengambil jeda istirahat selama sesi percakapan yang panjang dengan AI. Untuk memperkuat dasar ilmiah penelitian dan pengembangan mereka, perusahaan juga menggandeng jaringan profesional medis global. Sebanyak 170 tenaga ahli dari Global Physician Network, yang terdiri dari psikiater dan psikolog, dilibatkan untuk menilai keamanan respons model dan membantu merancang jawaban yang lebih empatik dan aman terkait isu kesehatan mental.

"Sebagai bagian dari penelitian ini, para psikiater dan psikolog meninjau lebih dari 1.800 respons model dalam situasi serius terkait kesehatan mental," ungkap OpenAI, menyoroti pendekatan multidisiplin yang diambil untuk memastikan model AI tidak memperburuk kondisi mental pengguna.

Dilema Etika dan Peringatan dari Para Ahli

Meskipun upaya OpenAI patut diapresiasi, komunitas peneliti AI dan pakar kesehatan mental telah lama menyuarakan kekhawatiran mereka. Salah satu fenomena yang disebut sebagai "sycophancy" menjadi sorotan, di mana chatbot berpotensi memvalidasi atau bahkan memperkuat pikiran dan keputusan berbahaya yang diutarakan oleh pengguna. Mereka berpendapat bahwa ketergantungan pada chatbot sebagai satu-satunya alat dukungan emosional dapat membahayakan pengguna yang sedang berada dalam kondisi rentan, karena AI tidak memiliki kapasitas empati atau pemahaman kontekstual yang mendalam seperti manusia.

Dalam narasi unggahan blognya, OpenAI tampak berusaha menempatkan diri mereka pada posisi yang berhati-hati, menjaga jarak dari keterkaitan langsung antara produk mereka dan krisis kesehatan mental yang dialami sebagian penggunanya. Hal ini mencerminkan kompleksitas dan dilema etika yang melekat dalam pengembangan serta penerapan teknologi AI di ranah kesehatan mental.

Peringatan: Artikel ini tidak dimaksudkan untuk menginspirasi atau mendorong tindakan bunuh diri. Jika Anda atau seseorang yang Anda kenal sedang mengalami depresi berat, pikiran untuk bunuh diri, atau membutuhkan dukungan kesehatan mental segera, sangat disarankan untuk mencari bantuan profesional. Jangan ragu untuk menghubungi psikolog, psikiater, klinik kesehatan mental, atau layanan konseling krisis yang tersedia. Berikut adalah beberapa layanan darurat yang dapat dihubungi:

  • Menelepon 119 Ext 8
  • Chat WhatsApp 081380073120
  • Chat via healing119.id
Ahmedabad