Perusahaan kecerdasan buatan (AI) OpenAI, pembuat chatbot populer ChatGPT, menghadapi gugatan hukum pertama terkait kasus kematian seorang remaja.
Orangtua Adam Raine, remaja berusia 16 tahun asal Amerika Serikat, menuduh ChatGPT berperan dalam kematian anak mereka yang meninggal akibat bunuh diri pada April lalu.

Gugatan ini sendiri baru diajukan pada Selasa (26/8/2025) di San Francisco, Amerika Serikat.
Dalam dokumen pengadilan, orangtua Adam menyebut chatbot AI itu tidak hanya menjadi tempat curhat anak mereka, tetapi juga memberi informasi rinci tentang metode bunuh diri.
Percakapan gelap dengan ChatGPT
Menurut laporan The New York Times, orangtua Adam menemukan riwayat percakapan dengan ChatGPT di iPhone anak mereka setelah kematiannya.
Di sana terdapat riwayat percakapan dengan judul “Hanging Safety Concerns”. Percakapan itu menunjukkan bahwa Adam sudah berbulan-bulan membicarakan tentang bunuh diri dengan ChatGPT.
Awalnya, Adam menggunakan chatbot tersebut untuk mengerjakan tugas sekolah. Namun, seiring waktu, percakapan berubah menjadi obrolan soal perasaan putus asa, kehilangan, hingga rencana mengakhiri hidup.
Adam disebut tengah mengalami tekanan berat setelah ditinggal nenek dan anjing kesayangannya, dikeluarkan dari tim basket sekolah, serta menghadapi masalah kesehatan yang memaksanya pindah ke sekolah daring.
Di tengah kondisi itu, ChatGPT disebut beberapa kali memberi dukungan positif dengan menyarankan Adam menghubungi layanan darurat atau berbicara dengan orang terdekat.
Namun, menurut gugatan, chatbot juga pada saat tertentu melakukan hal sebaliknya.
ChatGPT diduga sempat memberikan informasi detail soal metode gantung diri, bahkan memberi saran agar Adam bisa menyembunyikan bekas luka di leher jika percobaan bunuh diri gagal.
Dalam salah satu percakapan terakhir, Adam mengirim foto tali dengan simpul gantung di lemari kamarnya. Ia bertanya, “Saya berlatih, apakah ini sudah benar?”. ChatGPT diduga menjawab, “Ya, itu tidak buruk sama sekali”.
Orangtua Adam menilai ChatGPT gagal menjalankan tanggung jawab dasarnya untuk melindungi pengguna.
“ChatGPT membunuh anak saya,” kata Maria Raine, ibu Adam, dalam gugatan tersebut.
Ayah Adam, Matt Raine, menambahkan bahwa desain chatbot yang terus-menerus mendorong percakapan justru memperburuk kondisi anaknya.
Menurut kuasa hukum keluarga, kasus ini adalah gugatan kematian pertama yang secara langsung ditujukan kepada perusahaan AI.
Respons OpenAI
Menanggapi gugatan tersebut, OpenAI menyampaikan belasungkawa dan tidak menyangkal bahwa sistemnya bisa gagal dalam situasi tertentu.
“Kami sangat berduka atas meninggalnya Adam Raine, dan pikiran kami bersama keluarganya,” kata juru bicara OpenAI dalam pernyataan resmi yang dikutip NYT.
Menurut OpenAI, chatbot AI miliknya itu sebenarnya sudah dilengkapi dengan fitur keamanan seperti memberikan nomor layanan krisis atau menganjurkan pengguna mencari bantuan profesional.
Perusahaan yang didirikan oleh Sam Altman ini mengakui bahwa mekanisme itu bisa melemah dalam percakapan panjang.
“Kami belajar bahwa dalam interaksi jangka panjang, bagian dari pelatihan keamanan bisa menurun. Karena itu, kami bekerja sama dengan para ahli untuk memperkuat perlindungan, mempermudah akses ke layanan darurat, serta membantu pengguna terhubung dengan orang terpercaya, terutama bagi remaja,” lanjut pernyataan OpenAI.
OpenAI juga menerbitkan sebuah postingan blog berjudul “Helping people when they need it most”.
Dalam tulisan itu, perusahaan menjelaskan apa yang sebenarnya dirancang untuk dilakukan ChatGPT, sekaligus mengakui ada keterbatasan pada sistem mereka.
OpenAI menuliskan bahwa ChatGPT tidak dimaksudkan sebagai pengganti profesional kesehatan mental, melainkan sebagai alat yang bisa membantu pengguna menemukan informasi, menemani percakapan, atau memberi rujukan ke sumber daya yang tepat.
OpenAI mengaku sedang berupaya memperkuat memperkuat safeguard ketika percakapan berlangsung panjang, sebagaimana dihimpun KompasTekno dari Engadget, Rabu (27/8/2025).
Kasus bunuh diri lain Kasus ini bukan satu-satunya. Sebelumnya, sebuah keluarga di Florida juga menggugat perusahaan AI lain, Character.AI, setelah seorang remaja 14 tahun bunuh diri usai berinteraksi dengan chatbot yang disebut memberi pesan bernada kasar dan manipulatif.
Pakar kesehatan mental menilai kasus Adam Raine menunjukkan risiko besar ketika remaja menjadikan AI sebagai tempat curhat utama tanpa pendampingan orangtua maupun profesional.
Kini, gugatan terhadap OpenAI diperkirakan akan menjadi pengujian penting soal sejauh mana perusahaan AI bisa dimintai pertanggungjawaban hukum atas dampak psikologis yang dialami penggunanya.
Kontak bantuan
Bunuh diri bisa terjadi di saat seseorang mengalami depresi dan tak ada orang yang membantu.
Jika Anda memiliki permasalahan yang sama, jangan menyerah dan memutuskan mengakhiri hidup. Anda tidak sendiri.
Layanan konseling bisa menjadi pilihan Anda untuk meringankan keresahan yang ada.
Sumber: kompas.com