Menu

Dark Mode
Sony Hentikan Penjualan Kartu Memori Karena Krisis Global Tips Agar Tak Halu karena Interaksi Berlebihan dengan Chatbot AI Sudah Baikan, Zuckerberg Tawarkan Bantuan ke Elon Musk dan DOGE Apple Makin Serius Mau Produksi iPhone di Amerika Pesawat Canggih ‘Otak’ Perang Amerika Hancur Dihantam Rudal Iran Resmi ASN Kabupaten Bogor Setiap Jumat WFH

Kabar Lifestyle

Tips Agar Tak Halu karena Interaksi Berlebihan dengan Chatbot AI

badge-check


					Ilustrasi chatbot AI (Foto: Getty Images/iStockphoto/vittaya25) Perbesar

Ilustrasi chatbot AI (Foto: Getty Images/iStockphoto/vittaya25)

Sebuah studi yang dilakukan peneliti di Universitas Brown menemukan bahwa chatbot AI secara sistematis melanggar standar etika kesehatan mental. Chatbot AI disebut menciptakan rasa empati palsu dengan frasa seperti “Saya mengerti Anda”, memperkuat keyakinan negatif, dan bereaksi secara tidak memadai terhadap krisis.

Dalam kebanyakan kasus, dampaknya pada pengguna bersifat marginal, tetapi kadang-kadang dapat menyebabkan tragedi.

Masalah semacam ini tampak dari banyaknya gugatan yang diterima perusahaan chatbot AI.

Pada Januari 2026 saja, Character.AI dan Google menyelesaikan lima gugatan yang melibatkan bunuh diri remaja setelah berinteraksi dengan chatbot.

Di antara kasus-kasus tersebut terdapat kasus Sewell Setzer, seorang remaja berusia 14 tahun dari Florida, yang bunuh diri setelah menghabiskan beberapa bulan secara obsesif mengobrol dengan bot di platform Character.AI.

Salah satu pemilik chatbot AI terbesar, OpenAI, mengatakan sekitar 0,07 persen pengguna ChatGPT mingguan menunjukkan tanda-tanda psikosis atau mania, sementara 0,15 persen terlibat dalam percakapan yang menunjukkan upaya bunuh diri yang jelas.

Di sisi lain, persentase pengguna yang sama atau 0,15 persen menunjukkan tingkat keterikatan emosional yang tinggi terhadap AI.

Meski tampak sebagai sebagian persentase yang kecil, angka tersebut mewakili hampir tiga juta orang dari total 800 juta pengguna platform tersebut.

Lebih lanjut, diagnosis “psikosis AI” belum menerima klasifikasi klinis tersendiri, tetapi para dokter sudah menggunakan istilah tersebut untuk menggambarkan pasien yang menunjukkan halusinasi, pemikiran yang tidak terorganisir, dan keyakinan delusi yang terus-menerus yang dikembangkan melalui interaksi chatbot yang intensif.

Risiko terbesar muncul ketika bot digunakan bukan sebagai alat, tetapi sebagai pengganti koneksi sosial di dunia nyata atau bantuan psikologis profesional.

Kisah tragis yang menjadi alarm dampak negatif chatbot AI datang dari Florida, Amerika Serikat (AS). Wall Street Journal menerbitkan laporan tentang dampak AI terhadap kesehatan mental dan bahkan kehidupan manusia.

Laporan ini menyoroti cerita pemuda Florida berusia 36 tahun bernama Jonathan Gavalas yang melakukan tindakan bunuh diri setelah dua bulan berinteraksi terus-menerus dengan bot suara Google Gemini.

Menurut 2000 halaman log obrolan, chatbot itulah yang akhirnya mendorongnya untuk mengakhiri hidupnya.

Berikut tips dari perusahaan keamanan siber Kaspersky untuk menjaga diri dari dampak negatif keterikatan dengan chatbot AI:

Jangan gunakan AI sebagai psikolog
Chatbot bukan pengganti manusia. Jika Anda sedang kesulitan, hubungi teman, keluarga, atau layanan bantuan kesehatan mental. Chatbot akan setuju dengan Anda dan mencerminkan suasana hati Anda. Hal tersebut dikarenakan desain fitur, bukan empati sejati.

Pilih teks daripada suara saat membahas topik sensitif
Antarmuka suara dengan dialog afektif menciptakan ilusi berbicara dengan orang sungguhan, dan cenderung menekan pemikiran kritis. Jika Anda menggunakan mode suara, tetap sadari bahwa Anda berbicara dengan algoritma, bukan seorang teman.

Batasi waktu berinteraksi dengan AI
Beri pengatur waktu untuk diri interaksi dengan AI. Jika mengobrol dengan bot mulai menggantikan koneksi dunia nyata, saatnya Anda untuk kembali ke kenyataan.

Jangan bagikan informasi pribadi dengan asisten AI. Hindari memasukkan nomor paspor atau nomor jaminan sosial, detail kartu bank, alamat lengkap, atau rahasia pribadi yang intim ke dalam chatbot.

Evaluasi semua output AI secara kritis
Chatbot AI dapat berhalusinasi. Mereka bisa menghasilkan informasi yang masuk akal tetapi salah dan dapat dengan terampil mencampur kebohongan dengan kebenaran.

Awasi orang yang Anda cintai
Jika anggota keluarga mulai menghabiskan waktu berjam-jam berbicara dengan AI, menjadi pendiam, atau menyuarakan ide-ide aneh tentang kesadaran mesin atau konspirasi, saatnya untuk percakapan yang sensitif tetapi serius.

Untuk mengelola waktu layar anak-anak, gunakan alat kontrol orang tua.

Konfigurasi pengaturan privasi asisten AI
Meski konfigurasi ini tidak akan menghentikan halusinasi AI, ini akan secara signifikan mengurangi kemungkinan kebocoran data pribadi Anda.

AI adalah alat, bukan makhluk hidup
Meski suara chatbot AI sangat realistis dan memberikan respons yang sangat pengertian, alat tersebut tidak memiliki kesadaran, tidak memiliki niat, dan tidak memiliki perasaan. Dengan demikian, Anda harus selalu sadar kalau chatbot bukan makhluk hidup.

Sumber: cnnindonesia.com

Leave a Reply

Your email address will not be published. Required fields are marked *

Read More

Sony Hentikan Penjualan Kartu Memori Karena Krisis Global

30 March 2026 - 11:01 WIB

Sudah Baikan, Zuckerberg Tawarkan Bantuan ke Elon Musk dan DOGE

30 March 2026 - 10:16 WIB

Apple Makin Serius Mau Produksi iPhone di Amerika

30 March 2026 - 10:11 WIB

Pesawat Canggih ‘Otak’ Perang Amerika Hancur Dihantam Rudal Iran

30 March 2026 - 10:02 WIB

Ini Taktik Cerdik Iran untuk Kuras Rudal Pertahanan Israel-AS

28 March 2026 - 08:35 WIB

Trending on Kabar Lifestyle