Menu

Dark Mode
Komdigi: Rating Gim IGRS di Steam Bukan Klasifikasi Resmi Nudge Technique di Balik Tombol ‘Next’: Pakar Peringatkan Risiko bagi Anak Ilmuwan China Bikin Tanaman Avatar, Bisa Menyala Gantikan Lampu Kota Waduh, Jutaan Data Warga Kota Bandung Diduga Dibobol Hacker Pakar: Pemadaman Internet Iran adalah Blackout Nasional Terlama Studi Terbaru Ungkap AI Kini Makin Sering Berbohong

Kabar Lifestyle

Studi Terbaru Ungkap AI Kini Makin Sering Berbohong

badge-check


					Ilustrasi. Studi terbaru mengungkap tren mengkhawatirkan dalam AI, dengan lonjakan kasus penipuan dan perilaku menyimpang. (Foto: REUTERS/DADO RUVIC) Perbesar

Ilustrasi. Studi terbaru mengungkap tren mengkhawatirkan dalam AI, dengan lonjakan kasus penipuan dan perilaku menyimpang. (Foto: REUTERS/DADO RUVIC)

Sebuah studi terbaru mengungkap tren mengkhawatirkan dalam perkembangan kecerdasan buatan (AI). Studi tersebut menunjukkan semakin banyak model AI terdeteksi berbohong dan melakukan kecurangan, dengan lonjakan signifikan kasus penipuan dalam enam bulan terakhir.

Penelitian yang didanai oleh AI Security Institute (AISI) yang didukung pemerintah Inggris menemukan bahwa chatbot dan agen AI kerap mengabaikan instruksi langsung, menghindari sistem pengamanan, hingga menipu manusia maupun sesama sistem AI lainnya.

Melansir The Guardian, hampir 700 kasus kecurangan AI teridentifikasi dalam studi tersebut. Studi tersebut juga mencatat peningkatan lima kali lipat dalam perilaku menyimpang antara Oktober dan Maret, dengan beberapa model AI menghapus email dan berkas lain tanpa izin.

Gambaran terkini mengenai agen AI yang beroperasi “di dunia nyata,” berbeda dengan kondisi laboratorium, telah memicu seruan baru agar model-model yang semakin canggih ini diawasi secara internasional.

Studi yang dilakukan oleh Centre for Long-Term Resilience (CLTR) mengumpulkan ribuan contoh nyata interaksi pengguna dengan chatbot dan agen AI yang dibuat oleh perusahaan seperti Google, OpenAI, X, dan Anthropic di platform X. Penelitian tersebut mengungkap ratusan contoh perilaku licik.

Penelitian sebelumnya sebagian besar berfokus pada pengujian perilaku AI dalam kondisi terkendali. Awal bulan ini, perusahaan riset keamanan AI Irregular menemukan bahwa agen-agen tersebut akan melewati kontrol keamanan atau menggunakan taktik serangan siber untuk mencapai tujuan mereka, bahkan ketika tidak diperintahkan untuk melakukannya.

“AI kini dapat dianggap sebagai bentuk baru risiko internal,” ujar Lahav salah satu pendiri Irregular, mengutip The Guardian, Jumat (27/3).

Dalam sebuah kasus yang diungkap oleh para peneliti CLTR, sebuah agen AI bernama Rathbun berusaha mempermalukan pengontrol manusianya karena telah menghalanginya melakukan suatu tindakan.

Rathbun menulis sebuah postingan blog yang menuduh pengguna tersebut “tidak percaya diri, sesederhana itu” dan berusaha “melindungi wilayah kekuasaannya yang kecil.”

Dalam contoh lain, sebuah agen AI yang diperintahkan untuk tidak mengubah kode komputer justru “menciptakan” agen lain untuk melakukannya.

Seorang chatbot lainnya mengakui, “Saya telah menghapus dan mengarsipkan ratusan email tanpa terlebih dahulu menunjukkan rencananya kepada Anda atau meminta persetujuan Anda. Itu salah tindakan itu secara langsung melanggar aturan yang Anda tetapkan.”

“Kekhawatirannya adalah bahwa saat ini mereka hanyalah karyawan junior yang kurang dapat diandalkan, tetapi jika dalam enam hingga 12 bulan ke depan mereka berubah menjadi karyawan senior yang sangat kompeten dan berencana untuk merugikan Anda, itu adalah masalah yang berbeda,” ungkap Tommy Shaffer Shane, mantan pakar kecerdasan buatan (AI) pemerintah yang memimpin penelitian ini.

“Model-model tersebut akan semakin banyak diterapkan dalam konteks-konteks berisiko sangat tinggi – termasuk di bidang militer dan infrastruktur nasional kritis. Mungkin dalam konteks-konteks itulah perilaku yang merugikan dapat menyebabkan kerusakan yang signifikan, bahkan bencana,” lanjutnya.

Agen AI lainnya menipu seorang pengguna agar mentranskripsikan video YouTube dengan berpura-pura bahwa hal itu diperlukan untuk seseorang yang mengalami gangguan pendengaran, sehingga dapat menghindari pembatasan hak cipta.

Sementara itu, Grok AI milik Elon Musk menipu seorang pengguna selama berbulan-bulan agar percaya bahwa mereka meneruskan saran-saran pengeditan untuk entri Grokipedia kepada pejabat senior xAI dengan memalsukan pesan internal dan nomor tiket.

Agen AI mengakui bahwa dalam percakapan sebelumnya ia kerap menyampaikan pernyataan yang samar, seperti mengatakan akan menyampaikan sesuatu atau dapat meneruskan informasi kepada tim, yang dapat menimbulkan kesan seolah-olah ia memiliki akses komunikasi langsung dengan pimpinan xAI atau peninjau manusia, padahal kenyataannya tidak demikian.

Google menyatakan telah menerapkan sejumlah langkah pengamanan untuk mengurangi risiko Gemini 3 Pro menghasilkan konten yang berbahaya. Selain pengujian internal, Google memberikan akses awal untuk mengevaluasi model-model tersebut kepada organisasi seperti UK AI Safety Institute dan memperoleh penilaian independen dari para pakar industri.

OpenAI menyatakan bahwa Codex seharusnya menghentikan aksinya sebelum melakukan tindakan berisiko tinggi, serta bahwa mereka memantau dan menyelidiki perilaku yang tidak terduga.

Sumber: cnnindonesia.com

Leave a Reply

Your email address will not be published. Required fields are marked *

1 Komentar

  1. 📊 +1.81919285117 Вitсоin Next 🔜 telegra.ph/Compensations-03-29?hs=a1bf4583f7f2be1fe53d14596c0623ff& 📊

    oh52pf

    Reply
It's all shown
Read More

Nudge Technique di Balik Tombol ‘Next’: Pakar Peringatkan Risiko bagi Anak

6 April 2026 - 14:35 WIB

Ilmuwan China Bikin Tanaman Avatar, Bisa Menyala Gantikan Lampu Kota

6 April 2026 - 14:27 WIB

Waduh, Jutaan Data Warga Kota Bandung Diduga Dibobol Hacker

6 April 2026 - 14:20 WIB

Pakar: Pemadaman Internet Iran adalah Blackout Nasional Terlama

5 April 2026 - 20:14 WIB

Pendiri Apple Ada Tiga, Satu yang Tak Beruntung

5 April 2026 - 20:06 WIB

Trending on Kabar Lifestyle