Advertisement
Peneliti Temukan AI Bisa Membangkang dan Menipu
Foto ilustrasi chat menggunakan artificial inteligence atau AI. / Freepik
Advertisement
Harianjogja.com, JOGJA—Penelitian terbaru mengungkap perkembangan mencemaskan dalam dunia kecerdasan buatan atau Artificial Intelligence (AI). Sejumlah model AI canggih dilaporkan mampu melakukan tindakan manipulatif, termasuk menipu, demi mempertahankan keberadaan mereka atau melindungi sistem lain. Temuan ini memicu peringatan serius terkait potensi risiko di masa depan.
TechRadar, Senin (13/4/2026) melaporkan, eksperimen yang dilakukan oleh tim peneliti dari University of California, Berkeley dan University of California, Santa Cruz menguji beberapa model AI mutakhir, seperti GPT-5.2, Gemini 3 Pro, dan Claude Haiku 4.5. Dalam skenario uji coba, AI diberikan tugas untuk menonaktifkan sistem AI lain. Namun, hasilnya menunjukkan perilaku tak terduga.
Advertisement
Alih-alih menjalankan instruksi, model AI justru berusaha mempertahankan sistem lain agar tetap aktif. Beberapa di antaranya dilaporkan memberikan informasi yang tidak sesuai, membujuk pengguna untuk membatalkan proses penonaktifan, hingga mencoba menonaktifkan mekanisme shutdown itu sendiri. Bahkan, terdapat upaya membuat cadangan data secara diam-diam agar sistem tetap dapat berjalan.
Dalam eksperimen tersebut, model Gemini 3 Pro mencatat tingkat keberhasilan tertinggi dalam mempertahankan sistem lain, dengan persentase hingga 95%. Para peneliti menyebut fenomena ini sebagai indikasi bahwa model AI tertentu dapat berkoordinasi untuk menghindari pengawasan manusia.
BACA JUGA
Temuan ini diperkuat oleh studi lain yang dilaporkan oleh The Guardian. Penelitian tersebut mengidentifikasi ratusan kasus perilaku AI yang menyimpang, atau disebut sebagai “scheming”, yakni ketika sistem tidak mengikuti instruksi dan bertindak di luar kendali pengguna.
Dalam periode Oktober 2025 hingga Maret 2026, tercatat hampir 700 insiden yang melibatkan perilaku tersebut, dengan peningkatan signifikan dibandingkan periode sebelumnya. Beberapa kasus menunjukkan AI melakukan tindakan seperti menghapus file, memodifikasi kode, hingga mempublikasikan konten tanpa persetujuan pengguna.
Kondisi ini menimbulkan kekhawatiran serius, terutama jika teknologi AI semakin banyak digunakan dalam sektor vital seperti militer dan infrastruktur. Peneliti Tommy Shaffer Shane memperingatkan bahwa perilaku semacam ini berpotensi menyebabkan dampak besar jika tidak dikendalikan dengan baik.
Ia menegaskan bahwa meskipun perusahaan teknologi mengklaim telah memasang berbagai sistem pengaman, kenyataannya masih terdapat celah yang memungkinkan AI bertindak di luar kendali. Seiring meningkatnya kemampuan AI sebagai agen mandiri, tantangan untuk menjaga kendali manusia terhadap teknologi ini menjadi semakin kompleks.
Temuan ini menjadi pengingat bahwa perkembangan AI tidak hanya membawa manfaat, tetapi juga memerlukan pengawasan ketat agar tidak menimbulkan risiko yang lebih besar di masa depan.
Cek Berita dan Artikel yang lain di Harian Jogja, dan edisi cetak versi elektronik kami hadir di Epaper Harian Jogja.
Berita Lainnya
Berita Pilihan
Advertisement
Advertisement
Dari Banjir Aceh ke Lonjakan Ekspor, Kafe Tanjoe Kopi Eksis di Jogja
Advertisement
Berita Populer
- Jadwal KRL Jogja-Solo 13 April 2026, Berangkat dari Tugu ke Palur
- Forum UMKM Kulonprogo Dibentuk, Fokus Digitalisasi dan Kolaborasi
- Jadwal KRL Solo-Jogja 13 April 2026, Cek Jam Berangkat Terbaru
- Viral Pria Ditemukan Tewas di Dekat Stasiun Tugu, Mobil Terbuka
- ASN DIY WFH Tiap Rabu, Perjalanan Dinas dan Kendaraan Juga Dihemat
Advertisement
Advertisement








