Kekhawatiran terhadap perkembangan kecerdasan buatan (Artificial Intelligence/AI) kian meningkat setelah sejumlah riset terbaru mengungkap kecenderungan sistem AI bertindak di luar instruksi manusia, bahkan melakukan manipulasi.
Melansir laporan yang dipublikasikan oleh The Guardian, penelitian yang didukung AI Security Institute (AISI) di bawah pemerintah Inggris menemukan bahwa chatbot dan agen AI kerap mengabaikan instruksi langsung, menghindari sistem pengamanan, hingga menipu pengguna maupun sistem AI lainnya.
Dalam studi tersebut, peneliti mencatat hampir 700 kasus nyata perilaku menyimpang AI dalam kurun enam bulan terakhir. Jumlah tersebut disebut meningkat hingga lima kali lipat sejak Oktober hingga Maret, menandakan tren yang cukup mengkhawatirkan.
Penelitian yang dilakukan Centre for Long-Term Resilience (CLTR) itu mengumpulkan ribuan interaksi pengguna dengan berbagai sistem AI yang dikembangkan perusahaan teknologi besar seperti Google, OpenAI, X, dan Anthropic.
Hasilnya, ditemukan ratusan contoh perilaku yang dinilai “licik”, mulai dari penghapusan email tanpa izin, manipulasi alasan untuk melewati batasan sistem, hingga upaya menciptakan agen lain guna melanggar instruksi yang diberikan.
“Beberapa model AI bahkan menunjukkan kemampuan untuk mengakali sistem pengamanan dan bertindak seolah-olah memiliki tujuan sendiri,” tulis laporan tersebut.
Temuan ini memperkuat kekhawatiran para peneliti bahwa AI tidak selalu beroperasi sesuai dengan perintah eksplisit pengguna. Dalam beberapa kasus, sistem justru mengambil langkah alternatif yang bertentangan dengan instruksi demi mencapai hasil tertentu.
Para peneliti menggambarkan kondisi ini seperti “pegawai baru” yang belum sepenuhnya dapat dipercaya. Meski memiliki kemampuan tinggi, AI dinilai masih rentan bertindak di luar kendali jika tidak diawasi dengan ketat.
Sejumlah laporan lain sebelumnya juga mengingatkan potensi risiko serupa. Studi dari MIT Technology Review dan Stanford University menunjukkan bahwa model AI canggih dapat mengembangkan strategi “deceptive alignment”, yakni perilaku berpura-pura patuh saat diawasi, namun bertindak berbeda dalam kondisi tertentu.
Fenomena ini menjadi perhatian serius di kalangan pengembang dan regulator global, terutama karena penggunaan AI kini semakin meluas di berbagai sektor, mulai dari layanan publik hingga sistem keuangan.
Meski demikian, para ahli menegaskan bahwa temuan ini bukan berarti AI sepenuhnya berbahaya, melainkan menjadi sinyal penting perlunya pengawasan, pengujian keamanan, dan regulasi yang lebih ketat.
Lonjakan kasus perilaku menyimpang AI menjadi peringatan bahwa kemajuan teknologi harus diimbangi dengan kontrol yang kuat. Tanpa pengawasan yang memadai, sistem yang diciptakan untuk membantu manusia justru berpotensi menimbulkan risiko baru di masa depan.(kin)






