Logo Makna Media
Makna Media
Tema
Berita oleh Muhammad Faishal pada Selasa, 03 Juni 2025 pukul 15.00

PBB Bahas Regulasi Drone Tempur AI: Mencari Batas Antara Inovasi dan Risiko

120 negara bahas regulasi drone tempur AI di PBB, fokus pada perlindungan sipil, hukum humaniter, dan etika global sebelum 2026.

Pada 12 Mei 2025, Perserikatan Bangsa-Bangsa menyelenggarakan sesi informal yang membahas kebutuhan mendesak guna mengatur penggunaan sistem senjata otonom, termasuk drone tempur berbasis kecerdasan buatan (AI). Pertemuan ini dihadiri delegasi dari lebih dari 120 negara anggota, organisasi non-pemerintah, badan kemanusiaan, serta perwakilan industri pertahanan. Tujuan utama pertemuan ini adalah merumuskan langkah konkret untuk mencegah pelanggaran hukum humaniter dan meminimalkan risiko serangan tak terkendali, di tengah pesatnya kemajuan teknologi senjata otonom.

Sekretaris Jenderal PBB, Antonio Guterres, melalui pesan video yang disiarkan pada hari pertama konsultasi, menegaskan bahwa "mesin yang memiliki kuasa dan kebebasan untuk mengambil nyawa tanpa kendali manusia adalah secara politik tidak dapat diterima dan secara moral menjijikkan." Ia menekankan kembali seruan agar instrumen hukum yang mengikat dapat dirampungkan sebelum tahun 2026, demi memastikan bahwa penggunaan drone tempur AI tetap berada di bawah kendali manusia. Guterres juga menggarisbawahi pentingnya kerangka hukum global bagi senjata otonom, yang dikenal dengan istilah Lethal Autonomous Weapons Systems (LAWS).

Dari perspektif advokasi, Human Rights Watch dan kelompok Stop Killer Robots memperingatkan bahwa tanpa tekanan internasional yang kuat, industri pertahanan berpotensi memprioritaskan keuntungan teknologi tanpa mempertimbangkan dampak kemanusiaan. Direktur kampanye Stop Killer Robots, Laura Nolan, menyebutkan bahwa saat ini "tidak ada jaminan industri pertahanan akan mengatur dirinya sendiri secara memadai," dan menegaskan pentingnya pelarangan sistem yang sepenuhnya otonom tanpa intervensi manusia. Pernyataan ini menyoroti lemahnya standar saat ini dalam menghindari potensi pelanggaran hak asasi manusia akibat kesalahan identifikasi target.

Di ranah akademik, para peneliti menitikberatkan prinsip-prinsip FATE — Fairness (Keadilan), Accountability (Akuntabilitas), Transparency (Transparansi), dan Ethics (Etika) — sebagai pijakan etis dalam pengembangan drone tempur AI. Sebuah laporan yang diterbitkan pada Mei 2025 menambahkan elemen traceability (jejak keterlacakan) dan governability (kendali) untuk memastikan setiap serangan dapat diaudit dan manusia tetap memegang kendali akhir. Dalam konsultasi PBB juga dicatat bahwa tanpa mekanisme audit yang kuat, risiko kesalahan fatal di medan tempur dapat berkontribusi pada meningkatnya korban sipil.

Beberapa negara—seperti Amerika Serikat, Inggris, dan Prancis—telah mengembangkan pedoman nasional untuk menguji sistem otonom secara bertahap. Namun, negara-negara ini belum bersedia terikat oleh aturan internasional yang mengikat. Sementara itu, Rusia, China, dan India lebih memilih pedoman sukarela daripadanya perjanjian tertulis. Menurut laporan Reuters, meski kemajuan teknologi terus berlanjut, kesepakatan global tertunda akibat benturan kepentingan strategis nasional.

Sebagai respons, sejumlah anggota PBB mengusulkan protokol tambahan pada Konvensi Jenewa yang mencakup pendaftaran sistem senjata otonom, standar pengujian AI untuk medan tempur, serta kewajiban "human in the loop" untuk setiap tindakan mematikan. Rancangan protokol ini diperkirakan akan diajukan pada pertemuan resmi PBB berikutnya pada September 2025. Jika disetujui, langkah ini akan menjadi tonggak pertama dalam mengikat penggunaan drone tempur AI dengan norma hukum internasional.

Penggunaan drone berbasis AI sudah terlihat dalam berbagai konflik, termasuk di Ukraina dan Gaza. Laporan menunjukkan bahwa Rusia dan Ukraina menggunakan drone semi-otonom secara intensif untuk operasi pengintaian dan serangan peluru kendali kecil. Di sisi lain, Israel memakai sistem munisi berputar (loitering munition) yang mampu mengenali radar sasaran secara otomatis. Human Rights Watch memperingatkan bahwa dalam situasi konflik, algoritma bisa keliru mengidentifikasi target, menimbulkan risiko pelanggaran hak asasi manusia tanpa adanya akuntabilitas jelas.

Kendala utama yang dihadapi adalah ketimpangan antara kecepatan inovasi teknologi AI dengan lambatnya proses legislatif. Praktik di lapangan sudah melampaui standar yang diusulkan oleh para ahli hukum dan etika. Tanpa kerangka pengawasan global, para pakar memperingatkan bahwa perlombaan senjata AI bisa meningkat, sehingga sulit mengendalikan penggunaan drone tempur secara internasional. Sesi informal ini diharapkan memicu momentum politik yang lebih kuat agar protokol awal dapat dirumuskan sebelum tenggat waktu 2026.

Topik

Advertisement