menu menu

Para peneliti menggunakan AI untuk memprediksi aktivitas kriminal

AI dilaporkan mampu memprediksi di mana kejahatan akan berlangsung hingga seminggu ke depan. Akurasi teknologinya sekitar 90%, tetapi ada kekhawatiran tentang potensinya untuk melanggengkan bias.

Ini mungkin terdengar seperti sesuatu yang langsung dari Gua Kelelawar, tetapi teknologi ini benar-benar ada dan bahkan dapat digunakan secara luas dalam waktu dekat.

Para ilmuwan dilaporkan telah menemukan cara untuk memprediksi kapan dan di mana aktivitas kriminal akan terjadi menggunakan AI yang canggih. Tidak, kami tidak menggambarkan plot dari Minority Report.

Para peneliti di University of Chicago menguji coba teknologi di delapan kota besar AS, termasuk Chicago, Los Angeles, dan Philadelphia, memetakan iterasi digital daerah perkotaan dalam radius 1,000 kaki persegi.

Sistem pembelajaran mesinnya diberi makan data kejahatan historis yang tercatat pada tahun-tahun antara 2014 dan 2016, secara mengesankan berhasil mencegah aktivitas ilegal 90% dari waktu. Anda dapat melihat studinya sendiri di jurnal sains Alam Perilaku Manusia.

Cukup menggambarkan teknologinya, profesor utama Ishanu Chattopadhyay menyatakan: 'Kami menciptakan kembaran digital dari lingkungan perkotaan. Jika Anda memberinya data dari apa yang terjadi di masa lalu, itu akan memberi tahu Anda apa yang akan terjadi di masa depan. Ini tidak ajaib, ada batasannya, tapi kami memvalidasinya dan itu bekerja dengan sangat baik.'

Mengikuti prinsip yang sama ini, teknologi berbasis AI banyak digunakan sekarang di seluruh Jepang – meskipun tidak untuk mencegat penjahat, tetapi terutama untuk menginformasikan warga tentang hotspot pelanggar yang harus dihindari pada waktu-waktu tertentu – dan sebagian besar, ini adalah sistem yang efektif.

Kami telah diperingatkan sebelumnya, bagaimanapun, bahwa penggunaan AI dalam penegakan hukum berpotensi untuk melanggengkan bias berbahaya.

Kembali pada tahun 2016, misalnya, Departemen Kepolisian Chicago terlibat dalam kontroversi karena membuat database orang-orang yang dianggap paling berisiko terlibat dalam penembakan – baik sebagai korban atau penyerang. Mereka menyebut ini sebagai 'daftar panas' kota.

Konten yang dimasukkan melalui algoritme AI pada awalnya dirahasiakan, sampai mesin dengan tegas menyarankan bahwa 56% pria kulit hitam di dalam kota (berusia 20 hingga 29) akan ditampilkan di dalamnya.

Ada argumen yang kuat untuk dibuat, bahwa karena cara kejahatan dicatat, seluruh sistem rentan terhadap bias bahkan sebelum dimulai.

Kejahatan di daerah kaya Chicago telah terbukti menyebabkan lebih banyak penangkapan, untuk satu, dan kita tahu bahwa kelompok minoritas, tentu saja dalam tingkat sosial ekonomi yang lebih rendah, adalah tidak proporsional berhenti dan mencari.

Chattopadhyay mengakui bahwa data terbaru pasti akan sedikit bias, tetapi mengatakan bahwa upaya telah diambil untuk mengurangi ini. Dia mengklarifikasi bahwa AI-nya tidak mengidentifikasi tersangka, hanya situs potensial kejahatan. "Ini bukan Laporan Minoritas," dia meyakinkan.

Berbicara dengan beberapa keraguan tentang masalah ini, pakar Cambridge Lawrence Sherman memperingatkan: 'Ini bisa mencerminkan diskriminasi internasional oleh polisi di area tertentu.' Sulit untuk menghilangkan kekhawatiran itu juga.

Selama upaya pemolisian bergantung pada laporan pelanggaran pidana negara bagian ke negara bagian, yang mengarahkan hubungan kompleks antara penegakan hukum, pelanggaran, dan masyarakat luas, penggunaan AI untuk pencegahan kejahatan langsung tampak terlalu suram untuk sepenuhnya digunakan.

Jika, di sisi lain, para peneliti ingin memanfaatkan teknologi AI untuk menemukan di mana bias ini ada, itu akan menjadi prospek yang jauh lebih menyenangkan.

Aksesibilitas