menu menu

Bisakah AI membuat pendeteksi kebohongan yang sempurna?

AI dan pakar pemindaian otak sedang berupaya mengubah pendeteksi kebohongan dari alat yang terbukti usang, menjadi perangkat sempurna yang mampu memisahkan fakta dari fiksi dengan akurasi sempurna.

Bagaimana Anda bisa tahu jika seseorang berbohong? Ini adalah pertanyaan lama yang kita semua ingin tahu jawabannya.

Studi menyarankan rata-rata orang mendengar hingga 200 kebohongan sehari, sebagian besar terdiri dari apa yang saya mumma sebut 'kebohongan putih' atau 'pai babi'… ini sebagian besar merupakan basa-basi umum – 'Saya ingin mendengar tentang bos impian Anda' – dimaksudkan untuk melumasi roda interaksi sosial tanpa membuang kesopanan, dan kita semua bersalah menggunakannya.

Sedikit lebih mengganggu adalah Temuan yang menyarankan kebanyakan orang mengatakan satu atau dua kebohongan besar sehari; 'juicy whoppers', untuk mempromosikan diri mereka sendiri, atau untuk melindungi/menghindari menyakiti orang lain… kecuali jika Anda seorang anarkis yang suka mengaduk-aduk omong kosong sebelum duduk dan menyaksikan dunia terbakar. Beberapa kebohongan lebih menyenangkan daripada yang lain.

Misterinya tentu saja adalah bagaimana kita terus menghindarinya. Bapak psikoanalisis Sigmund Freud mengklaim pada tahun 1905, 'Jika bibirnya diam, dia mengoceh dengan ujung jarinya. Pengkhianatan merembes keluar dari dirinya di setiap pori', dan sementara kita sekarang tahu bahwa dia sebagian besar adalah pecandu coke paranoid, dia ada benarnya.

Bagi kami serat yang belum tercapai, tubuh manusia adalah hadiah terbesar yang ada. Jantung kami berpacu, kami berhenti dan tergagap, dan ekspresi tanpa sadar berkedip dari otot-otot kecil di wajah kami. Kami memutar benang dengan terlalu banyak warna dan detail, atau kami kabur, mengelak dan memberi terlalu sedikit. Namun terlepas dari semua sinyal ini, kita hampir sama putus asanya dalam hal menemukan penipuan.

Tingkat keberhasilan rata-rata untuk mendeteksi penipuan – yang diperoleh dari lebih dari 206 studi ilmiah – telah menunjukkan bahwa orang berhasil memisahkan fib dari fakta hanya 54% dari waktu, kita mungkin juga melempar koin dengan angka-angka itu, tragis! Psikolog Portsmouth Uni Aldert Vrij sebagian besar mengaitkan ini dengan fakta bahwa tanda-tanda orang begitu luas dan berbeda.

Manusia telah berusaha mengatasi masalah ini selama ribuan tahun. Tiga ribu tahun yang lalu orang Cina dipaksa untuk mengunyah dan memuntahkan nasi; biji-bijian dianggap menempel di mulut kering orang yang bersalah. Konyol sekali, tapi stylus tes poligraf, sejujurnya, tidak jauh lebih baik.

Jika Anda sudah menonton Mindhunter or Membuat seorang pembunuh (tidak, kami tidak disponsori oleh Netflix), Anda akan sangat menyadari bahwa pengujian poligraf kurang definitif dan telah sering digunakan sebagai bentuk paksaan sepanjang sejarah. Keandalan hasil sangat bergantung pada kualitas pertanyaan, dan objektivitas mutlak dari interogator… pada dasarnya kebalikan dari Jeremy Kyle dalam lebih dari 3,000 kasus.

Ancaman disingkirkan oleh mesin sudah cukup untuk membuat orang yang tidak bersalah mengaku di seluruh 1960s. Itu menjadi bentuk siksaan psikologis yang memeras pengakuan palsu dari mereka yang rentan. Pasangkan ini dengan pejabat polisi atau jaksa yang terlalu percaya pada validitas teknologi, dan Anda memiliki resep untuk bencana. Untungnya, tes poligraf jarang diterima sebagai bukti saat ini. Seorang pengacara setengah-layak akan selalu membantahnya.

Tidaklah cukup bagi kita untuk hanya mencoret poligraf sebagai perangkat yang cacat, tetapi sifat manusia adalah terus berinovasi. Jika ada yang rusak, kami memiliki keinginan yang tak terpuaskan untuk mencoba dan memperbaikinya, dan kami tidak akan membiarkan ide ini mati.

Sumber daya masuk untuk setiap bagian teknologi revolusioner baru hari ini adalah AI. Prinsip AI adalah memanfaatkan ilmu komputer yang berfokus pada prinsip pembelajaran adaptif. Dalam istilah awam, ini mengacu pada program komputer yang secara konsisten akan menyesuaikan pemrograman mereka saat mereka 'belajar' lebih banyak tentang tugas yang mereka pilih, seperti halnya otak manusia.

Dan Anda dapat bertaruh bahwa para programmer berlomba-lomba untuk menjadi yang pertama menciptakan pendeteksi kebohongan yang sempurna menggunakan prinsip-prinsip AI.

Hari ini, Departemen Keamanan Dalam Negeri AS di Kanada sedang menguji sistem AI yang dikenal sebagai AVATAR (Agen Virtual Otomatis) di penyeberangan perbatasan. Dengan menggunakan video interaktif, wisatawan menjawab pertanyaan standar tentang barang bawaan mereka, senjata potensial, produk, dll, sebelum dipindai secara digital untuk mencari tanda-tanda ketidakjujuran (selama 45 detik), dengan individu yang 'mencurigakan' dikirim untuk pemeriksaan tambahan oleh agen manusia.

Alat serupa bernama Deteksi Mata sedang diujicobakan di beberapa penyeberangan perbatasan di seluruh AS dan tampaknya menggunakan prinsip yang sama seperti AVATAR, tetapi dengan mendeteksi perubahan kecil atau 'gerakan mikro' di mata subjek.

Masalah utama dengan teknologi ini adalah mereka fokus sepenuhnya pada perubahan dangkal yang subjektif. Apakah Anda selalu tersenyum karena Anda bahagia, dan cemberut karena Anda terluka? Tentu saja tidak. Akankah bulu mata di mata setelah pertanyaan cerdik memprovokasi petugas patroli yang senang taser? Kami Joshing, tapi Anda mengerti maksudnya.

Tentunya langkah logis berikutnya adalah mengisolasi perubahan yang bisa diceritakan pada kimia otak – di mana kebohongan dirumuskan – Jelas, Anda tidak dapat mengemas pemindai MRI ke dalam koper dan menyeretnya ke ruang interogasi, tetapi ini jelas merupakan metode yang paling dapat diandalkan. untuk menguraikan kebohongan yang kita miliki hari ini.

Mengesampingkan kepraktisan, ada pelanggaran etika serius yang bisa ditimbulkan oleh teknologi ini. Distopia digital di mana mesin membaca pikiran kita yang paling pribadi cukup menakutkan, dan sekali lagi keputusan penting dapat dibuat berdasarkan perkiraan pribadi pemerintah dan perusahaan tentang teknologi. Bagaimana jika itu tidak berfungsi dengan baik?

Pembuat alat ini terus berargumen bahwa menghilangkan penipuan adalah kunci untuk menciptakan dunia yang lebih adil dan lebih aman. Tetapi mereka secara tidak sengaja dapat membahayakan orang yang tidak bersalah dengan upaya mereka. Aplikasi untuk AI ini sepertinya agak terlalu optimis, dan berbahaya.

Aksesibilitas