Menü Menü

AI mükemmel yalan dedektörünü yaratabilir mi?

Yapay zeka ve beyin tarama uzmanları, kanıt olarak eskimiş araçlardan gelen yalan dedektörlerini, gerçeği kurgudan kusursuz bir doğrulukla ayırabilen hatasız cihazlara dönüştürmek istiyor.

Birinin yalan söylediğini nasıl anlarsınız? Hepimizin cevabını bilmek isteyeceği eski bir soru.

Yapılan çalışmalar ortalama bir insanın günde 200'e kadar yalan duyduğunu öne sürüyorum, büyük ölçüde annemin 'beyaz yalanlar' veya 'domuzlu turtalar' dediği şeylerden oluşuyor… bunlar çoğunlukla genel incelikler – 'hayalinizdeki patronu duymayı çok isterim' – amaçlanan edepsizliği bataklığa düşürmeden sosyal etkileşimlerin çarklarını yağlamak ve hepimiz onları kullanmaktan suçluyuz.

Biraz daha rahatsız edici bulgular çoğu insanın günde bir veya iki büyük yalan söylediğini düşündüren; 'sulu fahişeler', ya kendilerini tanıtmak ya da başkalarını korumak/incitmekten kaçınmak için… tabii arkanıza yaslanıp dünyanın yanışını izlemeden önce saçma sapan saçmalıklardan hoşlanan bir anarşist değilseniz. Bazı yalanlar diğerlerinden daha eğlencelidir.

Tabii ki gizem, ondan nasıl kurtulduğumuzdur. Psikanalizin babası Sigmund Freud 1905'te, "Dudakları susarsa, parmak uçlarıyla konuşur. Her gözeneğinden ihanet fışkırıyor' ve şimdi onun büyük ölçüde paranoyak bir kokain bağımlısı olduğunu bildiğimiz halde haklı olduğu bir nokta vardı.

Biz tamamlanmamış lifler için, insan vücudu var olan en büyük hediyedir. Kalplerimiz hızla çarpıyor, durup kekeliyoruz ve yüzümüzdeki küçük kaslardan istemsiz ifadeler titriyor. İplikleri ya çok fazla renk ve detayla örüyoruz ya da belirsiz, kaçamak ve çok az ele veriyoruz. Yine de tüm bu sinyallere rağmen, aldatmayı tespit etme konusunda neredeyse eşit derecede umutsuzuz.

206'dan fazla bilimsel çalışmadan elde edilen, aldatmayı tespit etmenin ortalama başarı oranı, insanların yalanları gerçeklerden ayırmayı sadece %54'te başardığını göstermiştir, bu sayılarla yazı tura atabiliriz, trajik! Portsmouth Üniversitesi psikoloğu Aldert Vrij bunu çoğunlukla insanların anlatı işaretlerinin çok geniş kapsamlı ve farklı olmasına bağlıyor.

İnsanlar binlerce yıldır bu sorunun üstesinden gelmeye çalışıyorlar. Üç bin yıl önce Çinliler pirinci çiğnemeye ve tükürmeye zorlandı; tanelerin suçluların kuru ağızlarına yapıştığı düşünülüyordu. Ofc saçma, ama yalan makinesi testinin titreyen kalemi, doğrusu, çok daha iyi değil.

İzlediyseniz Zihin avcısı or Bir Katil Yapmak (hayır, Netflix sponsorluğunda değiliz), yalan makinesi testinin kesin olmaktan daha az olduğunun ve tarih boyunca sıklıkla bir zorlama biçimi olarak kullanıldığının farkındasınızdır. Sonuçların güvenilirliği, büyük ölçüde soruların kalitesine ve sorgulayıcının mutlak nesnelliğine bağlıdır… 3,000'den fazla davada Jeremy Kyle'ın tam tersi.

Makine tarafından ifşa edilme tehdidi, tüm süreç boyunca masum insanları itiraflara sürüklemeye yetiyordu. 1960s. Savunmasız kişilerden yanlış kabuller alan bir tür psikolojik işkence haline geldi. Bunu, teknolojinin geçerliliğine çok fazla inanan polis memurları veya savcılarla eşleştirin ve felaket için bir reçeteniz oldu. Neyse ki, yalan makinesi testleri bugün nadiren kanıt olarak kabul edilmektedir. Yarı dürüst bir avukat her zaman buna karşı çıkacaktır.

Yalan makinesini kusurlu bir araç olarak görmemiz bizim için yeterli değil, insan doğası sürekli yenilik yapmaktır. Bir şey bozulursa, onu denemek ve düzeltmek için doyumsuz bir arzumuz vardır ve bu fikrin ölmesine izin vermek üzere değiliz.

Bugünlerde devrim niteliğindeki herhangi bir yeni teknoloji parçası için başvurulacak kaynak yapay zekadır. AI ilkesi, uyarlanabilir öğrenme ilkesine odaklanan bilgisayar bilimini kullanmaktır. Layman'ın terimleriyle, insan beyni gibi, seçtikleri görev hakkında daha fazla 'öğrendikçe' programlamalarını tutarlı bir şekilde uyarlayacak bilgisayar programlarını ifade eder.

Programcıların, AI ilkelerini kullanarak mükemmel yalan dedektörünü yaratan ilk kişi olmak için yarıştıklarına bahse girebilirsiniz.

Bugün, Kanada'daki ABD İç Güvenlik Bakanlığı, olarak bilinen bir AI sistemini test ediyor. AVATAR (Otomatik Sanal Aracı) sınır geçişlerinde. İnteraktif videolar kullanarak gezginler, sahtekârlık belirtileri için dijital olarak taranmadan (45 saniye boyunca) önce bagajları, potansiyel silahları, ürünleri vb.

adlı benzer bir araç Göz Algılama ABD genelinde çeşitli sınır geçişlerinde deneniyor ve AVATAR ile aynı prensipleri kullanmaya çalışıyor, ancak deneğin gözündeki küçük değişiklikleri veya 'mikro hareketleri' tespit ederek.

Bu teknolojilerle ilgili temel sorun, tamamen öznel olan yüzeysel değişikliklere odaklanmalarıdır. Her zaman mutlu olduğun için gülümsüyor ve yaralandığın için kaşlarını çatıyor musun? Tabii ki değil. Tehlikeli bir sorudan sonra göze çarpan bir kirpik, şoktan mutlu bir devriye memurunu kışkırtacak mı? Biz Joshing'iz, ama siz meseleyi anladınız.

Elbette bir sonraki mantıklı adım, beyin kimyasındaki - yalanların formüle edildiği yerdeki - masalsı değişiklikleri izole etmektir - Açıkçası, bir MRI tarayıcısını bir valize koyup sorgulama odasına kadar geveze edemezsiniz, ancak kesinlikle en güvenilir yöntemdir. deşifre etmek için bugün elimizdedir.

Ancak pratikliği bir kenara bırakırsak, bu teknolojinin getirebileceği ciddi etik ihlaller var. Makinelerin en kişisel düşüncelerimizi okuduğu dijital bir distopya yeterince korkutucu ve yine hükümetlerin ve şirketlerin teknolojiye ilişkin kişisel tahminlerine dayalı olarak önemli kararlar alınabilir. Ya düzgün çalışmıyorsa?

Bu araçların yaratıcıları, daha adil ve daha güvenli bir dünya yaratmanın anahtarının aldatmacayı ayıklamak olduğunu savunmaya devam ediyor. Ancak çabalarıyla istemeden masumları riske atabilirler. AI için bu uygulama biraz fazla iyimser ve tehlikeli görünüyor.

Engellilerin kullanımları için uygunluk