Menu Menu

Czy sztuczna inteligencja może stworzyć idealny wykrywacz kłamstw?

Eksperci od sztucznej inteligencji i skanowania mózgu chcą przekształcić wykrywacze kłamstw z przestarzałych narzędzi w niezawodne urządzenia zdolne do oddzielania faktów od fikcji z idealną dokładnością.

Jak możesz stwierdzić, czy ktoś kłamie? To stare pytanie, na które wszyscy chcielibyśmy poznać odpowiedź.

Badania naukowe sugeruję, że przeciętny człowiek słyszy do 200 kłamstw dziennie, w dużej mierze składających się z tego, co moja mama nazywa „białymi kłamstwami” lub „tortami z porky”… są to głównie ogólne uprzejmości – „Chciałbym usłyszeć o twoim wymarzonym szefie” – przeznaczone smarować koła interakcji społecznych bez spuszczania decorum w bagno, a wszyscy jesteśmy winni ich używania.

Nieco bardziej niepokojące są Ustalenia to sugeruje, że większość ludzi mówi jedno lub dwa wielkie kłamstwa dziennie; „soczystych łobuzów”, aby albo się promować, albo chronić/unikać krzywdzenia innych… chyba że jesteś anarchistą, który lubi mieszać bzdury, zanim usiądzie wygodnie i zacznie patrzeć, jak płonie świat. Niektóre kłamstwa są zabawniejsze niż inne.

Tajemnicą jest oczywiście to, jak nam się to uchodzi. Ojciec psychoanalizy, Zygmunt Freud, twierdził w 1905 roku: „Jeśli jego usta milczą, gada opuszkami palców. Zdrada sączy się z niego na każdym kroku” i chociaż teraz wiemy, że był w dużej mierze paranoicznym uzależnionym od kokainy, miał rację.

Dla nas niezrealizowanych światłowodów ludzkie ciało jest największym darem, jaki istnieje. Nasze serca biją szybciej, zatrzymujemy się i jąkamy, a na naszych twarzach pojawiają się mimowolne miny. Albo przędzimy włóczki ze zbyt dużą ilością kolorów i detali, albo jesteśmy niejasni, wymijający i zdradzamy zbyt mało. Jednak pomimo tych wszystkich sygnałów, jesteśmy prawie równie beznadziejni, jeśli chodzi o wykrywanie oszustwa.

Przeciętny wskaźnik skuteczności wykrywania oszustwa – zebrany z ponad 206 badań naukowych – pokazał, że ludziom udaje się oddzielić fibki od faktów tylko w 54% przypadków, równie dobrze możemy rzucić monetą z tymi liczbami, tragiczne! Psycholog z Uniwersytetu Portsmouth Altert Vrij głównie przypisuje to faktowi, że znaki ostrzegawcze ludzi są tak szerokie i różne.

Ludzie od tysiącleci próbują przezwyciężyć ten problem. Trzy tysiące lat temu Chińczycy zostali zmuszeni do żucia i wypluwania ryżu; Uważano, że ziarna tkwią w suchych ustach winnych. Śmieszne, ale trzepoczący rysik testu wariografem, prawdę mówiąc, nie jest dużo lepszy.

Jeśli oglądałeś Mindhunter or Dokonywanie mordercy (nie, nie jesteśmy sponsorowani przez Netflix), dobrze zdajesz sobie sprawę, że testy wariografem są mniej niż ostateczne i były często używane jako forma przymusu w historii. Wiarygodność wyników zbyt mocno zależy od jakości pytań i absolutnej obiektywności przesłuchującego… zasadniczo przeciwieństwo tego, czym był Jeremy Kyle w ponad 3,000 przypadków.

Groźba wyrzucenia przez maszynę wystarczyła, by skłonić niewinnych ludzi do zeznań przez cały czas 1960s. Stała się formą psychologicznej tortury, która wyciskała fałszywe przyznania się bezbronnych. Połącz to z funkcjonariuszami policji lub prokuratorami, którzy zbyt mocno wierzyli w słuszność technologii, a otrzymasz przepis na katastrofę. Na szczęście testy wariograficzne rzadko są dziś dopuszczalne jako dowód. Na wpół przyzwoity prawnik zawsze będzie się temu przeciwstawiał.

Nie wystarczy nam jednak odrzucić wariograf jako wadliwe urządzenie, ludzka natura wymaga ciągłych innowacji. Jeśli coś się zepsuło, mamy nienasycone pragnienie, aby spróbować to naprawić i nie zamierzamy pozwolić, aby ten pomysł umrzeć.

Najważniejszym źródłem wszelkich nowych rewolucyjnych rozwiązań technicznych w dzisiejszych czasach jest sztuczna inteligencja. Zasadą AI jest wykorzystanie informatyki skoncentrowanej na zasadzie adaptacyjnego uczenia się. W kategoriach laika odnosi się do programów komputerowych, które będą konsekwentnie dostosowywać swoje programowanie, gdy „uczą się” więcej o wybranym zadaniu, podobnie jak ludzki mózg.

I możesz się założyć, że programiści walczą o to, by jako pierwsi stworzyć idealny wykrywacz kłamstw, korzystając z zasad sztucznej inteligencji.

Dziś Departament Bezpieczeństwa Wewnętrznego USA w Kanadzie testuje system AI znany jako AWATARA (Automatyczny Wirtualny Agent) na przejściach granicznych. Korzystając z interaktywnych filmów, podróżni odpowiadają na standardowe pytania dotyczące ich bagażu, potencjalnej broni, produktów itp., zanim zostaną cyfrowo zeskanowani pod kątem oznak nieuczciwości (przez 45 sekund), a „podejrzane” osoby są wysyłane do dodatkowych kontroli przez ludzkich agentów.

Podobne narzędzie o nazwie Wykrywanie oczu jest testowany na kilku przejściach granicznych w Stanach Zjednoczonych i stara się stosować te same zasady, co AVATAR, ale poprzez wykrywanie drobnych zmian lub „mikro gestów” w oku obiektu.

Podstawowym problemem związanym z tymi technologiami jest to, że skupiają się one całkowicie na powierzchownych zmianach, które są subiektywne. Czy zawsze się uśmiechasz, bo jesteś szczęśliwy, i marszczysz brwi, bo jesteś nakręcony? Oczywiście nie. Czy rzęsa w oku po podejrzanym pytaniu sprowokuje zadowolonego z paralizatora policjanta? Jesteśmy Joshing, ale rozumiesz.

Z pewnością następnym logicznym krokiem jest wyodrębnienie charakterystycznych zmian w chemii mózgu – gdzie formułuje się kłamstwa – Oczywiście nie można spakować skanera MRI do walizki i iść do pokoju przesłuchań, ale jest to zdecydowanie najbardziej niezawodna metoda ponieważ odszyfrowanie jest do naszej dyspozycji dzisiaj.

Odkładając jednak na bok praktyczność, ta technologia może spowodować poważne naruszenia etyki. Cyfrowa dystopia, w której maszyny czytają nasze najbardziej osobiste myśli, jest wystarczająco przerażająca i znowu kluczowe decyzje mogą być podejmowane w oparciu o osobiste szacunki rządów i korporacji dotyczące technologii. Co jeśli po prostu nie działa poprawnie?

Twórcy tych narzędzi nadal twierdzą, że wyeliminowanie oszustwa jest kluczem do stworzenia sprawiedliwszego i bezpieczniejszego świata. Ale swoimi wysiłkami mogą nieumyślnie narażać niewinnego na ryzyko. Ta aplikacja dla AI wydaje się trochę zbyt optymistyczna i niebezpieczna.

dostępność