Meny Meny

Kan AI lage den perfekte løgndetektoren?

AI og hjerneskanningeksperter ønsker å transformere løgnedetektorer fra tilsynelatende foreldede verktøy, til ufeilbare enheter som kan skille fakta fra fiksjon med perfekt nøyaktighet.

Hvordan kan du vite om noen lyver? Det er et gammelt spørsmål vi alle sammen vil vite svaret på.

Studier foreslår at den gjennomsnittlige personen hører opptil 200 løgner om dagen, i stor grad består av det jeg mamma kaller "hvite løgner" eller "svinekjøtt paier" ... disse er for det meste generelle finesser - "Jeg vil gjerne høre om din drømmesjef" - ment å smøre hjulene til sosiale interaksjoner uten å skylle dekorasjonen nedover myra, og vi er alle skyldige i å bruke dem.

Litt mer urovekkende er funn som antyder at folk flest forteller en eller to store løgner om dagen; 'saftige whoppers', for enten å promotere seg selv, eller for å beskytte / unngå å skade andre ... med mindre du er en anarkist som liker å røre tull før du lener deg tilbake og ser på at verden brenner. Noen løgner er morsommere enn andre.

Mysteriet er selvfølgelig hvordan vi fortsetter å komme unna med det. Faren til psykoanalysen Sigmund Freud hevdet i 1905: 'Hvis leppene hans er stille, pratter han med fingertuppene. Svik siver ut av ham ved hver pore ', og mens vi nå vet at han i stor grad var en paranoid koksmisbruker, hadde han et poeng.

For oss uoppnåede fibre er menneskekroppen den største giveawayen som finnes. Hjertene våre løper, vi stanser og stammer og ufrivillige uttrykk flimrer fra små muskler i ansiktene våre. Vi spinner enten garn med for mye farge og detaljer, eller så er vi vage, unnvikende og gir for lite bort. Til tross for alle disse signalene er vi nesten like håpløse når det gjelder å oppdage bedrag.

Den gjennomsnittlige suksessgraden for å oppdage bedrag - hentet fra over 206 vitenskapelige studier - har vist at folk klarer å skille fibre fra faktisk bare 54% av tiden, vi kan like godt kaste en mynt med disse tallene, tragisk! Portsmouth Uni psykolog Aldert Vrij tilskriver det meste det faktum at folks fortellertegn er så vidtrekkende og forskjellige.

Mennesker har prøvd å overvinne dette problemet i årtusener. For tre tusen år siden ble kineserne tvunget til å tygge og spytte ut ris; kornene ble antatt å stikke i de skyldiges tørre munn. Latterlig ofc, men den polymertestens dømmende pekepinne er i sannhet ikke mye bedre.

Hvis du har sett på Mindhunter or Å lage en morder (nei, vi er ikke sponset av Netflix), du vil være altfor klar over at polygraf-testing er mindre enn definitiv og har blitt brukt ofte som en form for tvang gjennom historien. Påliteligheten av resultatene avhenger for mye av kvaliteten på spørsmålene, og den absolutte objektiviteten til avhøreren ... egentlig det motsatte av hva Jeremy Kyle var i over 3,000 tilfeller.

Trusselen om å være ute av maskinen var nok til å svinge uskyldige mennesker inn i tilståelser gjennom hele 1960s. Det ble en form for psykologisk tortur som vridde falske innleggelser fra de utsatte. Koble dette med politimyndigheter eller påtalemyndigheter som trodde for sterkt på teknologiens gyldighet, og du hadde en oppskrift på katastrofe. Heldigvis er polygraf-tester sjelden tillatt som bevis i dag. En halvt anstendig advokat vil alltid argumentere mot det.

Det er ikke nok for oss å bare kryte av polygrafen som en feil enhet, men menneskets natur er å stadig innovere. Hvis noe er ødelagt, har vi et umettelig ønske om å prøve å fikse det, og vi er ikke i ferd med å la denne ideen dø.

Gå til ressursen for nye revolusjonerende teknologier i disse dager er AI. Prinsippet med AI er å utnytte datalogi med fokus på prinsippet om adaptiv læring. I lekmannsbetegnelser refererer det til dataprogrammer som konsekvent vil tilpasse programmeringen når de 'lærer' mer om den valgte oppgaven, omtrent som den menneskelige hjerne.

Og du kan vedde på at programmerere kjemper om å være de første til å lage den perfekte løgnedetektoren ved hjelp av prinsippene for AI.

I dag tester US Department of Homeland Security i Canada et AI-system kjent som AVATAR (Automated Virtual Agent) ved grenseoverganger. Ved hjelp av interaktive videoer, svarer reisende på vanlige spørsmål om bagasjen, potensielle våpen, produserer osv., Før de blir skannet digitalt for tegn på uærlighet (i 45 sekunder), med 'mistenkelige' individer som blir sendt for ytterligere screening av menneskelige agenter.

Et lignende verktøy som heter EyeDetect blir prøvd ut ved flere grenseoverganger over USA og ser ut til å bruke de samme prinsippene som AVATAR, men gjennom å oppdage små endringer eller "mikrobevegelser" i motivets øye.

Det viktigste problemet med disse teknologiene er at de fokuserer helt på overfladiske endringer som er subjektive. Smiler du alltid fordi du er glad, og rynker pannen fordi du er avviklet? Selvfølgelig ikke. Vil en øyevipper i øyet etter et dodgy spørsmål provosere en taser-glad patruljeoffiser? Vi er Joshing, men du skjønner poenget.

Sikkert det neste logiske trinnet er å isolere fortellende endringer i hjernens kjemi - der løgner er formulert - Selvfølgelig kan du ikke pakke en MR-skanner i en koffert og mosey ned til forhørsrommet, men det er helt klart den mest pålitelige metoden for å tyde ligger i vår disposisjon i dag.

Når man legger det praktiske til side, er det alvorlige etiske brudd denne teknologien kan medføre. En digital dystopi der maskiner leser våre mest personlige tanker er skummelt nok, og igjen kan viktige beslutninger tas ut fra regjeringers og bedrifters personlige estimater av teknologien. Hva om det bare ikke fungerer som det skal?

Skaperne av disse verktøyene fortsetter å argumentere for at luking av bedrag er nøkkelen til å skape en mer rettferdig, tryggere verden. Men de kunne utilsiktet sette de uskyldige i fare med sin innsats. Denne applikasjonen for AI virker bare litt for optimistisk og farlig.

tilgjengelighet