Meny Meny

Forskere bruker kunstig intelligens til å forutsi kriminell aktivitet

AI er angivelig i stand til å forutsi hvor forbrytelser vil finne sted opptil en uke frem i tid. Teknikkens nøyaktighet er rundt 90%, men det er bekymringer om potensialet til å opprettholde skjevheter.

Det kan høres ut som noe rett fra Bat Cave, men denne teknologien eksisterer på ekte og kan til og med bli mye brukt i nær fremtid.

Forskere har angivelig funnet en måte å forutsi når og hvor kriminell aktivitet vil finne sted ved hjelp av sofistikert AI. Nei, vi beskriver ikke handlingen til Minority Report.

Forskere ved University of Chicago testet teknologien i åtte store amerikanske byer, inkludert Chicago, Los Angeles og Philadelphia, og kartla digitale iterasjoner av urbane områder innenfor en radius på 1,000 kvadratfot.

Maskinlæringssystemene deres ble matet med historiske kriminalitetsdata registrert i årene mellom 2014 og 2016, og klarte på en imponerende måte å forebygge ulovlig aktivitet 90 % av tiden. Du kan se studien selv i vitenskapstidsskriftet Natur menneskelig adferd.

I en tilstrekkelig beskrivelse av teknologien uttalte hovedprofessor Ishanu Chattopadhyay: 'Vi skapte en digital tvilling av urbane miljøer. Hvis du mater den med data fra det som har skjedd i fortiden, vil den fortelle deg hva som kommer til å skje i fremtiden. Det er ikke magisk, det er begrensninger, men vi validerte det og det fungerer veldig bra.'

Etter de samme prinsippene er AI-basert teknologi mye i bruk nå over Japan – men ikke for å avskjære kriminelle, men først og fremst for å informere innbyggerne om hotspots for lovbrytere å unngå til bestemte tider – og for det meste er det et effektivt system.

Vi har imidlertid blitt advart tidligere om at bruk av kunstig intelligens i rettshåndhevelse har potensial til å fortsette skadelige skjevheter.

Tilbake i 2016, for eksempel, ble Chicago Police Department involvert i kontroverser for å ha opprettet en database med personer som ble ansett som mest utsatt for å bli involvert i et skyting - enten som offer eller overfallsmann. De omtalte dette som byens 'varmeliste'.

Innholdet som ble matet gjennom AI-algoritmen ble i utgangspunktet holdt hemmelig, helt til maskinen kraftig antydet at 56 % av svarte menn i byen (i alderen 20 til 29) ville være med på den.

Det er et solid argument å fremsette, at på grunn av måten forbrytelser registreres på, var hele systemet utsatt for skjevhet før det begynte.

Forbrytelser i Chicagos rikere områder har vist seg å føre til flere arrestasjoner, for det første, og vi vet at minoritetsgrupper, absolutt innenfor lavere sosioøkonomiske nivåer, er det uforholdsmessig stoppet og søkte.

Chattopadhyay innrømmer at de nyeste dataene uunngåelig vil være litt partiske, men sier at det er gjort forsøk på å redusere dette. Han presiserte at hans AI ikke identifiserer mistenkte, bare potensielle steder for kriminalitet. «Det er ikke minoritetsrapport,» beroliget han.

Snakker med en viss frykt om emnet, Cambridge-ekspert Lawrence Sherman advarte: 'Det kan reflektere internasjonal diskriminering fra politiets side i visse områder.' Det er vanskelig å lindre disse bekymringene også.

Så lenge politiinnsatsen er avhengig av rapporter om kriminelle overtredelser fra stat til stat, noe som bringer det komplekse forholdet mellom håndhevelse, uredelighet og samfunnet for øvrig til bunns, virker bruk av kunstig intelligens for direkte kriminalitetsforebygging for uklar til å komme helt inn på.

Hvis forskere derimot er opptatt av å bruke AI-teknologi for å finne ut hvor disse skjevhetene eksisterer, ville det være et langt mer behagelig perspektiv.

tilgjengelighet