Menu Menu

Naukowcy wykorzystują sztuczną inteligencję do przewidywania działalności przestępczej

Sztuczna inteligencja podobno jest w stanie przewidzieć, gdzie nastąpią przestępstwa, nawet tydzień wcześniej. Dokładność tej technologii wynosi około 90%, ale istnieją obawy co do jej potencjału utrwalania błędów.

Może to brzmieć jak coś prosto z Jaskini Nietoperza, ale ta technologia istnieje naprawdę i może nawet być szeroko stosowana w niedalekiej przyszłości.

Naukowcy podobno znaleźli sposób na przewidywanie, kiedy i gdzie będzie miała miejsce działalność przestępcza, wykorzystując zaawansowaną sztuczną inteligencję. Nie, nie opisujemy fabuły Raport mniejszości.

Naukowcy z University of Chicago przetestowali tę technologię w ośmiu głównych miastach USA, w tym w Chicago, Los Angeles i Filadelfii, mapując cyfrowe iteracje obszarów miejskich w promieniu 1,000 stóp kwadratowych.

Jej systemy uczenia maszynowego były zasilane historycznymi danymi o przestępczości zarejestrowanymi w latach 2014–2016, dzięki czemu w 90% przypadków udało się zapobiec nielegalnej działalności. Możesz zobaczyć badanie dla siebie w czasopiśmie naukowym Charakter Ludzkie zachowanie.

Wystarczająco opisując tę ​​technologię, profesor Ishanu Chattopadhyay stwierdził: „Stworzyliśmy cyfrowego bliźniaka środowisk miejskich. Jeśli podasz mu dane z tego, co wydarzyło się w przeszłości, powie Ci, co wydarzy się w przyszłości. To nie jest magiczne, są ograniczenia, ale sprawdziliśmy to i działa naprawdę dobrze”.

Zgodnie z tymi samymi zasadami technologia oparta na sztucznej inteligencji jest obecnie szeroko stosowana w całej Japonii – chociaż nie po to, by przechwytywać przestępców, ale przede wszystkim po to, by informować obywateli o hotspotach przestępców, których należy unikać w określonych momentach – iw większości jest to skuteczny system.

Wcześniej ostrzegano nas jednak, że wykorzystanie sztucznej inteligencji w egzekwowaniu prawa może się utrwalić szkodliwe uprzedzenia.

Na przykład w 2016 r. Departament Policji w Chicago został uwikłany w kontrowersje związane z utworzeniem bazy danych osób uznanych za najbardziej narażonych na udział w strzelaninie – jako ofiary lub napastników. Nazywali to miejską „listą upałów”.

Treści podawane przez algorytm sztucznej inteligencji były początkowo utrzymywane w tajemnicy, dopóki maszyna nie zasugerowała skandalicznie, że 56% czarnoskórych mężczyzn w mieście (w wieku od 20 do 29 lat) pojawi się na niej.

Należy przedstawić solidny argument, że ze względu na sposób, w jaki przestępstwa są rejestrowane, cały system był podatny na stronniczość jeszcze przed rozpoczęciem.

Udowodniono, że przestępstwa na bogatszych obszarach Chicago prowadzą do więcej aresztowań, na przykład, i wiemy, że grupy mniejszościowe, z pewnością na niższych poziomach społeczno-ekonomicznych, są nieproporcjonalnie zatrzymany i przeszukany.

Chattopadhyay przyznaje, że najnowsze dane nieuchronnie będą nieco stronnicze, ale mówi, że podjęto wysiłki, aby to zmniejszyć. Wyjaśnił, że jego sztuczna inteligencja nie identyfikuje podejrzanych, a jedynie potencjalne miejsca przestępstwa. – To nie jest raport mniejszości – zapewnił.

Mówiąc z pewnym niepokojem na ten temat, ekspert Cambridge Lawrence'a Shermana ostrzegł: „Może to odzwierciedlać międzynarodową dyskryminację policji w niektórych obszarach”. Trudno też złagodzić te zmartwienia.

Dopóki wysiłki policji opierają się na raportach o wykroczeniach kryminalnych od poszczególnych stanów, co prowadzi do złożonego związku między egzekwowaniem prawa, niewłaściwym postępowaniem i szerszym społeczeństwem, wykorzystywanie sztucznej inteligencji do bezpośredniego zapobiegania przestępczości wydaje się zbyt mętne, aby w pełni się z tym pogodzić.

Z drugiej strony, jeśli badacze chętnie wykorzystają technologię sztucznej inteligencji, aby odkryć, gdzie istnieją te uprzedzenia, byłaby to znacznie przyjemniejsza perspektywa.

dostępność