Menu Menu

Des chercheurs utilisent l'IA pour prédire l'activité criminelle

L'IA serait capable de prédire où les crimes auront lieu jusqu'à une semaine à l'avance. La précision de la technologie est d'environ 90 %, mais on s'inquiète de son potentiel à perpétuer les biais.

Cela peut ressembler à quelque chose qui vient tout droit de la grotte des chauves-souris, mais cette technologie existe pour de vrai et pourrait même être largement utilisée dans un proche avenir.

Les scientifiques auraient trouvé un moyen de prédire quand et où les activités criminelles auront lieu à l'aide d'une IA sophistiquée. Non, nous ne décrivons pas l'intrigue de Minority Report.

Des chercheurs de l'Université de Chicago ont testé la technologie dans huit grandes villes américaines, dont Chicago, Los Angeles et Philadelphie, en cartographiant des itérations numériques de zones urbaines dans un rayon de 1,000 XNUMX pieds carrés.

Ses systèmes d'apprentissage automatique ont été alimentés par des données historiques sur la criminalité enregistrées entre 2014 et 2016, réussissant de manière impressionnante à anticiper les activités illégales 90% du temps. Vous pouvez voir l'étude par vous-même dans la revue scientifique Comportement humain de nature.

Décrivant suffisamment la technologie, le professeur principal Ishanu Chattopadhyay a déclaré: «Nous avons créé un jumeau numérique des environnements urbains. Si vous lui fournissez des données sur ce qui s'est passé dans le passé, il vous dira ce qui va se passer dans le futur. Ce n'est pas magique, il y a des limites, mais nous l'avons validé et cela fonctionne très bien.

Suivant ces mêmes principes, la technologie basée sur l'IA est largement utilisée maintenant à travers le Japon - mais pas pour intercepter les criminels, mais principalement pour informer les citoyens des points chauds des délinquants à éviter à des moments particuliers - et pour la plupart, c'est un système efficace.

Nous avons été avertis précédemment, cependant, que l'utilisation de l'IA dans l'application de la loi a le potentiel de perpétuer biais préjudiciables.

En 2016, par exemple, le département de police de Chicago a été impliqué dans une controverse pour avoir créé une base de données des personnes considérées comme les plus à risque d'être impliquées dans une fusillade, soit en tant que victime, soit en tant qu'agresseur. Ils ont appelé cela la «liste de chaleur» de la ville.

Le contenu alimenté par l'algorithme d'IA a d'abord été gardé secret, jusqu'à ce que la machine suggère de manière flagrante que 56% des hommes noirs de la ville (âgés de 20 à 29 ans) y figureraient.

Il y a un argument solide à faire valoir, à savoir qu'en raison de la manière dont les crimes sont enregistrés, l'ensemble du système était susceptible d'être biaisé avant même de commencer.

Il a été prouvé que les crimes dans les quartiers les plus riches de Chicago conduisent à plus d'arrestations, d'une part, et nous savons que les groupes minoritaires, certainement au sein des niveaux socio-économiques inférieurs, sont disproportionné arrêté et fouillé.

Chattopadhyay admet que les données les plus récentes seront inévitablement légèrement biaisées, mais affirme que des efforts ont été déployés pour réduire cela. Il a précisé que son IA n'identifiait pas les suspects, seulement les sites potentiels de crime. "Ce n'est pas un rapport minoritaire", a-t-il rassuré.

S'exprimant avec une certaine appréhension sur le sujet, l'expert de Cambridge Laurent Sherman a averti: "Cela pourrait refléter une discrimination internationale de la part de la police dans certains domaines." Il est également difficile d'apaiser ces inquiétudes.

Tant que les efforts de maintien de l'ordre reposent sur des rapports d'infractions pénales d'un État à l'autre, ce qui met en évidence la relation complexe entre l'application de la loi, l'inconduite et la société au sens large, l'utilisation de l'IA pour la prévention directe du crime semble trop obscure pour être pleinement intégrée.

Si, d'un autre côté, les chercheurs souhaitent utiliser la technologie de l'IA pour découvrir où ces biais existent, ce serait une perspective beaucoup plus agréable.

Accessibilité