Menu Menu

Pesquisadores estão usando IA para prever atividades criminosas

A IA é supostamente capaz de prever onde os crimes ocorrerão com até uma semana de antecedência. A precisão da tecnologia é de cerca de 90%, mas há preocupações sobre seu potencial de perpetuar vieses.

Pode parecer algo direto da Bat Caverna, mas essa tecnologia existe de verdade e pode até ser amplamente utilizada em um futuro próximo.

Os cientistas descobriram uma maneira de prever quando e onde a atividade criminosa ocorrerá usando IA sofisticada. Não, não estamos descrevendo o enredo de Minority Report.

Pesquisadores da Universidade de Chicago testaram a tecnologia em oito grandes cidades dos EUA, incluindo Chicago, Los Angeles e Filadélfia, mapeando iterações digitais de áreas urbanas em um raio de 1,000 pés quadrados.

Seus sistemas de aprendizado de máquina foram alimentados com dados históricos de crimes registrados nos anos entre 2014 e 2016, conseguindo impedir atividades ilegais de forma impressionante em 90% das vezes. Você pode ver o estudo por si mesmo na revista científica Natureza humana comportamento.

Descrevendo suficientemente a tecnologia, o professor líder Ishanu Chattopadhyay declarou: “Criamos um gêmeo digital de ambientes urbanos. Se você alimentá-lo com dados do que aconteceu no passado, ele lhe dirá o que vai acontecer no futuro. Não é mágico, há limitações, mas nós validamos e funciona muito bem.'

Seguindo esses mesmos princípios, a tecnologia baseada em IA está amplamente em uso agora em todo o Japão – embora não para interceptar criminosos, mas principalmente para informar os cidadãos sobre pontos de acesso de criminosos a serem evitados em momentos específicos – e, na maioria das vezes, é um sistema eficaz.

Fomos avisados ​​anteriormente, no entanto, que o uso de IA na aplicação da lei tem o potencial de perpetuar preconceitos prejudiciais.

Em 2016, por exemplo, o Departamento de Polícia de Chicago se envolveu em polêmica por criar um banco de dados de pessoas consideradas com maior risco de se envolver em um tiroteio – seja como vítima ou agressor. Eles se referiam a isso como a 'lista de calor' da cidade.

O conteúdo alimentado pelo algoritmo de IA foi inicialmente mantido em segredo, até que a máquina sugeriu flagrantemente que 56% dos homens negros da cidade (entre 20 e 29 anos) apareceriam nele.

Há um argumento sólido a ser feito, que devido à forma como os crimes são registrados, todo o sistema era suscetível a viés antes mesmo de começar.

Crimes nas áreas mais ricas de Chicago provaram levar a mais prisões, por exemplo, e sabemos que grupos minoritários, certamente dentro de níveis socioeconômicos mais baixos, são desproporcionalmente parou e procurou.

Chattopadhyay admite que os dados mais recentes inevitavelmente serão ligeiramente tendenciosos, mas diz que esforços foram feitos para reduzir isso. Ele esclareceu que sua IA não identifica suspeitos, apenas potenciais locais de crime. — Não é Minority Report — assegurou ele.

Falando com alguma apreensão sobre o assunto, o especialista de Cambridge Lawrence Sherman advertiu: 'Pode estar refletindo a discriminação internacional pela polícia em certas áreas.' É difícil aliviar essas preocupações também.

Enquanto os esforços de policiamento dependem de relatórios de infrações criminais de estado para estado, o que traz à tona a complexa relação entre fiscalização, má conduta e a sociedade em geral, o uso da IA ​​para prevenção direta do crime parece muito obscuro para ser totalmente aceito.

Se, por outro lado, os pesquisadores desejam utilizar a tecnologia de IA para descobrir onde existem esses vieses, essa seria uma perspectiva muito mais agradável.

Acessibilidade