Menú Menú

Los investigadores están utilizando la IA para predecir la actividad delictiva

Según se informa, la IA es capaz de predecir dónde se cometerán los delitos con hasta una semana de anticipación. La precisión de la tecnología es de alrededor del 90%, pero existen preocupaciones sobre su potencial para perpetuar los sesgos.

Puede sonar como algo sacado directamente de Bat Cave, pero esta tecnología existe de verdad e incluso puede ser ampliamente utilizada en un futuro cercano.

Según se informa, los científicos han encontrado una forma de predecir cuándo y dónde tendrá lugar la actividad delictiva utilizando una IA sofisticada. No, no estamos describiendo la trama de Minority Report.

Investigadores de la Universidad de Chicago probaron la tecnología en ocho ciudades importantes de EE. UU., incluidas Chicago, Los Ángeles y Filadelfia, mapeando iteraciones digitales de áreas urbanas dentro de un radio de 1,000 pies cuadrados.

Sus sistemas de aprendizaje automático se alimentaron con datos históricos de delitos registrados en los años entre 2014 y 2016, logrando de manera impresionante adelantarse a la actividad ilegal el 90 % de las veces. Puedes ver el estudio por ti mismo en la revista científica. Comportamiento humano de la naturaleza.

Describiendo suficientemente la tecnología, el profesor principal Ishanu Chattopadhyay declaró: 'Creamos un gemelo digital de entornos urbanos. Si lo alimenta con datos de lo que sucedió en el pasado, le dirá lo que sucederá en el futuro. No es mágico, hay limitaciones, pero lo validamos y funciona realmente bien.'

Siguiendo estos mismos principios, la tecnología basada en IA se usa ampliamente ahora en todo japon – aunque no para interceptar a los delincuentes, sino principalmente para informar a los ciudadanos sobre los puntos críticos de los delincuentes que deben evitar en determinados momentos – y, en su mayor parte, es un sistema eficaz.

Sin embargo, se nos advirtió anteriormente que el uso de la IA en la aplicación de la ley tiene el potencial de perpetuar sesgos dañinos.

En 2016, por ejemplo, el Departamento de Policía de Chicago se vio envuelto en una controversia por crear una base de datos de personas consideradas con mayor riesgo de estar involucradas en un tiroteo, ya sea como víctima o agresor. Se refirieron a esto como la 'lista de calor' de la ciudad.

Los contenidos alimentados a través del algoritmo de IA inicialmente se mantuvieron en secreto, hasta que la máquina sugirió de manera notoria que el 56% de los hombres negros dentro de la ciudad (de 20 a 29 años) aparecerían en él.

Se puede argumentar sólidamente que, debido a la forma en que se registran los delitos, todo el sistema era susceptible de sesgo incluso antes de comenzar.

Se ha demostrado que los delitos dentro de las áreas más ricas de Chicago conducen a más arrestos, por ejemplo, y sabemos que los grupos minoritarios, ciertamente dentro de los niveles socioeconómicos más bajos, son desproporcionadamente se detuvo y buscó.

Chattopadhyay admite que los datos más recientes inevitablemente estarán ligeramente sesgados, pero dice que se han realizado esfuerzos para reducir esto. Aclaró que su IA no identifica sospechosos, solo sitios potenciales de crimen. "No es Minority Report", aseguró.

Hablando con cierta inquietud sobre el tema, experto de Cambridge lorenzo sherman advirtió: 'Podría estar reflejando discriminación internacional por parte de la policía en ciertas áreas'. Es difícil aliviar esas preocupaciones también.

Siempre que los esfuerzos policiales se basen en informes de infracciones penales de un estado a otro, lo que pone de relieve la compleja relación entre la aplicación de la ley, la mala conducta y la sociedad en general, el uso de la IA para la prevención directa del delito parece demasiado turbio para aceptarlo por completo.

Si, por otro lado, los investigadores están dispuestos a utilizar la tecnología de inteligencia artificial para descubrir dónde existen estos sesgos, sería una perspectiva mucho más agradable.

Accesibilidad