菜单 菜单

研究人员正在使用人工智能来预测犯罪活动

据报道,人工智能能够提前一周预测犯罪地点。 该技术的准确率约为 90%,但人们担心它可能会延续偏见。

这听起来像是直接来自蝙蝠洞的东西,但这项技术是真实存在的,甚至可能在不久的将来被广泛使用。

据报道,科学家们已经找到了一种使用复杂人工智能预测犯罪活动何时何地发生的方法。 不,我们不是在描述 少数派报告.

芝加哥大学的研究人员在包括芝加哥、洛杉矶和费城在内的八个美国主要城市试用了这项技术,绘制了 1,000 平方英尺半径范围内城市区域的数字迭代图。

它的机器学习系统提供了 2014 年至 2016 年间记录的历史犯罪数据,令人印象深刻地成功地在 90% 的时间内阻止了非法活动。 您可以在科学期刊上亲自查看这项研究 自然人类行为.

首席教授 Ishanu Chattopadhyay 充分描述了这项技术,他说:“我们创建了城市环境的数字双胞胎。 如果你向它提供过去发生的事情的数据,它会告诉你未来会发生什么。 它并不神奇,有局限性,但我们验证了它,它运行得非常好。

遵循这些相同的原则,基于人工智能的技术现在被广泛使用 全日本 ——虽然不是为了拦截罪犯,但主要是为了告知公民在特定时间要避开的犯罪热点——而且在大多数情况下,这是一个有效的系统。

然而,我们之前曾被警告说,在执法中使用人工智能有可能使 有害的偏见.

例如,早在 2016 年,芝加哥警察局就因创建一个被认为最有可能卷入枪击事件的人(无论是受害者还是袭击者)数据库而卷入争议。 他们将此称为该市的“热榜”。

通过人工智能算法输入的内容最初是保密的,直到机器严重建议城市内 56% 的黑人男性(20 至 29 岁)会出现在上面。

有一个可靠的论点可以提出,因为犯罪记录的方式,整个系统甚至在开始之前就容易受到偏见的影响。

芝加哥较富裕地区的犯罪已被证明会导致 更多逮捕,一方面,我们知道少数群体,当然在较低的社会经济水平,是 不成比例的 停下来寻找。

Chattopadhyay 承认最新数据不可避免地会有些偏差,但表示已采取措施减少这种偏差。 他澄清说,他的人工智能不会识别嫌疑人,只会识别潜在的犯罪地点。 “这不是少数派报告,”他保证道。

剑桥专家在谈到这个话题时有些惶恐 劳伦斯·谢尔曼 警告说:“这可能反映了警察在某些地区的国际歧视。” 也很难缓解这些担忧。

只要警务工作依赖于州与州之间的犯罪违规报告,这会导致执法、不当行为和更广泛的社会之间的复杂关系,使用人工智能直接预防犯罪似乎太模糊而无法完全接受。

另一方面,如果研究人员热衷于利用人工智能技术来挖掘存在这些偏见的地方,那将是一个更令人愉快的前景。

无障碍