“单亲家庭的数量。”“领取社会福利的人数。”“非西方移民的数量。”
这些只是CAS(犯罪预测系统)用来预测荷兰各地125x125米犯罪“热点”的部分人口统计变量。该系统完全依赖于自动化算法和数据分析,2014年在阿姆斯特丹试运行,2017年在全国推广。当时的批评人士指出,该系统是一个潜在的滑坡,可能会导致执法部门更愿意接受算法模型,这些模型延续了种族定性等歧视性做法。
国际特赦组织上月底发布的一份报告显示,荷兰执法部门已经进行了一些预测警务试点,并将荷兰称为“处于预测警务实践前沿的国家之一”。报告还呼吁执法部门在立法保障措施到位之前停止所有预测性警务项目,并指控飞行员存在多项侵犯人权的行为,包括隐私权、无罪推定和不受歧视的权利。
大赦国际的报告特别关注罗尔蒙德(荷兰东南部的一个直辖市)的预见性警务试点项目,该项目使用摄像头捕捉过往汽车的车牌、品牌、型号和制造年份。根据这份主要依赖于通过WOB(公共信息请求)请求获得的文件的报告,这些数据被输入到一个算法中,该算法实时计算过往车辆的“命中率”。然后,这些点击会自动发送给警察,他们可以决定是否要进行调查。
报告称,该项目不仅具有侵入性,而且在设计上具有歧视性,因为它的目的是打击“流动土匪”(盗窃、扒窃和贩毒等犯罪),这个术语明确排除了荷兰国籍的人,并假设犯罪者要么是东欧血统,要么是少数族裔罗姆人。考虑到这一点,难怪在计算过往车辆的风险分数时,一些产生“加分”的变量包括汽车是否有东欧车牌,以及它正在走的路线(通过车牌自动识别摄像头重新追踪),从而导致报告所说的“种族侧写的自动化”。
令人权和隐私权活动家非常沮丧的是,像传感项目这样的项目受到的阻力相对较小。
“荷兰宪法的第一条是禁止歧视,”大赦报告的作者之一格布里格·克洛斯(Gerbrig Klos)告诉“母板”(Motherboard)。“如果有一条宪法条款是每个荷兰人都知道的,那就是那条。每个警察局的前面都有。执法人员和政府成员都说‘种族定性是被禁止的’,但与此同时,我们一次又一次地发现,像这样的预测性警务项目显然是有偏见和偏见的,依赖于明显有偏见和偏见的数据,但没有人对此采取任何行动。“。
“我一直在问自己一个大问题,”她继续说,“为什么他们会允许这样做?”
荷兰的预测性警务也已经武器化,目标是低收入者。
去年,荷兰税务当局(Belastingdienst)被披露在一个名为Syri(系统风险指示)的系统中使用自动算法来预测社保欺诈。联合国贫困问题特别报告员批评该系统使用的参数明确针对低收入背景的人和少数民族。后来发现它违反了现有的欧洲人权法,最终在今年早些时候被叫停。
马克·舒伦伯格(Marc Schuilenburg)是阿姆斯特丹弗里杰大学(Vrije University)的法律和犯罪学教授,也是即将出版的“歇斯底里:犯罪、媒体和政治”(Huria:Critical,Media,and Politics)一书的作者。他认为,预见性警务不仅反映了现有的不平等,而且还强化了它们。
“荷兰的预见性警务总是集中在下层阶级犯下的轻微罪行上。它从来没有聚焦于上层阶级犯下的大诈骗,我们犯罪学家知道这是非常普遍的,“Schuilenburg告诉主板。“当你分析预测性警务时,你不能把它作为一个独立的东西来分析。它总是与我所说的其他明确针对少数族裔和下层人士的警务方法的‘监视连续体’联系在一起,比如热点警务。“。
它们还会产生反馈循环,在这些循环中,针对已经有偏见的数据设计的算法会产生更多的有偏见的数据,然后这些数据会被反馈回来。例如,在Sensing项目中,大赦国际的报告指出,对被标记为“命中”的汽车的调查--即使命中是假阳性--都被输入到与“流动土匪”有关的业务数据库中。这实质上意味着算法对东欧和吉普赛司机的预先设定的偏见被永久地再次确认。
随着新的预测性警务和监视试点在荷兰各地出现,监管机构的抵制也很微弱,看起来预测性警务实践不会很快结束。随着鹿特丹这样的城市将自己转变为自称的“智能城市”,灯柱上安装了传感器来检测入室盗窃,似乎只会有更多的数据被倾倒到像CAS这样的系统中。
维权和隐私研究机构Bits of Freedom的政策分析师Lotte Houwing说:“我很怀念关于这类项目的讨论。”“有这样一种倾向,就是打着试点的幌子引进这类项目。这被用来作为缺乏坚实法律基础的借口。但随后引入的监视(无论以何种方式)往往会持续存在。
但对于像Schuilenburg这样的研究人员来说,与转向预测性执法技术本身一样危险的是,伴随而来的是对传统正义和犯罪观念的背离。
“刑法的历史是以一个人的行为为基础的:你几乎总是必须采取行动,”他说。“但随着这种向预测技术的转变,以及当局试图根据预测进行干预,我们有了从犯罪后到犯罪前的转变,重点是进入你的大脑,预测你要做什么。”在这种转变中,成为怀疑对象的是你的思想和思想。“