然而,警方不打算对这一裁决提出上诉,并表示仍将致力于“谨慎”使用这项技术。
这里的背景故事是,自2017年以来,SWP一直在试验自动面部识别(AFR)技术,从2017年5月到2019年4月,在威尔士的各种公共活动中部署了大约50次名为AFR Locate的系统。
根据上诉法院发布的一份新闻摘要,该部队将该技术与400至800人的观察名单结合使用,其中包括逮捕令通缉的人、逃脱拘押的人、涉嫌犯罪的人、可能需要保护的人、易受伤害的人、出于情报目的可能对其感兴趣的人、以及出现在特定活动中引起特别关注的人。
在Liberty的支持下,加的夫的公民自由活动家爱德华·布里奇斯(Edward Bridges)对SWP使用AFR提出了挑战。布里奇斯靠近AFR Locate的两次部署-第一次是2017年12月21日在加的夫市中心,另一次是2018年3月27日在该市举行的国防采购、研究、技术和出口性展览-虽然他本人没有被列入部队观察名单,但他认为,由于他靠近摄像头,他的图像被系统记录了下来,即使几乎是在之后立即删除。
警方在未经授权的情况下处理敏感个人资料对人权的影响是此案的核心问题。自动化身份决策可能带来的偏差风险问题是另一个关键考虑因素。
布里奇斯最初要求司法审查的理由是,AFR不符合“欧洲人权公约”第8条、数据保护立法和“2010年平等法”第149条下的“公共部门平等义务”(“PSED”)规定的尊重私人生活的权利。
去年9月,分区法院以各种理由驳回了他的上诉。然后,他以五个理由提出上诉,并根据今天一致通过的上诉法院的裁决,在三个理由上取得了成功。
法院裁定,SWP使用的法律框架和政策没有就AFR所在地可以使用以及谁可以被列入观察名单提供明确的指导--认为赋予警察的自由裁量权过于宽泛,无法达到“欧洲人权公约”第8(2)条所要求的标准。
调查还发现,由于SWP在没有违反第8条的基础上撰写了这份文件,因此进行了不充分的数据保护影响评估,这意味着该部队未能遵守英国2018年数据保护法(Data Protection Act 2018)。
法院还裁定,该部队认为它遵守了PSED是错误的-因为它没有采取合理的步骤,询问AFR定位软件是否包含基于种族或性别的偏见。(尽管法院指出,没有明确的证据表明该工具存在如此大的偏见。)。
我对今天@Libertyhq对南威尔士警方使用自动面部识别技术提起的案件的判决感到难以置信,欣喜若狂。上诉法院同意这项技术威胁到我们的权利。Https://t.co/2kZiz7lJpv[1/5]。
自从布里奇斯提出这一挑战以来,伦敦大都会警察局已经先发制人,开启了面部识别技术的操作使用--在今年年初启动了这一开关。尽管在它的案例中,该系统是由一家私人公司(NEC)运营的。
在大都会博物馆宣布这一消息时,Liberty称这一举动是“危险的、压迫的和完全没有道理的”。在今天的一份新闻稿中,它暗示部署大都会可能是非法的,原因与SWP使用该技术的原因类似-引用了该部队进行的一项审查。公民自由活动家、人工智能伦理学家和隐私专家都指责大都会忽视了一份独立报告的调查结果,该报告得出的结论是,大都会没有考虑到人权影响。
Liberty律师Megan Goulding在一份声明中评论上诉法院今天的裁决时说:“这项判决是打击歧视性和压迫性面部识别的一次重大胜利。法院一致认为,这种反乌托邦的监视工具侵犯了我们的权利,威胁到我们的自由。面部识别歧视有色人种,法院认定南威尔士警方未能履行调查和避免歧视的职责,这是完全正确的。
他说:“现在是政府认识到这项侵入性科技的严重危险的时候了。面部识别是对我们自由的威胁--它需要被禁止。“。
在另一份支持声明中,布里奇斯补充道:“我很高兴法院同意面部识别明显威胁到我们的权利。这项技术是一种侵入性和歧视性的大规模监控工具。三年来,南威尔士警方在没有我们同意的情况下,也经常在我们不知情的情况下,一直在用它来对付我们数十万人。我们都应该能够使用我们的公共空间,而不会受到压迫性的监视。“
然而,重要的是要注意到,他并没有在所有理由下赢得上诉。
值得注意的是,法院认为,早些时候的法院在考虑到AFR Locate的“实际和预期利益”与AFR部署对桥梁的影响时,正确地进行了一次权衡,以确定警察部队使用AFR是否对人权法构成了相称的干扰--并判定好处可能很大,而个别影响很小,因此根据第八条第(2)款,认为使用AFR是相称的。
因此,英国法院似乎并没有完全关闭警方使用面部识别技术的大门。
事实上,这是一个信号,表明个人权利的影响可以与“更大的好处”的潜在利益相平衡-所以这项裁决看起来更像是在定义如何合法使用这种侵入性技术。(值得注意的是,SWP通过BBC表示,它“完全致力于”AFR的“仔细开发和部署”。)。
这项裁决确实明确表示,任何此类部署都需要比SWP申请更严格地约束,才能遵守人权法。但它并没有说警方使用面部识别本质上是非法的。
部队也不能通过利用这种技术来忽视平等要求--根据裁决,有义务采取措施评估自动面部识别是否存在偏见风险。
鉴于此类系统已被发现存在偏见问题,这可能会成为警方继续使用这种人工智能的更大障碍。