由于欧盟考虑为艾,60 +非政府组织要求EC禁止自动性别识别制度,依靠对性别的过时理解

2021-04-17 20:32:47

据近年来,略微讨论了面部识别等面部识别所带来的主要内容危险。但数字权利团体说,同样阴险的用案例目前正在雷达下偷偷摸摸:使用相同的技术预测某人的性别和性取向。现在,一项新的竞选活动已经在欧盟禁止这些应用程序。

在对该主题进行了广泛写的研究员,努力预测某人的性别或来自数字化线索的性别或性别的性别或性行为从根本上缺陷。这种技术倾向于将性别减少到简单的二进制文件,因此,对可能不适合这些狭窄类别的跨界人和非必载人员的个人往往有害。当生成的系统用于物理空间的门控条目等物理空间或验证某人的在线服务的身份时,它会导致歧视。

“通过看着它们而不是与他们说话来识别某人的性别是有点像询问蓝色的味道一样,”Keyes讲述了边缘。 “这个问题并不是那么你的答案是错误的,因为你的问题没有任何意义。”

这些预测可以使用各种输入进行,从分析某人的声音来聚合他们的购物习惯。但面部识别的兴起使公司和研究人员具有新的数据输入,他们认为特别是权威。

“这些系统不仅无法认识到跨越人类存在,他们实际上无法认识到跨国人存在。”

商业面部识别系统,包括由亚马逊和微软等大型科技公司出售的系统,经常将性别分类作为标准特征。预测来自同一数据的性取向很少,但研究人员仍然建立了这样的系统,最符合所谓的“AI Gaydar”算法。有强有力的证据表明,即使在自己的缺陷场所,这种技术也不起作用,但这并不一定限制它的采用。

“即使是第一次研究它的人说,是的,有些锡帕特独裁者可以使用这个软件来试图”找到队列“,然后将它们扔进一个阵营中,”算法的关键字检测性定位。 “那不是夸张。在车臣,这正是他们一直在做什么,而且没有机器人的帮助。“

在自动性别识别的情况下,这些系统通常依赖于对性别的狭窄和过时的理解。通过面部识别技术,如果有人有短发,他们被归类为一个人;如果他们穿着化妆,他们是一个女人。类似的假设是基于骨骼结构和面部形状等生物识别数据进行的。结果是那些不容易融入这两个类别的人 - 像许多跨域和非联尼的人一样 - 是忧虑的。 “这些系统不仅无法认识到跨越人的存在。他们真的无法认识到跨越人类存在,“Keyes说。

这种性别识别技术的当前应用包括数字广告牌,分析路人,以为他们提供有针对性的广告;数字空间,如“仅限女孩”的社交应用傻瓜,猜测他们的性别免受自拍照;和营销特技,就像一个广告系列,让柏林妇女折扣码头骑士庆祝试图确定基于面部扫描的女性的平等薪酬日。研究人员还讨论了更多潜在的危险用例,如部署技术,以限制浴室和更衣室等性别地区。

在这种情况下被机器拒绝,可能不仅是羞辱和不方便的,而且还引发更严重的反应。由于路人以警察这些空间拿到警察,反式态度和浴室的歇斯斯特杂交机已经导致了许多公共厕所的骚扰和暴力事件。如果有人被一个看似公正的机器公开宣布为“错误”性别,那么它似乎只会合法化这种骚扰和暴力。

Daniel Leufer是数字权利集团访问的政策分析师,它正在推动禁止这些应用的活动,表示,这项技术与欧盟对人权的承诺不相容。

“如果你住在一个致力于维护这些权利的社会中,那么唯一的解决方案是禁令,”Leufer讲述了边缘。 “自动性别识别完全有所可能,以便人们能够在男性女性二进制中或以不同的方式表达他们在出生时分配的性别的性别身份。”

立即访问,以及其他60多名其他非政府组织,已向欧盟委员会发了一封信,要求它禁止这项技术。该活动,由国际LGBT +宣传集团提供支持,欧洲委员会在欧盟对欧盟的新法规考虑了新的法规。一篇白皮书去年分发的建议,在考虑公共场所的完全禁止面部识别,Leufer表示,这表明欧盟何有多多及AI监管问题。

“现在有一个独特的时刻,在欧盟的立法中,我们可以呼吁重大红线,我们趁机做到​​这一点,”Leufer说。 “欧盟一贯诬陷自己,因为在中国和美国的第三条道路上,欧洲价值观在其核心,我们试图抓住他们。”

Keyes指出,禁止这项技术应该对每个人感兴趣,“无论他们对跨境的中心性如何,因为这些系统加强了极其过时的性别政治模式。

“当你看看这些研究人员的想法,就像他们从20世纪50年代那样旅行的时候,”Keyes说。 “我看到的一个系统使用了广告汽车的例子到男性和漂亮的衣服到女性。首先,我想知道谁陷入丑陋的衣服?其次,他们认为女人不能开车吗?“

这种技术的使用也比简单地为男性和女性提供不同的广告更为微妙。尤其是,关键字,性别识别被用作过滤器,以产生与性别本身无关的结果。

例如,如果通过将个体与面部数据库匹配来使用面部识别算法来禁止到建筑物或国家/地区,如果通过对性别过滤结果,它可能会缩小其搜索。然后,如果系统在它面前判处该人的人,它将产生一个无形的错误与手头的任务无关。

Keyes表示,这种应用程序深感令人担忧,因为公司不分享他们的技术如何运作的详细信息。 “这可能已经在现有的面部识别系统中普遍存在,我们无法判断,因为他们完全是黑匣子,”他们说。例如,在2018年,由于安全功能要求他们验证他们的身份与自拍照的安全功能,转发优步驱动程序被踢出了公司的应用程序。 Keyes说,为什么这些人被系统拒绝未清楚,但是,有可能的性别认可可能发挥了缺陷。

最终,在面对人类表达的各种和复杂性时,试图将世界减少到基于简单启发式的二元分类的技术总是会失败。 Keyes承认,机器的性别识别确实为大量人员工作,但表示系统中的潜在缺陷将不可避免地伤害那些已经被社会边缘化的人,并将每个人强行进入较窄的自我表情形式。

“我们已经住在一个非常严重的社会中,非常严重,非常直观地进行性别,”Keyes说。 “这些技术正在做些什么是使这些决定更有效,更加自动,并且难以挑战。”

Tech Peloton在上个月去世后,在跑步机上争夺召回请求 查看技术中的所有故事