在今天发表的联合意见中,欧洲数据保护委员会(EDPB)和欧洲数据保护监督员(EDP),WOJCIECH WIEWISROWSKI呼吁欧盟草案关于使用人工智能技术的使用,比4月份的提案更进一步 - 敦促计划规划的立法,以包括“在公开可访问的空间中自动识别人类特征的任何使用AI的一般禁令,例如对面孔,步态,指纹,DNA,语音,击键和其他生物识别的识别或行为信号在任何上下文中“。
这些技术对欧盟公民的基本权利和自由的基本权利和自由的自由和平等的待遇是危害的 - 允许他们的使用,是争论。
EDPB负责确保欧盟隐私规则的协调应用,而EDPS监督欧盟机构自行遵守数据保护法,并为委员会提供立法指导。
欧盟立法者关于规范AI的申请的提案草案对执法在公共场所使用生物识别监测的限制 - 但具有非常广泛的豁免,这些豁免迅速吸引了数字权利和民间社会团体的重大批评,以及一些MEPS 。
EDPS自己也很快敦促重新思考。现在他走了进一步,艾普布与批评加入。
EDPB和EDP共同充实了与欧盟的AI提案的许多问题 - 同时欢迎欧盟立法者采取的总体“风险的方法” - 例如,即表示必须要注意与Bloc的一致性现有数据保护框架以避免权限风险。
“EDPB和EDP强烈欢迎解决欧盟内部AI系统的目的,包括欧盟机构,机构或机构的AI系统。与此同时,埃普布和EDP致力于从提案范围内排除国际执法合作,“他们写道。
“EDPB和EDP还强调需要明确澄清现有的欧盟数据保护立法(GDPR,EUDPR和LED)适用于根据AI条例草案范围下降的个人数据的任何处理。”
以及呼吁在公共场合禁止使用生物识别监督,本对促请了使用生物识别学的AI系统禁止禁止AI系统,将个体分类为“基于种族,性别,政治或性取向或其他理由的”群集根据“基本权利宪章”第21条禁止歧视“。
这是谷歌推动的一个有趣的担忧,在凹坑领域,以替换具有广告的个人的行为微观,根据他们的兴趣来解决用户的群组(或团体) - 与谷歌定义的网络用户的这种群集AI算法。
(因此,根据单个移动用户如何为广告定位目的组合在一起,有意思地推测絮状风险是否创造了法律歧视风险。当然,损害偏见和掠夺性广告的潜力潜在地提出了担忧。和这也很有趣的是,谷歌避免在欧洲运行早期测试,可能拥有欧盟的数据保护制度。)
在今天的另一个建议中,艾普和EDP还表达了一种观点,即使用AI来推断自然人的情绪是“高度不受欢迎的,并且应该被禁止” - 除了他们描述为“非常指定的案件,例如一些健康目的,患者情感认可很重要。
“使用AI对任何类型的社会评分应该被禁止,”他们继续触摸委员会的提案草案建议的一个用例,应该完全禁止,欧盟立法者显然热衷于避免任何中国风格的社会信用体系持有该地区。
然而,通过在拟议的规则中未能在公众中禁止在拟议的规则中禁止在拟议的规则中,委员会可以说是在狡猾的制定的制定的系统中冒着风险 - 即不禁止私人行为者从部署技术,这些技术可以用于跟踪和概况人民行为的部署技术远程和en masse。
评论声明,EDPB的椅子和reRea jelinek和EDPSWiewiórowski尽可能多地争辩,写作[重点是我们]:
“在公共访问空间中部署远程生物识别识别意味着这些地方的匿名结束。实况面部识别等申请干扰了基本权利和自由,以至于他们可能会对这些权利和自由的本质进行质疑。这需要立即应用预防性方法。如果我们希望保留我们的自由并为AI创造以人为本的法律框架,则在公开可访问的区域中使用面部识别的禁令是必要的起点。拟议的监管还应禁止任何类型的AI用于社会评分,因为它反对欧盟的基本价值,可以导致歧视。“
在他们的联合意见中,他们还向委员会提出了委员会的AI规则的执法结构表示担忧,争论数据保护当局(会员国内)应被指定为国家监管机构(“根据[AI]提案第59条)) - 指出欧盟DPA已经强制执行涉及个人数据的AI系统的GDPR(一般数据保护规范)和LED(法律执法指令);因此,争论将是“更加统一的监管方法,并有助于欧盟的数据处理条款的一致解释”如果他们也得到监督AI监管的能力。
他们对委员会的计划也不满意在计划欧洲人工智能委员会(EAIB)中给人一种主要作用 - 认为这是“将与一个独立于任何政治影响力的AI欧洲机构相冲突”。为了确保董事会的独立性,提案应该给予更多的自主权和“确保它可以按照自己的倡议行事”,他们补充道。
AI法规是近几个月由欧盟立法者推出的多项数字建议之一。不同欧盟机构之间的谈判 - 以及行业和民间社会的游说 - 继续,因为集团致力于采用新的数字规则。
在另一个相关的发展中,英国的信息专员上周警告了大数据监测系统的威胁,能够利用现场面部识别等技术 - 尽管她声称它不是她恳求或禁止技术的地方。
但她的意见明确表示生物识别监测的许多应用可能与英国的隐私和数据保护框架不相容。