欧洲联盟正在考虑禁止使用人工智能的许多目的,包括大规模监测和社会信用评分。这是根据泄露的提案,在线流通,首先由政客首次报告,前一周的官方公告。
如果提案草案采纳,则会看到欧盟对AI的某些申请产生强大立场,将其与美国和中国相结合。一些使用案例将以类似于欧盟在GDPR立法下类似欧盟的数字隐私监管的方式策划。
例如,成员国将被要求设立评估委员会以测试和验证高风险AI系统。在欧盟开发或销售的公司在欧盟(欧盟)中禁止的公司 - 包括世界其他地方的软件 - 可以被罚款高达全球收入的4%。
根据边境所见的副本,法规草案包括:
禁止AI“不分青红皂白监测”,包括直接跟踪物理环境中的个体或来自其他来源的总数据的系统
禁止AI系统,创造社会信用评分,这意味着根据社会行为或预测人格特征来判断某人的可信度
使用“远程生物识别系统”在公共空间中的面部识别等“远程生物识别系统”的特殊授权
当人们与AI系统互动时所需的通知,除非这是“明显的情况和使用范围”
“高风险”AI系统的新监督,包括对安全的直接威胁的人,如自动驾驶汽车,以及影响某人的生计的机会很大,就像用于招聘,司法决定和信用评分
在他们投入使用之前对高风险系统的评估,包括确保这些系统可释放对人类的长长的人,并且它们在测试的“高质量”数据集上培训,以偏见测试
由每个国家的代表组成的“欧洲人工智能委员会”的创造,帮助委员会决定哪个AI系统算作“高风险”,并建议更改禁止
也许文件最重要的部分是第4条,禁止某些利用AI,包括大规模监督和社会信用评分。但是,对数字权利团体和政策专家的反应表示本节需要改进。
“禁止AI系统的描述是模糊的,并且充满了尚不清楚的语言,并将为现在的访问权限访问欧洲政策分析师Daniel Leufer为漏洞创造严重的漏洞室。他说,这一部分是“远非理想”。
Leufer指出,禁止导致人们“表现,形成意见或对其损害作出决定”的系统是无敌的模糊的。国家法律究竟如何决定是某人的损害吗?另一方面,Leufer说,禁止AI对大规模监督的禁止是“太宽松”。他补充说,基于“可信度”的AI社会信用体系禁止也定义过于狭隘。社会信贷系统不必评估某人是否值得信任,以决定他们福利福利的资格。
在Twitter上,非营利性国际委员会(国际隐私专业人士国际协会)副总裁OMER TENE评论说,该规定“代表了新技术和创新的典型布鲁塞尔方法。当有疑问时,规范。“如果提案通过,它将创建一个“庞大的监管生态系统”,它不仅会绘制AI系统的创作者,还可以绘制进口商,经销商和用户,并创建一些国家监管委员会和欧盟。
然而,这种生态系统不会主要是关于克制“大型技术”,伦敦大学学院数字权利和法规的讲师迈克尔·瓦格尔说。 “在它的景点中主要是已知的商业和决策工具的较少供应商,其工作经常被监管机构或其自己的客户审查,”VEALE讲述了。 “少数眼泪将损失法律,确保卖出安全关键系统或用于招聘,射击,教育和监管的安全性系统或系统的少数AI公司对高标准进行。也许更有趣的是,这一制度将调节这些工具的买家,例如确保有足够权威的人类监督。“
它尚不清楚,由于欧盟政策制定者在4月21日准备官方公告时,对该提案草案所取得的更改。尽管如此,一旦提出了监管,它将受到MEP的反馈之后的变化,并且必须在每个国家 - 州分开实施。