利用面部识别进行监测或操纵人类行为的算法,将在提议欧盟关于人工智能的规定下禁止。
在官方出版物之前泄露的广泛建议也承诺了他们认为高风险的急救措施的艰巨新规则。
在军队中使用AI豁免,原因是当局使用的系统,以保护公共安全。
以一种操纵人类行为,意见或决定的方式设计或使用的那些......导致一个人表现,形成一个意见或对他们的损害作出决定
利用信息或预测和一个人或一群人来定位他们的漏洞的人
"我们如何确定某人的损害'谁评估了这个?"他写了。
对于被视为高风险的人来说,会员国将不得不申请远远监督,包括需要指定评估机构进行测试,证明和检查这些系统。
以及任何开发禁止服务的公司,或未能提供有关它们的正确信息,可能面临全球收入的4%的罚款,类似于GDPR违规的罚款。
Leufer先生补充说,建议应该和#34;扩展到包括所有公共部门AI系统,无论其指定的风险水平"
"这是因为人们通常没有选择与公共部门中的AI系统互动。"
除此之外,要求新的AI系统具有人类监督,EC还提出高风险AI系统具有所谓的杀戮开关,可以是停止按钮或其他步骤,以便在需要时立即关闭系统。
" AI供应商将极其专注于这些提案,因为它需要在AI设计的根本转变,"赫伯特Swaniker说,克利福德机会的律师。
与此同时,伦敦大学学院数字权利和监管中的讲师迈克尔·瓦尔(Michael Veale)突出了一个条款,该条款将迫使组织在使用Deepefakes时披露,这是一个特别有争议的AI创造虚假人类或操纵真实人的图像和视频。
他还告诉英国广播公司,立法主要是"针对供应商和顾问销售 - 经常向学校,医院,警察和雇主和#34销售
但他补充说,使用AI&#34的技术公司;操纵用户"也可能必须改变他们的做法。
通过这种立法,EC必须在确保AI之间使用困难的速度,确保AI用于它所谓的"一个工具......具有增加人类福祉的最终目标和#34;以及确保它并不确保它并不是它;努力驻欧盟国家与美国和中国的技术创新竞争。
欧洲非营利性法律中心,为欧洲委员会捐赠了欧洲委员会的艾滋病委员会,告诉英国广播公司,据英国广播公司告诉英国广播公司"很多模糊和漏洞"在拟议的立法中。
"欧盟' eu'在最糟糕的情况下最佳和危险的二进制定义高风险的方法,因为它缺乏今天已经存在的复杂AI生态系统所需的上下文和细微差别。
"首先,委员会应考虑在基于权利的框架内的AI系统的风险 - 作为他们对人权,法治和民主造成的风险。
"第二,委员会应拒绝超薄的低高风险结构,并考虑基于层的方法对AI风险的水平。"
在下周正式揭幕之前,细节可能会再次发生变化。并且不太可能成为少年的法律。