欧洲联盟周三揭开了严格的法规,以管理人工智能的使用,这是一项概述了公司和政府如何使用作为最重要的技术,但是最重要的技术,而是道德地被引起的科学突破最近的记忆。
规则草案将在一系列活动中使用人工智能的限制,从自动驾驶汽车到招聘决策,银行贷款,学校入学选择和考试的评分。它还涵盖了法律执法和法院系统的人工智能的使用 - 被认为是“高风险”的地区,因为它们可能会威胁人们的安全或基本权利。
一些用途总共被禁止,包括公共空间中的现场面部识别,尽管存在几种国家安全和其他目的的豁免。
108页的策略是一种尝试在成为主流之前调节新兴技术。该规则对大型技术公司倾向于开发人工智能的主要技术公司的影响深远,包括亚马逊,谷歌,Facebook和微软,而且还有其他使用该软件开发医学,保险政策和判断信贷资源的公司的分数。政府利用刑事司法技术的版本和收入支持等公共服务的分配。
违反新条例的公司可能需要几年才能通过欧盟政策制定过程,可能面临全球销售额的6%的罚款。
“关于人工智能,信任是一个必须,不是一个很好的人,”Margrethe Westager,欧洲委员会主管副总党在一份声明中表示,为27个国家集团监督数字政策。 “通过这些地标规则,E.U.是刺激新的全球规范的发展,以确保A.I.可以信任。“
欧盟法规将要求提供高风险地区人工智能的公司,以提供其安全证明的监管机构,包括风险评估和文件,解释了该技术如何做出决策。公司还必须保证人类监督如何创建和使用系统。
一些应用程序,如聊天,如在客户服务情况下提供人类的人性化对话,以及创建难以检测的操作图像的软件,如“Deepfakes”,必须对用户进行清晰,所以他们所看到的是计算机生成的计算机。
多年来,欧洲联盟一直是世界上最具侵略性的技术产业的看门狗,其他国家通常使用其政策作为蓝图。集团已经制定了世界上最达到的数据隐私法规,并辩论额外的反托拉斯和内容审核法。
但欧洲不再是推动艰难的监督。最大的科技公司目前正在接近世界各国政府的更广泛,每个政府都有自己的政治和政策动机,以压接该行业的权力。
在美国,拜登总统填补了行政批评的行政管理。英国正在为警察创造一个技术监管机构。印度正在收紧社交媒体的监督。中国采取了阿里巴巴和腾讯等国内科技巨头的目标。
未来几年的结果可以重塑全球互联网的运作方式以及如何使用新技术,以获得不同内容,数字服务或在线自由的人。
人工智能 - 在哪种机器培训,通过研究巨大的数据,通过研究巨大的数据,通过技术人员,商业领导者和政府官员作为世界上最具变革的技术之一,有希望的生产力的主要收益,从而培训工作。
但由于系统变得更加复杂,理解为什么软件做出决定会更难,因为计算机变得更强大,这可能会变得更糟。研究人员提出了有关其使用的道德问题,这表明它可以在社会中延续现有的偏见,侵入隐私或导致更多的工作是自动化的。
欧洲委员会释放欧洲委员会的法律草案,包括混合反应。许多行业团体表达了救济,条例并不严格,而民间社会团体表示他们应该进一步走。
“在过去几年中,关于监管AI的意义,迄今为止的回归选择是有很多讨论,并迄今为止,没有任何作用,等待并看看发生的事情,”Ada Lovelace的主任克莱特族说在伦敦研究所,研究人工智能的道德使用。 “这是任何国家或地区集团第一次尝试过。”
善良女士表示,许多人担心该政策过于广泛,留给公司和技术开发商的太多自行决定来规范自己。
“如果它没有缩小严格的红线和指导方针,以及关于可接受的内容的非常坚定的边界,它会为解释开辟了很多,”她说。
公平和伦理人工智能的发展已成为硅谷最具争议的问题之一。 12月12月,谷歌研究了该软件的道德用途的团队联合领导者表示,她被解雇了批评公司缺乏多样性和现代人工智能软件内置的偏差。辩论在谷歌和其他公司内部的关于将尖端软件销售给各国军事使用的公司。
在美国,政府当局也正在考虑人工智能的风险。
本周,联邦贸易委员会警告出销售使用种族偏见的算法,或者可以“否认人们就业,住房,信贷,保险或其他福利的人工智能系统。”
在其他地方,在马萨诸塞州和城市等奥克兰,加利福尼亚州; 波特兰,奥勒。 和旧金山,各国政府采取了措施限制警察使用面部承认。