新冠肺炎大流行期间的社会动荡突显了新的人工智能数据监管的必要性

2020-07-11 00:03:08

布拉德福德·K·纽曼(Bradford K.Newman)是保罗·黑斯廷斯(Paul Hastings';Employee Mobility';Employee Mobility and Trade Secret Practice)的主席,著有“在员工流动时代保护知识产权:表格与分析”

人工智能数据保护法第102(B)条提供了什么,为什么联邦政府现在迫切需要制定它?

要回答这些问题,首先需要了解人工智能(AI)在这个历史时刻是如何被使用的,因为我们的民主社会正面临着两个同时存在的威胁。只有这样,人工智能对我们个人尊严构成的风险才能得到承认,第102(B)条被理解为保护美国人珍视的、作为我们社会基石的自由的最重要的补救措施之一。

美国现在正在经历要求结束种族主义和警察暴行的大规模抗议活动,并在试图平息致命的新冠肺炎流行病的过程中目睹内乱的展开。无论我们是否意识到或赞同它,在这两个背景下-以及在我们生活的其他方方面面-政府和私人行为者都在部署人工智能技术,以做出关于我们的关键决策。在许多情况下,人工智能正被用来帮助社会,并让我们尽快达到下一个常态。

但到目前为止,政策制定者在很大程度上忽视了人工智能驱动的一个关键的公共卫生和安全问题。当谈到人工智能时,大部分注意力都集中在用于训练算法的数据集的公平性、偏见和透明度问题上。毫无疑问,算法产生了偏见;人们只需看看员工招聘和贷款承销,就能找到不公平地排斥女性和少数族裔的例子。

我们还看到人工智能从数据中产生意想不到的,有时无法解释的结果。考虑一下最近的一个算法的例子,该算法被认为是为了帮助法官公平地判决非暴力罪犯。由于尚未解释的原因,该算法为23岁以下的被告分配了更高的风险分数,导致刑期比那些被监禁更频繁的年龄较大的同龄人长12%,同时既不能减少监禁,也不能减少累犯率。

但目前的双重危机暴露了另一个在很大程度上被忽视的更令人恼火的问题-社会应该如何应对人工智能算法正确的情况,但从伦理的角度来看,社会对结果感到不舒服?由于人工智能的根本目的是产生准确的预测数据,人类可以根据这些数据做出决定,所以立法者现在应该解决的不是人工智能方面可能发生的事情,而是应该禁止的事情。

政府和私营企业对我们的个人数据有着永无止境的胃口。目前,人工智能算法正在世界各地被利用,包括在美国,以准确地收集和分析关于我们所有人的各种数据。我们有面部识别来监视人群中的抗议者,或者确定普通公众是否注意到了适当的社会距离。有用于接触者追踪的手机数据,以及公共社交媒体帖子,以模拟冠状病毒向特定邮政编码的传播,并预测与示威相关的地点、大小和潜在的暴力事件。还有,我们不要忘记无人机的数据,这些数据被用来分析口罩的使用和发烧,或者个人健康数据,这些数据被用来预测哪些COVID住院患者病情恶化的可能性最大。

只有通过使用AI,才能如此大规模地汇编和分析这些数量的个人数据。

算法以维护和平和遏制毁灭性流行病的名义,创建我们的手机数据、社交行为、健康记录、旅行模式和社交媒体内容-以及许多其他个人数据集的个性化配置文件,这种访问能够并将导致各种政府行为者和公司创建关于我们最私人属性、政治倾向、社交圈和行为的令人恐惧的准确预测性配置文件。

如果不受监管,社会就会冒着这些人工智能生成的分析被执法部门、雇主、房东、医生、保险公司-以及其他所有可以收集或购买它的私营、商业和政府企业-用来做出预测性决定的风险,无论这些决定是否准确,这些决定影响我们的生活,打击自由民主的最基本概念。人工智能继续在就业背景下承担着越来越大的角色,以决定谁应该被面试、聘用、晋升和解雇。在刑事司法背景下,它被用来确定要监禁的人和要判处的刑罚。在其他情况下,人工智能限制人们呆在家里,限制医院的某些治疗,拒绝贷款,并惩罚那些违反社会距离规定的人。

很多时候,那些回避任何类型的人工智能监管的人试图将这些担忧斥为假设和危言耸听。但就在几周前,密歇根州居民、黑人罗伯特·威廉姆斯(Robert Williams)因为一次虚假的人脸识别匹配而被错误逮捕。根据新闻报道和美国公民自由联盟(ACLU)的一份新闻稿,底特律警方当着威廉姆斯的妻子和两个受到惊吓的女孩(年龄分别为2岁和5岁)的面,在他的前院草坪上给威廉姆斯戴上了手铐。警方将他带到了大约40分钟车程的拘留中心,在那里他被关押了一夜。第二天下午,一名警官在审讯中承认“电脑一定是搞错了”,威廉姆斯最终获释--在他被捕近30小时后。

虽然人们普遍认为这是第一起确认的人工智能面部识别错误导致无辜公民被捕的案件,但显然这不会是最后一起。在这里,人工智能是影响公民个人的关键决定的主要基础-被执法部门逮捕。但我们不能只关注这样一个事实,即人工智能失败了,因为识别了错误的人,剥夺了他的自由。我们必须识别和禁止那些人工智能不应该用作特定关键决策的基础的情况-即使它做得“正确”。

作为一个民主社会,我们不应该因为我们考虑过但没有犯下的罪行而被逮捕,或者因为一种疾病而被拒绝接受治疗,这种疾病肯定会随着时间的推移而导致死亡,就像威廉姆斯先生的错误逮捕一样。我们必须建立一个人工智能“禁飞区”来保护我们的个人自由。我们不能让某些关键决定完全由人工智能算法的预测输出来决定。

需要明确的是,这意味着即使在每个专家都同意进出的数据完全公正、透明和准确的情况下,也必须在法律上禁止将其用于任何类型的预测性或实质性决策。无可否认,在一个我们渴望数学确定性的世界里,这是违反直觉的,但却是必要的。

人工智能数据保护法第102(B)条在这两种情况下都适当和合理地实现了这一点-在这两种情况下,人工智能都会产生正确和/或不正确的结果。它通过两种关键方式做到这一点。

首先,第102(B)条明确指出了那些永远不能全部或部分由人工智能做出的决定。例如,它列举了人工智能的具体滥用,这将禁止覆盖的实体完全依赖人工智能来做出某些决定。这些措施包括招募、雇用和惩戒个人,拒绝或限制医疗,或者医疗保险发行人就医疗保险的承保范围做出决定。鉴于社会最近目睹的情况,禁区可能应该扩大,以进一步降低人工智能被用作种族歧视和骚扰受保护少数群体的工具的风险。

其次,对于某些基于人工智能分析的特定决策,并不是完全禁止的,第102(B)节定义了人类必须参与决策过程的那些情况。

通过毫不拖延地制定第102(B)条,立法者可以通过不允许影响个人的最关键的决定完全由人工智能算法的预测输出来维护个人的尊严。

纽曼先生是贝克·麦肯齐北美商业秘密业务的主席。这里表达的观点和观点是他自己的。