人类历史自古以来就有相互歧视和偏见的不幸记录。有意识地努力发展包容和平等的社会制度是必要的。在日益自动化的世界里,计算机与人类互动,人工智能给了我们另一次机会,让世界变得更加公平,机会均等。
然而,机器是人造的。我们有义务有意识地努力确保人工智能解决方案不会延续我们的错误。
人工智能的吸引力是巨大的:它可以搜索数百万条数据,并利用这些数据做出往往比我们更准确的预测。使用人工智能实现流程自动化似乎也比依赖主观(且速度较慢)的人工分析更客观。毕竟,人工智能算法不会“不喜欢”你的照片,也不会基于它做出任何假设,特别是当它被教导完全忽略它的时候。
问题是,人工智能算法不一定没有人类偏见。人工智能是在人类数据上设计和训练的,人类思维的特点是有偏见。因此,偏见也是人类设计系统的内在副产品。这些人工智能偏见可能会呼应有问题的看法,例如某些群体感知到的优越性。即使是设计良好的人工智能系统也可能最终产生偏见,这完全是偶然的。
问题是:我们能防止人工智能成为种族主义和性别歧视吗?如果我们可以,那么机器能帮助我们创造一个更公平的社会吗?
让我们从头开始:在机器有偏见之前,人是有偏见的。为什么会这样呢?根据“剑桥词典”,偏见是“因为允许个人意见影响你的判断,以不公平的方式支持或反对某个特定的人或事的行为。”
偏见可以是与生俱来的,也可以是后天习得的。人们可能会对个人、群体或信仰产生偏向或反感。它不一定局限于种族和种族;它也是性别、宗教、性取向和许多其他容易受到偏见的特征。
偏见有两种类型:有意识的(也称为显性偏见)和无意识的(也称为隐性偏见)。有意识的偏见指的是我们在有意识的层面上的态度,大多数时候,它是由于感知到的威胁的直接结果而产生的。
无意识偏见是一个人在其意识之外形成的关于特定人群的一种社会刻板印象。它是自动的、无意的、根深蒂固的,并且能够影响行为。无意识的偏见比有意识的偏见更普遍。
根据美国心理协会的数据,今天只有一小部分美国人是明确的种族主义者,并对其他种族和种族怀有仇恨。
但大多数美国人,因为他们成长于历史上在许多方面都是种族主义的文化,因为他们暴露在有偏见的媒体面前,将暴力、毒品和贫困与特定的群体联系在一起。
人们总是会有一定程度的偏见,因为他们的观点是主观的,更糟糕的是,人类往往会一概而论。这部分是我们被规划的方式的错误,也是我们规划我们的社会和文化的方式的失败。这是不是意味着机器也要这样编程?
显然,人工智能解决方案没有自己的政治议程,对吗?它不会是故意的种族主义,除非它被明确地训练成这样。这也不是(至少在大多数情况下)它们的创造者的政治议程才是问题所在。问题是,很容易无意中就把机器训练成种族主义者,甚至连试都不试。
以下是算法如何根据种族区分不同领域的几个示例:
图像识别:佐治亚理工学院的研究人员在观察到特定人口统计数据的较高错误率后,测试了自动驾驶汽车中使用的八种图像识别系统。他们发现,对于肤色较深的人来说,他们的准确率平均降低了5%。因此,自动驾驶汽车更有可能碾压黑人,而不是开白人。
医疗保健:美国医院用来为患者分配医疗保健的算法一直在系统地歧视黑人。一项研究得出结论,与同样患病的白人相比,该算法不太可能将黑人推荐给旨在改善对有复杂医疗需求的患者的护理的计划。
刑事案件:2016年,ProPublica发布了一项关于法院用来预测未来罪犯的ML程序的调查,他们发现该系统对黑人有偏见。该节目从监禁数据中了解到谁最有可能最终入狱。从历史上看,刑事司法系统一直对美国黑人不公平。因此,当人工智能程序获得这些历史数据时,它会从历史上由人类做出的有偏见的决定中学习。
自然语言处理(Natural Language Processing,NLP):在很多情况下(例如,工作/大学入学,甚至贷款申请),单词可以作为输入-所谓的单词嵌入表示单词作为机器学习的输入。但是,当算法从人类那里学习单词的含义时,就存在一个公平问题。我们的观点往往是主观的和有偏见的,所以单词(例如人名)的意思就是有偏见的。2017年发表在“科学”杂志上的一篇论文发现,当一台电脑通过在互联网上爬行来自学英语时,它就会对美国黑人和女性产生偏见。例如,当使用手套新闻数据集时,以“My Name is…”开头的简单文本的情感(给定句子的积极程度)。当它以黑人的普通名字结束时,比白人的普通名字要低得多。
无偏见人工智能很快就会成为解决社会问题的强大工具-例如通过更公平地获得融资/医疗系统来增强社会流动性,通过使司法系统更加客观来减轻排斥和贫困,在大学招生中进行无偏见测试,等等。我们应该期待科技公司和当局都提供公平的人工智能解决方案。
军事和战术书籍上说,武器或战术应该总是考虑到敌人的战略。这场特别的公平和人类尊严之争也是如此。在这场战争中,也有不同的方法来对抗种族偏见,这取决于算法使用的域(字段)和数据。
在图像识别系统的情况下,偏差的原因是机器用于学习的训练数据大多包含从白人那里收集的样本。这些人工智能解决方案在识别不同种族的人方面可能会有问题,因为它根本没有看到足够多的照片。当涉及到有色人种女性时,这种效果加倍。
奥普拉·温弗瑞(Oprah Winfrey)、米歇尔·奥巴马(Michelle Obama)和塞雷娜·威廉姆斯(Serena Williams)进行男女分类时,领先公司的人脸识别系统失败。
这里最大的问题是,人脸识别系统被执法部门和边境管制部门广泛使用。如果应用程序对特定群体有很高的假阳性率(根据NIST的研究,美国使用的大多数人脸识别算法在非白人面孔上的表现更差),这将使这一人群被错误指控犯罪的风险最高。
这个问题的解决方案(我们的武器)非常简单。尽管如此,在数据集准备期间需要更多的关注:在训练数据集中(例如,面部识别)平等表示有色人种和性别的人,对于算法(如面部识别算法)以相同的精度工作至关重要,而不分种族或性别。
此外,从社会学的角度来看,如果少数族裔代表被更多地鼓励成为人工智能团队的一部分,这些偏见问题将很难被忽视,也很自然地被指出。
数百万黑人在医疗保健算法中受到种族偏见影响的原因是什么?它是基于医疗保健的历史成本,在这种情况下,更高的医疗保健成本与更大的需求相关。那些确实接受了更高费用治疗的人被认为需要更广泛的护理,这似乎是对的-或者说是这样吗?
这种方法最大的问题是,那些不太富裕的人根本负担不起更广泛的治疗,所以他们选择了更便宜的选择,而他们的实际需求与条件相同的人一样,可以选择更昂贵的治疗。
用花在治疗上的钱来近似医疗需求实际上是一种排他性的方法,偏向于更有钱的人。寻找治疗费用以外的其他变量来估计一个人的医疗需求,可以减少84%的偏差。
这里的问题通常不是测试实际技能,而是候选背景(例如,童年环境)。如果你有两个考生,一个来自富裕的社区,另一个来自贫穷的社区,第二个可能会得分较低,因为她(或他)收集问题中假设的特定知识的可能性较低,但这并不意味着她(或他)缺乏所需的技能。
这里的解决方案是构建由NLP支持的分类器,其作用是根据过去申请者的结果及早发现有偏见的问题。这将允许在录取/招聘过程中准备一套公平和包容的问题,以测试候选人的实际技能,而不是他们的环境背景。
词嵌入技术是自然语言处理中最流行的方法之一,也是功能最强大的方法之一。
它将实际单词转换成数学向量,这些向量后来被用作许多预测算法的特征。它可以用于分析工作或贷款申请,以加快这些过程(并减少它们的主观性)。
问题是,这些单词嵌入很容易产生偏见,因为他们从中学习的实际人类生成的互联网数据的特征。人类的观点往往是主观的和有偏见的,所以这些词的意思也是有偏见的。
从单词嵌入算法的角度来看,最简单的方法是温和地要求人类停止种族主义,开始制作更少的独家内容。但即便如此,也很难抗拒一些间接的频繁词共现,包括历史的、语言的,甚至是仁慈的刻板印象。
例如,将女性与任何词联系在一起,即使是一个主观上积极的词,如吸引力,也可能导致对女性的歧视。原因是,它可以减少它们与其他术语的联系,比如专业术语。
解决这个问题的实际ML方法是寻求词义的去偏见(词嵌入),而不是肤色中和(或软化),以便性别中立和种族中立的词在语义上与所有人类保持相等的距离(类似于本文描述的性别去偏见)。
当比较类似的文本时,可以观察到成熟的流行词嵌入和偏颇的流行词嵌入之间存在着显着的差异,在相似的文本中,名称被更改以提供伦理内涵。上图显示了对有色人种的明显偏见,而无偏见单词嵌入的用法如下所示。
不仅应该向人工智能算法提供包容的人工智能数据集,其中所有种族都是平等代表的,以避免歧视,而且还应该仔细选择变量,以避免对有色人种的任何潜在偏见。
选择我们世界的较少偏见的表示(如单词嵌入)应该作为所有解决方案的标准,以服务于公平,而不仅仅是在NLP领域。我们应该确保我们创造的算法服务于每个人,而不仅仅是社会的一小部分。
验证排他性应该是任何人工智能团队在创建机器学习软件过程中最关键的步骤之一。专注于在技术团队内部建立意识也是至关重要的,这些团队正在创建这些改变生活的解决方案。
Angwin,J.,等人。“机器偏见。”ProPublica,2016年5月23日,可访问www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing。
Bolukbasi,T.,Chang,K.W.,邹,J.Y.,Saligrama,V.,和Kalai,A.T.,2016。男人之于电脑程序员就像女人之于家庭主妇?去偏向单词嵌入。神经信息处理系统的进展(第4349-4357页)。
Buolamwini,J.A.,2017年。性别阴影:脸部数据集和性别分类器的交叉表型和人口统计学评估(麻省理工学院博士论文)。
卡利斯坎,A.,布赖森,J.和纳拉亚南,A.,2017年。从语料库自动派生的语义包含类似人类的偏见。科学,356(6334),第183-186页。
卡斯伯森,这是安东尼。“研究表明,自动驾驶汽车更有可能撞上黑人。”独立、独立的数字新闻和媒体,2019年3月6日,www.independent.co.uk/life-style/gadgets-and-tech/news/self-driving-car-crash-racial-bias-black-people-study-a8810031.html.。弗洛雷斯,A.W.,贝克特尔,K.,和洛文坎普,C.T.,2016年。假阳性、假阴性和假分析:对机器偏见的反驳:全国各地都有软件用来预测未来的罪犯。这是对黑人的偏见。美联储。缓刑,80页,第38页。
莱德福德,H.,2019年。数以百万计的黑人在医疗算法中受到种族偏见的影响。“自然”,第574页(7780),第608-609页。
杰弗里·彭宁顿,理查德·索彻和克里斯托弗·D·曼宁。2014年。Glove:用于单词表示的全局向量。
斯佩尔,R.,2017年。ConceptNet NumberBatch 17.04:更好的、不那么刻板印象的词向量。概念网博客,网址:https://blog.conceptnet.io/posts/2017/conceptnet-numberbatch-17-04-better-less-stereotyped-word-vectors/,2020年6月23日访问
斯佩尔,R.,2017年。如何在不真正尝试的情况下制作种族主义的人工智能。概念网博客,网址:http://blog.conceptnet.io/posts/2017/how-to-make-a-racist-ai-without-really-trying/,2020年6月23日访问