执法部门、营销人员、医院和其他机构应用人工智能(AI)来决定谁被定性为罪犯,谁可能以什么价格购买什么产品,谁接受治疗,谁受雇。这些实体越来越多地监控和预测我们的行为,往往是受权力和利润的驱使。
现在,人工智能专家询问人工智能是否“公平”和“永远”并不少见。但“公平”和“好”是无限宽敞的词,任何人工智能系统都可以挤进去。要提出的问题是一个更深层次的问题:人工智能是如何转移权力的?
从7月12日开始,数千名研究人员将在为期一周的国际机器学习会议上虚拟会面,这是世界上最大的人工智能会议之一。许多研究人员认为人工智能是中立的,而且往往是有益的,只是受到来自不公平社会的有偏见的数据的破坏。在现实中,一个冷漠的领域服务于有权势的人。
在我看来,那些在人工智能领域工作的人需要提升那些被排除在塑造人工智能之外的人,这样做将要求他们限制与受益于监控人员的强大机构的关系。研究人员应该倾听、放大、引用并与首当其冲受到监测的社区合作:通常是妇女、黑人、土著、LGBT+、穷人或残疾人。会议和研究机构应该将突出的时间段、空间、资金和领导角色让给这些社区的成员。此外,在拨款申请和出版物中,应该要求和评估关于研究如何转移权力的讨论。
一年前,我和我的同事们在前人工作的基础上创建了激进的人工智能网络。该组织的灵感来自黑人女权主义学者安吉拉·戴维斯(Angela Davis)的观察,他说,“激进的意思就是‘从根本上抓东西’”,而根本问题是权力分配不均。我们的网络强调倾听那些被边缘化和受到人工智能影响的人的声音,并倡导反压迫技术。
考虑一个用于对图像进行分类的人工智能。专家们训练该系统在照片中寻找模式,也许是为了识别某人的性别或行为,或者在人的数据库中找到匹配的面孔。“数据对象”-我指的是经常未经同意被跟踪的人,以及那些手动分类照片以训练人工智能系统的人,通常报酬微薄-通常既被人工智能系统利用,也被人工智能系统评估。“数据对象”指的是经常未经同意被跟踪的人,以及那些手动分类照片以训练人工智能系统的人,通常报酬微薄。
人工智能领域的研究人员压倒性地专注于向决策者提供高度准确的信息。值得注意的是,很少有研究关注于服务于数据对象。这些人需要的是调查人工智能,挑战它,影响它,甚至拆除它的方法。例如,倡导团体Our Data Body正在提出在与美国公平住房和儿童保护服务互动时保护个人数据的方法。这样的工作很少受到关注。与此同时,主流研究正在创建培训成本极高的系统,进一步增强了本已强大的机构的能力,从亚马逊(Amazon)、谷歌(Google)和Facebook,到国内监控和军事项目。
许多研究人员很难将他们在人工智能领域的智力工作视为进一步的不平等。像我这样的研究人员每天都在研究对我们来说是数学上美丽和有用的系统,并听到人工智能成功的故事,比如赢得围棋锦标赛或在检测癌症方面表现出希望。我们有责任认识到我们歪曲的观点,倾听那些受到人工智能影响的人的意见。
通过权力的镜头,可以看出为什么准确、通用和高效的AI系统并不对每个人都有好处。在剥削性公司或压迫执法的手中,更准确的面部识别系统是有害的。组织的回应是承诺设计“公平”和“透明”的系统,但谁说是公平和透明的呢?这些系统有时会减轻危害,但由有自己议程的强大机构控制。往好了说,它们是不可靠的;往坏了说,它们伪装成仍然存在不平等的“道德洗涤”技术。
一些研究人员已经在揭露系统的隐藏限制和故障。他们用倡导人工智能监管来编织他们的研究成果。他们的工作包括批评不充分的技术“修复”。其他研究人员正在向公众解释如何提取自然资源、数据和人力来创造人工智能。
新泽西州普林斯顿大学的种族与技术学者鲁哈·本杰明(Ruha Benjamin)鼓励我们“记住想象和打造那些你不能生活的世界,就像你拆解那些你不能生活的世界一样”。本着这种精神,现在是时候将被边缘化和受影响的社区置于人工智能研究的中心-他们的需求、知识和梦想应该指导发展。例如,今年,我和我的同事为不同的与会者举办了一个研讨会,分享我们渴望的人工智能未来的梦想。我们描述的人工智能忠实于数据主体的需求,并允许他们自由选择退出。
当人工智能领域认为自己是中立的时,它既没有注意到有偏见的数据,又建立了将现状神圣化并促进强者利益的系统。我们需要的是一个领域,揭露和批评集中权力的制度,同时与受影响的社区共同创建新的制度:人工智能,由人民和为人民。