算法不公正:关系伦理方法

2021-03-12 03:55:56

机器学习(ml)越来越渗透了每个人的领域。复杂,上下文,不断移动的社会和政治挑战是自动化的和包装为数学和工程问题。同时,算法不公正的研究表明ML如何自动化和延续历史,通常是不公正和歧视性的模式。算法系统的负面后果,特别是在边缘化社区上,对算法公平进行了刺激。尽管如此,大多数工作范围都缩小了范围,专注于微调特定模型,使数据集更具包容性/代表性,以及“脱叠”数据集。虽然这样的工作可以构成补救措施的一部分,但基本上公平的路径必须检查更广泛的图片,例如在数据集,当前和历史不公正和功率不对称的毫无疑问或直观的假设。

因此,这项工作并未为“公平”系统提供可实现的解决方案清单,而是要求学者和从业者批判性地检查该领域。它被认为是ML和数据科学是解决使用数据和算法问题的字段。因此,挑战通常被制定为问题/解决方案。这种话语的后果是拒绝这种问题/解决方案制定的挑战,或没有明确的“解决方案”的挑战,或主要提供关键分析的方法被系统地丢弃并被视为超出这些领域的范围。这项工作希望能够为AI伦理,公平和正义的基本组成部分来全面接受关键工作。

指出算法系统越来越多地遍历社会领域已经变得普遍。提高了效率 - 这些系统的标志 - 将他们的大规模融入日常生活中的群体。然而,作为算法不公正的领域的强大研究体,算法系统,特别是在用于排序和预测社会结果时,不仅是不充分的,而且遭受损害。特别是,文学中的持续和反复趋势表明社会'最脆弱的伤害是不成比例地影响。当算法不公正和伤害被带到之前,大多数关于提供的解决方案(1)围绕技术解决方案围绕技术解决方案和(2)不居中不成比例地受影响的社区。本文提出了基本的转变 - 从理性到思考人间,数据,正义以及之间的一切,以及将道德的伦理作为超越技术解决方案的东西。概述了基于关系基础的道德的想法,本文要求重新思考正义和道德作为一系列广泛,或然和流体概念和最佳视为习惯而不是a仅仅是数据科学的方法。因此,本文主要提供关键的考试和反思而不是“解决方案”。