这出现在评论中,但不是每个人都阅读评论,因此。 。 。
约瑟夫(Joseph)推荐了一篇题为“我们必须阻止好战的自由主义者将人工智能政治化;退休的计算机科学教授佩德罗·多明戈斯(Pedro Domingos)说,“去偏置”算法实际上意味着增加偏置。文章开始:
如果过去由人类做出的决策(带有所有偏差)开始由数学上无偏差的算法来做,该怎么办?如果您很理性,就应该庆祝。如果您是激进的自由主义者,那么您会意识到这种发展是致命的威胁,因此争夺控制权。
您可以在AI会议上看到这种情况。上周,我参加了领先的国际机器学习会议2020版NeurIPS。最初只是一个小规模的聚会,如今聚集了足够多的人来参加体育比赛。今年,NeurIPS首次要求大多数论文包括“更广泛的影响”声明,并接受道德委员会的审查。 。 。 。
正如杰西卡(Jessica)在她的帖子中所讨论的那样,关于如何实施该政策以及确实这项新政策的目标有一些有趣的问题。
Domingos在他的文章中从两个不同的方向进行了讨论,一个与政治有关,另一个与算法偏差的可能性有关。在这篇文章中,我将不会谈论任何政治问题,而只会谈论算法偏差问题。
在我看来,多明戈斯(Domingos)到达了关键点的一半,但只有一半。
该文章的副标题为“'去偏置'算法实际上意味着增加偏差”,其第一句假设决策是“由数学上无偏差的算法做出的”。
他写了“对种族,性别或社会经济地位一无所知的复杂数学公式。除了公式y = a x + b可以做到之外,他们再也不能是种族主义者或性别歧视者,但关键的问题不是“ a x + b”存在偏见。我认为,要点是,如果“ x”是有偏差的,那么“ a x + b”也将有偏差。从这个意义上讲,诸如“ a x + b”之类的公式可以发布偏见或洗钱偏见,或者使某些偏见更能为社会所接受。
如果x有偏差,则“ a x + b”有偏差,那么您可以通过先减去x的偏差来对算法进行偏差处理。在实践中,这并不是那么容易,因为它通常具有偏差的性质,我们不知道它们到底有多大(如果我们知道,我们已经建立了联系),但是没有理由为什么要“消除偏差”算法至少不能减少偏差。
好的,这是我认为Domingos正确的一半:“偏差”是相对于某些模型和某些特定情况而言的。如果“ a x + b”由于“ a”,“ x”和“ b”的某些偏见而产生偏见,我们可以预期这些成分偏见会随着时间和上下文的变化而变化。在某些设置中,可以偏向某个数字,从而避免算法的结果偏向于特定组中的成员,而在另一种设置中,偏向于特定组中的成员。从本质上讲,“去偏斜”不是自动的,去偏斜的尝试直接或通过向算法中添加另一个输入,从而可能产生另一种潜在的偏斜,会使情况变得更糟。可以比拟凯恩斯主义对经济的干预,这可以使事情变得更好或更糟,但也可以通过在系统中添加其他参与者来使系统复杂化。
这是我认为Domingos弄错了的一半:他对现有算法无偏见非常乐观。我不知道他为什么如此自信,认为现有的信用卡评分,假释咨询,购物和媒体推荐等算法没有偏见,也无法进行外部改进。我尊重他对这些过程中的政治参与的关注,但是现有的算法是人为产物,已经是政治过程的结果。再一次,他担心“渐进式技术会巧妙地将偏见分配给透明地不会有的算法”,这一点遗漏了一点,即这些算法的结构和输入是现有人类选择的结果。
我不知道前进的最好方法是什么-正如我说的,我认为Domingos是正确的,但他的讨论过于简单化,不值得我想成为计算机科学教授。他在文章中写道,“他发布了几条推文,对最新变化提出了疑问,而取消暴民就降临了我。侮辱,嘲讽,威胁-随便你说。我讨厌twitter。我建议他不仅在Twitter(讨论只是一系列的肯定和否定)上发表自己的论点,或者在杂志网站上发布讨论内容(要么完全不讨论,要么讨论会降级为侮辱,嘲讽等)。 。),但作为博客,可以进行周到的交流,他可以参与这些问题。
返回当前帖子的标题:我看到了两件事。首先,“偏见”一词含糊其词,对不同的人可能有不同的含义-我们之前已经讨论过。其次,我怀疑多明戈斯遵循“我的敌人的敌人是我的朋友”的原则,据我们所知,这可能会导致我们在一个非二元世界中陷入各种扭曲。