图灵奖获得者、Facebook首席人工智能科学家严乐村(Yann LeCun)宣布退出流行的社交网络平台推特(Twitter),此前他卷入了一场关于人工智能种族偏见的长期且往往激烈的争论。与大多数其他人工智能研究人员不同,勒村经常在社交媒体平台上发表自己的政治观点,此前还曾与加里·马库斯(Gary Marcus)等同事公开争执。然而,这一次,勒昆对辩论的嗜好让他与他所说的“现代社会正义的语言准则”发生了冲突。这一切都始于6月20日的一条推文,内容是关于杜克大学(Duke University)新的PULSE AI照片娱乐模型,该模型将巴拉克·奥巴马(Barack Obama)的低分辨率输入图像去除了一张白人男性的照片。宾夕法尼亚州立大学(Penn State University)副教授布拉德·怀布尔(Brad Wyble)在推特上写道:“这张照片充分说明了人工智能偏见的危险。”LeCun回应说:“当数据有偏差时,ML系统是有偏差的。这个人脸上采样系统让每个人看起来都是白人,因为这个网络预先训练了FlickFaceHQ,它主要包含白人的照片。在塞内加尔的数据集上训练“完全相同”的系统,每个人都会看起来像非洲人。“研究科学家、”人工智能中的黑人“小组的联合创始人、谷歌Timnit Gebru伦理人工智能团队的技术联合负责人在推特上回应说,”我受够了这种框框。“。厌倦了。很多人试图解释,很多学者都试图解释。听我们说。你不能仅仅减少ML对数据集偏向造成的危害。“。她补充说,“即使在世界范围内的抗议活动中,人们也听不到我们的声音,试图向我们学习,他们认为自己是一切方面的专家。我们带她去,你跟去。听我说。并向@ruha9[普林斯顿大学非裔美国人研究副教授鲁哈·本杰明(Ruha Benjamin)]这样的学者学习。我们甚至把她带到你家,你的会议。“。(这里指的是ICLR 2020,当时勒昆担任总裁,本杰明介绍了Talk 2020远景:重塑科技与医药社会的默认设置。)。Gebru以她在面部识别系统和其他人工智能算法中的种族和性别偏见方面的工作而闻名,多年来她一直在倡导人工智能中的公平和道德。她与麻省理工学院媒体实验室计算机科学家乔伊·布朗维尼(Joy Buolamwini)共同领导的性别阴影项目显示,与浅色男性相比,商业面部识别软件更有可能被错误分类,对深色皮肤的女性的准确性也较低。Gebru的CVPR 2020在实践中谈论计算机视觉:谁受益,谁受到伤害?再次谈到偏见在人工智能中的作用,“我认为现在很多人已经理解到我们需要更多样化的数据集,但不幸的是,我觉得这就是理解已经停止的地方。这就像是‘让我们使我们的数据集多样化。这是一种道德和公平,对吗?但你不能忽视社会和结构问题。“LeCun回答说,他的评论针对的是杜克模型和数据集的特定情况。“在部署的产品中,偏见的后果比在学术论文中要可怕得多,”勒昆在一长串推文中继续说,这表明需要更谨慎选择数据的不是ML的研究人员,而是工程师。“又来了。难以置信。这需要什么呢?如果你自己的会议上的教程,书籍和书籍,专家的演讲和演讲来到你自己的家里,喂给你,艾米丽和我甚至涵盖了研究界如何处理数据的问题。没有。无关紧要。“。格布鲁回答说。“这甚至不是社区外的人,我们说像他这样的人应该跟随、阅读、学习。这是我们试图在我们自己的社区里教育人们。可以肯定的是,这是一个令人沮丧的时期。令人沮丧。“。来自人工智能和活动家社区的其他人也加入了这场斗争,太多的人只是简单地攻击LeCun或Gebru。6月25日,乐存抛出橄榄枝:“我非常钦佩您在AI伦理和公平方面的工作。我非常关心如何确保偏见不会被人工智能放大,我很抱歉我在这里的沟通方式成为了故事。“。格布鲁回答说:“我们经常听到这样的话:‘很抱歉,这是你的感受。’这并不能真正承认实际情况。我希望你能理解“为什么”你是如何沟通成为故事的。它之所以成为故事,是因为它是一种边缘化的模式。“。
也许你可以试着理解为什么这种互动是错误的,告诉你的粉丝们不要再捉弄我了。除了我们现在正在经历的一切,你认为让我来处理这件事合适吗?(7/N)。
-Timnit Gebru(@timnitGebru)2020年6月26日。
勒村和格布鲁之间长达一周的来回,吸引了数千人点赞、评论和转发,多位备受瞩目的人工智能研究人员对勒村的解释表示不满。谷歌研究科学家David Ha评论说:“我对此表示敬意