Twitter的机器学习,道德,透明度和问责机构,作为负责任的ML,成为2021年的公司最优先事项之一

2021-06-24 02:36:16

机器学习工程师ARI Font担心推特的未来' S算法。它是2020年代中期,以及团队的领导者研究了公司的道德和问责制' S ml刚刚离开推特。对于字体,道德研究的未来尚不清楚。

字体是Twitter' S机器学习平台的经理 - Twitter Cortex的一部分,公司' S Central ML组织 - 但她认为道德研究可以改变Twitter依赖机器学习的方式。她曾经觉得算法问责制和道德应该不仅仅是如何推特使用算法,而是所有实用的AI应用程序。

所以她自愿帮助重建推特和#39;元团队(META代表机器学习,道德,透明度和问责制),开始了她所谓的路演,以说服杰克罗西和他的团队,ML道德没有' T属于研究。在几个月的过程中,在与Dorsey和其他高级领导人的一连串对话之后,Font Hadn' t确保了一个更强大的,运作的曾经小团队的地方。除了增加的人体和新任董事的预算外,她最终说服了Dorsey和Twitter'董事会,使负责任ML的Twitter之一和主要的2021优先事项,这与缩放Meta&#39的权力。在Twitter内部的工作和#39;产品。

"我希望确保非常重要的研究对产品产生影响,并且正在缩放。这是一个非常战略性的下一步,使我们能够将其带到下一个级别,"字体说。 "我们有战略与推特员工,包括杰克,最终与董事会一起谈判。这是一个非常激烈和快速的过程。"

一年后,Twitter'对Font&#39的承诺甚至是技术中最持怀疑态度的人群 - 道德研究界本身。她的研究人员讨厌和心爱的宣布,她的研究人员对算法审计的承诺,宣布她将离开她的新启动成为推特和#39;荟萃领导者。 Kristian Lum是一位宾夕法尼亚州大学教授,为她的工作建筑机器学习模式而闻名,可以重塑刑事司法,将于6月底加入Twitter作为他们的新研究头。和萨拉罗伯特(Sarah Roberts)为批评的科技公司和UCLA关键互联网咨询中心的主管,将成为今年夏季Meta团队的顾问,研究了推特用户真正想要的算法透明度。

(如果关于这支球队的事情感觉不同,它是因为它的所有领导者都是女性,其中四个都有博士学位,这是一个不仅仅是Meta的大规模招聘狂欢,而且结果证明这一点实际上,在技术中没有广泛的背景,没有缺乏顶级人才。)

这些雇员是一个大规模的政变,适合社交媒体平台,绝望地逃避蒸煮的蒸发和批评,围绕谷歌和脸书搭配算法,机器学习和人工智能的工作。虽然谷歌强迫着名的AI伦理主义者和研究人员Timnit Gebru和Margaret Mitchell和Facebook正在尝试,并且未能说服政治家和研究人员,但它没有动力来操纵算法放大的错误信息,Twitter正在给出字体和jutta威廉姆斯负责帮助运营Meta&#39的产品管理器,资源和leeway聘请一个实际上在Twitter上行动的人团队'承诺倾听其研究人员。

字体' s"道路和#34;在Gebru和Mitchell之前发生了很多公众解雇 - Chowdhury表示她会同月加入Twitter谷歌强迫米切尔出来 - 但是,2020年的算法爆发了犹太人和他的董事会认为道德算法值得帮助花钱。

在去年,通过Facebook订婚算法的前总统唐纳德特朗普和#39; S社交媒体帖子的放大器吸引了左侧的广泛愤怒; Facebook'在响应中非常暂时调整这些算法的决定甚至从右边更清晰地斥责。冠状病毒错误信息的传播遵循类似的轨迹,而全国关于刑事司法和种族的政策对话唤醒了普通的公众,以算法固有的偏见。所有新的意识都发现了Google' s gebru的闪点。她强迫的出口使整个世界都要注意伦理艾。

"思想极化......也进入负责任的ai。我们正在专门针对我不会提到的名称,因为那么他们会在蒂姆尼特之后的方式跟随我来说,他们会在我的方式之后。 Chowdhury说。 "非常剧烈的思想鸿沟被拉入我们的领域。"

字体希望Chowdhury从一开始就经营Meta,但她认为没有办法说服她。 "我们需要得到正确的领导者。我花了几个月这样做。我很好,它花了很长时间,"字体说。 "我想要一个已经建立和尊重的人,如你所知,这不是一个很容易取悦的社区。这是一个棘手的任务。"

但是关于这首第一部电话的事情制作了Chowdhury - Who' D最近将工作作为负责任的AI在埃森哲的高级校长,找到自己的创业 - 重新考虑她的未来。 "我的目标总是在这个行业推动变化。这个行业是如此年轻。我只是想看到它成功,"她解释道。如果Twitter实际上是关于Meta的严重,那么这项工作可能可能是她认为她可能永远不会拥有的机会。

"我要求和每个人交谈。从Twitter下来的领导下,我与来自政策从Comms谈到的每个人。对我来说绝对是至关重要的,每个人都与meta互动的人真的在船上。而且我总是让每个面试都这么深刻。无论是无论是什么都不有什么问题,无论是什么都有正确的ethos,"她说。

四个月前她拿走了这份工作。从那以后,除了公司之外,除了与其2021个负责任的ML倡议的公共承诺(这意味着Twitter将公开分享它如何做出关于其算法的决定,以及种族和政治如何塑造其ML),Twitter已经发布了一个基于研究的研究结果,对其图像裁剪算法进行评估并完全取出了算法。

高级领导说,它会承诺进行编队,有前途的沟通。他们在抵达之前一直在行动这一承诺:团队成员定期与Dorsey和他的高级员工会面,以讨论进步,解释他们的工作,保护其他资源,并从Dorsey上获取Resey关于研究,教育和变化他们希望实施。

"我们向杰克及其工作人员介绍每六个星期 - 我们报告我们的进展以及我们所在的进展。他们最感兴趣地学习我们学到的东西以及他们如何提供帮助。他们实际上真的很想知道 - 你学到了什么,你将在哪里下去 - 他们很快想帮助,"字体说。

威廉姆斯,计划经理,在2020年同意的时候持怀疑态度,并在2020年同意时将工作作为Facebook的隐私高级技术领导者留下并加入团队。 "它'因为一个非常忠诚的人而令人难以置信的沮丧,你去了一个地方,你认为你和#39;重新改变。我必须在我的职业生涯中枢转和变化,因为我买入炒作,"威廉姆斯说。 "当Twitter告诉我时,我对社交媒体有点令人沮丧,'请来只是与这支作业交谈。'"

威廉姆斯拿走了这份工作,但她没有放弃她可能会回到医疗保健隐私或非营利性工作的想法:"我带着很长一段时间的健康怀疑主义。"

解决Twitter' s问题意味着实际定义用户' "问题"是。 "它更容易教导模型如何代表他们输入的人做某事,"威廉姆斯解释道。罗伯茨将在7月初加入Twitter,同意加入船上,以帮助恰恰答案。她' ll获得独立和宽容,以帮助Twitter学习如何以可用方式提供人们的选择。 "我们真的知道这个问题的答案,"威廉姆斯说。

用户长期发声的少数易识别的问题之一是Twitter' S算法的自动裁剪图像,许多人认为经常以优选的方式播种上传的图像,以便呈现出较轻的皮肤和性化的女性身体。 Williams,Font和Chowdhury将他们的工作归功于该算法,作为他们计划如何运行他们的团队的示例。

在他们的第一个公开的详细的研究项目以来,自Chowdhury' s开始,meta创建了一个测试,以评估如何在各种照片上进行实际执行的算法。他们发现了一个略有的比赛偏见,虽然他们可能已经将数字解雇了,但他们决定与工程师一起使用,以帮助完全去除算法。如果对算法进行了更改,他们将与它们分开进行将受到影响的团队分开进行工作,而是将其与它们一起工作,让他们在研究项目的过程中知道。当他们的调查结果表明,应发生变化时,他们帮助创建了与有关工程师合作的算法删除算法的计划。

在拆除算法之后,Meta发布了新闻稿,解释了他们如何得出他们的结论和一个科学论文,显示他们如何进行研究。

"对于完全诚实,人们在Twitter上没有任何问题。国会实际上是遵循他们所听到的人说," Chowdhury说。

超越用户选择和公共透明度,Chowdhury'目标是创建一个规则和评估制度,这些规则和评估系统,如政府在模型上运作:一个可以防止发生危害的系统,而不是在人们受伤后解决原因。

该团队为机器学习工程师没有糟糕的意图,该团队中心为这个想法中心中心;他们往往缺乏对他们的理解,能够做出什么,以及如何以道德方式进行管理他们的工作。伦理,整体方法是' t必须在大多数人工智能群计划中授课,很少有技术公司支持伦理学家,审计师和Chowdhury' C口径的研究人员(参见:Google&#39自身道德AI工作的崩溃)。

"我们的工程师正在寻找指导和专业知识。事情是可行的,因为他们知道我们可以做得更好,它很难知道什么不同的东西,除非你有工作流程,"字体说。 "人们不会始终知道他们能做什么,即使他们是聪明的和善良的。"

元团队没有什么是严重的执法权力。他们说他们在'"你可以通过对执法的恐惧来改变,但对于改变的长期投资,你可以通过越来越多地推动你的长期投资来改变。 34;据威廉姆斯介绍 - 但在一天结束时,Meta是一个知识创造的团队,而不是警察部队。虽然他们可以研究和提出变化,但他们不一定强迫其他团队陷入一线。他们的工作是民主,而不是专制。

"生命周期为制定变化,"威廉姆斯解释道。 "你必须专注于增强;您的第一次迭代或两者更加用于监控,而不是审计。这是一个概念是如此新的,即在纪律和执法中重点关注,你可以' t真正推动恐惧。"

"道德在字面上是关于世界意外后果的世界。我们谈论在试图建立没有背景或教育的东西时提到的工程师,谈论谁,谈论' Chowdhury说。 "我们与想要做正确的人和#39; t知道如何做正确的事情的人交谈。"

Chowdhury被广泛读为一种处理她的想法 - 她在我们的谈话中引用了无数的书籍和论文 - 她看到自己通过女权主义镜头创造领导风格。她对领导力的定义而不是惩罚或控制她所做的人,而是寻找分享资源和权力的方法,而不是为了自己。寻求执法权威将反对那种领导定义。 "我非常担心巩固无情的权威,"她说。

道德机器 - 学习世界的许多研究人员和领导者认为,在技术公司内部工作并接受作为顾问(而不是一个执法者)的角色使得这项工作无用。这个想法令人沮丧的Chowdhury,Williams和字体,所有这些都让他们恢复了你可以'如果你'从业界+ 39的批评之外,累积真正的进展。重新批评。 "行业之外的每个人都指向你的手指,就像你是这个问题。你正在尽最大努力做你的工作,做好工作,人们就像,你根本就是不道德,因为你拿到了他们的薪水," Chowdhury说。

"但Meta的目标不是这种指向的这个闪亮的例子,在那里我们在公共汽车下投掷我们的公司时,我们将成为好人,"她补充道。 "如果我们的目标是改变行业并将行业推向可行的积极产出,那么它实际上并不是非常富有成效。"