内部看谷歌的伦理艾队队在Timnit Gebru的争议偏离之后,玛格丽特米切尔

2021-06-09 19:38:59

去年11月下旬的一个下午,Timnit Gebru坐在她旧金山湾区的沙发上,哭了。

Google的研究员Gebru刚刚从最后一分钟的视频会议上点击了名为Megan Kacholia的执行官,他发出了jarring命令。 Gebru是一家集团的核糖师,该公司研究了人工智能的社会和道德后果,而Kacholia订购了Gebru以撤回她的最新研究论文 - 或者从其作者名单中删除她的名字,以及其他几个其他人她的团队成员。

有问题的论文是在Gebru的思想中,非常不可禁止的意象。它调查了所谓的大型语言模型的已知缺陷,这是一种由名为GPT-3的系统中最着名的举例说明的AI软件 - 这在技术产业中发挥兴奋。谷歌自己的技术版本现在正在帮助该公司的搜索引擎。谷歌的研究主管杰夫院长鼓励甘油思考这种方法可能的缺点。本文通过公司的内部审查流程航行,并已提交突出的会议。但是Kacholia现在表示,一群产品领导者和公司内部的其他人认为这项工作不可接受,Gebru召回。 Kacholia对他们的反对意见含糊不清,但一周给予Gebru来行动。她的截止日期是感恩节后的一天。

随着该日期更近的情况,Gebru的痛苦转向了愤怒,而这种情况变得黎明。 Kacholia Gave Gebru的经理Samy Bengio列出了这份文件所谓的瑕疵,但告诉他不要将它发送给Gebru,只能将其读到她身上。在感恩节那天,Gebru跳过一些与家人的庆祝活动听到Bengio的主题。根据Gebru的回忆和同期票据,该文件没有提供特定的编辑,而是抱怨纸张“随便”处理主题并绘制的新技术的图片太黯淡。它还声称,Google的所有大型语言模型的用途都是“设计的,以避免所描述的论文的陷阱。

Gebru花了感恩节撰写六页的回应,解释了她对论文的透视,并要求关于如何修订的指导而不是Quashed。她的回复“解决了从谷歌的以太网上的反馈”,因为她仍然不知道谁在议案中设置了她的kafkaesque的苦机,并在第二天送到了kacholia。

星期六,Gebru举行了普遍的越野公路旅行。当Kacholia通过电子邮件发送了确认,她达到了新墨西哥州,以便确认本文将被撤回或清理其谷歌联系。 Gebru发布了对AI伦理研究人员的“审查和恐吓”的隐秘谴责。然后,在周二,她解雇了两封电子邮件:一个寻求结束争议的电子邮件,另一个升级它超出了她最疯狂的想象力。

第一个被致为kacholia并提供了一笔交易:如果谷歌提供了审查工作以及如何审查的账户,以及如何为未来的研究审查和建立更透明的审查进程,就可以从本文中删除自己。如果那些条件没有满足,乐乐写道,她会离开谷歌一旦她有时间来确保她的团队不会太不稳定。第二封电子邮件表现出较少的企业外交。向谷歌大脑中工作的妇女的Listserv,该公司最着名的AI实验室和歌曲伦理AI团队的家庭,它指责公司“沉默边缘化的声音”并将谷歌的内部多样性计划驳回为浪费时间。

在德克萨斯州奥斯汀的Airbnb中放松,在接下来的夜晚,Gebru收到了一个来自她的直接报告之一的😮的信息:“你辞职了?”在她的个人收件箱中,她发现了一封来自kacholia的电子邮件,拒绝了Gebru的优惠并将她从谷歌中铸造出来。 “我们不能在您请求时同意,”Kacholia写道。 “你的工作结束应该比你的电子邮件更快地发生。” Bebru的电子邮件的一部分给Listserv,她继续,已经显示出“与Google Manager的期望不一致的行为。”甘油推文她被解雇了。谷歌维持 - 仍然存在 - 她辞职。

Gebru的Tweet在迅速发起谷歌的争议上点亮了保险丝。近年来,该公司通过雇员的指控令妇女和人民的指责,并从它挥动不健康的技术和经济力量的立法者的指责。现在,谷歌驱逐了一个黑人女性,他们在技术中获得了更加多样化的倡导者,谁被视为一个重要的内部声音,以便在启动恐怖竞赛中更大克制来开发和部署AI。遵循Gebru写作和多样性的谷歌机器学习研究员认为她的出发新闻就像胆量一样。 “这就像,哦,也许事情不会那么容易改变,”员工说,他们被要求保持匿名,因为他们没有被授权通过谷歌管理发言。

迪恩发出了一条消息,敦促陀螺仪忽略Gebru的呼吁,从企业多样性锻炼中脱离;他说,甘油的论文一直是陪审团,她和她的合作者没有遵循适当的批准过程。反过来,Gebru在推文和面试中声称,她被种族主义,性别歧视和审查的有毒鸡尾酒所击倒。对Gebru的账户同情随着AI研究人员中Samizdat的争议纸而来的,其中许多人既不发现它既不争议也不是特别显着的。成千上万的陀螺仪和AI外专家签署了一封公开信函的公司。

但谷歌似乎倍增了。玛格丽特米切尔,伦理艾队的其他核心师和她自己的右重突出的研究员,是Gebru的欧姆斯特最突破的。这两者是一支专业和情感标签团队,构建他们的团队 - 这是谷歌叫做“负责任AI”的谷歌的几个人之一 - 当他们在公司文化中展出的性别歧视和种族主义倾向。相信那些同样的力量在Gebru的垮台中发挥了作用,Mitchell写了一个自动脚本来检索她在她的公司Gmail账户中保留的笔记,根据谷歌的来源,记录了涉嫌歧视性事件。 1月20日,谷歌表示,米切尔触发了内部安全系统,并被暂停。 2月19日,她被解雇了,谷歌声明它发现了“多次违反我们的行为准则,以及我们的安全政策,其中包括保密,商业敏感文件的exfiltration。”

谷歌现在完全斩首了自己的道德AI研究组。从那个感恩节的Ultimatum到Gebru留下了无数旁观者的漫长,壮观的堕落令人想知道:有一篇论文真的沉淀了所有这些活动吗?

在您的收件箱中注册以获得最佳的长大功能,调查和思想挑衅散文。

通过注册即表示您同意我们的用户协议和隐私政策& cookie声明

在谷歌出局的引导中实际发生的故事揭示了一个更酷刑和复杂的背景。这是一个有天赋工程师的故事,在她成为其最大的批评者之一,这是一个最大的评论家之一,这是一个向科技产业中心工作的难民,并决心改革它。它也是关于一家公司 - 世界第五大试图在四年后丑闻,争议和叛变后重新获得其均衡,但是以甚至进一步不平衡船舶的方式。

除了谷歌之外,Timnit Gebru的命运露出了更大的东西:行业努力研究其最喜欢技术的缺陷的努力中固有的紧张局势。在化学品或采矿等传统部门中,由独立专家们持怀疑态度地观察研究毒性或污染的研究人员。但在学习AI的潜在危害的人的年轻领域中,企业研究人员都是中心。

Gebru的职业生涯反映了AI公平研究的快速崛起,以及一些悖论。几乎一旦领域跳过,它很快就吸引了吉普斯等巨人的支持,如谷歌,赞助的会议,发放了赠款,并聘请了该领域最着名的专家。现在甘油突然弹出让她和其他人想知道这项研究是否以其驯化的形式,一直注定为短暂的皮带。对于研究人员来说,它发送了一个危险的信息:AI在很大程度上是不受管制的,并且只能获得更强大和无处不在的,并且在研究其社会危害的内部人士处于流亡的风险。

1998年4月,两个名叫Larry Page和Sergey Brin的斯坦福毕业生在澳大利亚的会议上展示了一种名为PageRank的算法。一个月后,埃塞俄比亚和厄立特里亚之间的战争爆发,揭露了一个两年的边境冲突,留下了数万人死亡。第一次活动设立了谷歌对互联网的主导地位。第二次举办了15岁的TIMNIT GEBRU,用于为未来的MEGACORP工作。

当时,甘油在埃塞俄比亚亚的斯亚贝巴的埃塞俄比亚首都生活在母亲。她的父亲是一个博士学位的电气工程师,当她小时死了。当她和她的朋友可以刮钱时,Gebbru喜欢学校,在咖啡馆闲逛足够的零钱。但战争改变了这一切。 Gebru的家人是厄立特里亚,她的一些亲戚被驱逐到厄立特里亚并以争夺他们所在的国家而战。

Gebru的母亲为美国签证了,在那里Gebru的姐姐,像他们的父亲一样的工程师已经过了多年。但是,当乐观申请签证时,她被拒绝了。所以她去了爱尔兰,加入了一个姐妹姐妹,暂时上班,而她的母亲独自去过美国。

她的一些教师,甘肃发现,似乎无法或不愿意接受非洲难民可能是数学和科学中的高级学生。

到达爱尔兰可能已经节省了Gebru的生活,但它也破坏了它。她叫她母亲并恳求送回埃塞俄比亚。 “如果它是安全的,我不在乎。我不能住在这里,“她说。她的新学校,文化,甚至天气都疏远了。亚的斯亚贝巴的雨季是塞息岛,沉重的下雨散布着阳光。在爱尔兰,下雨稳步下降了一周。正如她对新阶级和欺凌的少数挑战所带来,较大的担忧都被迫。 “我会和家人一起团聚吗?如果文书工作不起作用会发生什么?“她回忆起思考。 “我觉得不必要。”

明年,甘油被批准来到美国作为难民。她在马萨诸塞州萨莫维尔的母亲和她的母亲在波士顿郊区团聚,她在那里招募了当地公共高中 - 以及美国种族主义的碰撞课程。

她的一些教师,甘肃发现,似乎无法或不愿意接受非洲难民可能是数学和科学中的高级学生。其他白色美国人认为,在她认为非洲移民比非洲裔美国人更努力地努力,他们相信他们相信。历史阶级讲述了有关民权运动的令人振奋的故事,解决了美国种族分歧,但故事rang空洞。 “我认为这不可能是真的,因为我在学校看到它,”格鲁说。

钢琴课程有助于提供她可以呼吸的空间。 Gebru还通过转向数学,物理和她的家人应对。她享受了技术工作,而不仅仅是为了它的美丽,而且因为它是一个与个人政治的境界断开连接或担心战争回家。该职业化成为Gebru导航世界之路的一部分。 “我在控制下,我可以去上课并专注于工作,”她说。

Gebru的重点退还了。 2001年9月,她在斯坦福州立了。当然,她选择了家庭专业,电气工程,并且在长期以来,她的轨迹开始体现了移民流星器的硅谷原型。在她的初级年期间,Gebru建造了一个实验的电子钢琴钥匙,帮助她在Apple制作实习,为Mac计算机和其他产品制作音频电路。第二年,她全职工作,同时继续在斯坦福的研究。

在Apple,Gebru茁壮成长。当她的经理Niel Warren需要某人挖掘Delta-Sigma调制器时,一类模数转换器,Gebru自愿,调查该技术是否在iPhone中工作。 “作为一名电气工程师,她无所畏惧,”沃伦说。他发现他的新硬件热门很好,总是用拥抱准备,并在工作之外确定。 2008年,Gebru从她的一堂课中退出,因为她在内华达和科罗拉多州的巴拉克奥巴马队钻了这么多时间,许多门在她的脸上猛烈抨击。

随着Gebbru了解了像iPhone这样的小工具的肠道,她对他们的组件的基本物理感兴趣 - 很快,她的利益进一步漫步,超越电气工程的范围。截至2011年,她正在踏上斯坦福的博士学位,在课堂上漂流并寻找新的方向。她在计算机愿景中找到了它,制作可以解释图像的软件的艺术。

Ubbeknst对她来说,Gebru现在站在革命的尖端上,这将以后来批评的方式改变技术产业。 Gebru最喜欢的课程之一涉及创建可以检测照片中的人格的代码。 “我没有考虑监视,”甘油说。 “我刚刚在技术上找到了它的有趣。”

2013年,她加入了一位计算机愿景专家的实验室,他们帮助刺激了科技产业对AI的痴迷,谁将在谷歌举办一段时间。李创建了一个名为ImageNet的项目,即支付承包商小额金额,以标记从网上刮的一十亿个图像,其中包含他们的内容猫,咖啡杯,大提琴的描述。最终数据库,约1500万图像,有助于重新发明机器学习,一种涉及培训软件的AI技术通过喂食正确答案的示例来更好地执行任务。李的工作表明,一种被称为深度学习的方法,由大量培训数据和强大的电脑芯片推动,可能会产生比现有方法产生的更准确的机器视觉技术。

李先生使用深度学习,为电脑提供对世界的更精细的理解。她的两名学生从谷歌街道视图刮了5000万张图片,计划训练神经网络到现货车并识别他们的制作和模型。但他们开始想知道他们可能构建的其他应用程序。如果您在街道上看到了人口普查数据和汽车之间的相关性,那可以提供一种方法来估计任何邻居的人口或经济特征,只能从图片中估算?

Gebru在接下来的几年里花了,以达到一定的准确性,答案是肯定的。她和她的合作者使用了在线承包商和汽车专家在Craigslist上招募了70,000辆汽车在街道视图图像样本中的制作和型号。注释的图片提供了深度学习算法所需的培训数据,以弄清楚如何识别新图像中的汽车。然后他们处理了全街视图收集,并从200个美国城市的照​​片中确定了2200万辆汽车。当甘蓝与人口普查和犯罪数据相关联的观察时,她的结果表明,更多的拾取卡车和VWS表示更多的白色居民,更多的别克和旧的居民表明了更多的黑色,并且更多的货车与更高的犯罪相对应。

这张AI的力量展示了Gebru在硅谷的利润丰厚的职业。深度学习是所有的愤怒,推动该行业的最新产品(智能扬声器)及其未来的愿望(自动驾驶汽车)。公司花费了数百万美元来获得深度学习的技术和人才,谷歌正在放置一些最大的赌注。它的子公司Deepmind最近庆祝了它的机器学习机床在人类世界冠军上的胜利,这是许多人认为象征了人类和技术之间的未来关系。

Gebru的项目适合行业的新哲学:算法很快就会自动化任何问题,无论多么凌乱。但随着甘油仔细追求,她在她的技术工作和个人价值观之间建立的边界开始崩溃,以对算法未来的感受复杂化。

“我并不担心正在接管世界的机器,”Gebru写道。 “我担心AI社区的集团,绝对和傲慢。”

Gebru对作为毕业生的社会公正问题保持相当稳定的兴趣。她每天都在斯坦福州写了一个事件,其中一个熟人大声奇怪的是彩布是否“实际上是聪明”,或者由于肯定行动而被录取。在斯坦福大学的研究生院,Gebru遇到了比在本科生期间的学生人口明显不那么多元化的学生人口,而且她觉得孤立。她与像她这样的人合作,先生首先经历了全球不等式。 “一旦你在不公正的方面看到世界和美国的方式并不总是对每个人都有问题的答案,那么南非的学生杰斯·奥尔巴赫说,这是非常困难的斯坦福的Gebru,现在是南非西北大学的人类学家。

2016年,甘肃志愿参加埃塞俄比亚的明亮年轻人的编码计划,它在回家的旅行中送她,因为她逃离了15岁以来,她的编码学生们陷入困境,她感到羞怯美国唯一的极限。一个有希望的孩子无法承担坐骑所需的大约100美元。在Gebru支付了他的费用后,他赢得了麻省理工学院的奖学金。尽管美国学校被接受,但她还在帮助被拒绝签证的学生。 “她试过她可以帮助这些孩子的所有人,”UC Berkeley教授Jelani Nelson说,他创立了该计划。

李,甘肃斯坦福的顾问鼓励她找到一种能够联系社会正义和技术的方法,这是她的世界观的两座支柱。 “这对局外人来说显而易见,但我不认为这对她来说显而易见,这实际上是她真正的激情与她的技术背景之间的联系,”李说。 Gebru不愿意伪造那个环节,担心它将成为一个黑人女神和技术专家的第二名。

但她也更加意识到技术有时可以反映或放大社会的偏见,而不是超越它们。 2016年,Propublica报道称为Compas的常规风险算法在全国范围内广泛使用,使得黑人将从白人重新核准的虚假预测(一个由算法的公司争议的分析)。这使得甘油怀疑她在她自己的研究中是否使用的犯罪数据反映了偏见的警务。在同时,她被引入了加纳美国麻省理工学院大师的学生Joy Buolamwini,他们注意到一些旨在检测面孔的一些算法比黑人在白人身上效果不太好。 Gebru开始向她发表发表她的结果。

这不仅仅是倾斜白色的算法或他们的训练数据。 2015年,Gebru在该领域的顶级会议上,神经信息处理系统(NIPS)的首次瞥见了AI研究人员的全球社区,

......