Google的AI道德危机可能会影响政策

2020-12-17 20:10:17

Google解雇Timnit Gebru已有两周了,这一决定似乎仍然令人难以理解。 Gebru是世界上最受尊敬的AI伦理学研究人员之一,他是一位先驱,他的工作突出了技术在面部识别和最近使用的大型语言模型方面使边缘化社区失败的方式。

当然,这件事并不是在真空中发生的。这是AI伦理,权力和大技术交汇处正在进行的一系列活动的一部分。案例分析:Gebru在同一天被解雇,美国国家劳工审查委员会(NLRB)向Google投诉,称其非法监视雇员并报复解雇有兴趣参加工会的雇员。 Gebru的免职还引发了对公司在研究中的影响力的问题的质疑,展示了自我监管的缺陷,并强调了在《黑人生活问题》引发美国历史上最大规模的抗议运动的一年中,黑人和妇女在科技领域的待遇不佳。

在上周接受VentureBeat采访时,Gebru称其被开除的方式“不敬”,并描述了CEO Sundar Pichai发送的全公司备忘录是“不人道的”。为了进一步研究Google的AI道德规范崩溃后可能产生的结果,VentureBeat与AI,技术政策和法律领域的专家就Gebru被解雇及其引发的问题进行了交谈。他们还分享了有关政府,企业和学术界需要进行政策变更的想法。与我交谈的人都同意,谷歌解雇Gebru的决定是一个错误,具有深远的政策含义。

Rumman Chowdhury是Parity的首席执行官,该公司是针对企业客户的启动审核算法。之前,她曾在埃森哲(Accenture)担任负责任AI的全球负责人,为政府和企业提供建议。在我们的交谈中,乔杜里表达了一种被许多接受本文采访的人所共鸣的情绪。

“我认为这实际上是对每个人的附带损害:谷歌,人工智能行业,负责任的人工智能……我认为他们并不真正了解自己的所作所为。否则,他们将无法做到。”乔杜里对VentureBeat说。

Christina Colclough是Why Not实验室的负责人,也是AI全球合作伙伴关系(GPAI)指导委员会的成员。 GPAI于6月启动,有15个成员(包括欧盟和美国)以及巴西和另外三个国家在本月初加入。

问完“谁在向Google提供建议?” Colclough建议对评估算法进行独立的外部审核。她说:“您可以说,对于正在开发的任何新技术,我们都需要进行风险评估,人权评估的影响,我们需要能够对其进行审核,并检查其法律合规性。”

独立审核的想法与建设项目今天需要提交的环境影响报告相符。今年早些时候发表的一篇关于企业如何将道德原则转化为实践的论文建议建立一个第三方市场来审核算法并提供与网络安全公司支付的漏洞赏金类似的赏金。该论文包括来自学术界和工业界数十个有影响力组织的60位作者。

如果加州选民上个月通过了《提案25》,则该法案将要求对风险评估算法进行独立的外部审核。在AI的公共问责制的另一项发展中,阿姆斯特丹和赫尔辛基等城市已采用算法注册表。

乔杜里说,现在人们很难相信大技术公司内的任何道德团队都不仅仅是洗道德的行动。她还建议格布鲁的解雇将与公司实体打交道的恐惧程度提高到一个新水平:您要建设什么?你不问什么问题?

乔杜里说,格布鲁发生了什么事,也应该引起更多的审查或对行业对学术研究的干扰的担忧。她警告说,谷歌解雇格布鲁的决定对更广泛的AI道德社区造成了信誉打击。

如果您是这个领域的忠实拥护者,您可能已经得出结论,大科技公司无法进行自我监管。您可能在过去几年甚至是十年前的欧洲监管机构首次针对Google发起反托拉斯行动时就已经到达了这一点。

Colclough同意当前的情况是站不住脚的,并断言大型科技公司正在利用参与AI伦理学研究来避免实际监管。 “许多政府之所以允许这种自我监管,是因为它使他们摆脱了困境,因为它们被大型技术公司游说,而且他们不想为实施新型监管承担责任,科尔克拉夫说。

她毫不怀疑解雇格布鲁是审查制度。 “她已经标记出Google不想听的声音,因此让她沉默了是什么?” Colclough问。 “我不知道他们是否会让她或她的同事保持沉默,但他们确实向世界展示了-我认为这一点需要变得更加强大-自我约束不能被信任。”

美国立法者和监管机构向大技术公司发起挑战的步伐很慢,但现在美国和其他国家/地区正在进行多项反托拉斯行动。在上周提起Facebook反托拉斯诉讼之前,谷歌上个月面临司法部和司法部长的诉讼,这是自1990年代以来美国针对大型科技公司的第一起诉讼。除反竞争商业惯例外,长达60页的起诉书还声称Google运用人工智能和用户数据来保持其主导地位。预计未来几天会额外收费。今年秋天,国会对大型高科技公司的调查得出结论,需要进行反托拉斯法改革以保护竞争性市场和民主。

J.Khadijah Abdurahman在哥伦比亚大学主持了公共技术项目We Be Imaging,并最近在NeurIPS 2020上帮助组织了抵抗AI研讨会。在Google解雇Gebru之后不久,Abdurahman写下了一篇断言AI道德领域道德崩溃的文章。她称格布鲁(Gebru)公开展示了固定的机构抵抗。在文章中,她谈到了诸如建立社会正义作战室的想法。她强调了从根本上将AI伦理学对话从孤独的研究人员与Goliath的思想移开的重要性,以促进广泛的运动。她还认为,需要采取集体行动来解决技术供应链中的暴力问题,包括中部非洲钴矿工人经历的先天缺陷,算法偏见和社交媒体中的错误信息。

她说,所需要的是一项跨越阶级,更广泛地定义技术人员的运动,其中包括研究人员和工程师,还包括Uber司机,亚马逊仓库工人和内容主持人。在接受VentureBeat采访时,她说:“不应与[Big Tech] some脚。您需要一个由更多资金支持并共同努力完成工作的人员组成的联盟。”

通过周五在包括Gebru在内的小组讨论中,NeurIPS提出了通过工会采取集体行动的想法。在为对AI感兴趣的从业人员和研究人员赋予抵抗力的人的研究人员的抵抗AI研讨会上,Gebru谈到了为什么她仍然支持人们在公司中担任研究人员的想法。她还比较了对待2018年Google罢工组织者Meredith Whittaker和Claire Stapleton的方式。在座谈会上,有人问格布鲁(Gebru)她是否认为工会化会保护有道德的AI研究人员。

她说:“我们需要做两件事:我们需要观察正在发生的势头,并根据这种势头来确定我们可以实现的目标,可以实现的改变。” “但是接下来,我们还需要花时间思考一下我们真正需要改变的事情,以便我们不会急于进行某种政策上的改变。但是我的简短答案是肯定的,我认为必须进行某种形式的联合,而且我确实相信有很多希望。”

在今年秋天的一次采访中,惠特克(Whittaker)通过让Facebook员工脱离技术人员工具包,来呼吁员工集体行动和举报。

在Google解雇她的前几天,Gebru的推文表明一切都不好。在一封推文中,她询问是否正在制定任何保护AI伦理研究人员的法规(类似于举报人提供的法规)。

是否有任何人从事类似于保护举报人保护的法规以保护道德AI研究人员?因为随着审查数量的增加威胁到特定人群的人,任何人怎么会相信在这一领域进行任何真正的研究?

Pinterest前员工Ifeoma Ozoma最近完成了一份Omidyar Network的报告,内容涉及技术举报者的需求。 Omidyar Network发言人告诉VentureBeat,该报告将于下个月发布。就像格布鲁(Gebru)在Google的经历一样,奥佐玛(Ozoma)对Pinterest所描述的事件不屑一顾,轻描淡写和种族主义。

作为这项工作产生的项目建议的一部分,Ozoma表示,明年将发布技术举报者指南,并且将启动一项货币基金,专门用于支付举报后被赶出工人的身心健康需求。 Ozoma告诉VentureBeat,这不是举报故事中最性感的部分,但是当举报者被推出时,他们(可能还有他们的家人)将失去医疗保险。

她说:“这不但可以阻止人们大声疾呼,而且会带来巨大的财务后果,因为大声疾呼并分享我认为符合公共利益的信息。”

加州大学伯克利分校法律与技术中心联合主任索尼亚·凯蒂尔(Sonia Katyal)支持加强现有的道德研究者举报法律。她对VentureBeat表示:“我非常坚决地说,现有法律是远远不够的。” “我们应该关注的世界是像[Gebru]这样的所有最有才华的研究人员都被聘用到这些地方,然后从讲话中被有效地掩盖了。当这种情况发生时,举报人保护就变得至关重要。”

去年,Katyal在《加州大学洛杉矶分校法律评论》上发表的一篇论文中谈到了举报人保护问题,这是解决人工智能与民权交叉问题所需工具集的一部分。她认为,举报者保护在公司依赖自我监管并与算法偏差作斗争的情况下尤其重要。

我们知道一些大数据和AI的恶意使用-例如在Facebook上的Cambridge Analytica丑闻-由于克里斯托弗·威利(Christopher Wylie)这样的举报人。当时,Katyal称像Wylie这样的帐户是“关于算法偏见对当今社会的潜在影响的冰山一角”。

加州大学洛杉矶分校《法律评论》读到:“鉴于不透明,难以理解的问题,以及贸易保密法和版权法在阻碍公开方面的潜在作用,举报可能是在人工智能中考虑的适当途径。”

在大数据时代,更大的责任感和透明度的主要障碍之一是公司声称算法是专有的。 Katyal担心企业不披露有关算法的信息的权利与个人在不受歧视的世界中生活的公民权利之间的冲突。她警告说,随着政府机构从私人公司获取数据或AI服务合同,这将越来越成为一个问题。

其他研究人员还发现,在研究会议,法庭或监管机构中,私人公司通常不太可能与论文共享代码。

美国有各种现行的举报人法律,包括《举报人保护法》,该法为工人提供了一些防止报复的保护措施。还有《捍卫商业秘密法》(DTSA)。该法律于2016年通过,其中包括一项保护规定,以防止雇主提出的商业秘密盗用要求。但是,Katyal认为这一论点受到限制,并表示DTSA条款在庞大且不受监管的AI世界中只是一个小工具。

“每家公司都对想要提出或与公众分享其信息或关切的任何类型的雇员都表示极大的关注,他们知道,使用这是机密专有信息的解释,是一种使员工沉默的非常有效的方法,她告诉VentureBeat。

最近记忆中的大量事件证明了为什么某种形式的举报人保护可能是个好主意。 《自然》杂志2019年秋季的一项研究发现,医院使用的算法可能与美国数百万黑人的歧视有关。最近的一个故事揭示了一种算法如何阻止黑人接受肾脏移植。

由于各种原因,本文引用的消息来源谨慎地支持其他举报者保护。 Colclough支持某种形式的特殊保护,例如举报人法律,但他认为这应该是更广泛计划的一部分。当涉及到可能会在已经发现偏见的地区(如招聘,医疗保健和金融贷款)发现潜在的AI危害时,此类法律可能特别有用。

Colclough提出的另一个选择是:赋予公民向政府监管机构提出申诉的权利。根据GDPR,如果欧盟公民认为公司不遵守法律,可以向国家数据管理机构报告,然后国家数据管理机构有义务进行调查。摆脱偏见和寻求补救的途径是去年提出的算法权利法案的一部分。

乔杜里说,她支持其他保护措施,但她告诫举报应是不得已的选择。她表示保留,理由是保守派或白人至上主义者将公开举报的人描绘成“ SJW左撇子试图扣篮”。

她认为,在考虑举报之前,公司应为希望表达建设性异议的员工建立渠道。员工在今年秋天的一次新闻发布会上告诉VentureBeat和其他新闻媒体,Google员工可以通过内部途径分享对模型的投诉或担忧。谷歌发言人随后拒绝透露哪些特定用例或模型在内部引起了最多的批评。

但是阿卜杜拉曼(Abdurahman)质疑这样一部法律将保护哪些工人,并说:“我认为,这条调查线比目前的要求更具防御性。”

在Gebru被解雇后的几天里,有2,000多名Google员工签署了一封公开信,声称“前所未有的研究审查制度”。此后,一些AI研究人员表示,他们拒绝审查Google AI论文,直到该公司解决了事件引发的不满。更广泛地讲,谷歌发生的事情使人们质疑行业对学术研究的实际影响和感知影响。

在明年的NeurIPS抵抗AI研讨会上,Rediet Abebe明年开始担任加州大学伯克利分校的副教授,解释了为什么她不接受Google的研究经费。她还说,她认为学术界的高级教授应该谈论大技术研究经费。

“也许一个人可以很好地将资金来源与他们正在做的事情分开,但是您必须承认,总的来说会产生影响。如果我们中的很多人都从同一来源获得收入,那么将会发生向为该供资机构提供服务的工作的共同转变,”她说。

茉莉·麦克尼利(Jasmine McNealy)是佛罗里达大学的一名律师,新闻学副教授,也是哈佛大学伯克曼·克莱因大学互联网与社会中心的教职员工。

McNealy最近接受了Google的AI伦理研究资金。她对目前的经济环境将允许公立大学拒绝来自科技或几乎任何其他来源的资金的想法表示怀疑。

她说:“除非州立法者和州长说‘我们不一定喜欢来自这类组织或人的钱,否则我认为大学,特别是公立大学不会停止从组织中收取钱。”

可能会有更多的公共研究经费。拜登(Biden)管理平台已承诺在人工智能等多个领域的研发资金中投入3000亿美元。

但是,在AI研究人员质疑公司影响力并与数十年来资助大烟草健康研究的比较中,Google受到研究审查的指责。其他AI研究人员指出,在深度学习时代,大型科技公司,精英大学以及其他所有人之间的计算鸿沟和不平等现象正在加剧。

Abdurahman,Collclough和McNealy坚决支持为科技公司提高税收。此类税收可以为具有监管监督作用的学术研究和执法机构提供资金,例如联邦贸易委员会(FTC),以及支持公司所依赖的公共基础设施和学校。

“人们之所以接受大公司将所有这笔钱用于研究的原因之一是,否则就没有研究,也就没有研究,因为没有钱。现在,我认为我们应该回到基础上说:“您在这里支付普通基金,我们将确保大学获得这笔钱,但是您不必对所得出的结论施加任何影响,” Colclough说,并补充说,公司征税可以更好地执行现有的反歧视法律。

一群AI和计算领域的黑人专业人士在6月签署的一封公开信中也提到了诸如民权法案等现有法律的执行,特别是在涉及公共资金的问题上。

对资金执行进行征税也可能会引起监管部门对新兴的初创公司的关注,麦克尼尔(McNealy)表示,有时这些举动可能会产生与企业同行“同样的负面影响或影响”。

重新考虑大型科技公司的税收义务的想法得到了公众的支持。拜登在竞选活动中承诺要让亚马逊支付更多的所得税,并且欧盟正在考虑立法,对“看门人”科技公司征收10%的营业税。

税收还可以为不依赖盈利能力作为价值衡量标准的技术提供资金。阿卜杜拉曼(Abdurahman)说,世界需要公共工具,人们需要扩大想象力,而只有少数公司提供我们使用的所有技术。

尽管公共部门的AI通常被认为是紧缩措施,但Abdurahman将公共利益技术定义为非商业性的,为社会利益而设计的,并且是由社会的联合代表制造的。她认为,这不仅应包括研究人员,还应包括受技术影响最大的人。

“公共利益技术开辟了一个全新的可能性世界,这就是我们需要追求的探究线,而不是弄清楚‘我们如何解决这个真正使边缘化的微积分呢?'”阿卜杜拉曼说。 “我认为,如果我们依靠私人技术来监管自身,我们注定要失败。我认为,立法者和政策制定者有责任为公共利益技术开放并为其提供资金。”

乔杜里说,其中一些工作可能无法盈利,但盈利能力不能成为唯一考虑人工智能的价值。

阿卜杜拉曼(Abdurahman)建议,财务关系的公开成为AI研究人员的标准。 “在任何其他领域,例如制药领域, ......