前谷歌员工梅雷迪思·惠特克谈科技的政治权力,社会困境的缺陷

2020-10-23 06:37:48

在一次新的采访中,这位科技劳工活动家和人工智能研究人员讨论了今天硅谷的主要问题。

OneZero与亚历克斯·坎特罗维茨(Alex Kantrowitz)的大型技术播客(Big Technology Podcast)合作,为读者带来独家访问科技行业及其周边知名人士的采访记录。

本周,坎特罗维茨与梅雷迪思·惠特克(Meredith Whittaker)进行了交谈,惠塔克是一名人工智能研究员,曾帮助领导谷歌2018年的员工罢工。这次采访是在世界首脑会议人工智能上进行的,为了篇幅和清晰度而进行了编辑。

要订阅播客并亲自收听采访,你可以在苹果播客、Spotify和阴天上查看。

本月早些时候,当我与特里斯坦·哈里斯(Tristan Harris)就“社会困境”接受采访时,我提到的很多人都说,“你应该和那些早在电影上映前就对社交网络持批评态度的人谈谈。”有一个名字引人注目:梅雷迪思·惠特克(Meredith Whittaker)。惠塔克是一名人工智能研究人员,也是Big Tech的前员工,他帮助领导了谷歌在2018年的罢工,当时公司内部正处于激进主义的季节。在这一期的大型科技播客中,我们不仅谈论了她对这部电影的看法,还谈到了科技公司内部职场激进主义的未来,而在这个时刻,一些人质疑它是否属于这一领域。

亚历克斯·坎特罗维茨:看起来你对“社会困境”的看法和特里斯坦的有点不同。你认为它在哪里是对的,是错的?梅雷迪思·惠特克:这部电影的一个重大缺点是,它忽略了很多人,他们长期以来一直在以更微妙的方式研究和呼吁这些问题。有像萨菲亚·诺布尔,萨拉·罗伯茨这样的人。鲁哈·本杰明。我会看看像I‘Nasah Crockett和SyDette Harry这样的黑人女性,在2014年及之前,她们叫喊着从4Chan这样的留言板上萌芽出来的种族主义巨魔。实际上,有很多人一直在关注一些问题,这些问题是通过社交平台和权力巩固而产生和放大的,现在这些问题在少数科技公司中得到了体现。

这是主要的问题之一,伴随着擦除,它抹去了一些根本性的危害。很多这些平台和算法系统复制和放大种族主义、厌女史的方式。谁承担这种定向骚扰的伤害,或者算法代表我们世界的方式,正如萨菲亚·诺布尔(Safiya Noble)非常出色地指出的那样。坦率地说,是谁从中受益呢?

许多接受采访的人都跳过了获取好处的一方,在一家科技公司工作-我当然就是这样做的-变成了这项技术的批评者。但是,许多批评都是对这项早期工作的极大关注。我很乐意在您的播客中看到这些人中的一些人,我也很乐意看到这些评论中的一些观点丰富起来。

特里斯坦认为“社会困境”是强大的,因为它显示了构建软件的人说,“我们构建了一个科学怪人。”你对此有何看法?这是一个论点,但这并不能排除这样一个事实,即这些人就是获得平台的人-许多第一次了解其中一些问题的人是从这个角度学习的。在这些辩论中,你发出的声音,你所代表的人民非常重要。坦率地说,有很多以前的技术。

这不是人们刚刚遇到的一系列全新的问题。几十年来,围绕这些问题的工作和调查在很大程度上被忽视、驳回,或者只是被认为是“积极破坏”的副产品。坦率地说,直到硅谷富有的白人男性自己也开始感受到其中的一些影响,这一点才真正受到重视。

我认为这是公平的批评。让我们来讨论一下反对这部电影本身的论点。他们错过了什么?我将强调一些我认为在任何对技术及其社会影响的分析中非常重要的事情。第一件真正困扰我的事情是这些类型的技术,这些社交媒体馈送,帮助策划和浮出一些内容的算法系统,等等,几乎是超人的持续画面。你听过这样的短语“可以黑进脑干。”真正把这描绘成一项卓越技术的壮举的东西。

我认为这忽略了一个事实,那就是很多东西实际上并不是创新的产物。它是权力和资源高度集中的产物。这不是进步。事实是,我们现在或多或少都被征召携带手机,作为日常工作生活、社交生活中互动的一部分,并成为我们周围世界的一部分。只有在Covid期间才会增加。

我认为这最终延续了这些公司自己告诉我们的一个神话,那就是这项技术是超人的,它能够侵入我们的蜥蜴大脑,完全控制我们的主观性。我认为这也描绘了一幅图景,这项技术不知何故是无法抗拒的,我们不能反击它,我们不能组织起来反对它。

这部电影认为,设备和应用程序很难抗拒。这就是他们对我们拥有的权力被歪曲了吗?在这种情况下,我将这些公司视为几乎不太可能的权力中心。在西方背景下,我们大约有五家公司在这一大技术领域占据主导地位。这些公司是计算网络基础设施商业化的产物,也是互联网商业化的产物,也是广告技术和其他平台服务发展的产物,广告技术和其他平台服务使它们能够通过基础设施和大量的数据收集管道获得巨大的立足点。

这些公司代表着影响我们生活的非凡力量--它们并不神奇。这种力量体现在他们有能力向我们所有的学区提供教育平台,取代其他类型的社会论坛,将自己贯穿于我们的生活和机构中。他们努力成为我们的商业空间,我们的社交空间,等等,然后他们将他们在这些空间中的角色金融化和商品化。我认为我们需要分析这些公司拥有的物质力量,更仔细地看看这些技术是如何实际运作的。

你在谷歌的抗议活动中扮演了相当重要的角色。现在,事后诸葛亮,您可以稍微看一看。你认为这种激进主义在公司内部奏效了吗?是的,我当然认为它起作用了。但我再说一遍,我并不认为这种组织方式是有了目标,然后就平息下来的。这样做的目的既是为了反击不道德的商业决策,也是为了抵制危险的…

为了观众的利益,我们在谈论在战争中使用人工智能,决定向被指控性骚扰的人支付9,000万美元,然后是…。是。所有这些事情。以及对合同工的不公平待遇,他们占我们同事的一半以上,但没有提供全职工作的特权,当你想到一支庞大而光荣的科技公司劳动力时,你会想到这一点。

“想一想(谷歌)拥有几十亿人(字面意思是…)的非常私密的信息,这是令人震惊的。我们每个人身上都有一屋子斯塔西的档案。“。

他们最终没有与Maven续签合同。随后被指控在谷歌内部行为不端的人没有获得赔偿。他们很快就被解雇了。而劳动者,我认为劳动者仍然是一个悬而未决的问题。是的,他们抗拒地改变了一些政策的正确方向。再说一次,这是一场持续的斗争。这不是通过改变高管的想法就能赢一次的事情,因为他们终于看到了曙光。这是,再一次,我们在处理资本主义逻辑。资本主义逻辑规定,用人工智能术语来说,任何公司的最终目标函数都是持续的收入增长,随着时间的推移永远持续指数增长。当我们看到我们赖以生存的星球的脆弱性和这种操作在世界上造成的伤害时,我们开始质疑这些不可能的目标,以至于我们现在正在经历气候混乱的开始和有组织的人类生活的潜在终结。

我们要确保我们所有的同事都有一份有尊严的工作,没有睡在车里,有维持生活的工资,有医疗保险,我们要消除这种两级工人制度。我们真的很想这样做,因为这是现在的正义。在这样做的同时,我们也希望建立集体力量,以获得我们自己做出这些决定的权力,拥有更多的集体决策,而不是把这些留给最高层的一小撮人,他们的职责是对董事会负责,他们的职责是对股东负责,他们最终是根据那些资本主义的激励来调整他们的决策。

这些非常强大的公司难道不应该有一种更民主的方式来决定这些公司应该做什么吗?绝对一点儿没错。

是否应该掌握在这一群员工手中呢?不是的。尤其是当你看到像谷歌这样的公司拥有超大的权力时。想想这家公司有多少关于数十亿人的非常私密的信息,真的很令人震惊,对吧?我们每个人都有一屋子的史塔西档案。一想到该公司如何能够使用这些数据、这些信息来创建人工智能模型、创建其他服务,然后在我们的整个社会机构中做出极其敏感的决定,这是令人震惊的。

因此,我认为我们真的需要在两个层面上认真对待这一权力,并认识到那里的风险。当然,我不是建议世界上一小撮10万或20万人应该是所有这些决定的仲裁者。但我们正在组织的部分工作也是建立举报人网络。开始在有组织的工人和其他社会运动之间建立结缔组织,这样我们就可以以预示着更广泛的民主决策的方式组织起来。这些允许民主控制的基础广泛的运动对于创造或重新创造能够服务于公共利益的技术是必要的。

但我同意你的观点,我们的目标不是在谷歌建立这种封闭的工作场所民主。我们不想让更多的同样的人来做这些决定。我们在我们的组织中所做的是为集体讨论和决策打开更多空间,并预见到这些更广泛的联系与那些受到谷歌许多决策直接影响的人之间的联系。归根结底,我们的目标将是与其他社会运动建立联系,并确保地面上的那些人能够带头,他们最容易受到谷歌为无人机目标构建人工智能等事情的影响。

我认为“不为ICE提供技术”运动是一个例子,你可以看到整个行业的技术工作者带头做移民政策的人,在美国南部边境倡导移民,真正理解被这项技术追捕和追踪意味着什么,向那些没有这种经验但可能理解这些系统是如何工作的人传达这一点,以建立一场运动,然后抵制向ICE提供这些类型系统的公司。

我想简单地说一下题外话,因为你提到了斯塔西档案。谷歌的员工可以直接进入某人的个人信息并进行访问吗?我用这个比喻,因为它比数据库的不同碎片更容易理解,在数据库的不同碎片中,信息的不同部分甚至可能在没有匹配的情况下对我来说是无法识别的-无论是什么。他们确实收集了这些信息,在这一点上,我会说获取这些信息并不容易。他们非常努力地记录这些信息,这在一定程度上是因为当我在2006年开始工作时,获取这些信息要容易得多。发生了几起事件。

“我认为我们现在面对的是一个异常萎缩的政治体系,如果不是支离破碎的话。”

Coinbase首席执行官布莱恩·阿姆斯特朗(Brian Armstrong)禁止员工在公司内部进行政治活动,在硅谷引起了一些轰动。我想了想,并对自己说,“也许员工的政治能量通过正常的政治渠道引导比试图在公司内部工作更好。”我对这种框架有很多疑问,因为当你思考传统的政治制度时,我会想,你是否在想,在卡尔·罗夫(Karl Rove)和其他人的推动下,选民权利被剥夺是20年来极右翼议程的一部分,你是否在考虑这个问题?在“公民联合”之前,当企业捐款变成企业席位,数十亿美元的企业黑钱涌入这些竞选活动之前,或者在那之前,你有没有考虑过这个问题?我们谈论的正常政治条件是什么,才能使志愿投票与组织工作权力一样有效?

我想这是一个我们都必须努力解决的问题,因为我认为我们现在处理的是一个非常萎缩的政治体系,如果不是破碎的话,这个政治体系多年来一直处于法律行动主义和游说活动的接受方,而且是一场由极右翼发起的真正有组织的竞选活动。现在,我们正在交谈,我认为在…。艾米·科尼·巴雷特的听证会现在正在进行,这可能会进一步摧毁我们拥有的最后一丝选民保护。所以,再说一次,我要非常小心那个镜框,我想-。

如果人们不喜欢政治体系的运作方式,说它是错的是一回事。他们举起双手说,“嗯,它有点坏了,我们修不好。”这是另一回事。我还想知道,是否应该把精力花在试图反击你所说的一些事情上。嗯。我认为试图反击这一点的部分原因是抵制这些公司黑客正在推动的极右翼事业中的贿赂资金,这些事业并不代表在场人士的观点,或者可以说,代表着公众的最佳利益。所以,再说一次,我认为我们不能忽视这种过大的影响。就像大公司在塑造我们的政治体系方面具有极大的影响力,以及个人的善意和志愿精神甚至不能…的方式一样,大公司在塑造我们的政治体系方面具有巨大的影响力。与这些公司的运营方式相比,它甚至连排名都差得很远。

所以,再说一次,这并不是说要放弃政治制度。尝试所有工具。一定要投票。让你的父母投票。做这件事吧。但坦率地说,我认为工人组织也是政治。Coinbase的故事,我经常从这个故事中听到的一条是,这位首席执行官在受到一些员工的挑战后,写了这样一篇有争议的博客文章,这些员工最终举行了罢工,因为他不愿说“黑人的生命也很重要”。所以已经有了这样的背景。在白人至上地位空前上升并转向威权主义的时代,你对一位不愿说“黑人的生命也很重要”的首席执行官作何感想?这是政治问题。

好的,所以你被报复了。你离开了谷歌,另一位罢工组织者克莱尔·斯台普顿(Claire Stapleton)也离开了。在亚马逊内部,我报道的另一家公司,前亚马逊副总裁蒂姆·布雷(Tim Bray)在那里的举报人被解雇后也离开了。现在很多领导他们的人已经离开了,现在会发生什么呢?嗯,令人高兴的是,据我所知,这些公司仍在进行大量的组织工作。好消息是,有很多方法可以和你的同事一起组织,而不涉及公众的猛烈抨击,这涉及到媒体,这是

有很多组织工作在继续,正如你在Coinbase看到的,我们的工具箱里现在有了各种工具,比如罢工,一些Facebook员工在离开时揭发并写下了他们的故事,这正在成为常识。我认为这是这种类型的组织和这种类型的意识随着时间的推移而渗透的方式之一,在我在那里时发生的组织和我们现在看到的之间肯定有连续性。我认为我们现在看到的是从我和其他人犯下的一些错误中吸取教训。他们正在发展更强壮、更精确的肌肉来继续这项工作。

对很多人来说,“人工智能伦理”这个词已经变成了一种避雷针,一种潜在的向科技公司注入政治观点的工具。我不喜欢他的方法,但我发现詹姆斯·奥基夫出土的一张幻灯片很有趣。它讲述了算法是如何编程的,然后通过这些算法过滤媒体,然后对人进行编程。算法实际上是在给人编程吗?我发现他参与的整个项目都非常有问题,而且非常、非常、非常脆弱。我认为我对社交网络提出的批评,以及这幅关于科技近乎神圣的力量的图景,能够用其算法的力量征服我们这些凡人,再一次,不,这不是正在发生的事情。这是一种近乎神圣的力量,能够用它的算法征服我们这些凡人,同样,不,这不是正在发生的事情。具有讽刺意味的是,这再次支持了一些来自科技公司自己的言论,这些公司声称这些系统可以做很多从未被证明能做的事情。

我想,这是谷歌内部的一张幻灯片。嗯,我不同意制作它的人。再说一次,我并没有花太多时间去理解Veritas项目。

“我对‘人工智能伦理’这个词有意见,因为我认为它几乎是泛泛而谈,毫无意义。”

再说一次,我不喜欢这种方法。但我觉得有些时候,他们出土的一些材料值得一看,不管方法好不好,然后再谈一谈。是的,我不太关心是谁说的,尽管那绝对是…说的。这是我们需要考虑的事情。那是胡说。这不是这些事情的运作方式。

我认为,这助长了双重叙述-科技公司对展示这项技术万无一失有一种兴趣,因为它证明了这种技术在他们将会赚钱的领域扩散的合理性。极右翼还有另一个兴趣,就是把这些技术描述成我们需要非常害怕的可怕的怪物,因为它延续了一种征服这些公司的运动,并最终让它们屈从于极右翼的意愿。

你能稍微谈谈公司的言论对极右翼竞选的影响吗?你认为极右翼的目标是什么?我对“人工智能伦理”这个术语有问题,因为我认为它几乎是如此宽泛,以至于毫无意义。我们确实组织了一个道德审查委员会,反对谷歌成立的道德审查委员会,这是该公司试图平息围绕他们在军队中围绕人工智能所做选择的一些异议的一部分。在那个审查委员会中,他们有Kay Coles James,她是传统基金会的负责人,这是一个非常右翼的组织,她个人和整个组织都采取了一些相当激烈的反LGBTQ立场,反变性人立场。

当你看到这些人工智能系统通过机器学习构建的方式时,

.