本文是自由言论项目的一部分,该项目是未来时态与美国大学华盛顿法学院的技术、法律和安全项目的合作项目,旨在研究科技如何影响我们对演讲的看法。
去年10月,一名新纳粹分子直播了他对德国哈雷犹太教堂的袭击。枪击事件造成两人死亡,这段视频在Twitch上停留了一个多小时,然后被删除。这段时间足以让一段录音像病毒一样传播-但它从来没有这样做过。虽然用户下载了它,并在Telegram等不太受欢迎的平台上传播,但这段录音在Facebook、Twitter、YouTube等主要平台上被停了下来。副主席报道,原因是Twitch很快就与这些平台和其他平台共享了视频及其副本的数字指纹或散列。Twitch所要做的就是将散列上传到全球互联网反恐论坛的数据库中,或者,正如它所说的,“未来言论自由最被低估的项目”。
GIFCT自2017年由Facebook、微软、Twitter和YouTube成立以来,基本上没有引起公众的注意。原因之一是它所做的事情很复杂。(斯坦福大学网络政策中心平台监管项目主任达芙妮·凯勒(Daphne Keller)表示,另一个原因可能是它“可怕的缩写,没有人记得或发音”。)。然而,尽管旁观者密切关注Facebook的监督委员会,或其民权审计,或Twitter在唐纳德·特朗普(Donald Trump)总统的推文上的警告标签,但GIFCT在没有公众监督的情况下做出了在线言论治理中一些最重要的决定。
GIFCT最初是为了应对各国政府,特别是欧盟立法者的压力,在巴黎和布鲁塞尔发生袭击后,在网上承担更大的反恐责任。基本目标是协调不同服务之间的内容删除。因此,科技巨头们一起通过创建一个哈希数据库来设定内容规范,这些数据库包含他们所认为的“暴力恐怖分子的形象和宣传”。这个数据库充当了一种黑名单,帮助其他成员网站-许多内容团队不大-调整他们自己的平台。至少有11家公司是GIFCT的成员,另外13家公司,包括Justpaste.it这样的小公司,可以访问GIFCT的数据库。然而,除了这个基本结构之外,GIFCT的内部运作是不透明的。即使联盟过渡到一个独立的组织,我们仍然不知道个别平台是如何使用数据库的。是否立即阻止上传?平台会检查每一条内容吗?目前还不清楚。
在最好的情况下,像GIFCT这样的联盟可以作为一种方式,让服务机构利用资源来打击极端主义内容。由于GIFCT包括较小的平台,它可能允许这些平台监管原本不会引起注意的内容。GIFCT在其最近成立的独立咨询委员会中还采用了多方利益相关者的方法-这通常被认为是互联网决策的最佳实践-该委员会包括来自民间社会、政府间机构和政府间机构的成员。
然而,GIFCT的潜在危险从一开始就对研究人员来说是显而易见的,同样也是显而易见的。它们来自与其潜力相同的地方。
GIFCT的结构代表了哈佛大学法学院(Harvard Law School)博士生、哈佛大学伯克曼·克莱恩互联网与社会中心(Berkman Klein Center for Internet&;Society)成员伊夫林·杜埃克(Evelyn Douek)所说的内容卡特尔,即“在没有充分监督的情况下,平台之间共同努力,从其服务中删除内容或参与者的安排”。GIFCT安排的许多问题在于它的不透明性。没有一个内容决策是透明的,而且研究人员没有访问散列数据库的权限。正如凯勒最近提出的那样,GIFCT私下制定了“暴力极端主义”言论的规则,因此它定义了什么是恐怖主义内容,什么不是恐怖主义内容,而不承担责任。这是一个严重的问题,部分原因是内容审核错误和偏见是不可避免的。GIFCT很可能是在阻止讽刺、报道恐怖主义和记录侵犯人权的行为。
所有这一切与平台每天做的事情没有太大的不同,没有宪法或民主法律的限制,但它的影响力要大得多,因为GIFCT的内容决策从大型平台流向了较小的平台。这种动态本身并不存在问题。根据凯勒的说法,在理想的世界里,平台应该分享查找和评估内容的能力,而言论政策的实际判断和执行将落在每个平台身上。“从理论上讲,GIFCT应该能够实现这一点,因为它不会强迫平台自动删除它标记的任何内容,”凯勒说,“但到目前为止还没有。”实际上,小型平台最终会
现在,这些担忧因法外审查的风险而加剧。新西兰清真寺枪击案发生后,在克赖斯特彻奇呼吁的推动下,GIFCT在2019年宣布将彻底改革其内部结构。克赖斯特彻奇呼吁是各国和科技公司在网上打击恐怖内容的政治峰会。其中一个组成部分是独立咨询委员会,成员包括来自加拿大、法国、日本、肯尼亚、新西兰、英国和美国的政府官员。再一次,从理论上讲,政府的加入将使GIFCT的工作更加民主负责。然而,正如民主与技术中心(Center For Democratic And Technology)言论自由项目主任艾玛·兰诺(Emma Llansó)所说,这也可能是一个机会,让政府“拥有与往常一样多的权力,而不需要承担任何责任”。7月30日,民主与技术中心(Center For Democratic And Technology)与其他14个人权和数字权利组织一起给GIFCT新任执行主任尼克·拉斯穆森(Nick Rasmussen)写了一封信,概述了对联盟缺乏透明度及其利用政府参与的担忧。这封信写道:“反恐计划和监视侵犯了世界各地穆斯林、阿拉伯人和其他群体的权利,并被各国政府用来压制公民社会。”“我们希望确保内容审核和反恐之间的界限是明确的。”
政府参与GIFCT是一种潘多拉魔盒。首先,在政府的压力下,平台是否会决定将内容添加到散列数据库。还有一个问题是,各国政府希望未来像GIFCT这样的自愿行业机构来推动审查制度,否则这是不合法的。Llansó表示,即使是出于善意的政府官员,也可能面临他们在GIFCT上的工作与他们的政府在国家立法程序中所做的事情之间的紧张关系-特别是如果他们正在考虑制定一部在线仇恨言论法,比如2017年的德国网络执行法(Network Execution Act)。Llansó补充说,也许最重要的是,这种纠葛给我们留下了一个令人担忧的问题:人们如何让政府或公司对GIFCT做出的决定负责?
尽管对GIFCT提出了这些批评,但似乎没有几个人认为它是不可挽回的。一个普遍的共识是,如果该组织听从了要求透明度的呼吁,它及其做法将更加值得信任。今年7月,GIFCT确实发布了一份透明度报告,其中详细介绍了凯勒认为有希望的新举措,例如允许平台表示图像、视频或URL不应该在数据库中的工具。这可能对恶搞、新闻内容或边缘内容很有用。但GIFCT的许多基本方面仍然不得而知。凯勒的透明“愿望清单”包括授予研究人员访问GIFCT阻止的实际内容副本的权限,这将允许研究人员评估偏见和错误,并发布有关用户在哈希数据库阻止他们的内容时是否得到通知(并给予上诉机会)的信息。与此同时,伊兰诺想知道独立咨询委员会的具体工作,并确保它仍然是真正的咨询机构。
在没有这些变化的情况下,研究人员和民权倡导者不禁感到失望,因为在形成一个新的、半私人的在线言论管理系统的关键时刻,公众错过了参与其中的机会。决定-关于内部治理,关于内容审核-显然是闭门做出的,而不是通过公开、透明、多方利益相关者的讨论做出的。凯勒说:“我觉得GIFCT的发展是一个真实的例证,说明了平台责任或平台责任等术语在实践中变得多么难以捉摸。”她接着说,当政客们要求像GIFCT这样的倡议时,民主政府似乎是在迫使平台采取公正和合法的行动。凯勒说:“但在实践中,这根本不是它的意思。”“在实践中,这意味着四个平台聚集在一起,使这个完全不透明、非常强大的系统应用了不是法律…的规则。来控制网上言论。“。
未来时态是Slate、New America和亚利桑那州立大学的合作项目,研究新兴技术、公共政策和社会。