英国希望通过挤压接触自由来对付网络巨魔

2022-02-25 12:29:03

该机构表示,草案中加入的最新一揽子措施旨在保护网络用户不受匿名网络钓鱼的影响。

该法案的总体目标要广泛得多,包括一个全面的内容审查制度,针对明显非法的内容,但也针对“合法但有害”的内容——据称其重点是保护儿童免受一系列网络伤害,从网络欺凌和支持自杀的内容到接触色情制品。

与此同时,批评人士表示,这项立法将扼杀言论自由,孤立英国,造成英国分裂,同时也会给在英国开展数字业务带来巨大的法律风险和成本。(当然,除非你碰巧是“安全技术”公司俱乐部的一员,这些公司提供销售服务来帮助平台遵守法规。)

最近几个月,两个议会委员会仔细审查了立法草案。其中一人呼吁更严厉地关注非法内容,另一人警告说,政府的做法既有可能影响在线表达,也不太可能有足够的力度来解决安全问题——因此可以公平地说,部长们面临着进行修订的压力。

该草案最近的其他(实质性)补充内容包括要求成人内容网站使用年龄验证技术;以及大规模扩大责任制度,在法案正面增加了更广泛的犯罪内容清单。

数字、文化、媒体和体育部(DCMS)表示,最新的变化只适用于最大的科技公司,这意味着平台将被要求向用户提供工具,以限制他们可能接触到多少(潜在)有害但技术上合法的内容。

网络安全活动人士经常将种族主义仇恨言论或网络欺凌等有针对性的虐待行为的传播与账户匿名联系起来,尽管除了个别匿名账户被滥用的轶事报道外,他们所利用的证据尚不清楚。

然而,同样很容易找到被命名和验证的账户抛出的滥用内容的例子。不仅仅是说话尖刻的数字国务卿纳丁·多里斯本人,她最近在议会委员会听证会上用推文抨击了一名LBC记者,导致了这一尴尬的关键时刻。

重点是:单一的例子——不管多么引人注目——并不能真正告诉你很多系统性问题。

与此同时,英国仍受欧洲人权法院(European Court of Human Rights)最近的一项裁决重申了匿名在线作为“意见、想法和信息自由流动”工具的重要性,该法院明确表明,匿名是言论自由的一个关键组成部分。

因此,很明显,如果政府要求立法将英国转变为“最安全的上网场所”——同时保护言论自由——最终不会被粉碎,英国立法者需要谨慎行事。

鉴于网络钓鱼是一个系统性问题,在某些高覆盖率、主流、广告资助的平台上尤其成问题,在这些平台上,真正可恶的东西可以被大量放大,对于立法者来说,考虑与内容传播有关的财务激励更具启发性——通过“数据驱动”的内容排名/浮现算法(如脸谱网使用偏振光的“基于参与的排名”),正如告密者Frances Haugen所说的那样。

尽管DCMS也认识到算法在放大有害内容方面的滥用作用(政府的新闻稿指出,社交网络的T&C中明确禁止的“很多”内容“经常”被允许熬夜和播放),但政府正致力于迫使平台为用户提供限制其自身曝光的选项“通过算法积极向人们推广”;而多瑞斯本人则抨击“流氓算法”)。

部长们为有问题的算法放大所选择的解决方案,并不是要求强制执行英国现有的针对分析adtech的人的数据保护制度——这是隐私和数字权利活动家多年来一直呼吁的——这肯定会限制入侵(以及潜在的滥用)的程度个人用户可能成为数据驱动平台的目标。

相反,政府希望人们将更多的个人数据交给这些(通常是)adtech平台巨头,以便他们能够创建新的工具来帮助用户保护自己!(同样重要的是:政府同时将降低英国人的国内隐私保护水平作为其“脱欧机会”之一……因此,呃…😬)

DCMS表示,该法案的最新补充内容将要求最大的平台(所谓的“一类”公司)提供方式,让用户验证自己的身份,并控制谁可以与他们互动——比如选择只接收DMs和来自已验证账户的回复的选项。

它在宣布额外措施的新闻稿中写道:“平台有责任决定使用何种方法来履行身份验证职责,但它们必须让用户选择加入或退出。”。

Dorries在一份声明中评论道:“科技公司有责任阻止匿名巨魔污染他们的平台。

“我们听取了要求我们加强新的网络安全法的呼声,并宣布了新的措施,将更大的权力交给社交媒体用户自己。

“人们现在将有更多的控制权来联系他们,并能够阻止流氓算法向他们提供的仇恨浪潮。”

Twitter已经为验证用户提供了只查看其他验证用户回复的功能。但英国的提议似乎会更进一步——要求所有主要平台添加或扩展此类功能,让所有用户都能使用这些功能,并为那些愿意证明身份的人提供验证过程,以换取能够最大限度地扩大其影响范围。

DCMS表示,法律本身不会规定具体的核查方法,而是由监管机构(Ofcom)提供“指导”。

“在验证身份时,一些平台可能会选择向用户提供验证其个人资料图片的选项,以确保其真实相像。或者,他们可以使用双因素身份验证,平台会向用户的手机号码发送提示,让他们进行验证。或者,验证可能包括使用gover的人政府建议,“使用护照等身份证创建或更新账户。”。

它补充说,将负责执行《在线安全法案》的监督机构Ofcom将就公司如何履行新的“用户验证职责”和“公司可以使用的验证选项”制定指导意见。

DCMS还指出:“在制定本指南时,Ofcom必须确保可能的验证措施可供易受攻击的用户使用,并咨询信息专员、易受攻击的成年用户和技术专家。”DCMS对隐私这一重大话题略加赞同。

数字权利组织至少会松一口气,因为英国没有像一些网络安全活动人士所敦促的那样,推动全面禁止匿名。

当涉及到棘手的在线推特话题时,英国的战略取决于对主流平台上的接触自由施加潜在限制,而不是追求辱骂性言论本身。

DCMS写道:“完全禁止匿名上网会对那些拥有积极网络体验或为了个人安全而使用匿名的人产生负面影响,比如家庭虐待受害者、生活在专制国家的活动人士或探索性取向的年轻人。”,在继续辩论之前,这项新义务“将在赋权和保护成年人(尤其是弱势群体)之间提供更好的平衡,同时保护网上言论自由,因为它不要求任何合法的言论自由被删除”。

“虽然这不会阻止匿名巨魔在一开始就发布滥用内容——前提是它是合法的,并且不违反平台的条款和条件——但它将阻止受害者接触到它,并让他们对自己的在线体验有更多的控制权,”它还建议说。

当被问及政府在这方面的平衡行动时,Decoded Legal的互联网、电信和技术律师尼尔·布朗(Neil Brown)对其做法与人权的一致性并不信服。

他对TechCrunch表示:“我怀疑这项提议是否符合《1998年人权法》第10条规定的‘在不受公共当局干涉的情况下接受和传播信息和思想’的基本权利。”。“它没有说,只有按照政府规定的标准验证了自己的身份,才有权传递信息。

“虽然平台选择实施这种方法是合法的,但在我看来,强制平台实施这些措施的合法性值得怀疑。”

根据政府的提议,那些想要最大限度地提高自己在网络上的知名度/影响力的人必须向主要平台交出身份证,或者以其他方式证明自己的身份——布朗还指出,这可能会创造一个在线表达的“两层体系”,可能(比如)服务于外向和/或讨厌的个人,同时降低那些更谨慎/厌恶风险或其他易受攻击的用户的可见性,这些用户有理由对自我身份保持警惕(而且,很可能根本不太可能是巨魔)。

他建议说:“虽然提案没有要求所有用户向社交媒体网站提交更多个人信息,但结果是,任何不愿意或无法验证自己的人都将成为二等用户。”。“看来网站将被鼓励或要求让用户集体屏蔽未经验证的人。

“那些愿意以自己的名义传播愤怒、错误信息或骚扰的人不太可能受到影响,因为出示身份证的额外步骤不太可能成为他们的障碍。”

TechCrunch明白,政府的提议将意味着,范围内用户生成平台的用户,如果不使用其真实姓名作为面向公众的帐户身份(即,因为他们更喜欢使用昵称或其他名字),仍然可以分享(法律)观点,而不限制谁会看到他们的东西——前提是他们已经(私下)通过相关平台验证了自己的身份。

布朗对继续允许化名公开分享这一因素持更积极的态度。

但他也警告说,很多人可能仍然过于谨慎,不敢相信自己的真实身份证会被平台的“一网打尽”数据库所覆盖。(多年来,各种病毒性匿名博主的出游突显了屏蔽身份泄露的动机。)

布朗说:“这略好于‘实名’政策——即公开你的真实姓名——但只是稍微好一点,因为你仍然需要将‘真实’身份证件交给网站。”,他补充道:“我怀疑那些为了保护自己而使用假名的人会对创建这些新的、庞大的数据集保持警惕,这些数据集可能对黑客和流氓员工都有吸引力。”

在法案中增加的第二项新职责中,DCMS表示,它还将要求一类平台向用户提供工具,让他们能够更好地控制在服务中接触到的内容。

“该法案已将强制范围内的公司删除非法内容,如儿童性虐待图像、宣传自杀、仇恨犯罪和煽动恐怖主义。但社交媒体上的有毒内容和行为越来越多,虽然低于刑事犯罪的门槛,但仍造成重大伤害。”政府写道。

“这包括种族主义虐待、自我伤害和饮食失调的宣传,以及危险的反疫苗虚假信息。社交网络的条款和条件中已经明确禁止了其中的大部分内容,但往往允许它继续存在,并通过算法向人们积极推广。”

DCMS补充道:“根据第二项新职责,“一类”公司必须为其成年用户提供工具,以选择他们是否希望暴露在平台上允许的任何合法但有害的内容中。”。

“这些工具可能包括新的设置和功能,防止用户收到有关特定主题的建议,或在该内容上放置敏感屏幕。”

其新闻稿举了一个“关于自残恢复讨论的内容”的例子,这可能是“在一类服务上可以容忍的,但特定用户可能不想看到”。

布朗对这项要求主要平台提供用户控制的内容过滤系统的计划持更积极的态度,但警告称,这需要真正由用户控制。

“我欢迎内容文件管理系统的想法,这样人们就可以在一定程度上控制他们访问社交媒体网站时看到的内容。然而,这只有在用户可以选择他们自己的个人阻止列表上的内容时才能起作用。我不确定这在实践中会如何起作用,因为我怀疑自动内容分类是否足够。”他告诉我们。

“当政府提到“任何合法但有害的内容”时,我能选择用一种特定的政治倾向来阻止内容吗?例如,阐述一种我认为有害的意识形态,或者是反民主(即使是我选择这样做)?

“如果我认为2019冠状病毒疾病是有害的,我能要求阻止所有内容吗?(我不这样认为)

“那么政客的辱骂或冒犯性评论呢?或者它将是一个更基本的系统,本质上允许用户选择阻止裸体、亵渎,以及平台决定描述自我伤害或种族主义的任何内容。”

“如果让平台来定义‘特定主题’是什么,或者更糟的是,由政府来定义,从技术上讲,可能更容易实现。然而,我想知道提供商是否会采取过度锁定的方式,以确保人们不会看到他们要求压制的东西。”

评估在线安全法案的一个持续问题是,鉴于政府打算通过二级立法推动如此多的细节,大量具体细节根本还不清楚。今天,它再次指出,新职责的更多细节将在Ofcom即将发布的业务守则中列出。

因此,如果没有更多的实践细节,就不可能真正正确地理解实际影响,例如——从字面上讲——平台如何能够或尝试实施这些任务。我们剩下的主要是政府的把戏。

但抛开这种说法不谈,平台通常会如何处理过滤“合法但有害内容”主题的任务?

一种情况是——假设平台自己决定在哪里划定“伤害”界限——正如布朗预测的那样,他们抓住机会,为那些选择排除“有害但合法”内容的人提供大量普通的“过度锁定”内容;在很大程度上是为了降低法律风险和运营成本(注意:如果你不必担心细微差别或质量,自动化是超级便宜和简单的;只需屏蔽任何你不100%确定的东西,就100%没有争议!)。

但他们也可以将过度封锁作为一种操纵策略——最终目的是阻止人们开启如此大规模的审查,和/或促使他们自愿返回,到未经过滤的订阅源,平台的极化内容算法有一个更完整的内容谱来吸引眼球并推动广告收入……第3步:利润。

更重要的是,在这种情况下,平台可能会有合理的可否认性——因为他们可以简单地说,用户自己选择观看有害的东西!(或者至少没有选择退出,因为他们关闭了过滤器,或者从未使用过。)Aka:“不能怪AIs政府!”

任何数据驱动的算法放大的危害都会突然消失。而在线伤害将成为用户的过错,因为用户没有打开可用的高科技敏感屏幕来保护自己。责任转移了。

坦率地说,这听起来像是Facebook这样的广告科技巨头可以欣然落后的那种监管。

尽管如此,平台巨头们仍然面临着来自多利集团(Dorries&;有限公司。

国务卿也毫不掩饰地表示,如果把马克·扎克伯格(Mark Zuckerberg)和尼克·克莱格(Nick Clegg)这样的人关起来,她会多么高兴。

除了被要求主动删除明确的非法内容,如恐怖主义和CSAM——可能会对指定高管处以巨额罚款和/或刑事责任——该法案最近被扩大,要求主动删除与在线毒品和武器交易有关的更广泛的内容;人口走私;复仇色情;欺诈提倡自杀;煽动或控制卖淫牟利。

因此,平台将需要主动地、预先地扫描并删除所有这些内容,而不是像过去那样在用户报告上事后采取行动(或者视情况而定,不太采取行动)。这确实颠覆了他们的内容业务。

DCMS最近还宣布,它还将在法案中增加新的刑事通信犯罪——称它希望加强对“有害网络行为”的保护,如家庭虐待者的胁迫和控制行为;威胁强奸、杀害和实施人身暴力;并故意分享2019冠状病毒疾病治疗的危险信息,进一步扩大平台必须被启动的内容范围,并加以关注。

因此,考虑到平台内容扫描机制的范围不断扩大——再加上科技巨头不愿意为人力资源的适度配置提供适当的资源(因为这会燃烧他们的利润)——Zuck&;co切换到单一的超级香草饲料。

制作猫咪照片和婴儿照片——希望眼球不要滚开,利润不要流失,但Ofcom会远离……或者别的什么。