随着唐纳德·特朗普(Donald Trump)从Twitter和Facebook停职,帕勒(Parler)开始了AWS,人们重新讨论了网上可以接受哪种言论以及应该如何执行。我首先要说我相信这些禁令是有道理的。但是,它们的确提出了需要讨论的问题,尤其是在技术界内部。
正如许多人已经指出的那样,Twitter,Facebook和亚马逊是在适用法律(例如反歧视立法)的范围内自由以其认为合适的方式强制执行其服务条款的公司。但是,我们还应该意识到,几乎所有社交媒体(数字领域的公共空间)实际上都是受公司服务条款约束的私有空间。当前没有可行的,非公司化的替代空间,我们都可以搬到那里。不管是好是坏,马克·扎克伯格,杰克·多尔西和杰夫·贝索斯(及其下属)目前都是网络上可以和不能说的事情的仲裁者。
这种情况引起了去中心化Web社区的注意,它是旨在减少数字领域集中式企业控制程度的广泛项目的集合。其中包括Mastodon和Diaspora等自托管/联合社交网络,Scuttlebutt等点对点社交网络以及其他区块链项目。这些项目的确切目标和技术对于这篇文章并不重要。我将首先关注许多分散式Web项目提到的一个特定设计目标,即审查制度的阻力。
当我们想到审查制度时,就会想到极权国家对其人口实行暴力控制,压制异议并扼杀新闻界。面对这种对手,提供审查制度抵抗的技术似乎是向前迈出的积极一步,因为它们促进了个人自由和人权。
但是,对手通常不是极权国家,而是其他使用者。审查制度的抵制意味着任何人都可以说任何话,而不会遭受后果。不幸的是,那里有很多人在说和做一些可怕的事情。因此,一旦抵制审查的社交网络变得足够流行,我希望它将充满垃圾邮件发送者,新纳粹分子和儿童色情制品者(或您认为卑鄙的任何其他类型的内容)的消息。一个人免受暴力侵害是另一人的审查制度,因此,强调审查制抵抗的制度不可避免地会招致针对某人的暴力行为。
我担心许多分散的Web项目都是为抵制审查而设计的,并不是因为它们故意成为新纳粹分子的中心,而是出于一种天真烂漫的信念,即更多的话语总是更好。但是我认为我们在过去十年中了解到事实并非如此。如果我们想要技术来帮助建立我们想要生活的社会类型,那么就必须限制某些虐待行为。因此,需要内容审核。
如果我们要声明某些类型的内容为不可接受的内容,则需要一个区分可接受和不可接受材料的过程。但这很难。您如何在健康怀疑论和有害阴谋论之间划清界限?您如何在夸张的讽刺效果和有害的错误信息之间划清界限?在合理的异议和骚扰之间?在诚实的误解和恶意的虚假陈述之间?
有了所有这些,某些情况在分界线的一侧或另一侧将非常清楚,但始终会有很大的灰色区域,不清楚的情况和主观解释的情况。 “我一看到就知道”很难概括为可以客观一致地应用的规则;如果没有客观性和连贯性,适度就很容易退化为一种情况,一群人将自己的观点强加给其他人,无论他们是否喜欢。
在全球范围内使用的服务中,在可接受与否之间存在文化差异。也许一种文化对裸露敏感并且容忍暴力描绘,而另一种文化则对裸露宽松并且对暴力敏感。一个人的恐怖分子就是另一个人的自由战士。目前尚无统一的全球公认标准,无论该标准是什么还是不被接受。
尽管如此,还是有可能达成一致的。例如,维基百科的编辑人员成功地管理了关于维基百科文章中应包括和不应包括的内容的共识,即使是那些有争议的主题也是如此。我不会说这个过程是完美的:维基百科的编辑主要是白人,男性,来自英美文化圈,因此在其编辑决策上肯定会有偏差。我尚未参加此社区,但我认为达成协议的过程有时会很混乱,并且不会使所有人高兴。
此外,作为百科全书,维基百科着重于有证据支持的广为接受的事实,试图以与维基百科相同的方式来管理社交媒体将使其变得毫无乐趣,没有讽刺,喜剧,实验艺术或许多其他事物的余地。使它有趣而人道。不过,维基百科是分散式内容审核的一个有趣示例,不受私人实体控制。
另一个示例是联合的社交网络,例如Mastodon或Diaspora。在这里,每个服务器管理员都有权为其服务器的用户设置规则,但是他们无法控制其他服务器上的活动(除了完全阻止其他服务器之外)。尽管采用了分散式架构,但趋势是集中化( Mastodon实例的10%占据了几乎一半的用户),而少数服务器管理员却掌握了很多功能。如果这些社交网络要成为主流,我希望这些影响可以被放大。
社交媒体的一种形式是针对小团体的私人聊天,例如,通过WhatsApp,Signal甚至电子邮件。在这里,当您向某组发布消息时,唯一可以看到该消息的人就是该组的成员。在这种情况下,不需要太多的内容审核:如果小组成员说别人认为不可接受的话,可以将他们踢出去。如果一个小组说出另一小组认为令人反感的话,那没有问题,因为这两个小组无论如何都无法看到彼此的对话。如果一个用户骚扰另一个用户,则受害者可以阻止该骚扰者。因此,私人团体相对容易处理。
对于公开(任何人都可以阅读)和开放(任何人都可以加入对话)的社交媒体,或者当群体很大时,情况就更难了。 Twitter是这种模型的一个示例(在某种程度上,还有Facebook,这取决于您的隐私设置)。当任何人都可以写一封您将看到的消息(例如,对您公开发布的内容的回复)时,就会打开门以骚扰和凌辱他人。
一种反应可能是撤退到我们的过滤器泡沫中。例如,我们可以说您仅看到直系朋友和亲朋好友发布的消息。我很确定在我的直接朋友之间以及在我的二级网络中都没有新纳粹分子,因此这样的规则至少可以使我免受某种极端主义内容的侵害。
用户也可以协作创建过滤器。例如,ggautoblocker是一种在GamerGate期间阻止滥用Twitter帐户的工具,GamerGate是一项2014年的女性骚扰运动,预示了另类权利和特朗普主义的崛起。在没有Twitter进行中央审核的情况下,这种骚扰的受害者可以使用此工具自动阻止大量有害用户,这样他们就不必看到这些侮辱性消息。
当然,即使这种过滤使您不必去看自己不喜欢的东西,也不会阻止令人反感的内容的存在。此外,其他人可能会遇到相反的过滤器泡沫,在过滤器泡沫中他们看到大量的极端主义内容,从而使他们变得激进。个性化的过滤器也使我们无法看到替代性的(有效的)意见,这些意见将有助于扩大我们的世界视野并增进对不同事物的相互理解社会团体。
因此,对谁看到的内容进行主观过滤(例如阻止用户)是减少对社交媒体的伤害的重要组成部分,但仅此一项是不够的。还必须坚持最低限度的标准,例如可以要求文明和诚实的基准。
我之前曾争辩说,没有公认的内容可接受性标准。然而,我们必须以某种方式将话语标准保持在足够高的水平,以使所涉及的人不会感到无法忍受,并尽量减少危害,例如免受骚扰,激进化和煽动暴力。我们如何解决这个矛盾?将权力掌握在少数高科技公司的首席执行官或任何其他较小的未经选举的人手中,这似乎不是一个好的长期解决方案。
由于代码无法对可接受的行为做出价值判断,因此也不存在纯粹的技术解决方案。似乎某种民主程序是这里唯一可行的长期解决方案,可能得到某些技术机制的支持,例如AI /机器学习来标记可能滥用的材料。但是,这种民主进程会是什么样子?
适度的举动不应过于强硬,以致消除了合理的分歧。分歧不一定总是礼貌;实际上,警务警务不应成为沉默合法投诉的手段。另一方面,侵略性批评可能会迅速进入骚扰领域,可能不清楚何时才越过这条界限,有时可能需要考虑所涉人员之间的权力关系,并保持特权和权力达到比被压迫和弱势群体更高的标准,因为否则该系统最终可能会加剧现有的失衡。但是,这里没有硬性规定,而且在很大程度上取决于所涉人员的背景和背景。
这个例子表明,节制过程需要嵌入道德原则和价值观。这样做的一种方法是由用户群选出一个审核监督委员会。在该委员会的宣言中,该委员会的候选人可以阐明他们将带给工作的原则和价值。不同的候选人可能会选择代表具有不同世界观的人,例如保守派和自由派。在这样的董事会中代表各种不同的意见和文化,既可以使其权威合法化,又可以提高其决策的质量。也许到时候,甚至会有政党和派系出现,我认为这是民主的成功。
Facebook雇用了大约15,000名内容主持人,总的说来,这是一件可怕的工作。谁愿意做?另一方面,与Facebook的用户数相比,只有15,000。与其将所有内容审核工作集中在相对较少的主持人上,不如每个用户都必须不时地进行审核作为其使用服务条件的一部分?这种事情的先例存在:在许多国家,人们可能被要求出任陪审员以协助判决刑事案件。通常会要求研究人员审阅同行的文章。这些事情也不是很有趣,但是我们为了所有人都受益的公民制度而这样做。
具有不同政治见解的主持人可能对某段内容是否可以接受表示不同意见。在这种分歧的情况下,可以引入其他人,希望可以通过辩论解决这个问题。如果可以找到没有达成协议,此事可以beescalated民选板,它有最后的发言权和使用经验,setguidelines为未来的节制。
在分散的社交媒体中,我相信最终应该由用户自己来决定什么是可接受的。尽管技术工具和某种程度的自动化可能能够支持该过程并使之更加高效,但这种治理将必须通过一些人类辩论和审议过程来进行。我们应该努力遵循道德原则,民主控制和问责制,而不是简化审查制度,赋予行政管理者独裁的权力。
我意识到我的建议可能是幼稚的,并且对“计算机科学家终于发现人文科学为什么如此重要”的想法有些sm。因此,如果您知道与该主题相关的任何工作,并且可以帮助技术系统从数百年来的公民社会民主经验中学习,请将其发送给我-我渴望了解更多。此外,如果去中心化网络社区中存在有关启用这种基层民主的工作,我也很想听听。
您可以在Twitter @martinkl上找到我,或通过电子邮件与我联系(姓氏为com的姓氏)。我将使用发送给tome的有趣内容更新此帖子。
自本文发布以来,这里已经向我指出了一些相关项目。我尚未审核它们,因此请勿将其视为认可。没有特别的顺序:
Trustnet是一种基于社交图计算个人用户信任度数值得分的方法。 Cabal允许用户订阅其他用户的审核操作,例如阻止和隐藏帖子。 要在我写新东西时得到通知,请在Twitter上关注我或输入您的电子邮件地址: 我不会将您的地址提供给其他任何人,也不会向您发送任何垃圾邮件,您可以随时退订。