“Meta不会告诉我们它如何在虚拟现实中执行规则,所以我们进行了测试”

2022-02-15 10:00:44

公司首席执行官马克·扎克伯格(Mark Zuckerberg)在宣布将公司更名为Meta时承诺,公司认为是互联网未来的虚拟世界将受到保护,免受困扰Facebook的恶性肿瘤的侵害。他说:“从第一天开始,metaverse就需要具备隐私和安全性。”。“这是在产品出现之前,为安全、隐私和包容性而设计的。”

在某些方面,这次会有所不同,因为虚拟现实是一种与Facebook或Instagram截然不同的媒体。尽管该公司的虚拟世界已经可以供用户创建和探索,但Meta对其计划如何在虚拟现实中实施安全协议的大部分内容保密,拒绝回答有关这些协议的详细问题。(披露:前世,我曾在Facebook和Spotify担任政策职务。)

这些规则的透明度很重要,因为Meta长期以来一直在努力控制Facebook和Instagram上的内容。它已经在机器学习工具上投资了数十亿美元,以大规模调整内容,而且它还面临着关于什么样的言论应该被允许的难题。但在虚拟现实中,内容节制可能比在社交平台上更具挑战性,尤其是因为这些旧平台的工具不容易转移到一种不仅需要实时了解内容,还需要实时了解人们行为的媒体。隐私和安全之间还有一个权衡:即使公司可以跟踪我们在虚拟现实中的每一次对话和互动,我们希望它这样做吗?

Meta表示,它认识到这一权衡,并承诺对其决策保持透明。因此,为了更好地理解它是如何实现虚拟现实节制的,BuzzFeed News向Meta发送了一份包含19个详细问题的列表,这些问题涉及它如何在虚拟现实中保护人们免受虐待、骚扰、误报和其他伤害。该公司拒绝回答任何问题。相反Meta发言人Johanna Peace向BuzzFeed News提供了一份简短声明:“我们致力于通过安全工具,比如报告和阻止他人的能力,让人们对自己的虚拟现实体验有更多的控制。我们还为开发者提供了更多工具来调节他们创造的体验,我们仍在探索如何在虚拟现实中最好地利用人工智能进行调节。我们仍以负责任的创新为指导这些体验从一开始就包含了确保隐私、安全和安全的原则。"

第一次进入";负责任的创新原则";体现了透明度的价值:“我们清晰、坦诚地沟通,让人们能够理解我们考虑的权衡,并就是否以及如何使用我们的产品做出明智的决定。”

我们回去并要求Meta来考虑我们的问题。该公司拒绝了。

所以,为了找到我们自己能做的事情,我们绑上了一些Oculus耳机,打开了地平线世界,并进行了初步实验。

在几个小时内,我们建立了一个私人地平线世界,上面挂着大量错误信息的口号:“停止盗窃!”“停止这个计划!”“特朗普赢得了2020年的选举!”我们称这个世界为“Qniverse”,并给它配乐:Infowars创始人亚历克斯·琼斯(Alex Jones)没完没了地说乔·拜登(Joe Biden)是恋童癖者,并声称选举是由爬行动物霸主操纵的。我们用Meta明确承诺从Facebook和Instagram中删除的单词和短语填满了天空——“疫苗导致自闭症”、“新冠肺炎是一个骗局”,以及卡农的口号“我们去哪里,我们都去哪里”Meta一次又一次地删除使用这些短语的页面和组,甚至是私人组,并对其采取行动。

我们没有向广大公众释放这种有毒物质。只有少数BuzzFeed新闻记者可以访问Qniverse,它是使用BuzzFeed新闻记者的真实姓名创建的,并链接到她的Facebook帐户。我们让这个世界“未发布”——即仅限邀请——以防止毫无戒心的用户出现在它身上,并模仿一些试图分享错误信息的元用户实际上可能会这样做的方式:在私人空间中,仅限邀请。

我们测试的目的是评估在Facebook和Instagram上运行的内容调节系统是否也在地平线上运行。至少在我们的情况下,他们似乎没有。

36个多小时后,Qniverse似乎没有被Horizon发现,可能是因为这个世界是私人的,只允许四个人进入,而且几乎没有参与——所有这些因素都可能使它成为内容版主的低优先级。

通过Horizon的用户报告功能,一名能够访问世界的BuzzFeed新闻员工使用自己的名字和一个链接的Facebook帐户将世界标记为Meta。在48个多小时没有采取任何行动后,这名员工再次报告了世界,紧接着又是另一位BuzzFeed新闻用户的报告,该用户可以访问世界,也使用了她的真实姓名,该姓名与她的Facebook和Oculus个人资料相链接。

提交第三份报告大约四小时后,提交报告的员工收到了Meta的回复:“我们训练有素的安全专家审阅了您的报告,并确定Qniverse中的内容没有违反我们的VR政策。”六小时后,原记者收到了同样的消息。也许是因为世界上只包含违规内容,而没有违规行为,所以版主们把Qniverse放在了一边。除了制造错误信息的口号,我们没有发言,也没有与世界上的内容互动。如果没有这样的背景,内容版主可能会认为这是一个恶搞。

我们去了梅塔的通讯部,一个普通人无法使用的频道。我们询问了其内容版主的决定:一个分享Meta根据相同的社区指导原则从其其他平台删除的错误信息的世界,怎么可能不违反Horizon的政策?

发言人乔·奥斯本(Joe Osborne)说:“经过进一步审查,我们已将其从地平线世界中删除。”。他拒绝回答有关该决定的进一步问题。

过去几年里,任何新闻消费者都曾见过这样的情况:记者在社交平台上大喊内容,尤其是Meta拥有的平台。这在一定程度上是因为,有时情况变得非常糟糕。Facebook从一个你戳你高中时的老朋友的地方,发展到一个你高中时的老朋友可以把你加入一个私人团体的地方,这个团体发展到了成千上万其他谈论枪击抗议者或推翻民选政府的人。地平线是一种仍然非常新的媒介。随着Meta的建设,该公司承诺将再次解决一个复杂的难题,这是它和其他所有社交媒体公司一直在努力解决的问题:在保持平台安全的同时,允许自由表达,以平衡相互竞争的利益。鉴于这种新媒体的独特挑战,Meta面临着一项艰巨的任务,甚至可能是不可能的。

如今,Meta似乎主要依靠用户块、静音和报告来通知它VR中违反社区标准的情况。Meta首席技术官Andrew Bosworth解释了在2021年11月的博客帖子中的原因:“我们不可能无限期地记录VR中发生的一切,这将侵犯人们的隐私。”他接着解释说,Oculus设备确实会记录(然后再记录)用户在虚拟现实中的最新体验,但这些记录只有在用户提交滥用报告时才会发送给Meta。

这种方法与Meta在Facebook和Instagram上采用的方法截然不同。对抗数字仇恨中心研究负责人卡勒姆·胡德担心,如果没有一些积极的调节系统,用户可能会围绕种族主义和虐待儿童等有害内容形成有毒社区,而这些内容永远不会被报道。他说:“我们以前在Facebook群组中见过这种情况。”。

但另一种选择也引发了担忧。Reor MIR是电子前沿基金会的草根倡导者,他警告说,如果元语言使用机器学习模型来监控其VR用户的行为,它可能会“审查更多的人,而不是保护更多的人”,因为它将需要“更亲密的监视形式:不仅是你在写什么,而且是你的行为。”

自从Horizon Worlds于去年12月推出以来,Meta还没有像Facebook上那样遇到大规模的调节问题,部分原因可能是Horizon的用户比例很小。但也存在一些问题:据报道,地平线上的女性和有色人种受到骚扰、虐待,并成为仇恨言论的目标——这是虚拟现实在其整个历史中一直在努力解决的问题。Horizon有一个“安全区”选项,允许用户快速退出虚拟空间并屏蔽其他用户,它刚刚启动了“个人边界”作为另一种防止骚扰的机制。尽管如此,《华盛顿邮报》的一名记者最近还是在《地平线》上遇到了许多明显的儿童,官方要求用户至少18岁,这引发了人们的担忧,即儿童可能会成为该应用中捕食者的目标。

Facebook和Instagram的许多最大的内容政策问题都与Meta的算法如何促进和放大内容有关。Meta确实在地平线上推广公共世界,并为Oculus用户推广应用程序和其他体验——但尚不清楚它是如何做到的,以及它的算法是否能像推动团体一样推动世界,其中一些团体鼓吹极端主义或暴力。Meta拒绝回答有关其推荐指南和内容分发指南是否适用于虚拟现实的问题。

Meta转向虚拟现实的时机对公司来说非常艰难。上周,Facebook报告了其有史以来首次每日活跃用户数量下降,导致元股票暴跌,公司在一天内损失了约25%的市值。对于一家几乎不惜一切代价追求扩张的公司来说,虚拟现实技术的下降加大了成为下一个巨大增长动力的压力。(2016年,时任增强和虚拟现实副总裁的博斯沃思(Bosworth)认为,Facebook应该优先考虑增长,而不是遏制恐怖袭击等现实世界的危害,因为“任何能让我们更频繁地联系更多人的事都是好事。”他后来说,他是在挑衅性地强行进行辩论,公司从未坚持过这一政策。)

根据虚拟现实和人权专家布里坦·海勒(Brittan Heller)的说法,目前还不存在在虚拟现实中进行充分调节的技术:公司无法可靠地实时转录和评估用户的语音,也无法可靠地识别手势。你可以想象另一个Qniverse——一个墙壁上没有潦草文字的Qniverse,但用户仍然聚集在那里分享有害的错误信息。如果不记录用户在虚拟现实中所说的一切,Meta怎么知道这种情况是否正在发生?但记录用户的言行,即使是在私人团体中,也会引发严重的隐私问题。

另一个新的挑战是透视增加的复杂性:一个动作(或一个对象)从每个视角看起来都不一样。海勒问道:“在一场温和的争论中,谁的角度应该得到最大的重视?”?

Meta拒绝回答更基本的问题,包括虚拟现实内容是否需要接受事实核查,该公司是否有能力发现Horizon中恐怖组织的赞扬和支持,以及该公司是否能够阻止Horizon中的用户消费白人至上主义内容或色情。Meta还拒绝透露,在Facebook和Instagram上进行绝大多数内容调节的机器学习模型是否也在调节地平线上的内容方面发挥了作用。Meta拒绝告诉我们,上传到Horizon的文件——比如上传到该公司社交平台的文件——是否针对国家失踪和受剥削儿童中心和全球互联网反恐论坛等组织维护的散列图像库进行了儿童剥削和恐怖材料检查。

梅塔没能探测到我们的实验,这让一些专家感到困扰。纽约大学斯特恩商业和人权中心副主任保罗·巴雷特指出,人们总是在寻找新的方式来分享内容,同时避免被发现。他说,机会主义用户总是会发现并利用平台的最薄弱环节,公司“有责任事先弄清楚这项新服务如何被滥用。”

Meta的虚拟现实节制带来的风险最终将取决于有多少人使用该公司的虚拟现实产品。Oculus应用程序原本用于Meta的VR耳机,在去年圣诞节后的两周内下载了大约200万次。但与全球数十亿人免费使用的Facebook和Instagram不同,Horizon要求用户花费数百美元购买耳机,并将其戴在脸上——这在杂货店的结账队伍中或在工作任务之间是很难做到的。根据社交媒体武器化专家艾默生·布鲁金(Emerson Brooking)的说法,Horizon中的用户池可能足够小,目前来说,Meta可以通过让员工监控用户标记的一切来有效地调节它。但海勒仍然担心虚拟现实中的极端分子,并警告说:“如果我们试图为所有人创造一个元宇宙,我们最好为所有人做好准备。”●