Facebook部分记录了其内容推荐系统

2020-09-01 00:03:18

该公司首次公开了其内容推荐指南的工作原理。

在Facebook的帮助中心(Help Center)和Instagram的帮助中心(Help Center)提供的新文档中,该公司详细介绍了Facebook和Instagram的算法是如何从其推荐中过滤掉内容、账户、页面、群组和事件的。

目前,Facebook的建议可能会显示为你可能喜欢的页面、News Feed中的“为你建议”的帖子、你可能认识的人,或者你应该加入的群组。Instagram的建议可以在Instagram Explore、你可能喜欢的账户和IGTV Discover中找到。

该公司表示,Facebook现有的指导方针自2016年以来一直在实施,它所称的战略是“移除、减少和通知”。Facebook解释说,这一战略的重点是删除违反Facebook社区标准的内容,减少没有违反标准的问题内容的传播,并向人们提供额外的信息,以便他们可以选择点击、阅读或分享什么。

推荐指南通常属于Facebook在“Reduce”领域的努力,旨在保持比Facebook的社区标准更高的标准,因为它们推动用户关注新的账户、群组、页面等。

Facebook在新的文档中详细说明了五个不符合推荐条件的关键类别。Instagram的指导方针与此类似。然而,这些文档并没有提供关于Facebook实际上是如何选择如何选择向给定用户推荐什么的深入见解。这是理解推荐技术的关键,但Facebook故意遗漏了一条。

许多人没有资格推荐的一类明显的内容包括那些会阻碍Facebook“培育安全社区的能力”的内容,比如专注于自我伤害、自杀、饮食失调、暴力、露骨的性内容、烟草或毒品等受监管的内容,以及由不可推荐的账户或实体共享的内容。

Facebook还声称不推荐敏感或低质量的内容,用户经常说他们不喜欢的内容,以及与低质量发布相关的内容。这些进一步的分类包括点击诱饵、欺骗性的商业模式、发薪日贷款、夸大健康声明或提供“灵丹妙药”的产品、宣传整容手术的内容、竞赛、赠品、参与诱饵、从其他来源窃取的非原创内容、来自Facebook的点击量与网络上其他地方不成比例的网站内容、不包括作者或员工透明信息的新闻。

此外,Facebook声称它不会推荐虚假或误导性的内容,比如那些声称被独立事实核查人员发现是虚假的内容,与疫苗相关的错误信息,以及促进使用欺诈性文件的内容。

该公司表示,它还将“努力”不推荐最近违反社区标准、Facebook试图不推荐的共享内容、发布与疫苗相关的错误信息、参与购买“赞”、被禁止投放广告、发布虚假信息或与暴力运动有关的账户或实体。

当然,后一种说法是在最近有消息称,基诺沙民兵Facebook活动在创建后被标记了455次后,仍然留在了平台上,并已被4名版主清除为非侵犯内容。美联社的页面发布了一条“战斗号召”,并对人们询问携带什么类型的武器发表了评论。最终,在威斯康星州基诺沙的抗议活动中,一名17岁的少年手持AR-15型步枪违反宵禁,越过州界,向抗议者开枪,造成两人死亡,第三人受伤。

考虑到Facebook的过往记录,值得考虑的是Facebook有多好地遵守了自己声明的指导方针。很多人通过在指南失败的时候点击建议,找到了应该是不合格的内容,比如阴谋论、危险健康内容、新冠肺炎的错误信息等等。据报道,QAnon是通过Facebook推荐成长起来的。

同样值得注意的是,像这样的指导方针未能涵盖的灰色区域还有很多。

民兵组织和阴谋论只是几个例子。在这场大流行中,不同意政府关闭企业指导方针的美国用户很容易发现自己被指向各种“重新开放”的小组,这些小组的成员不仅讨论政治,而且公开吹嘘在公共场合甚至在工作场所被要求戴口罩时也不戴口罩。他们提供如何不戴口罩逃脱惩罚的小贴士,并用自拍来庆祝自己的成功。从技术上讲,这些团体可能不会单凭他们的描述就违反规则,而是鼓励对公共健康构成威胁的行为。

与此同时,即使Facebook没有直接推荐某个小组,快速搜索一个主题也会将你引导到Facebook推荐系统中原本不符合条件的内容。

例如,快速搜索“疫苗”一词,目前出现了一些专注于疫苗损伤、替代疗法和一般抗VAX内容的小组。这些内容甚至超过了支持VAX的内容。当全世界的科学家正试图以疫苗的形式开发针对这种新型冠状病毒的保护措施时,允许反Vaxxers通过一个大规模的公共论坛传播他们的想法,这只是Facebook如何使可能最终成为全球公共健康威胁的想法传播的一个例子。

然而,更复杂的问题是,Facebook在监管进行这些讨论的用户与支持言论自由的环境方面的界限在哪里?在几乎没有政府监管的情况下,Facebook最终将为自己做出这一决定。

推荐只是Facebook整体参与系统的一部分,而且经常被指责将用户引导到有害内容。但用户发现的大部分有害内容可能是当用户向Facebook寻求关于某个主题的一般信息时,出现在Facebook搜索结果顶部的那些组和页面。Facebook的搜索引擎偏爱参与度和活跃度--比如一个群组有多少成员,或者用户发帖的频率--而不是它的内容与公认的事实或医学指南有多接近。

Facebook的搜索算法也没有得到同样详细的记录。