YouTube的推荐可以是令人愉快的,但也可能是危险的。该平台有向用户推荐有害内容-从大流行阴谋到政治虚假信息-的历史,即使他们以前看过无害的内容。
事实上,2019年10月,Mozilla发布了自己关于这个话题的研究报告,披露YouTube推荐了包括错误信息在内的有害视频。在全球大流行和美国大选迫在眉睫的情况下,这个问题的后果是真实的,而且还在不断扩大。
尽管后果严重,但YouTube的推荐算法对其用户来说完全是个谜。在大选前的最后几天,YouTube会推荐美国用户看什么?还是在接下来的几天,选举结果可能不明朗的时候?
因此,今天,Mozilla为YouTube用户提供了一种当他们被推荐有害视频时采取行动的方法。今天,我们将推出RegretsReporter扩展:这是一个对YouTube推荐问题进行众包研究的浏览器扩展。
通过与Mozilla分享YouTube遗憾的数据,人们可以帮助我们更好地理解这个问题,并帮助我们照亮前进的正确道路。
YouTube的推荐AI是互联网上最强大的策展人之一。YouTube是世界上访问量第二大的网站,其支持人工智能的推荐引擎驱动了网站总观看时间的70%。毫不夸张地说,YouTube极大地影响了公众对全球关键问题的认识和理解。
多年来,人们一直对YouTube推荐阴谋论、错误信息和其他有害内容发出警告。YouTube最一致的回应之一是说,他们在这方面正在取得进展,并已将有害建议减少了70%。但没有办法证实这些说法,也无法理解YouTube仍有哪些工作要做。
随着我们等待YouTube证实这些说法的每一天,像“内战即将到来”或“大爆炸”这样的视频可能会被推向越来越多的人。这就是我们招募YouTube用户成为YouTube看门人的原因。人们可以捐赠他们自己的推荐数据来帮助我们了解YouTube推荐的内容,并帮助我们深入了解如何让整个推荐引擎更值得信赖。通过合作,我们可以帮助发现重要信息,如:
有了这些信息,Mozilla-与其他研究人员、记者、政策制定者,甚至YouTube中的工程师-可以致力于构建更值得信赖的内容推荐系统。
Mozilla将以开源的方式公开分享我们的研究成果,并希望YouTube和其他公司能利用这些信息来改进他们的产品。请继续关注oundation.mozilla.org/blog以获取更新。
当你浏览YouTube时,该扩展将自动发送关于你在该平台上花费的时间的数据,而不会收集任何关于你正在观看或搜索的信息。这可能会让我们深入了解用户体验YouTube后悔的频率。如果您特别选择,您可以给我们发一份报告。报告表将要求您告诉我们更多关于您在YouTube上的遗憾,并收集有关您正在报告的视频以及您是如何获得该视频的信息。这对于理解YouTube的推荐系统如何保持人们的关注,以及它可能会对他们产生什么影响非常重要。
Mozilla收集的数据链接到随机生成的用户ID,而不是您的YouTube帐户。只有Mozilla才能访问原始数据,当我们共享扩展结果时,我们将以最大限度地降低用户被识别的风险的方式公开这些数据。当您在私人浏览窗口中浏览时,扩展不会收集任何数据。有关您的隐私的更多详细信息,请阅读RegretsReporter隐私声明。
我们要求用户在使用此扩展时不要修改他们的YouTube行为。不要寻找令人遗憾的内容。取而代之的是,像往常一样使用YouTube。只有这样,我们才能共同了解YouTube推荐令人遗憾的内容的问题是否正在改善,以及他们需要在哪些领域做得更好。
Mozilla正在推动健康的互联网和值得信赖的人工智能的运动。我们通过这样的项目做到这一点,当公司的人工智能伤害人时,这些项目要求公司承担责任。
一年多来,我们一直在推动YouTube解决其推荐问题。下面,找到Mozilla在这个问题上工作的时间表。
Mozilla授予前YouTube工程师Guillaume Chaslot一项奖学金,以支持他研究人工智能系统的工作,包括YouTube推荐引擎的影响。
Mozilla宣布我们打算调查YouTube的推荐问题,并开始与该公司就改进进行对话。
Mozilla为我们的社区发布了一份阅读清单,详细介绍了推荐AI-包括YouTube-可以操纵消费者的方式。
Mozilla主持了与一名青少年的问答活动,这名青少年在网上变得激进,这在一定程度上要归功于YouTube推荐的人工智能。
Mozilla发起了#YouTubeRegrets活动,敦促用户分享他们遇到的有害推荐的故事。
在与YouTube工作人员会面讨论这一问题后,Mozilla发布了该平台可以采取的三项具体行动,以帮助解决其推荐问题。这些变化需要使YouTube的推荐数据更加透明。
Mozilla发布了我们的#YouTubeRegrets研究结果,强调了如何向用户推荐反科学内容、反LGBT内容和其他有害视频。
在Mozfest 2020上,Mozilla主持了一个名为“算法凝视”的小组讨论,探讨像YouTube推荐引擎这样不值得信任的人工智能的危险。
Mozilla公布了一份YouTube因其推荐问题而被解雇的名单。