当您在YouTube上发送一条遗憾信息时,导致您后悔的视频和建议会被私下提交给Mozilla研究人员。
有了RegretsReporter扩展,您可以立即采取行动,向我们发送您后悔看过的推荐视频-比如伪科学或反LGBTQ+内容。
报告表将要求您告诉我们更多关于您在YouTube上的遗憾,并收集有关引导您访问该视频的建议的信息。通过分享你的经验,你可以帮助我们回答这样的问题:用户后悔看了哪些推荐的视频?是否存在导致更多令人遗憾的内容被推荐的使用模式?YouTube上的兔子洞是什么样子的,在什么时候它会变成你希望自己从来没有点击过的东西?
多年来,记者、研究人员,甚至前YouTube员工一直在告诉YouTube,他们需要阻止推荐引擎将用户送进种族主义、阴谋论和其他令人遗憾的兔子洞。
YouTube声称正在解决这个问题,但这一切都是关起门来的,公众没有任何办法知道它是否真的起作用了。去年,Mozilla向YouTube提出了三个建议,以帮助以更公开、更透明的方式解决这个问题。到目前为止,YouTube还没有做出这些改变。
这就是你的用武之地。Mozilla的RegretsReporter浏览器扩展将YouTube的日常用户转变为YouTube的看门人。我们可以用我们自己的数据来回答有关令人遗憾的建议的问题,这些建议对调查这些问题的记者、推动更多责任的Mozilla等其他组织以及建造这项技术的工程师和设计师都有很大的帮助。
Mozilla正在推动健康的互联网和值得信赖的人工智能的运动。我们通过这样的项目做到这一点,这些项目要求公司对有害的人工智能系统负责。近一年来,我们一直在倡导YouTube解决其推荐问题。下面,找到Mozilla在这个问题上工作的时间表。
Mozilla授予前YouTube工程师Guillaume Chaslot一项奖学金,以支持他研究人工智能系统的工作,包括YouTube推荐引擎的影响。
Mozilla宣布我们打算调查YouTube的推荐问题,并开始与该公司就改进进行对话。
Mozilla为我们的社区发布了一份阅读清单,详细介绍了推荐AI-包括YouTube-可以操纵消费者的方式。
Mozilla主持了与一名青少年的问答活动,这名青少年在网上变得激进,这在一定程度上要归功于YouTube推荐的人工智能。
Mozilla发起了#YouTubeRegrets活动,敦促用户分享他们遇到的有害推荐的故事。
在与YouTube工作人员会面讨论这一问题后,Mozilla发布了该平台可以采取的三项具体行动,以帮助解决其推荐问题。这些变化需要使YouTube的推荐数据更加透明。
Mozilla发布了我们的#YouTubeRegrets研究结果,强调了如何向用户推荐反科学内容、反LGBT内容和其他有害视频。
在2019年Mozfest上,Mozilla主持了一个名为“算法凝视”的小组讨论,探讨像YouTube推荐引擎这样不值得信任的人工智能的危险。
Mozilla公布了一份YouTube因其推荐问题而被解雇的名单。