“华尔街日报”(The Wall Street Journal)周二报道,Facebook有证据表明,其算法助长了两极分化,并利用了人脑对分裂的吸引力,但包括首席执行官马克·扎克伯格在内的高管扼杀或削弱了提出的解决方案。
据该报报道,为了更好地了解Facebook对用户行为的影响,这是对剑桥分析(Cambridge Analytica)丑闻的回应,其内部研究人员认定,与该公司连接世界的使命相反,其产品正在产生相反的效果。
2016年的一份报告发现,所有加入极端主义团体的人中有64%是通过我们的推荐工具加入的,大多数人是在Facebook的建议下加入的,你应该加入你应该加入的团体和发现算法(Discovere&34;Algorithm)。据“华尔街日报”报道,研究人员说,我们的推荐系统加剧了这个问题。“华尔街日报”的广告报道称,Facebook团队提出了多项解决办法,包括限制来自最活跃和极端党派用户群体的信息传播,暗示用户可能会遇到更多种类的群体,以及创建用于激烈辩论的子群,以防止他们破坏整个群体。但据该报报道,扎克伯格和Facebook政策负责人乔尔·卡普兰(Joel Kaplan)经常拒绝或大幅淡化这些提议。该报报道称,扎克伯格最终对试图解决两极分化问题失去了兴趣,并担心潜在的限制用户增长的可能性。
“华尔街日报”称,为了回应有关限制超级活跃用户帖子传播的宣传,扎克伯格同意了一个稀释版本,并要求团队不要再给他带来类似的东西。该公司的研究人员还认定,由于在Facebook上发布内容的极右翼账户和页面越来越多,任何改变--包括减少点击诱饵等非政治性调整--都会对保守派造成不成比例的影响。
这让卡普兰感到担忧,他之前暂停了一个名为“共同点”的项目,该项目旨在鼓励在该平台上进行更健康的政治讨论。据“华尔街日报”报道,最终,许多努力并没有融入Facebook的产品中,经理们在2018年9月告诉员工,公司正在将重点从社会利益转向个人价值。“华尔街日报”报道称,该项目旨在鼓励平台上更健康的政治言论。最终,许多努力并未纳入Facebook的产品中,据“华尔街日报”报道,经理们在2018年9月告诉员工,公司正在将重心从社会利益转向个人价值。“广告”Facebook的一位女发言人告诉“商业内幕”,自2016年以来,我们学到了很多东西,现在的公司已经不是以前的我们了。我们已经建立了一支强大的诚信团队,加强了限制有害内容的政策和做法,并通过研究了解了我们的平台对社会的影响,因此我们继续改进。
Facebook负责诚信的副总裁盖伊·罗森(Guy Rosen)也在周三的一篇博客文章中回应了“华尔街日报”的报道。罗森说,Facebook已经采取了一系列措施来对抗两极分化,比如在用户新闻馈送中优先考虑来自家人和朋友的内容,不推荐违反其条款的小组,禁止仇恨言论和可能导致现实世界伤害的内容,以及与事实核查小组合作。
Facebook多次受到批评者的密切关注,他们认为该公司在限制有害内容在其平台上的传播方面做得不够。随着冠状病毒相关的错误信息在社交媒体上猖獗,以及2020年总统选举的临近,这个话题已经成为人们更加关注的焦点。广告阅读“商业内幕”原文