算法观察(Algorithm Watch)的一份新报告发现,Instagram似乎更喜欢半裸创作者的照片,并将那些照片在用户订阅源中提升到更高的位置。
算法观察(Algorithm Watch)是一家专注于算法决策的研究和倡导组织,它从26名Instagram志愿者那里收集了数据,看看从37名创作者中挑选出来的哪些照片在他们的主要馈送中排名最高。
这是使用一个浏览器插件完成的,它会定期自动打开Instagram主页,并分析它在那里看到的照片。总共分析了2020年2月至5月的2400张照片。
在此期间,选定的创作者账户中有21%的照片包含赤裸上身的人(穿内衣或泳衣的女性或赤裸胸部的男性)。然而,在志愿者订阅源中,这些图片占这些账户发布的所有帖子的30%。
包含穿着内衣或比基尼的女性照片的帖子出现在我们志愿者的新闻馈送中的可能性要高出54%。报告称,包含裸胸男性照片的帖子被展示的可能性要高出28%。
该报告还表示,如果不对Instagram的算法进行全面审计--这是Facebook不太可能允许的,因为它属于自己的知识产权--它就不可能得出明确的结论,说明是什么导致了这种偏向裸露上身的照片。
一种解释可能很简单,那就是其他用户更多地参与到这些图片中,促使算法将它们放在人们订阅源中的更高位置。如果你和其他人更多地喜欢一张照片,它可能会在其他人的订阅源中显示得更高。
这份报告的作者还提到了Instagram母公司Facebook 2015年的一项专利,该专利描述了一种分析图片内容的系统,以确定它是否适合高参与度。这项专利明确表示,它将能够在照片中识别人们的脱衣状态。
很难说该算法是简单地利用点赞和半裸照片之间的相关性,还是已经赋予了识别照片中半裸体的能力。Facebook有发现裸体的算法,因为Instagram禁止全裸体,并使用这种算法来删除违反这一规则的帖子,但这些算法是否被用来对人们信息源中的帖子进行排名还不确定。
论文作者之一尼古拉斯·凯瑟-布里尔(Nicholas Kayser-Bril)表示:我们无法证明因果关系;没有数量的数据可以证明这一点。要确切知道这是如何运作的,唯一的办法就是对Facebook的服务器中到底发生了什么进行审计,而在当前的法律环境下,我们是不可能做到这一点的。
Kayser-Bril在一条推文中表示,该算法可能会捕捉到少数Instagram用户的行为,这些用户将该平台作为软色情的来源。
在回应这份报告的作者时,Facebook驳斥了Instagram算法系统地推广半裸图片的说法。
一位发言人告诉算法观察,这项研究在很多方面都有缺陷,表明人们对Instagram的工作原理存在误解。我们根据您感兴趣的内容和账户对您订阅源中的帖子进行排名,而不是根据泳装等任意因素进行排名。
Facebook的一位女发言人告诉Business Insider,该公司认为Algorithm Watch使用的样本量太小。
但是,无论该算法是能在图片中发现皮肤,还是仅仅是利用相关性,对使用Instagram谋生的人的影响都是一样的。
凯瑟-布里尔说,我们采访的几乎每一位内容创作者都证实,如果他们想要有影响力,就必须发布几乎全裸的照片。
对于Algorithm Watch来说,主要的问题不是Facebook是否有意增加裸露上身的图片,而是找出它是如何或为什么发生的有多难。
在广告业,如果我们对此进行调查,我们可以找到消息来源,他们可以描述正在发生的事情,解释决策是如何做出的。而在这种情况下,我们拥有的只是我们的数据,正如我们承认的那样,这些数据非常小,然后Facebook说,不,事情不是这样发生的,凯瑟-布里尔说。
牛津互联网研究所的算法公平性专家桑德拉·瓦赫特在接受“商业内幕”采访时表示,缺乏意向性实际上使算法比人类决策者更危险,因为许多歧视法律都要求有意向性才能适用。
瓦克特说,你可以任由算法肆无忌惮地运行,它们会在没有任何意图的情况下开始歧视;如果你不以负责任的方式积极参与设计、部署和监督算法,就会发生这种情况。
Wachter补充说,由于该算法的决策过程晦涩难懂,很难仔细检查,这使它们变得更加糟糕。
她认为,使用Instagram推广业务的专业人士有正当理由担心该平台系统性地偏爱半裸图片。
瓦克特说,知道你正面临这样的挑战,穿着得体会增加知名度,这实际上可能是个问题,因为这真的不是你想要的平台所做的事情。
让Facebook调查和调整算法也不是没有陷阱,Wachter表示,该平台必须非常小心任何不可预见的连锁反应-例如,降低半身图片可见度的总体政策可能会不公平地使营销泳衣或内衣的用户处于不利地位。
我不认为那个问题有简单的解决办法。她表示:这实际上需要后退一步,思考你可以做的可能的后果或可能的政策干预,以及这在实践中实际上意味着什么。