纽约— Pornhub发表了两份声明,关于维萨和万事达卡昨天宣布将不再在平台上接受他们的卡的说法,此前纽约时报发表了尼古拉斯·克里斯托夫(Nicholas Kristof)的社论。
这些行动异常令人失望,因为Pornhub制定了用户生成的平台历史上影响最深远的防护措施仅两天。现在,未经验证的用户被禁止上传内容-包括Facebook在内的其他平台都没有制定这一政策,在过去三年中,Facebook报告了8400万起儿童性虐待材料实例。相比之下,互联网观察基金会(Internet Watch Foundation)在过去三年中报告了Pornhub上的118起事件。
对于数十万依靠我们的平台谋生的模型而言,这一消息令人震惊。
关于《纽约时报》发表的克里斯托夫的指控,Pornhub的声明如下:
消除非法内容并消除儿童性虐待材料的互联网是当今在线平台面临的最关键问题之一,它需要各方坚定不移的承诺和集体行动。
由于我们行业的性质,人们对Pornhub的价值观和过程的先入为主的观念通常与现实有所不同,但是忽略有关CSAM这样严肃的话题的事实会适得其反。任何我们允许CSAM的主张都是不负责任的,而且显然是不真实的。我们对CSAM的容忍度为零。 Pornhub明确致力于打击CSAM,并制定了行业领先的信任和安全政策,以识别和消除社区中的非法材料。
根据领先的非营利组织,拥护者和第三方的分析,Pornhub的保护措施和技术已被证明是有效的:尽管打算像家庭般友好的平台(如Facebook)报道说,它在两年半的时间内消除了84,100,000起CSAM事件,但Instagram报道说:在一年半的时间内删除了4,452,000个CSAM事件,Twitter报告称在两年内暂停了1,466,398个CSAM唯一帐户,CSAM的主要独立机构Internet Watch Foundation报告了三年内在Pornhub上发生的118个CSAM事件。期。
Pornhub积极采取广泛的措施来保护平台免受此类内容的侵害。这些措施包括庞大的人工审核员团队,他们致力于手动检查每个上传内容,标记,检查和删除非法材料的完善系统,强大的父母控制以及各种自动检测技术。这些技术包括:
PhotoDNA,微软的技术,可帮助查找和删除已知的剥削儿童的图像
Vobile,一种指纹识别软件,可扫描任何新上传的内容以查找与未经授权的材料的潜在匹配,以防止将被禁止的视频重新上传到平台
Pornhub还附有Internet Watch Foundation提供的数据,用于比较在其他平台上发现的CSAM:
Twitter:1,466,398-您可以浏览右侧顶部附近的旧报告,将过去两年的总数相加。
请注意IWF在这篇文章中的引文-Internet Watch Foundation(IWF),该网站在线识别并删除了儿童的性虐待图像,并表示在2017-2019年期间在Pornhub上发现了118例虐待儿童的案例,但是这个数字很低,Pornhub很快就被删除了此内容。
"您和我每天都可能用作社交网络或其他通讯工具的网站,它们比Pornhub所涉及的问题更多是儿童性虐待材料。” IWF发言人艾玛·哈迪(Emma Hardy)说。
版权所有©2020 Adnet Media。 版权所有。 XBIZ是Adnet Media的商标。 未经明确的书面许可,严禁以任何形式或媒介全部或部分复制。