苹果在新的常见问题解答中反对虐待儿童扫描问题

2021-08-09 23:05:51

在一个新的常见问题解答中,Apple 试图缓解人们对其新的反虐待儿童措施可能被专制政府转变为监视工具的担忧。 “让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM [儿童性虐待材料],我们不会同意任何政府扩大它的要求,”该公司写道。 Apple 上周四宣布的新工具包括两项旨在保护儿童的功能。一种称为“通信安全”,使用设备上的机器学习来识别和模糊儿童在消息应用程序中收到的色情图片,如果 12 岁及以下的儿童决定查看或发送此类图片,它可以通知父母。第二个旨在通过扫描用户的图像来检测已知的 CSAM,如果他们选择将它们上传到 iCloud。如果检测到 CSAM,Apple 会收到通知,并在验证此类材料存在时通知当局。 “Apple 的 CSAM 检测功能仅用于检测已知的 CSAM 图像” 该计划遭到数字隐私组织和活动家的强烈反对,他们认为这些为 Apple 的软件引入了后门。这些团体指出,一旦存在这样的后门,就有可能将其扩展到扫描超出儿童性虐待材料的内容类型。威权政府可以用它来扫描政治异议材料,或者反 LGBT 政权可以用它来打击性表达。电子前沿基金会写道:“即使是完整记录、深思熟虑且范围狭窄的后门仍然是后门。” “我们已经看到这项任务在行动。其中一项最初用于扫描和散列儿童性虐待图像的技术已被重新用于创建一个‘恐怖’内容数据库,公司可以提供和访问该数据库以禁止此类内容。”然而,苹果公司辩称,它有适当的保护措施来阻止其系统被用于检测除性虐待图像以外的任何内容。它表示,其禁用图像列表由国家失踪与受虐儿童中心 (NCMEC) 和其他儿童安全组织提供,并且该系统“仅适用于 NCMEC 和其他儿童安全组织提供的 CSAM 图像哈希值”。 Apple 表示它不会添加到此图像哈希列表中,并且该列表在所有 iPhone 和 iPad 上都是相同的,以防止针对用户进行单独定位。该公司还表示,它将拒绝政府要求将非 CSAM 图像添加到列表中的要求。 “我们之前曾面临过构建和部署政府强制更改会降低用户隐私的要求,并且坚决拒绝了这些要求。我们将来会继续拒绝他们,”它说。

值得注意的是,尽管苹果做出了保证,但该公司过去曾向政府做出让步,以继续在其国家/地区开展业务。它在不允许加密电话的国家销售没有 FaceTime 通话的 iPhone,在中国,它从其 App Store 中删除了数千个应用程序,并将用户数据存储在一家国有电信公司的服务器上。常见问题解答也未能解决对扫描信息以查找色情材料的功能的一些担忧。该公司表示,该功能不会与 Apple 或执法部门共享任何信息,但并未说明如何确保该工具的重点只放在色情图片上。 “扩大 Apple 正在构建的狭窄后门所需要的只是扩展机器学习参数以寻找其他类型的内容,或者调整要扫描的配置标志,不仅是儿童的,而且是任何人的账户,”写道联邦军。 EFF 还指出,机器学习技术经常对这些内容进行错误分类,并引用 Tumblr 试图打击色情内容作为技术出错的一个突出例子。