周一,在围绕该系统是否会降低 Apple 用户隐私并可能被政府用来监视公民的争议期间,Apple 为其新系统进行了辩护,该系统用于扫描 iCloud 以查找非法儿童性虐待材料 (CSAM)。上周,Apple 宣布已开始测试一个系统,该系统使用复杂的加密技术来识别用户何时将已知的儿童色情作品集上传到其云存储服务。它说它可以在不了解存储在其服务器上的用户照片内容的情况下执行此操作。苹果周一重申,其系统比谷歌和微软等公司使用的系统更加私密,因为它的系统同时使用在 iPhone 上运行的服务器和软件。隐私权倡导者和技术评论员担心苹果的新系统,其中包括将通过 iOS 更新安装在人们 iPhone 上的软件,可以通过新法律在某些国家/地区扩展以检查其他类型的图像,例如带有政治内容的照片,而不是只是儿童色情。苹果在周日发布在其网站上的一份文件中表示,政府不能强迫其将非 CSAM 图像添加到哈希列表中,或者将与苹果将分发给 iPhone 以启用该系统的已知虐待儿童图像对应的数字文件。 “Apple 将拒绝任何此类要求。Apple 的 CSAM 检测功能仅用于检测存储在 iCloud 照片中的已知 CSAM 图像,这些图像已由 NCMEC 和其他儿童安全组织的专家确定,”Apple 在文件中表示。 “我们之前曾面临构建和部署政府授权的改变用户隐私的要求,并且坚决拒绝这些要求。我们将来将继续拒绝它们。”它继续说道:“让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会同意任何政府扩大它的要求。”
一些密码学家担心,如果像中国这样的国家通过一项法律,规定该系统还必须包含政治敏感图像,会发生什么。苹果公司首席执行官蒂姆库克此前曾表示,该公司在其开展业务的每个国家都遵守法律。美国的公司必须向国家失踪与受虐儿童中心报告 CSAM,如果发现非法图像并且不报告,将面临最高 300,000 美元的罚款。多年来,Apple 通过其行动和营销树立了保护隐私的声誉。 2016 年,苹果公司在法庭上与 FBI 对峙,以保护其设备上加密系统在调查大规模射手时的完整性。但苹果也面临着执法官员的巨大压力,因为犯罪分子可能会“黑化”,或者使用隐私工具和加密来防止消息或其他信息进入执法部门。关于 Apple 新系统的争议,以及它是否对用户进行监控,威胁到 Apple 在构建安全和私人设备方面的公众声誉,该公司已利用这些设备打入个人金融和医疗保健领域的新市场。批评者担心该系统将部分地在 iPhone 上运行,而不是仅扫描已上传到公司服务器的照片。 Apple 的竞争对手通常只扫描存储在其服务器上的照片。技术评论员本·汤普森 (Ben Thompson) 周一在一份时事通讯中写道:“苹果如此执着于其特定的隐私愿景,以至于最终背叛了用户控制的支点:能够相信你的设备真正属于你,这真的令人失望。”
Apple 继续捍卫其系统,将其视为保护儿童的真正改进,并将减少创建的 CSAM 数量,同时仍保护 iPhone 用户隐私。苹果公司表示,根据公司跟踪的每个隐私指标,其系统都比以前的系统更强大、更私密,并竭尽全力构建更好的系统来检测这些非法图像。一位苹果代表表示,与当前在云端运行且无法由安全研究人员检查的系统不同,苹果的系统可以通过其在 iOS 中的分发进行检查。通过将一些处理转移到用户的设备上,该公司可以获得更强的隐私属性,例如无需在 Apple 服务器上运行检查每张照片的软件即可找到 CSAM 匹配项的能力。苹果周一表示,其系统不会扫描尚未上传到 iCloud 的私人照片库。 Apple 还确认将处理已上传到 iCloud 的照片。苹果表示,这些变化将在今年晚些时候通过 iPhone 更新推出,之后用户将收到提醒,苹果开始根据与已知 CSAM 对应的指纹列表检查 iCloud 上的照片商店。