在今天有报道称 Apple 将开始扫描 iPhone 中是否存在虐待儿童的图像后不久,该公司确认了其计划,并在新闻稿和技术摘要中提供了详细信息。 “Apple 检测已知 CSAM(儿童性虐待材料)的方法在设计时考虑了用户隐私,”Apple 的公告称。 “该系统不是在云端扫描图像,而是使用 NCMEC(国家失踪和受虐儿童中心)和其他儿童安全组织提供的已知 CSAM 图像哈希数据库执行设备上匹配。Apple 进一步将该数据库转换为不可读的一组安全存储在用户设备上的哈希值。”苹果在一份技术摘要中提供了有关 CSAM 检测系统的更多细节,并表示其系统使用一个阈值“设置为提供极高水平的准确性,并确保每年错误标记给定帐户的几率低于万亿分之一”。苹果表示,这些变化将在“今年晚些时候在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出”。 Apple 还将部署可以分析 Messages 应用程序中图像的软件,以开发一个新系统,该系统将“在接收或发送色情照片时警告儿童及其父母”。 “Apple 正在用监控和审查的基础设施取代其行业标准的端到端加密消息系统,这不仅在美国,而且在世界各地都容易受到滥用和范围蔓延的影响,”Greg Nojeim 说,民主与技术中心安全与监视项目的联合主任。 “Apple 应该放弃这些变化,恢复用户对 Apple 设备和服务上数据的安全性和完整性的信心。”多年来,苹果一直抵制美国政府在其加密系统中安装“后门”的压力,称这样做会破坏所有用户的安全。苹果公司的这一立场受到了安全专家的称赞。但约翰霍普金斯大学密码学教授马修格林在推特上建议,苹果计划部署执行设备上扫描并与当局共享选定结果的软件,因此它非常接近充当政府监视工具的角色。他写道,苹果今天宣布的客户端扫描最终可能“成为向加密消息系统添加监控的关键因素”。 “将这样的扫描系统添加到 E2E [端到端加密] 消息传递系统的能力一直是世界各地执法部门的主要'要求'。”
除了扫描设备以查找与 CSAM 数据库匹配的图像外,Apple 还表示将更新 Messages 应用程序以“添加新工具,以在接收或发送色情照片时警告儿童及其父母”。 “消息使用设备上的机器学习来分析图像附件并确定照片是否色情。该功能旨在使苹果无法访问消息,”苹果说。当 Messages 中的图像被标记时,“照片会变得模糊,孩子会收到警告,提供有用的资源,并保证他们不想查看这张照片也没关系。”如果孩子确实查看了被标记的照片,系统将让父母收到一条消息,并且“如果孩子试图发送色情照片,则可以使用类似的保护措施。在发送照片之前,孩子将收到警告,并且父母可以收到一条消息如果孩子选择发送它,”Apple 说。苹果表示,它还将更新 Siri 和搜索,以“为父母和孩子提供更多信息,并在遇到不安全情况时提供帮助”。 Siri 和搜索系统将“在用户搜索与 CSAM 相关的查询时进行干预”,并“向用户解释对该主题感兴趣是有害和有问题的,并提供合作伙伴的资源以获取有关此问题的帮助”。使 Apple 能够在 Messages 中扫描图像的机制不是后门的替代品——它是一个后门。对通信“一端”的客户端扫描破坏了传输的安全性,并且将通信内容通知第三方(父母)会破坏其隐私。世界各地的组织都警告不要进行客户端扫描,因为它可以用作政府和公司监管私人通信内容的一种方式。 Apple 关于 CSAM 检测的技术文档在介绍中包含了一些隐私承诺。 “Apple 对与已知 CSAM 数据库不匹配的图像一无所知,”它说。 “在超过 iCloud 照片帐户的匹配阈值之前,Apple 无法访问匹配 CSAM 图像的元数据或视觉衍生物。” Apple 的哈希技术称为 NeuralHash,它“分析图像并将其转换为特定于该图像的唯一编号。只有看起来几乎相同的另一张图像才能产生相同的编号;例如,大小或转码质量不同的图像仍将具有相同的 NeuralHash 值,”Apple 写道。
在 iPhone 或其他 Apple 设备将图像上传到 iCloud 之前,“设备会创建一个加密安全凭证,对匹配结果进行编码。它还对图像的 NeuralHash 和视觉衍生品进行加密。此凭证与图像一起上传到 iCloud 照片。 ”该文件称,使用“阈值秘密共享”,Apple 的“系统确保安全凭证的内容无法被 Apple 解读,除非 iCloud 照片帐户超过已知 CSAM 内容的阈值”。 “只有当超过阈值时,加密技术才允许 Apple 解释与匹配的 CSAM 图像相关联的安全凭证的内容。”在注意到误报概率为 1 万亿分之一的同时,苹果表示它还“手动审查了向 NCMEC 提交的所有报告,以确保报告的准确性”。如果用户认为他们的帐户被错误标记,他们可以“提出上诉以恢复他们的帐户”。用户设备将存储一个“盲数据库”,允许设备确定照片何时与 CSAM 数据库中的图片匹配,Apple 解释说:首先,Apple 从上述儿童安全组织接收与已知 CSAM 相对应的 NeuralHashes。接下来,这些 NeuralHashes 会经历一系列转换,其中包括由椭圆曲线加密技术提供支持的最终致盲步骤。致盲是使用服务器端致盲秘密完成的,只有 Apple 知道。盲 CSAM 散列被放置在一个散列表中,其中散列表中的位置纯粹是 CSAM 图像的 NeuralHash 的函数。这个不知情的数据库安全地存储在用户的设备上。椭圆曲线加密的特性确保没有设备可以从盲数据库中推断出有关底层 CSAM 图像哈希的任何信息。 iPhone 或其他设备将分析用户照片,计算 NeuralHash,并查找“盲哈希表中的条目”。该设备“还使用系统查找的盲散列来获取派生加密密钥”,并使用该加密密钥“加密相关的有效载荷数据”。结合其他步骤,这确保只有匹配 CSAM 数据库的图像才会被解密,Apple 写道:
如果用户图像哈希与已知 CSAM 哈希列表中的条目匹配,那么如果用户图像的 NeuralHash 经历了在数据库设置时完成的一系列转换,它就会准确地转换为盲哈希。基于此属性,服务器将能够使用加密标头(从 NeuralHash 派生)并使用服务器端秘密,可以计算派生的加密密钥并成功解密相关的有效负载数据。如果用户图像不匹配,上述步骤将不会导致正确的派生加密密钥,服务器将无法解密相关的负载数据。因此,服务器对不匹配的图像一无所知。设备不会了解比赛的结果,因为这需要了解服务器端的致盲秘密。最后,客户端将图像连同包含加密有效载荷数据和加密标头的凭证上传到服务器。如前所述,您可以在此处阅读技术摘要。苹果还发布了一篇更长、更详细的“私人集交集”密码技术解释,该技术可在不透露结果的情况下确定照片是否与 CSAM 数据库匹配。