另一个重要问题是儿童性虐待材料 (CSAM) 在线传播。 CSAM 是指描述涉及儿童的色情活动的内容。为了帮助解决这个问题,iOS 和 iPadOS * 中的新技术将允许 Apple 检测存储在 iCloud 照片中的已知 CSAM 图像。这将使 Apple 能够向国家失踪和受虐儿童中心 (NCMEC) 报告这些情况。 NCMEC 是 CSAM 的综合报告中心,并与美国各地的执法机构合作。 Apple 检测已知 CSAM 的方法在设计时考虑了用户隐私。该系统不是在云中扫描图像,而是使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库执行设备上匹配。 Apple 进一步将此数据库转换为一组不可读的哈希值,并安全地存储在用户的设备上。在将图像存储在 iCloud 照片中之前,会根据已知的 CSAM 哈希值对该图像执行设备上的匹配过程。此匹配过程由称为私有集交集的加密技术提供支持,该技术可在不透露结果的情况下确定是否存在匹配。该设备创建一个加密安全凭证,对匹配结果以及有关图像的附加加密数据进行编码。此优惠券与图像一起上传到 iCloud 照片。该系统使用另一种称为阈值秘密共享的技术,确保除非 iCloud 照片帐户超过已知 CSAM 内容的阈值,否则 Apple 无法解释安全凭证的内容。该阈值旨在提供极高的准确性,并确保每年错误标记给定帐户的几率低于万亿分之一。只有当超过阈值时,加密技术才允许 Apple 解释与匹配 CSAM 图像相关联的安全凭证的内容。然后,Apple 手动审查每份报告以确认是否存在匹配项,禁用用户帐户,并向 NCMEC 发送报告。如果用户认为他们的帐户被错误标记,他们可以提出上诉以恢复其帐户。这项创新的新技术使 Apple 能够向 NCMEC 和执法部门提供有关已知 CSAM 扩散的有价值且可操作的信息。这样做的同时还提供了比现有技术显着的隐私优势,因为 Apple 只有在用户的 iCloud 照片帐户中有一组已知的 CSAM 时才会了解用户的照片。即使在这些情况下,Apple 也只会了解与已知 CSAM 匹配的图像。