Apple 已经公布了在美国客户的设备上查找儿童性虐待材料 (CSAM) 的系统的详细信息。在图像存储到 iCloud 照片之前,该技术将搜索已知 CSAM 的匹配项。苹果表示,如果找到匹配项,人工审核员将评估用户并将其报告给执法部门。然而,存在隐私方面的担忧,即该技术可以扩展到扫描手机以查找被禁止的内容甚至政治言论。专家担心,威权政府可能会使用该技术来监视其公民。苹果表示,将于今年晚些时候发布的新版 iOS 和 iPadOS 将拥有“新的密码学应用程序,以帮助限制 CSAM 在线传播,同时为用户隐私进行设计”。该系统的工作原理是将图片与美国国家失踪和受虐儿童中心 (NCMEC) 和其他儿童安全组织编制的已知儿童性虐待图片数据库进行比较。
这些图像被翻译成“散列”,即可以与 Apple 设备上的图像“匹配”的数字代码。 “在将图像存储在 iCloud 照片中之前,会针对该图像与已知的 CSAM 哈希值执行设备上的匹配过程,”Apple 表示。该公司声称该系统具有“极高的准确性,并确保每年错误标记给定帐户的几率低于万亿分之一”。 Apple 表示,它将手动审查每份报告以确认是否存在匹配项。然后它可以采取措施禁用用户的帐户并向执法部门报告。该公司表示,与现有技术相比,这项新技术提供了“显着”的隐私优势——因为苹果只有在用户的 iCloud 照片帐户中有一组已知的 CSAM 时才会了解用户的照片。 “不管苹果的长期计划是什么,他们都发出了一个非常明确的信号。在他们(非常有影响力的)看来,构建系统来扫描用户手机中的违禁内容是安全的,”安全研究员马修格林约翰霍普金斯大学说。 “他们在这一点上是对还是错几乎无关紧要。这将打破大坝——政府会要求每个人都这样做。”