Apple 通过发布 CSAM 常见问题解答来回应对其照片扫描公告的误解和担忧 - 回答有关这些功能的常见问题。虽然儿童安全组织对 Apple 帮助检测拥有儿童性虐待材料 (CSAM) 并保护儿童免受掠夺者侵害的计划表示欢迎,但也有知情和不知情的批评……当 Apple 同时宣布三项单独措施时,主流媒体出现了混乱:许多非技术人员混淆了前两个:响应 Siri 和搜索 CSAM 材料的请求,并提供警告和帮助链接 对于 Apple 使用的方法也缺乏了解。就 iMessage 而言,它使用设备上的 AI 来检测看起来是裸体的图像;在 CSAM 的情况下,它将数字指纹与从用户存储的照片中生成的指纹进行比较。在这两种情况下,Apple 的任何人都不会看到任何照片,唯一的例外是有人被标记为拥有多张 CSAM 照片,当时 Apple 的某人将手动检查低分辨率副本以确保它们在通知执法部门之前是真实匹配的.隐私和滥用风险与目前的功能(从零到极低)以及未来可能被威权政府滥用的风险之间也存在混淆。网络安全专家一直在警告后者,而不是前者。
苹果公司已经尝试通过暂时仅在美国推出来解决政府的压制性担忧,并表示将在逐个国家/地区进行扩张,并考虑每个国家/地区的立法环境。常见问题解答现在试图解决这个问题和其他问题。 Apple 发布了一份长达六页的常见问题解答,旨在解决提出的一些问题。它首先承认混合响应。我们希望保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料 (CSAM) 的传播。自从我们宣布这些功能以来,包括隐私组织和儿童安全组织在内的许多利益相关者都表达了他们对这一新解决方案的支持,有些人提出了问题。本文件旨在解决这些问题,并使流程更加清晰和透明。消息中的通信安全和 iCloud 照片中的 CSAM 检测有什么区别? Messages 中的通信安全旨在为父母和孩子提供额外的工具,以帮助保护他们的孩子免于在 Messages 应用程序中发送和接收色情图片。它仅适用于在“信息”应用程序中为在“家庭共享”中设置的儿童帐户发送或接收的图像。它分析设备上的图像,因此不会改变消息的隐私保证。当儿童帐户发送或接收色情图片时,照片将被模糊处理,儿童会收到警告,提供有用的资源,并保证他们不想查看或发送照片是可以的。作为额外的预防措施,还可以告诉年幼的孩子,为了确保他们的安全,如果他们确实看到了消息,他们的父母会收到一条消息。第二个功能是 iCloud 照片中的 CSAM 检测,旨在使 CSAM 远离 iCloud 照片,而无需向 Apple 提供与已知 CSAM 图像匹配的照片以外的任何照片的信息。在包括美国在内的大多数国家/地区拥有 CSAM 图像都是非法的。此功能仅影响选择使用 iCloud 照片存储照片的用户。它不会影响未选择使用 iCloud 照片的用户。对任何其他设备上的数据没有影响。此功能不适用于消息。 EFF 和其他人提出的最大担忧仍然存在。虽然今天的系统只标记 CSAM 图像,但一个专制政府可以向苹果提供一个包含其他材料的数据库,例如著名的天安门广场坦克人照片,该照片在中国受到审查。
苹果将拒绝任何此类要求。 Apple 的 CSAM 检测功能专为检测存储在 iCloud 照片中的已知 CSAM 图像而构建,这些图像已由 NCMEC 和其他儿童安全组织的专家识别。我们之前曾面临过构建和部署政府强制更改会降低用户隐私的要求,并且坚决拒绝了这些要求。今后我们将继续拒绝他们。让我们明确一点,这项技术仅限于检测存储在 iCloud 中的 CSAM,我们不会同意任何政府对其进行扩展的要求。此外,Apple 在向 NCMEC 报告之前会进行人工审查。如果系统标记了与已知 CSAM 图像不匹配的照片,则不会禁用该帐户,也不会向 NCMEC 提交报告。然而,该声明的前提是苹果拥有拒绝的合法自由。例如,在中国,法律要求苹果删除 VPN、新闻和其他应用程序,并将中国公民的 iCloud 数据存储在政府控制的公司拥有的服务器上。苹果没有现实的方法来保证它不会遵守未来处理政府提供的“CSAM 图像”数据库的要求,这些数据库还包括批评者和抗议者使用的材料的匹配。正如该公司在为其在中国等国家/地区的行为辩护时经常说的那样,Apple 遵守其运营所在的每个国家/地区的法律。