Apple 告诉 TechCrunch,检测儿童性虐待材料 (CSAM) 是旨在更好地保护使用其服务的儿童免受在线伤害的几项新功能之一,包括过滤器以阻止通过儿童的 iMessage 帐户发送和接收的潜在色情照片.当用户尝试通过 Siri 和搜索搜索与 CSAM 相关的术语时,另一个功能将进行干预。大多数云服务——Dropbox、谷歌和微软等——已经扫描了用户文件中可能违反其服务条款或潜在非法的内容,如 CSAM。但苹果长期以来一直拒绝扫描用户在云中的文件,让用户可以选择在数据到达苹果的 iCloud 服务器之前对其进行加密。苹果表示,其新的 CSAM 检测技术——NeuralHash——而是在用户设备上运行,并且可以识别用户是否将已知的虐待儿童图像上传到 iCloud,而无需解密图像,直到达到阈值并通过一系列检查来验证内容被清除.周三,当约翰霍普金斯大学的密码学教授马修格林在一系列推文中透露了新技术的存在时,苹果公司的努力的消息泄露了。这一消息遭到了一些安全专家和隐私倡导者的抵制,但也遭到了习惯了苹果公司大多数其他公司所没有的安全和隐私方法的用户的抵制。 Apple 正试图通过多层加密保护隐私来平息恐惧,这种加密方式需要多个步骤才能进入 Apple 的最终人工审核。 NeuralHash 将登陆 iOS 15 和 macOS Monterey,预计在未来一两个月内发布,它的工作原理是将用户 iPhone 或 Mac 上的照片转换为唯一的字母和数字字符串,称为哈希。任何时候你稍微修改一个图像,它都会改变哈希并阻止匹配。 Apple 表示,NeuralHash 试图确保相同且视觉上相似的图像——例如裁剪或编辑过的图像——产生相同的哈希值。在将图像上传到 iCloud 照片之前,这些哈希值会在设备上与已知的虐待儿童图像哈希值数据库进行匹配,该数据库由国家失踪与受虐儿童中心 (NCMEC) 等儿童保护组织提供。 NeuralHash 使用一种称为私有集合交集的加密技术来检测哈希匹配,而不会透露图像是什么或提醒用户。
结果会上传到 Apple,但无法自行读取。 Apple 使用另一种称为阈值秘密共享的加密原理,仅当用户超过其 iCloud 照片中已知的虐待儿童图像阈值时,它才允许解密内容。 Apple 不会说这个阈值是什么,但说——例如——如果一个秘密被分成一千个片段,并且阈值是十张虐待儿童内容的图像,那么可以从这十张图像中的任何一张重建秘密。那时,Apple 可以解密匹配的图像、手动验证内容、禁用用户帐户并将图像报告给 NCMEC,然后将其传递给执法部门。 Apple 表示,此过程比扫描云中的文件更加注重隐私,因为 NeuralHash 仅搜索已知而非新的虐待儿童图像。苹果公司表示,误报的可能性为万亿分之一,但如果帐户被错误标记,则有一个上诉程序。 Apple 已在其网站上发布了有关 NeuralHash 工作原理的技术细节,这些细节已经过密码学专家的审查。但是,尽管打击儿童性虐待的努力得到了广泛支持,但仍有一部分监视内容让许多人在将其交给算法时会感到不舒服,一些安全专家呼吁在 Apple 向用户推出该技术之前进行更多的公开讨论。一个大问题是为什么现在而不是更早。苹果表示,其隐私保护 CSAM 检测直到现在才存在。但苹果等公司也面临着来自美国政府及其盟友的巨大压力,要求其削弱或后门用于保护用户数据的加密,以允许执法部门调查严重犯罪。科技巨头拒绝为他们的系统设置后门程序,但在进一步阻止政府访问的努力中面临阻力。尽管存储在 iCloud 中的数据以一种连苹果都无法访问的方式进行加密,但路透社去年报道称,在 FBI 抱怨这会损害调查后,苹果放弃了将用户的完整手机备份加密到 iCloud 的计划。未经公开讨论的有关 Apple 新 CSAM 检测工具的消息也引发了人们的担忧,即该技术可能会被滥用,向受害者发送虐待儿童图像,这可能导致他们的帐户被标记和关闭,但 Apple 淡化了这些担忧并表示进行人工审查将审查可能滥用的证据。
苹果表示,NeuralHash 将首先在美国推出,但没有透露是否或何时在国际上推出。直到最近,在这种做法被无意中禁止后,像 Facebook 这样的公司被迫在整个集团关闭其虐待儿童检测工具。 Apple 表示,该功能在技术上是可选的,因为您不必使用 iCloud 照片,但如果用户使用,则将是必需的。毕竟,您的设备属于您,但 Apple 的云不属于您。