该公司表示,苹果将扫描存储在美国 iPhone 上的照片库,寻找已知的儿童性虐待图像,该公司表示,这得到了儿童保护组织的赞扬,但越过了隐私权活动家警告可能会产生危险后果的界限。该公司还将首次检查端到端加密消息的内容。苹果公司的工具神经匹配将在图像上传到公司的 iCloud 照片在线存储之前扫描图像,将它们与已知的虐待儿童图像数据库进行比较。如果标记出足够强的匹配,Apple 工作人员将能够手动查看报告的图像,如果确认存在虐待儿童,用户的帐户将被禁用,并通知国家失踪和受虐儿童中心 (NCMEC)。由于该工具只查找 NCMEC 数据库中已有的图像,例如,父母在洗澡时拍摄孩子的照片,显然不必担心。但是研究人员担心匹配工具——它不能“看到”图像,只是代表它们的数学指纹——可能会被用于不同的目的。约翰霍普金斯大学的密码学研究员马修格林警告说,该系统理论上可用于通过向无辜者发送旨在触发虐待儿童图像匹配的看似无害的图像来陷害无辜的人。 “研究人员已经能够很容易地做到这一点,”他谈到欺骗此类系统的能力时说。其他滥用行为可能包括政府对持不同政见者或抗议者的监视。 “当中国政府说:'这是我们希望你扫描的文件列表'时会发生什么,”格林问道。 “苹果说不吗?我希望他们说不,但他们的技术不会说不。”包括微软、谷歌和 Facebook 在内的科技公司多年来一直在共享已知的儿童性虐待图像的数字指纹。 Apple 已经使用这些来扫描存储在其 iCloud 服务中的用户文件,以查找虐待儿童的图像。但是,在主要技术公司中,将此类扫描转移到设备上的决定是前所未有的。除了神经匹配技术,苹果还计划在用户使用 iMessage 发送和接收加密信息时对其进行扫描。基于人工智能的工具将尝试自动识别色情图片,使父母能够为孩子的收件箱打开自动过滤器。该系统纯粹旨在提供“在接收或发送色情照片时警告儿童及其父母”的工具,不会导致色情图片被发送给苹果或向当局报告。但是,如果孩子决定发送或接收色情照片,父母将能够收到通知。
多年来,苹果一直承受着政府的压力,要求加强对加密数据的监控。提出新的安全措施要求苹果在打击剥削儿童的同时保持其对保护用户隐私的高调承诺之间进行微妙的平衡。但在线公民自由先驱电子前沿基金会称,苹果在隐私保护方面的妥协“对于依赖该公司在隐私和安全方面的领导地位的用户来说是一个令人震惊的转变”。十多年前发明了 PhotoDNA(执法部门用来在线识别虐待儿童图像的技术)的计算机科学家承认苹果系统存在滥用的可能性,但表示解决儿童性虐待问题的必要性远远超过了这一点。 “是否有可能?当然。但这是我担心的事情吗?不,”加州大学伯克利分校的研究员 Hany Farid 说,他认为许多其他旨在保护设备免受各种威胁的程序并未受到“这种类型的任务蠕变”的影响。例如,WhatsApp 为用户提供端到端加密以保护他们的隐私,但也采用了一个系统来检测恶意软件并警告用户不要点击有害链接。 Apple 是最早采用端到端加密技术的大公司之一,在这种加密技术中,消息经过加密,只有他们的发件人和收件人才能阅读。长期以来,执法部门一直敦促该公司访问该信息。苹果表示,最新变化将在今年推出,作为其 iPhone、Mac 和 Apple Watch 操作软件更新的一部分。 NCMEC 总裁兼首席执行官约翰克拉克 (John Clark) 表示:“Apple 扩大对儿童的保护是一个游戏规则的改变者。 “有这么多人使用 Apple 产品,这些新的安全措施对儿童来说具有挽救生命的潜力。”苹果否认这些变化相当于一个降低其加密性能的后门。它表示,这些创新是经过仔细考虑的,不会干扰用户隐私,而是保护了它。
“在 Apple,我们的目标是创造技术,赋予人们权力并丰富他们的生活——同时帮助他们保持安全,”该公司在宣布新功能的帖子中表示。 “我们希望帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料 (CSAM) 的传播。 “这个项目雄心勃勃,保护儿童是一项重要的责任。这些努力将随着时间的推移而发展和扩大。”