苹果打着“儿童安全”的旗号扫描用户照片?
随着iPhone 13的即将发布,以及iOS15的使用,市场的热情又要被激发,有调查显示有百分之四十的用户在等待着iPhone 13系列的到来,也就是说,计划换机的用户并不少。尤其是iPhone 13系列是苹果公司的第二款5G手机,经过了第一代iPhone 12的5G洗礼之后,苹果对于5G的应用应该更成熟了许多,这也是部分用户计划换机的一种选择。此外,iPhone 6系列的用户也确实到了该换机的时候了。
在关注新一代旗舰iPhone 13系列的同时,我们更关注到另一则消息,那就是很多业内人士都在高度关注苹果公司计划推广的一项政策,那就是部署照片扫描技术。苹果给出的理由是为了更安全,为了“儿童安全”。据悉,苹果公布了新的“儿童安全”功能,旨在扩大对儿童的保护。作为儿童保护计划的一部分,苹果将 iPhone 和其他设备上对用户的图像进行上传和扫描,以此识别用户是否保存了与美国国家失踪和受虐儿童中心 (NCMEC) 数据库中匹配的图像。如果确认,苹果将通知 NCMEC 并禁用其账户。
貌似是非常“公益”和“正能量”的一种举措,但背后蕴藏的用户隐私的泄露却不可忽视。此前业界已经有4000 多家组织以及安全与隐私专家、密码学家、研究人员、教授、法律专家和苹果消费者对苹果的这项政策公开表示反对。一封公开信表示:虽然苹果的举动是善意的,因为虐待儿童确实是一个严重的问题,但苹果在系统中制造了一个后门,破坏了客户的基本隐私权。该公开信进一步表示,由于这些方法使用设备上的机器学习,因此它们有可能破解端到端加密。该公开信要求苹果立即停止部署该技术并发表声明,确认其对用户隐私的承诺。
业界也认为,如果苹果这项政策推出,那么将破坏迄今为止针对用户隐私的所有工作。苹果的这项政策如果推出,那么苹果公司就可以“明目张胆”查看用户的照片。据悉,苹果即将发布一项用于扫描检测儿童色情虐待内容 (Child Sexual Abuse Material) 的端侧工具。这也意味着,苹果公司的扫描工作在用户设备上完成。大致的原理是:苹果会对用户在iPhone等各类苹果设备上接收、保存和发送的照片提取哈希值。
随后,苹果会用这个值和美国“国家失踪和被剥削儿童中心”的数据库进行比对,验证涉事照片是否属于儿童色情虐待内容。包括用户在iMessage上收到或者发送的照片都是在扫描范围内,系统会在后台完成比对检测。如果系统认为它属于露骨内容,iMessage 就会暂时屏蔽掉这张照片、询问,并再次确认用户是否要浏览或发送这张照片。也就是说,苹果对于用户的所有照片都会进行扫码,以此来甄别用户的照片是否存在违规违法行为。
看似是在用户本地端进行的侦测,但事实或许并非如此。因为,苹果也会用类似的哈希算法对用户发送到 iCloud 保存的照片(同样端到端加密)进行检测,并且在上传之前给照片文件增加一串保密信息。也就是这是全方位的一种扫描,这样做的潜在风险,就是用户的个人数据安全和隐私极有可能被攻击的对象。此举,对于“端到端加密”原本存在的意义也是一种粗暴的践踏。
在端到端通讯系统中加入这样的扫描系统,虽然出发点是为了针对“儿童色情”,但是这类格局无法将其检测能力完全限制在儿童色情这种单一内容上。图片哈希值的提取和对比,并不是不可“逆改”,事实上,目前机器学习领域已经有了先进的生成对抗网络技术,可以对两个不同的文件,比如两张完全不同的照片,实现“哈希碰撞”,也就是可以实现两张不同图片的哈希值是相同的技术完整性。而且,扫描的范围和对象范围都可以被无限扩大。因此在扫描所谓的儿童色情内容,或许不仅仅如此,而是可以扫描更多的用户内容和隐私。
端侧的扫描工作,对端到端的加密承诺其实就是最粗暴的一种践踏。简单地说,端到端加密的定义是:在一个通讯系统中,只有内容的发送端和接收端可以看到所发送的内容,其他任何人,包括其他用户,以及通讯系统的运营者(苹果)都无法看到,也没有能力对通过加密方式传送的信息进行解密。但是苹果如今要“插一刀”进来扫描和侦测,那么端到端的加密系统实际上就名存实亡了。
更主要的是,在机器检测之后,对于可能检测到的儿童色情内容,会引入人工进行二次检验,这样,用户的隐私泄露风险会被进一步扩大。对于真正的儿童色情的犯罪嫌疑人可以通过更换通讯软件或者对图片进行简单修改,就可以改变图片的哈希值,进而预约技术扫描的压力。但是对于正常用户的个人隐私来说,或许就是一个巨大的安全隐患。因为受攻击之后的数据攫取会变得更加简单和直接,用户难免会担心自己的个人隐私会出现“裸奔”的不堪局面。
图片新闻
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论