新智元报道
来源:macrumors
编辑:yaxin, su
【新智元导读】说好的「用户隐私至上」呢?近日,苹果计划推出扫描用户 iPhone 所有照片的新系统,通过检查是否涉及虐童、儿童色情内容,以便让儿童更安全上网。然而,这一消息却惹来众怒。多数人看来,苹果意在监视我们一举一动。
一直以来,保护用户隐私是苹果的至上理念。
近日,这层「隐形薄膜」被一捅而破!
外媒爆出,苹果计划推出新版照片甄别系统(CSAM),通过扫描所有存储在 iCloud 上的照片,以找出符合虐待儿童、儿童色情内容的照片。
单纯目的只有一个:保护儿童安全上网!
不管怎么说,这一系统必然会带来用户隐私泄漏的风险。
况且,在大多数人看来,苹果意在监视用户的一举一动。
「投喂」20万张图片
如果苹果要实现图片检测,那么肯定要训练AI去学习。
这一过程中,就需要大量的「投喂」数据。细想,数据从何而来?
外媒称,新系统名为 neuralMatch,一旦发现虐待儿童相关内容,便将进一步提交人工审核。
如果经验证「违法内容」属实,公司可禁用用户账户,并联系执法部门。
neuralMatch 系统使用来自美国国家失踪与受剥削儿童保护中心(National Center for Missing & Exploited Children)的「20 万张图像」进行训练。
该系统将率先在美国推出,用户存储的照片将被扫描并与已知的儿童虐待图像数据库进行比较。
社交软件WhatsApp负责人 Will Cathcart 表示,
苹果公司的行为「非常令人担忧」,该系统可以很容易地被运用于扫描个人隐私。
苹果的第2个新功能是基于 iMessage 发送或接收的扫描照片的敏感内容通知。
未成年人账户的iMessage会受到重点监测,如果他们的iMessage中有色情照片,苹果也会发出警告并通知其父母。
据介绍,苹果的扫描是全方位的:
这些新功能将会在今年 9-10月份上线,作为 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的特性在更新时推出。
6000多人联名抵制,安全专家:转投Android
苹果这一举动遭到许多人的联名抵制。
目前一封由安全专家、密码学家、法律界人士和普通消费者等共同发起的联名信已经发在Github上。
https://appleprivacyletter.com/
目前已经有超过6000余家组织和个人签署,他们强烈谴责苹果这项新技术侵犯个人隐私。
联名信写道,尽管打击虐待儿童是一个毫无疑问的善意出发点,但该系统以及背后的智能算法实际上给苹果系统加装了一个「后门」,而这可能侵犯所有苹果用户的个人隐私。
著名密码学专家Nadim Kboeissi表示,「如果这种情况继续下去,我肯定会改用Android手机。」
此前曾曝光美国「棱镜」计划的前美国中央情报局(CIA)雇员 Edward Snowden目前也参与了相关联署。
他还在其个人推特上转发了相关联署链接,呼吁人们共同抵制。
此外,也有此前为苹果加密和隐私政策摇旗呐喊的电子前沿基金会(EFF),以及Epic Games的首席执行官 Sweeney。
苹果:我有加密技术
为了打消用户的疑虑,苹果表示,放心绝对安全!
「他们绝不会直接扫描用户的图像,而是使用了一种叫做NeuralHash的加密技术,根本不会直接看到用户的照片。」
它能够确保视觉上相似的图像产生相同的哈希值,即使图像经过裁剪或者其他颜色处理。
经过黑白处理的图片和原图片具有相同哈希值
如果图片符合条件便会上传给苹果。
在此过程中,苹果使用另一种称为「阈值秘密共享」的加密技术,低于一定阈值的照片是无法被还原的。
一位安全研究人员 Matthew Green 称这是一个坏主意。
他担心,NeuralHash 系统最终会破坏端到端的加密。
但在「儿童保护」功能下,所有上传到iCloud的照片和同步的照片均不是端到端的加密存储。
然而,苹果表示,系统非常准确,每年出错率不到万亿分之一。
6页文件回应,拒绝政府监控要求
面对质疑,苹果还发布了6页文件解答关于这项功能的常见问题,并将文件命名为「对儿童的扩展保护」。
苹果介绍,这一功能只会扫描设备本地照片,以确认是否存在儿童性虐待材料,除此之外,苹果不会读取其它照片的信息。不过,这项功能不适用于扫描视频。
换句话说,如果用户不将照片上传到iCloud,苹果便不会扫描用户照片。
此外,该系统不会应用到「信息」这一功能,也不会「影响其它设备上的数据」。
目前,专家们最担忧的是,这一工具会被扭曲成针对持不同政见者的监控技术。
对此,苹果强调,已经设计了一些功能来防止这种情况发生。若政府要求将此项功能拓展到儿童性虐待以外的领域,苹果表示也会坚定拒绝。
苹果坚称,「以前,政府曾要求我们做出降低用户隐私的变化,我们坚决地拒绝了这些要求。未来,我们的做法不会改变。」
8月9日,苹果公布的简报称,未来将会扩展此项新的「儿童安全功能」到第三方应用程序。
尽管苹果没有提供具体例子,但Snapchat、Instagram以及WhatsApp等应用程序很有可能加入这项功能,以便模糊儿童收到的色情照片。
目前,还不清楚苹果何时会将此项功能扩展到第三方应用程序。
向第三方扩展功能是苹果的一贯做法,自2008年在iPhone OS 2上推出App Store以来,它就引入了对第三方应用程序的支持。
然而,网友们对「照片甄别系统」以及「儿童安全功能」拓展到第三方似乎都不买账。赞同的声音…微乎其微。
「越来越令人毛骨悚然了。苹果,你怎么了?」
苹果说照片不传到iCloud就不会扫描,然而网友表示,「不用iCloud,iPhone和ipad将变得极难使用。」
还有父母比较担心,「宝宝第一次洗澡的照片怎么办…」
看来,新版「老大哥正在看着你!」已经到来…
参考资料:
https://www.macrumors.com/2021/08/09/apple-child-safety-features-third-party-apps/
https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch
https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life
http://news.cnwest.com/tianxia/a/2021/08/09/19867781.html