扫描iPhone所有照片,苹果自辩「保护儿童」引众怒!6000多人联名抵制

2021-08-25 11:39:02 浏览数 (1)


新智元报道

来源:macrumors

编辑:yaxin, su

【新智元导读】说好的「用户隐私至上」呢?近日,苹果计划推出扫描用户 iPhone 所有照片的新系统,通过检查是否涉及虐童、儿童色情内容,以便让儿童更安全上网。然而,这一消息却惹来众怒。多数人看来,苹果意在监视我们一举一动。

一直以来,保护用户隐私是苹果的至上理念。

近日,这层「隐形薄膜」被一捅而破!

外媒爆出,苹果计划推出新版照片甄别系统(CSAM),通过扫描所有存储在 iCloud 上的照片,以找出符合虐待儿童、儿童色情内容的照片。

单纯目的只有一个:保护儿童安全上网!

不管怎么说,这一系统必然会带来用户隐私泄漏的风险。

况且,在大多数人看来,苹果意在监视用户的一举一动。

「投喂」20万张图片

如果苹果要实现图片检测,那么肯定要训练AI去学习。

这一过程中,就需要大量的「投喂」数据。细想,数据从何而来?

外媒称,新系统名为 neuralMatch,一旦发现虐待儿童相关内容,便将进一步提交人工审核。

如果经验证「违法内容」属实,公司可禁用用户账户,并联系执法部门。

neuralMatch 系统使用来自美国国家失踪与受剥削儿童保护中心(National Center for Missing & Exploited Children)的「20 万张图像」进行训练。

该系统将率先在美国推出,用户存储的照片将被扫描并与已知的儿童虐待图像数据库进行比较。

社交软件WhatsApp负责人 Will Cathcart 表示,

苹果公司的行为「非常令人担忧」,该系统可以很容易地被运用于扫描个人隐私。

苹果的第2个新功能是基于 iMessage 发送或接收的扫描照片的敏感内容通知。

未成年人账户的iMessage会受到重点监测,如果他们的iMessage中有色情照片,苹果也会发出警告并通知其父母。

据介绍,苹果的扫描是全方位的:

这些新功能将会在今年 9-10月份上线,作为 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的特性在更新时推出。

6000多人联名抵制,安全专家:转投Android

苹果这一举动遭到许多人的联名抵制。

目前一封由安全专家、密码学家、法律界人士和普通消费者等共同发起的联名信已经发在Github上。

https://appleprivacyletter.com/

目前已经有超过6000余家组织和个人签署,他们强烈谴责苹果这项新技术侵犯个人隐私。

联名信写道,尽管打击虐待儿童是一个毫无疑问的善意出发点,但该系统以及背后的智能算法实际上给苹果系统加装了一个「后门」,而这可能侵犯所有苹果用户的个人隐私。

著名密码学专家Nadim Kboeissi表示,「如果这种情况继续下去,我肯定会改用Android手机。」

此前曾曝光美国「棱镜」计划的前美国中央情报局(CIA)雇员 Edward Snowden目前也参与了相关联署。

他还在其个人推特上转发了相关联署链接,呼吁人们共同抵制。

此外,也有此前为苹果加密和隐私政策摇旗呐喊的电子前沿基金会(EFF),以及Epic Games的首席执行官 Sweeney。

苹果:我有加密技术

为了打消用户的疑虑,苹果表示,放心绝对安全!

「他们绝不会直接扫描用户的图像,而是使用了一种叫做NeuralHash的加密技术,根本不会直接看到用户的照片。」

它能够确保视觉上相似的图像产生相同的哈希值,即使图像经过裁剪或者其他颜色处理。

经过黑白处理的图片和原图片具有相同哈希值

如果图片符合条件便会上传给苹果。

在此过程中,苹果使用另一种称为「阈值秘密共享」的加密技术,低于一定阈值的照片是无法被还原的。

一位安全研究人员 Matthew Green 称这是一个坏主意。

他担心,NeuralHash 系统最终会破坏端到端的加密。

但在「儿童保护」功能下,所有上传到iCloud的照片和同步的照片均不是端到端的加密存储。

然而,苹果表示,系统非常准确,每年出错率不到万亿分之一。

6页文件回应,拒绝政府监控要求

面对质疑,苹果还发布了6页文件解答关于这项功能的常见问题,并将文件命名为「对儿童的扩展保护」。

苹果介绍,这一功能只会扫描设备本地照片,以确认是否存在儿童性虐待材料,除此之外,苹果不会读取其它照片的信息。不过,这项功能不适用于扫描视频。

换句话说,如果用户不将照片上传到iCloud,苹果便不会扫描用户照片。

此外,该系统不会应用到「信息」这一功能,也不会「影响其它设备上的数据」。

目前,专家们最担忧的是,这一工具会被扭曲成针对持不同政见者的监控技术。

对此,苹果强调,已经设计了一些功能来防止这种情况发生。若政府要求将此项功能拓展到儿童性虐待以外的领域,苹果表示也会坚定拒绝。

苹果坚称,「以前,政府曾要求我们做出降低用户隐私的变化,我们坚决地拒绝了这些要求。未来,我们的做法不会改变。」

8月9日,苹果公布的简报称,未来将会扩展此项新的「儿童安全功能」到第三方应用程序。

尽管苹果没有提供具体例子,但Snapchat、Instagram以及WhatsApp等应用程序很有可能加入这项功能,以便模糊儿童收到的色情照片。

目前,还不清楚苹果何时会将此项功能扩展到第三方应用程序。

向第三方扩展功能是苹果的一贯做法,自2008年在iPhone OS 2上推出App Store以来,它就引入了对第三方应用程序的支持。

然而,网友们对「照片甄别系统」以及「儿童安全功能」拓展到第三方似乎都不买账。赞同的声音…微乎其微。

「越来越令人毛骨悚然了。苹果,你怎么了?」

苹果说照片不传到iCloud就不会扫描,然而网友表示,「不用iCloud,iPhone和ipad将变得极难使用。」

还有父母比较担心,「宝宝第一次洗澡的照片怎么办…」

看来,新版「老大哥正在看着你!」已经到来…

参考资料:

https://www.macrumors.com/2021/08/09/apple-child-safety-features-third-party-apps/

https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch

https://www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life

http://news.cnwest.com/tianxia/a/2021/08/09/19867781.html

0 人点赞