据MacRumors 8月18日报道,苹果早前发布的用于检测iCloud照片中是否存在儿童色情图片(CSAM)的NeuralHash算法存在漏洞,可能被利用进行原像攻击。
开发者Asuhariet Yvgar 在Reddit上表示,他发现了iOS 14.3中CSAM检测使用的苹果NeuralHash算法的一个版本,容易发生哈希碰撞,导致原像攻击。该攻击可能导致普通用户被诬陷持有儿童色情图片并招致苹果调查审核。
同日,苹果回应媒体Motherboard称,在 iOS 14.3 中发现的 NeuralHash 版本并不是与 iOS 15 一起发布的最终版本。苹果还表示,它已将该算法公开以供安全研究人员验证,但还有第二个非公开算法将在用户超30张匹配阈值后开启检查以及人工验证。
据了解,该算法是在隐藏的API中发现的,NeuralHash的容器被称为MobileNetV3。Asuhariet Yvgar对代码进行了逆向工程,并在Python中重建了一个工作模型,可以上传图像测试。目前,该代码和脚本已上传至GitHub供大家查证。
利用这个工作的Python脚本,GitHub用户已经开始研究这个算法是如何工作的,以及它是否可以被滥用。
一位名叫dxoigmn的用户发现,如果知道CSAM数据库中发现的结果哈希值,人们可以创建一个产生相同哈希值的假图像。理论上,一个用户可以将这些图片发送给随机的苹果用户,以触发该算法。
目前还没有人发现iOS 15测试版中存在CSAM数据库或匹配算法。苹果也还没有提供CSAM检测功能的确切发布时间表。