Google被认为是推动全球AI革命的领导者,但它给开发人员提供的工具可能并不像许多人想象的那么安全。中国社交游戏巨头腾讯的一个安全团队最近声称,它在Google的机器学习平台TensorFlow中发现了一个“严重的安全漏洞”,程序员在使用该平台编辑代码时,容易受到恶意攻击。
“简而言之,如果设计专业人员在编写机器人时碰巧使用了易受攻击的组件,那么黑客很可能会通过这个漏洞来控制机器人,这是非常可怕的。到目前为止,我们只是在AI的安全方面迈出了一小步,我们期待在更多的技术人才的帮助下让AI更好更安全。“腾讯安全部门旗下Blade的负责人杨勇表示。
如果将不安全的代码编辑成人脸识别等AI用例,黑客就可以完全控制系统,窃取设计者的设计模型,侵犯用户隐私,造成更严重的损失。
2015年,Google发布了免费的基于云的机器学习平台TensorFlow,简化了AI的编程步骤。Blade在对TensorFlow进行代码审查时发现了安全漏洞,并向Google报告了此事,Google前不久在北京正式开设了其AI中心。
这并不是中国黑客第一次在海外玩家产品中存在安全漏洞。2014年,安全公司奇虎360声称,它获得了一些特斯拉Model S的功能,包括锁、喇叭、闪光灯和天窗。今年7月,腾讯著名的Keen安全实验室连续两年远程攻击了特斯拉(Tesla)。实验室向特斯拉报告了所有相关的漏洞。