商汤IPO遭遇美国阻击,双方纠结点“AI的伦理”到底该怎么解决?

2021-12-14 08:37:49 浏览数 (1)

数据智能产业创新服务媒体

——聚焦数智 · 改变商业

当地时间2021年12月10日,美国财政部把中国人工智能公司商汤科技列入投资黑名单,理由是商汤科技“人脸识别技术涉嫌侵犯人权”。而12月10日正是商汤科技为其香港IPO定价的时间。

美国财政部官网截图

另外,美国财政部以所谓“侵犯人权”为借口将中国、俄罗斯、朝鲜、缅甸、孟加拉国五个国家的共15名个人及10个实体列入美国财政部海外资产控制办公室的制裁名单,其中有包括3名中国公民及多家中企。

事实上,2019年10月,美国商务部就曾以所谓“新疆人权”为由把商汤科技加入实体清单。一同被加入实体清单的还有大华科技、海康威视、科大讯飞、旷视科技等。被加入实体清单一般面临的制裁是出口管制,也就是没有美国政府许可情况下,特定商品、技术或服务不得提供给实体清单上的企业。

第一时间反击

商汤于12月11日迅速对此事作出了回应,原文如下:

我们对于这一决定与相关指控表示强烈反对。我们认为该决定与相关指控毫无根据,反映了对我公司根本性的误解。科技发展不应该受到地缘政治的影响。

商汤是领先的人工智能软件公司,致力于发展可持续、负责任并合乎伦理的人工智能技术与应用。我们在各个方面严格遵守相关国家和地区的法律、法规。

此外,商汤伦理委员会吸纳内外部专家成员,制定并监督实施严格的人工智能技术使用的伦理标准,让人工智能技术能获得恰当的应用。

同时,商汤广泛同第三方机构与国际组织合作,制定了一系列人工智能可持续发展伦理治理原则,以负责任的态度推动人工智能技术可持续发展。

满怀“用技术让人们的生活更美好”的向往,一群人工智能科学家和从业者创立了商汤。我们将矢志不渝,继续践行“坚持原创,让AI引领人类进步”的使命,并全力保护公司和相关利益方的权益。

商汤科技官网截图

公开资料显示,商汤科技成立于2014年,是一家专注于计算机视觉和深度学习技术的AI软件公司。商汤科技可以说是亚洲最大的人工智能软件公司。根据商汤科技的招股说明书显示,2021年上半年,商汤公司总收入为16.518亿人民币。主要业务分智慧商业、智慧城市、智慧生活和智能汽车四大块。

在商汤发布的反击声明中,我们看到几个关键词,“负责任并合乎伦理的人工智能技术与应用”“人工智能技术使用的伦理标准”,这显然是美国政府所谓“侵犯人权”的指责的解释和反击,那么到底什么是负责任并合乎伦理的人工智能技术?到底什么是人工智能技术使用的伦理标准?

无论指责是否荒谬,无论这种打压是否和国际大背景有千丝万缕的关系,我们依然有必要从技术层面重新审视AI的可持续发展。

探索的脚步从未停止

根据公开资料显示,商汤在招股说明书的“业务-数据隐私及个人信息保护”模块中表示,其高度重视数据安全及保护,已采取标准保护措施,包括保密分类、访问控制、数据加密及脱敏,以防止未经授权访问、泄露、不当使用或修改、损害或丢失数据及个人数据;已建立全面的个人资料管理系统,并制订一系列技术标准及规范,以确保数据及个人资料于整个生命周期内的安全。

商汤主要采取以下原则来应对数据隐私和个人信息保护:数据的授权存取及使用,独立数据库及安全服务器系统,全面的数据及个人资料安全及管理政策、定期审核及应急计划。

商汤在数据隐私方面不可谓不重视,2021年2月,商汤科技还通过权威认证机构BSI审核,获得 ISO/IEC 27701:2019隐私信息管理体系认证。对于AI公司来说,算法伦理和数据合规依然是IPO最大的潜在风险之一。在过去一年的时间里,依图、旷视、云从、海天瑞声、云天励飞、格灵深瞳、云知声等“AI概念股”扎堆涌向IPO。梳理被问询的内容,数据合规及科技伦理均是审核的关注焦点,这也成为AI企业主动寻求解决方案的原动力。

当前,业界解决隐私泄露和数据滥用的数据共享技术路线主要有两条:一条是基于硬件可信执行环境技术的可信计算,另一条就是基于密码学的同态加密和多方安全计算。

这两种方法一种是集中式,一种是分布式。集中式借助硬件,分布式借助密码学算法。集中式以蚂蚁金服为代表。他们提出共享学习的概念,底层使用Intel的SGX技术,试图打造出以阿里云为中心的商业模式。

而分布式的保护方式,基于密码学的同态加密和多方安全计算(MPC:Multi-party Computation),之前一直是学术界比较火的话题,但在工业界的存在感较弱,直到“联邦学习” 概念的出现,才使得MPC技术一夜之间在工业界火了起来。

针对数据维度不同,联邦学习分为纵向联邦学习、横向联邦学习、联邦迁移学习,可以充分应对用户重叠、用户特征重叠的各种情况。这种能够让参与方在数据不出本地的基础上联合建模的方法,显然更能考虑数据拥有者的顾虑。

联邦学习——或为终极解决方案

2020年7月,商汤科技开始将“联邦学习”应用于AI医疗的可持续发展,事实上,“联邦学习”在这两年已经开始被广泛地关注和应用。

联邦学习是什么?它能成为解决AI的数据隐私问题的终极解决方案么?

简单地说,联邦学习是一种分布式加密机器学习技术范式,因其可兼顾大数据合作需求和隐私安全保护,近两年发展极为迅速,渐渐成为各行各业大数据合作与AI协作的“标配”,尤其是金融、医疗、智慧城市等对数据安全要求极高的强监管行业。对这一技术系统化的认知需求也愈发强烈。

联邦学习解决的是什么样的问题呢?事实上,联邦学习可以与分布式机器学习、密码学和安全深度结合,并吸纳经济学原理和博弈论的激励机制设计相关理论,以解决:在数据不出本地、确保数据安全的情况下,让多个数据拥有者共享数据模型的问题。也就是说建立一个共有模型,在建立共有模型的时候,数据本身不移动,因此不泄露隐私,符合数据合规要求,建好的模型也仅在各自的区域为本地的目标服务。在这样一个联邦机制下,参与方越多,模型效果越好,各个参与者的身份和地位相同,实现“共同富裕”。

谷歌于2016年利用联邦学习解决安卓手机终端用户在本地更新模型的问题,也即能够基于本地小数据进行不断机器学习训练。而联邦学习在国内兴起确实因为它是目前解决国内企业数据孤岛现状的最佳“良药”。

联邦学习自推出以来,业界就高度重视联邦学习,并发布了数个开源框架。这些开源框架分别由谷歌(Tensorflow Federated)、OpenMined(Pysyft)、百度(PaddleFL)和微众银行(Fate)等牵头。与此同时,英伟达Clara和微众银行也推出了联邦学习的商业化产品。目前,联邦学习已经在各行各业开花结果。

也正是因为中国专家们的努力,使得中国逐渐走在了联邦学习的前端,2018年底由微众银行等企业带头向IEEE标准协会递交了联邦学习关于联邦学习架构和应用规范的标准P3652.1。2021年3月份,联邦学习IEEE标准草案完成并通过标准工作组表决。IEEE是全球最大的非营利性专业技术学会,在学术及国际标准等领域具有公认权威性,已经制定了900多个现行工业标准。

2021年3月,联邦学习标准终版正式发布

几年来,海内外多家企业和研究机构合作参与制定的联邦学习IEEE标准。但与其他诸多国际标准不同的是,在这次标准制定中,国内企业占据了主导地位。

2021年7月份,微众银行向电气和电子工程师协会(IEEE)提交的“可解释AI(XAI)”标准立项通过,微众银行牵头组织国内21家机构和企业,召开第一次标准工作组会议。微众银行人工智能首席科学家范力欣博士担任工作组主席。微众银行首席人工智能官杨强教授被推举为工作组的荣誉主席,华夏基金首席数据官陈一昕博士担任副主席。

这次“可解释AI(XAI)”标准的制定是为了确保应用AI中的数据处理、机器学习建模等过程对于用户、决策者、监管者等是可解释的,同时满足对于隐私、安全、责任、公平、法规等的要求。并对整体内容进行规划,标准将对可解释AI的定义、分类、应用场景、性能评估等进行系统性的规范。

又一次,中国的企业走在了前面

IEEE可解释AI标准将成为国内乃至国际上首个专门解决人工智能落定应用中“黑箱”问题的行业标准。

正如中科院院士张钹在多次公开演讲上所提到:“人工智能距离‘超越’人还差得远,当前人工智能的最大问题是不可解释和不可理解,未来AI要走向可解释人工智能,将这个黑箱打开。”技术落地,标准先行。随着行业标准的出台与相关技术的成熟,相信我国发展负责任AI的进程将不断加快。

时至今日,AI技术虽然看起来还没突破到想象中的“机器人时代”,但是AI技术应用在经济上已经可以降低成本、开源节流,带来可持续发展效应了。在很多方面,AI已经可以大规模应用,如医疗、金融领域,其实它已经到来了。

正如范力欣博士说的一样:“有人说AI是一个泡泡,大家看上去就是在吹泡泡。但事实上,全球AI发展已经处于量变到质变的阶段,只是看起来好象没有起飞,技术已经在突破的前夜。”

文:王腾 / 数据猿

0 人点赞