​【源头活水】ICML 2022 | 共识表征提取和多样性传播的解构联邦学习框架

2022-11-14 15:47:54 浏览数 (1)

“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。

论文题目:

Disentangled Federated Learning for Tackling Attributes Skew via Invariant Aggregation and Diversity Transferring

作者信息:

骆正权(中国科学技术大学,中科院自动化所),王云龙(中科院自动化所),王子磊(中国科学技术大学),孙哲南(中科院自动化所),谭铁牛(中科院自动化所)

收录会议:

39th International Conference on Machine Learning(ICML2022, to appear)

文章概要:

本文针对目前制约联邦学习发展的节点数据非独立同分布问题中较为复杂的属性倾斜因素,提出了共识表征提取和多样性传播的解构联邦学习框架(Disentangled Federated Learning,DFL)。

会议网址:

https://icml.cc/Conferences/2022

01

研究动机

1.1 研究背景

联邦学习作为目前最为火热的基于隐私安全保护的分布式架构收到了广泛关注,但是随着研究的深入,实际场景中节点数据分布之间往往存在巨大的非独立同分布性质(Non-iid),这一分布偏差给模型在联邦训练中带来了性能损失,收敛不稳定等一系列问题。

通过深入分析,我们对Non-iid因素做了细致的拆解,相比于较为明显的由类别不均衡造成的分布偏差而言,节点数据分布之间的属性偏差更加隐蔽同时也更难以克服。为了直观的体现出属性偏差所造成的性能损害,我们构建了一个属性倾斜的简单样例,首先对手写数字分类数据集MNIST按照节点进行均匀的划分,之后人工地针对不同节点的前景或背景进行染色,最后分别进行相同的联邦训练。实验结果可视化如图一所示,其表明即使是颜色属性这一原则上不应对数字分类造成影响的属性,当在节点数据分布中存在倾斜时实际上给模型分类准确性和收敛稳定性都带来了巨大的伤害。

图一:MNIST数据集颜色属性偏差造成的性能损失

在实际场景中,由于数据采集场景、设备、对象的差异性,属性倾斜是普遍存在的且严重阻碍了联邦学习的进一步发展与实际应用,为了解决这些问题,我们必须深入理解分布差异性造成问题的本质,并相应提出克制之法。

联邦学习领域先前的研究将收敛不稳定和性能损失归因为节点间优化方向偏差,具体而言,由于不同节点数据分布差异造成节点模型在优化过程中梯度下降方向不一致,导致了聚合模型优化过程的不稳定,同时也无法最终收敛至全局最优点。根据这一直观理解提出的相应解决方法可粗略划分为以下三类:

第一类通过增加节点优化约束项强行矫正梯度下降方向朝向统一方向;第二类使用个性化节点模型自适应各自的数据分布;第三类全局加权聚合通过挑选合适的聚合节点或者根据相似性分配不同的权重进行模型聚合。

这些方法虽然在实验中取得了不错的结果,但是我们认为对于节点优化方向偏差这一问题的认知依旧不够深刻,核心问题依旧存在,本文对此进行了深入剖析。

1.2 方法动机

数据分布异质性会之所以会导致优化偏差的本质原因在于:特定节点数据的特有属性不可避免地被节点模型提取并混合到全局聚合中。这些属性能被成功学习说明其与决策相关,但可惜不是因果关系,也仅在局部有效。举个鸟类分类的例子,节点通过本地模型同时抽取到鸟本身和蓝天的属性,这两者都有助于飞鸟数据的分类决策。不幸的是,蓝天作为飞行鸟类图片所特有的属性会通过模型聚合注入到全局模型中。对于数据集中鸟都在树上的节点而言,对于蓝天属性的关注会导致分类性能下降,因为这个数据域没有蓝天这一概念。而实际中这种属性倾斜的现象非常普遍,进而引发了人们对联邦学习系统的鲁棒性和可信赖性的担忧。

图二:鸟类分类实例和DFL原理

我们根据以上的观察提出了解构联邦学习(DFL)框架,其动机就是要从聚合模型中剥离节点特有的属性。但是,传统联邦学习框架通常基于单分支模型无法支撑DFL,其主要原因在于单分支模型会同时提取到高度纠缠的特有和共识表征属性。虽然这两个属性都有助于局部的任务决策,但其差异在于1)共识表征属性是内在的和因果的,是跨域通用的;2) 特定属性仅在本地有效,可能会给其他域带来性能下降。因此,DFL 首度采用了两个互补分支的节点模型,引入互信息(MI)约束解开纠缠的属性,并分别汇聚到不同的分支上:1)特定领域的分支只在本地训练。2) 域共识表征分支应用于全局聚合。除了重新设计局部节点模型外,为了有效实现DFL架构,我们提出了共识表征提取和多样性传播两种新技术,将在下文中进行详细叙述。

02

解构联邦学习框架

2.1 解构联邦学习框架理论

图三:DFL框架

联邦学习的基础优化目标可定义为

其中N为节点总数,w为模型参数,hk表示局部损失函数,根据这一优化目标,我们可以在节点间存在巨大分布差异的前提下 ,解释优化方向偏差的来源。节点k局部优化时节点数据驱动模型参数朝向服从数据分布为 的最优点下降,驱动各节点模型优化的数据分布差异性自然导致了优化方向的差异,为了解决这一问题,如图三引入互信息(MI)约束将纠缠在一起的特有和共识属性解构到两个不同分支分别进行优化,节点模型被划分为双支表征提取器,即共识表征提取分支 和特定分支 。预测模块 将这两个分支抽取的表征连接起来作为输入进行最终的决策。

我们在网络结构上将传统的节点单支模型更新为双支结构,更本质的是通过有效的表征属性解耦突破传统联邦学习单阶段全局优化的限制,即一阶段全局优化很难找到一个可以同时满足两个相互冲突的目标的最优解,即同时满足高度泛化性和个性化性能。为了克服这个问题,我们提出了两阶段交替优化,具体而言,只有每个节点模型的共识表征提取分支参与全局聚合。节点特有分支仅在本地进行优化。因此DFL的优化目的变为:

其中M表示两个分支模型的组合, 是聚合共识表征提取模型的参数。最小化的局部特有分支模型定义为 ,满足 。

与单阶段方法相比,DFL的训练包括局部和全局两阶段交替优化。在每个过程中,都会冻结一些模型部分的参数,以进行更有针对性的训练。在局部过程中,局部共识表征提取参数被冻结以将特定属性分离到局部特定分支中,节点模型参数为 ,该分支仅在局部进行优化。然后,最优局部特定模型和聚合模型的参数在全局过程中被冻结,以便更好地解开域不变属性,此时的全局优化目标变为

互信息最大化驱动局部共识表征提取分支专注于跨域不变属性,最后将最优的局部共识表征提取参数发送到服务器进行下一轮共识表征提取聚合。整体优化过程伪代码表示如下。交替优化的优点在于:1)更容易找到具有良好泛化性的最优全局共识表征提取模型。2)节点特有分支在节点本地进行优化,提供个性化适配。3)通过交替局部-全局优化有效的增强了收敛的稳定性。

2.2 表征解构、共识表征提取和多样性传播

为了支撑DFL架构,我们引入了表征解耦方法,并首次提出了共识表征提取和多样性传播技术,下面进行具体介绍。

表征解耦:为了有效地解耦属性,我们引入了基于互信息约束的表征解耦技术,如图三所示主要用于两个方面:1) 局部共识表征提取分支和全局共识表征提取分支之间的互信息最大化增强了跨域不变性。2) 局部共识表征提取分支和局部特有分支之间的互信息最小化解耦节点属性纠缠。

共识表征提取:服务器仅对各节点共识表征提取分支模型进行加权平均,并将聚合模型分发至各节点用于下一轮次共识表征提取分支更新,共识表征提取分支聚合公式为:

多样性传播:当属性成功解耦,节点特有的属性从模型聚合中剥离出来。直接忽略会造成大量的浪费,因为节点特有属性不仅包含本地节点的个性化需求,还蕴含大量的分布多样性。因此,我们提出了多样性传播来增加局部表征集:

扩增的表征是通过局部共识表征提取提取器和来自其他节点的特有属性提取器共同对本地数据进行表征抽取并组合而成,通过迫使本地节点关注其他节点的特有属性,从而丰富节点表征多样性,减轻过拟合并增强模型泛化能力。

2.3 收敛性分析

我们在工作中对所提出的DFL进行了详细的收敛性分析,我们的理论证明了在基于局部特有分支模型梯度有界的前提下,可以保证共识表征提取分支的双阶段全局优化是收敛的。这一收敛性证明有力的支撑了DFL框架的可行性。具体的分析过程详见原文和附录。

03

实验结果及可视化

我们从两个方面验证DFL有效性,验证实验侧重于人工合成的属性倾斜,旨在验证 DFL 与其他相关工作相比的有效性、损失收敛和性能改进。应用实验关注DFL在具有现实属性倾斜的数据集中的表现,试图证明 DFL 能够适应实际场景。

3.1 人工合成数据

图四:ColorMNIST数据集准确性和损失优化曲线

在人工合成属性倾斜的数据集上进行了实验,结果不仅表明了DFL对于分类准确性的提升,损失曲线更表明了DFL在收敛速率和稳定性上的优越性。

3.2 真实数据

图五:DomainNet数据集属性解耦可视化

同时我们也在具备真实属性倾斜的数据集上进行了实验,除性能提升之外,可视化结果也表明了DFL确实有效的对节点特有和共识表征属性进行了有效的解构,如图五所示,第一行共识表征提取分支主要关注于对象的形状,也即杯子形状,这是分类的核心决策原因;而第二行特有分支则分别关注不同的属性,例如杯中液体、文字描述和颜色,这些属性有助于最终决策但特定于不同的数据节点,这一可视化结果说明了DFL确实提升了联邦学习的可解释性。

更多实验结果详见论文。

04

总结

为了抵抗属性倾斜这一非独立同分布性质的重要组成因素给联邦学习带来的困扰,我们深度挖掘了其问题背后的本质,通过表征解耦技术的引入和双阶段交替优化方案的突破,在基于可靠的收敛性分析的指导下,我们提出了解构联邦学习(DFL)框架,可解释地增强了联邦学习应对节点数据分布异质性的能力。

当然目前的研究依旧存在大量值得深入探讨的部分,基于可解释的联邦学习和联邦泛化学习将是我们未来研究的重点,同时欢迎感兴趣的研究者共同参与。

致谢

本研究成果得到了中国人工智能学会-华为MindSpore学术奖励基金的资助。

MindSpore官网:https://www.mindspore.cn/

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。

0 人点赞