作者 | Bernhard Schölkopf
译者 | Kolen
编辑 | Jane
出品 | AI科技大本营(ID:rgznai100)
尽管机器学习在现阶段取得了很大成功,但是相比于动物所能完成的工作,机器学习在动物擅长的关键技术上表现不尽人意,比如问题迁移能力、泛化能力以及思考能力,因为机器学习通常会忽略大量常用的信息。
近年来,由于因果关系可以让模型更稳定和健壮,在机器学习领域得到了越来越多的关注。本文阐述了一些将因果关系和机器学习结合的想法,并勾勒出一个更大的蓝图,希望它不仅可以对讨论因果关系于AI的重要性这一问题有所帮助,还可以介绍一些图形或结构因果关系模型的相关概念。
1、信息处理的机械化
第一次工业革命由蒸汽机和水力引发,第二次由电气化驱动,两者都与如何获取和转换不同形式的能量有关。有人认为我们现正处于一场新的革命,在这场革命中,信息代替了能量。同能源一样,信息也可以经人处理,同时也可能是个守恒的量,而且信息守恒也可能是和能量守恒一样,是对称的结果。当然,信息和能源也并非可完全类比,比如特定的机器学习算法和计算资源,可以复制扩展到数据集,从而其他人可以从数据集中提取相同的信息,而能量只能使用一次。
类似于能源革命,当目前的革命可以分为两个阶段:第一阶段是计算机、高级编程语言和计算机科学的诞生,另一个则是我们目前正在经历的依赖于学习的阶段。它允许从非结构化数据中提取信息,并且可以自动从数据中推断规则,而不是依靠人类来构思和编程这些规则。Judea将经典AI与概率论相结合的方式,这同时也催生了图形化模型,但是该模型很大程度上没有关注因果语义。近年来,机器学习与因果关系之间已经出现了真正的联系,我们认为如果想在AI的主要开放性问题上取得进展,这些因果联系将至关重要。
2、从统计模型到因果模型
由独立同分布(IID)数据驱动的方法 目前机器学习领域的工作大多数是基于独立同分布(IID)的数据集。对于IID数据,是统计学习理论应用的强普适一致性结果,它能够保证学习算法(比如最近邻分类器和SVM)收敛到最低可实现的风险。但是当违背IID假设时,机器学习模型的效果往往很差。目前的实践(解决IID基准问题)以及大多数理论结果(关于IID环境中的泛化)都未能解决跨问题泛化的开放性难题。当我们不再研究观测分布,而是研究某些变量或机制发生变化的分布,这就到了因果关系模型的领域。
Reichenbach提出了共同原因原理:如果两个观测值X和Y在统计上是相依的,那么就存在一个变量Z,它们对因果关系都有影响,并且解释了在Z条件下使它们独立的意义上的所有依赖性。其关键的见解在于,如果没有额外的假设,就无法用观测数据来区分这三种情况。因此因果模型所包含的信息是要多于统计模型的。
实际上,更多可观测的情况会使问题变得更容易解决,因为在这种情况下,因果结构隐含着特殊的条件独立属性。这些可以通过使用将概率图形模型和干预的概念结合起得因果图或结构因果模型的语言来描述。
结构因果模型(SCM) 结构因果模型(SCM)结合了图形建模、结构方程、反事实和介入逻辑。SCM“推理引擎”通常将假设(以图形模型的形式)、数据和查询作为输入。我们可以使用这些工具正式表达因果问题,以图解和代数形式编纂我们现有的知识,然后利用数据来估计答案。此外,当现有知识状态或现有数据不足以回答我们的问题时,这个理论会警告我们,然后建议其他知识或数据来源,让问题变得可回答。
3、因果模型的层次
微分方程是对系统的相当完整的描述,统计模型可以看作是比较肤浅的模型。统计模型通常告诉我们只要实验条件不变,一些变量如何允许预测其他变量。它不允许我们预测干预措施的效果,但是它的优势在于可以从数据中学习。因果模型则位于这两个极端之间,它旨在提供理解并预测干预措施的效果。因果发现和学习试图仅使用弱假设,以数据驱动的方式得出这样的模型。如表1所示最详细的模型(顶部)是机械模型或物理模型,通常用微分方程表示。底部是一个可以从纯粹从数据中学习出的统计模型。因果模型可以看作是介于两者之间的描述,从物理现实主义中抽象出来,同时保留了回答某些干预性或反事实性问题的能力。
表1:模型的简单分类法
4、独立的因果机制
每当我们感知到一个物体时,我们的大脑都会做出这样的假设:该物体及其所包含的信息到达我们的大脑的机制是独立的。然而我们可以从特殊角度看待这个物体从而来推翻上述假设:就Beuchet椅子而言(如下图),我们认为椅子的三维结构实际上并不存在。当我们考虑系统中的干预措施时也是如此,为了使模型能够正确预测添加干预后的效果,模型必须具有鲁棒性。
图1:Beuchet椅子,由两个单独的对象组成,当从特殊的视角观看时,它们看起来像椅子,这违反了对象和感知过程之间的独立性。
这种分布的变化总是由这些机制中的至少一个的变化引起。根据独立性原则,我们假设较小的变化倾向于以稀疏或局部的方式表现出来,即它们通常不应同时影响所有因素。相反,如果我们考虑到一个非因果因素,由于我们改变了系统的统计依赖性,那么这些条件将同时受到影响。
机制依赖程度:实际上,在因果图中,即使所有机制都是独立的,许多随机变量也将是相关的。
算法独立性:比特串的Kolmogorov复杂度(或算法信息)本质上是图灵机上最短压缩的长度,因此是对其信息内容的度量。机制的独立性可以定义为消失的相互算法信息,也就是说,如果知道一个条件的(最短压缩)不能帮助我们实现另一个条件的较短压缩,则认为这两个条件是独立的。
5、因果发现
实际上,在没有函数类假设的情况下进行有限样本一般化是不可能的,因此可以通过对函数类进行假设来解决一些很难的因果关系问题。它们还可以帮助解决基于条件独立性测试的因果发现方法的其他缺点。条件独立性测试在很大程度上依赖于核函数类来表示和再现核Hilbert空间中的概率分布。到目前为止,有许多方法可以比统计更好地检测因果关系,其中一些方法是建立Kolmogorov复杂度模型的基础上,也有些人直接将双变量分布分为因果关系和反因果关系用于学习。
6、半同胞回归(Half-Sibling Regression)与系外行星探测
利用由加性噪声模型和ICM假设启发的因果模型,我们设计了一种方法,使得可以从一大组其它恒星中预测出一个感兴趣的恒星,这些恒星的测量结果不包含恒星的天体物理信号的信息,并且为了消除仪器的影响而删除了这种预测。我们将这种方法称为“半同胞”回归,因为目标和预测因子共享一个父项。
同时,我们用系外行星过境模型和有效的搜索光曲线的方法对其进行了扩充,从而发现了36个行星候选物,其中21个随后被确认为真正的系外行星。四年后,天文学家在系外行星K2-18b的大气层中发现了水的痕迹,这是在可居住区域首次发现系外行星的痕迹,即允许液态水存在。
7、不变性、鲁棒性和半监督学习
许多机器学习分类器并未使用因果特征作为输入,它们使用效果特征来预测原因。我们认为因果方向对某些机器学习问题是至关重要的,对协变量转移的鲁棒性是可预期的,并且它对半监督学习做出了非平凡的预测。
半监督学习(SSL):我们认为SSL不适用于解决因果学习问题,但是在其他方面是可行的,特别是对于非因果学习问题。还值得注意的是该领域的一些理论结果使用了因果关系图中众所周知的假设:联合训练定理对未标记数据的可学习性作了说明,并依赖于给定标签的预测因子是条件独立的假设,如果预测因子仅由标签引起,即一个非因果设置。这与以上我们观点完全吻合。
对抗性弱点:假设因果关系也会影响分类器是否容易受到对抗性攻击。这些攻击显然违反了机器学习基础的IID假设。在对抗环境中,修改后的测试集与训练集并非来自相同的分布,因此它们会干预模型优化。对抗现象还表明,当前分类器表现出的鲁棒性与人类表现出的鲁棒性不同。最近的研究工作表明:可以通过对因果产生方向进行建模来解决反因果分类问题,从而防御对抗攻击。
多任务学习:假设我们要构建一个可以在多个环境中解决多个任务的系统,这样的模型可以采用学习的方式:假设有多个数据集,它们是从相似但不相同的SCM采样的,如果SCM共享大多数组件,那么我们可以通过对SCM中的函数进行编码来压缩多个数据集,并且正确的结构应该是最紧凑的方向,因为它是跨数据集共享许多功能的方向,因此只需要编码一次。
强化学习:可以考虑将统计学习转向因果学习与强化学习(RL)的结合。事实证明,高维度的数据可通过寻找不变性来帮助确定因果关系特征,从而更普遍地有助于寻找因果关系,这可以使RL在其模型中找到强大的模块,这些模块很可能会推广到状态空间的其他部分。因为基于策略的RL可以有效地直接估计概率,因此它比机器学习的主流方法更适合因果关系研究。
8、因果表征学习
传统的因果发现和推理假设单位是由因果图连接的随机变量,因果表示学习尝试从数据中学习这些变量,其不要求算法操作的符号具有先验性。因果结构模型可以由微观模型产生(微观结构方程模型、常微分方程和时间聚集时间序列)。为了将结构因果模型与表示学习相结合,可以将SCM嵌入到较大的机器学习模型中,该模型的输入和输出可能是高维的和非结构化的,但其内部工作至少部分地由SCM支配。
学习可转移的机制:对于每个任务/领域,我们只有有限的数据,因此需要找到合并/重用数据的方法。一种较好的实现方法是采用一种可以反映世界上相应的事物的模块化结构。可以通过寻找独立的因果机制来学习这类模型,而竞争训练也可以在模式识别任务方面发挥作用。学习包含独立机制的因果模型有助于跨领域模块转移。
学习纠缠的表示:前文讨论的ICM其实表明了SCM噪声项的独立性,进而证明了解纠缠表示的可行性以及条件关系P(Si |Pai)在相关问题上是独立可操作且基本不变的性质。假设我们试图使用独立机制从数据中重建这种解缠结的表示形式, 从中我们可以构造因果变量S1, … , Sn(n<< d)以及建模Si之间的因果关系的机制,如下公式。
学习介入世界模型和推理:现在的表示学习是在不考虑变量的因果关系的情况下进行的,并不关心其分析或重构的变量的介入性。因果关系将把表示学习提升到新的高度,将从基于统计依赖结构的模型转向支持干预,计划和推理的模型,实现能够在一个想象的空间思考。最终,这可以使得机器具有反思自己的行动并设想替代方案的能力。
链接:
https://arxiv.org/pdf/1911.10500.pdf
(*本文为AI科技大本营编译文章)