本文原作者:汪毅雄,经授权后发布。
导语:本文在上篇线性回归的基础上,延伸到广义线性模型,并把广义线性模型目的、假设条件来源,指数族分布、连接函数等各个函数的关系都进行详细地解释。最后用两个常见的GLM特例Logistics回归、Softmax模型进行了推导。
接上篇,我们了解了一下线性回归及其延伸回归的原理(传送门 机器学习之回归原理详述(一)),我们知道了线性回归是通过建立了一个线性模型来预测样本的值。而今天要聊的内容是线性模型的升级版,叫广义线性模型(GLM),基于此模型延伸而来的很多子模型很多,而且用途非常广,所以研究其很有意义!!!
GLM一个抽象模型,里面涉及了不少内容,很多相关文章也都有介绍。但是不少文章只是介绍了怎么用它,至于为什么引入,其各个角色之间的关系,介绍的不多。所以这篇文章中,我会引入很多个人看法(可能有错)和通俗的语言,来尝试把它讲的更明白些。由于内容有点生涩,关系有点乱,所以想了解原理的同学可能需要花点时间来好好了解,当然我自己也花了很多功夫。
为什么引入GLM?
上一篇文章中,我们知道了”回归“一般是用于预测样本的值,这个值通常是连续的。但是受限于其连续的特性,一般用它来进行分类的效果往往很不理想。为了保留线性回归”简单效果有不错“的特点,又想让它能够进行分类,因此需要对预测值再做一次处理。这个多出来的处理过程,就是GLM所做的最主要的事。而处理过程的这个函数,我们把它叫做连接函数。
如下图是一个广义模型的流程:
图中,当一个处理样本的回归模型是线性模型,且连接函数满足一定特性(特性下面说明)时,我们把模型叫做广义线性模型。因为广义模型的最后输出可以为离散,也可以为连续,因此,用广义模型进行分类、回归都是可以的。
但是为什么线性回归是广义线性模型的子类呢,因为连接函数是f(x) = x本身的时候,也就是不做任何处理时,它其实就是一个线性回归啦。
所以模型的问题就转化成获得合适的连接函数?以及有了连接函数,怎么求其预测函数
连接函数的获取
刚才说了,只有连接函数满足一定特性才属于广义线性模型。特性是什么呢?先简单描述下背景。
在广义线性模型中,为了提高可操作性,因此限定了Y和X的分布必须满足指数族分布:
其
即为上图所提到的回归模型输出的连续值,也就是说
。
有上述条件,满足指数族分布的样本,就可以通过来E(T(Y))得到
了,也就是上图连接函数的输出值。
// PS:对于Y,X不满足指数族分布的,只不过不能用E(T(Y))来描述成
,其也不属于广义线性模型,但不是不可计算。
// PS1:E(T(Y))这个统计量为什么可以预测函数呢,这块是可以证明的,本文就不详述了。
事实上,指数分布族包括了除了柯西分布和t分布以外的其他基本分布,因此其适用域非常广。
从图中我们可以看到
为函数的输入,而
为函数的输出。所以有这么一个公式:
,但是,我们会把f的逆
称为连接函数(别问为什么,就是这么定义的。。。),也就是说以
为自变量,
为因变量的函数才叫连接函数。
不管是 f 还是
,其能反映输入输出的关系就行对吧。
所以求连接函数的步骤就变成:
1、把Y、X所满足的分布拼凑成指数族分布形式
2、在指数族分布形式中获得 T(Y)的函数形式和
的值。
3、算出 E(T(Y))和
的关系,并把
代入
中,获得连接函数,并得到
。
有了连接函数和
,就可以用最大似然估计啊、梯度下降算法啊来进行后一步的计算了。
常见连接函数求解及对应回归
伯努利分布 > Logistics回归
伯努利分布只有0、1两种情况,因此它的概率分布可以写成:
写成指数族分布的形式有:
这样在指数族分布中: B(y) = 1; T(Y) = y;
,
这样E(T(Y))= E(y);
由于伯努利分布是离散分布,因此它的期望:
所以:
又因为
,此函数输入为
也就是
,输出为
,这不就是我们要找的连接函数:
又因为
,代入
式子中,得到
化简得到:
(此函数又叫Sigmod函数)
用这个预测函数的回归,我们把它叫做Logistics回归。
Logistics的回归的使用范围很广,例如判断是否垃圾邮件这种二分类问题上经常出现。
多项分布 > softmax回归
softmax理解:
假设有n个数x1、x2。。。xn,我们从中随机抽取一个数,请问这个数是什么?
答案显然是不知道的,但是我们可以回答,这个数最有可能是什么。
所以我们计算一下抽到xi的概率为p(xi),这样p(xi)占的比重为:
那我们可以写上答案为max p(x1), p(x2) ... p(xi) ... p(xn) 所对应的那个x。
但是呢,直接用max p(xi) ,其在取值域存在不可导点的,不利于计算。
因此为了消除它的不可导点,我们用了一种对概率曲线柔化后的max方式进行模拟,这种柔化的max我们把它叫做softmax。大概模拟的示意如图:
这种软化的方式是对概率指数化:
所以结果变成求max exp(p(xi)) ,以这种概率形式来对线性模型输出值做概率计算,并通过选取最大概率的方式来进行分类的模型,我们称之为softmax模型。
softmax多项分布解释:
刚才提了一个稍微好理解的方式。其实softmax和多项分布息息相关的,我们用最客观的方式推导一下。多项分布其实是伯努利分布的一个扩展,其取值可以从 1、2....k 中取,可以简单地建模为如下:
第1个数为1,其他数全为0,记为1
第k个数为1,其他数全为0,记为2
这样就对 1,2....k进行了区分。
因此它的概率分布如下:
其中u{y=k}的意思为:y==k ? 1: 0 相当输出1,否则为0。
因此对应在指数族分布中,其:
B(y) = 1;
所以有:
对上面等式从1至k相加可得:
这样我们就得到了
的一般形式。
而对于其期望和预测函数:
结论和上面说的拍脑门的方式一模一样。
Softmax的回归用的非常非常多,可以说是最常用的k分类器之一。真的很重要!!!
广义线性模型的计算
有了
这个概率密度函数,我们对其求对数似然函数:
其损失函数J也就是负的最大似然函数。对最大似然函数求梯度可得:
这个式子是一个广义线性模型通用的公式,也就是对于线性模型、Logistics等都适用。用此梯度不断对损失函数进行梯度下降,得到损失函数的最小值,并取出对应参数即可。这部分实现代码就不贴了,推荐一个python库sklearn,里面集成了很多模型,很适合新手上路。
附一个常见连接函数表(来源某付费学习视频PPT):
更多优质技术文章请关注官方微信公众号:
更多优质技术文章请关注官方知乎机构号:
https://www.zhihu.com/org/teng-xun-zhi-neng-tai-ji-qi-xue-xi-ping-tai/activities