l1正则化为什么稀疏(特征值重根与秩的关系)

2022-07-31 10:46:39 浏览数 (1)

大家好,又见面了,我是你们的朋友全栈君。

L1正则化与稀疏性

L1正则化使得模型参数具有稀疏性的原理是什么?

机器学习经典之作《pattern recognition and machine learning》中的第三章作出的一个解释无疑是权威且直观的,我们也经常都是从这个角度出发,来解释L1正则化使得模型参数具有稀疏性的原理。再回顾一下,以二维为例,红色和黄色的部分是L1、L2正则项约束后的解空间,蓝色的等高线是凸优化问题中的目标函数(未加入正则项的)的等高线,如图所示,L2正则项约束后的解空间是圆形,而L1正则项约束后的解空间是菱形,显然,菱形的解空间更容易在尖角处与等高线碰撞出稀疏解。

假设原目标函数是 y = ( w 1 − 2 ) 2 ( w 2 − 2 ) 2 y=(w_1-2)^2 (w_2-2)^2 y=(w1​−2)2 (w2​−2)2 在未加入正则项之前,这个最优解无疑是 ( w 1 = 2 , w 2 = 2 ) (w_1=2,w_2=2) (w1​=2,w2​=2) 但加入了正则项 y = ( w 1 − 2 ) 2 ( w 2 − 2 ) 2 1 ∗ ( w 1 2 w 2 2 ) y=(w_1-2)^2 (w_2-2)^2 1*(w_1^2 w_2^2) y=(w1​−2)2 (w2​−2)2 1∗(w12​ w22​)之后但最优解就不再是 ( w 1 = 2 , w 2 = 2 ) (w_1=2,w_2=2) (w1​=2,w2​=2), 而是 ( w 1 = 1 , w 2 = 1 ) (w_1=1,w_2=1) (w1​=1,w2​=1) 这是 ( w 1 − 2 ) 2 ( w 2 − 2 ) 2 = a (w_1-2)^2 (w_2-2)^2=a (w1​−2)2 (w2​−2)2=a和 w 1 2 w 2 2 = b w_1^2 w_2^2=b w12​ w22​=b这两个圆的切点。切点处a=2,b=2,此时正好a=b,这与我们的目标函数取值 y = ( w 1 − 2 ) 2 ( w 2 − 2 ) 2 y=(w_1-2)^2 (w_2-2)^2 y=(w1​−2)2 (w2​−2)2是个圆形有关,如果是其他形状,不一定有a=b。

上面的解释无疑是正确的,但还不够准确,也就是回答但过于笼统,以至于忽略了几个关键问题,例如,为什么加入正则项就是定义了一个解空间约束,为什么L1、L2正则项的解空间不同。如果第一个问题回答了,第二个问题相对好回答。 其实可以通过kkt条件给出一种解释。 事实上,“带正则化项”和“带约束条件”是等价的,为了约束w的可能取值空间从而防止过拟合。

如果我们为线性回归加上一个约束,就是w的l2范数不能大于m: m i n ∑ i = 1 N ( y i − w T x i ) 2 s . t . ∣ ∣ w ∣ ∣ 2 < = m (1) min sum_{i=1}^{N} (y_i-w^{T}x_i)^2\ s.t. ||w||^2<=m tag1 mini=1∑N​(yi​−wTxi​)2s.t.∣∣w∣∣2<=m(1)

为了求解这个带约束条件的不等式,我们会写出拉格朗日函数 ∑ i = 1 N ( y i − w T x i ) 2 λ ( ∣ ∣ w ∣ ∣ 2 − m ) (2) sum_{i=1}^{N} (y_i-w^{T}x_i)^2 lambda(||w||^2-m) tag2 i=1∑N​(yi​−wTxi​)2 λ(∣∣w∣∣2−m)(2) 如果 w ∗ w^{*} w∗是原问题(1)的解, λ ∗ lambda^{*} λ∗是对偶问题(2)的解, 一般都是先求出对偶问题的解 λ ∗ lambda^{*} λ∗,然后带入kkt条件中( λ ∗ lambda^{*} λ∗和 w ∗ w^{*} w∗的关系),就能求出 w ∗ w^{*} w∗。 w ∗ w^{*} w∗也必然是原问题的解。 这里kkt条件是: 0 = m i n ∇ w ( ∑ i = 1 N ( y i − w ∗ T x i ) 2 λ ∗ ( ∣ ∣ w ∗ ∣ ∣ 2 − m ) ) s . t . 0 < = λ ∗ (3) 0=min nabla_w(sum_{i=1}^{N} (y_i-w^{*T}x_i)^2 lambda^{*}(||w^{*}||^2-m))\ s.t. 0<=lambda^{*} tag3 0=min∇w​(i=1∑N​(yi​−w∗Txi​)2 λ∗(∣∣w∗∣∣2−m))s.t.0<=λ∗(3)

其中,第一个式子就是带L2正则项的优化问题最优解 w ∗ w^{*} w∗,而 λ ∗ lambda^{*} λ∗是L2正则项前的系数。

这就是为什么带正则化项相当于为参数约束了解空间,且L2正则项为参数约束了一个圆形解空间,L1正则项为参数约束了一个菱形解空间,如果原问题的最优解没有落在解空间的内部,就只能落在解空间的边界上。 而L1正则项为参数约束了一个“棱角分明”的菱形解空间,更容易与目标函数等高线在角点,坐标轴上碰撞,从而产生稀疏性。

看到上面,其实我直接有个疑问,就是“如果我们为线性回归加上一个约束,就是w的l2范数不能大于m”、这句话里的m是个固定的确定值,还是瞎设的值。 后面我的想法是,任意给定一个m值,都能得到一个两圆相切的切点,从而得到其给定m条件下的带正则项的最优解,然后在不同的m值中,再选出某个m值对应的最优解是全局最优解,从而得到最终的最优解。

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/128834.html原文链接:https://javaforall.cn

0 人点赞