线性回归 - 岭回归

2022-08-05 15:02:36 浏览数 (1)

本文记录岭回归角度进行线性回归的方法。

问题描述

考虑一个线性模型 {y}=f({bf{x}}) 其中y是模型的输出值,是标量,bf{x}d维实数空间的向量

  • 线性模型可以表示为:
f(bf{x})=bf{w} ^Tx,win mathbb{R}
  • 线性回归的任务是利用n个训练样本:
  • 和样本对应的标签:
Y = [ y _ { 1 } cdots quad y _ { n } ] ^ { T } quad y in mathbb{R}
  • 来预测线性模型中的参数 bf{omega},使得模型尽可能准确输出预测值

线性回归 / 岭回归

岭回归就是带有L_2正则的线性回归>

  • 之前最小二乘法的损失函数:
L(w)= w^{T} X{T{prime}} X w-2 w^{T} X^{T} Y Y^{T} Y
  • 岭回归的代价函数:

  • 上式中 lambda 是正则化系数,现在优化的目标就转为 J(w) 函数了
  • 对上面的函数求导并令导数为0, 得到
frac{partial J(w)}{partial w}=2left(X^{T} X lambda Iright) w-2 X^{T} Y=0
  • 从上式不难得到:
hat{w}=left(X^{T} X lambda Iright)^{-1} X^{T} Y
  • 要更直观的理解 lambda 的作用, 可以假设每个样本只有一个属性, quad X^{T} X 就是一个实数, 所以:
hat{w}=frac{X^{T} Y}{X^{T} X lambda}, quad lambda>0

可以看到,随着 lambda 的增大, quad hat{w} 的值会渐渐减小, 对 hat{w} 起到了抑制作用

参考资料

  • https://zhuanlan.zhihu.com/p/86009986

0 人点赞